Да, с учетом что процентов 70% работодателей не совсем понимают, что они разрабатывают и зачем - это самый правильный совет.
Так же на российском рынке, где средняя з\п далека от запада (а навыки решения задач примерно сопоставимы), этот совет не дает ничего.
Чтобы убедится в ужасающие ситуации, достаточно почитать описания вакансий.
Например:
1) Знание и опыт работы с RabbitMQ - боже, 4 понятия - сообщение, канал, подписка, и поглощение сообщений. Ну и Exception-ы при обработке сообщений
2) Опыт работы с MongoDb - то же самое, XPath, запросы, и прочее )
Попробуйте ради прикола выставить среднюю ЗП (тысяч 6 долларов, с учетом что вы - чуть ли не бог, да и средний программист), и увидите, как Работодатели исчезнут.
Потому что супер-бизнес не имеет таких денег, потому что делают всякие бесполезные продукты.
В принципе, получая алгоритмы аналогом DreamCoder можно прийти к гораздо более лучшим результатам, чем Дистиллированный Трансформер Илона-Гейтса ).
Всё NLU весит под 100-200 мегабайт (синтаксис, синонимы (и даже любые другие отношения выраженные в координатах)), Q&A, etc). Преобразование Язык -> запрос -> обработчик запроса -> результат напрашивается сам собой.
Вообще большие модели работают только благодаря квантизации (quantization) (правда, даже на телефоне в оффлайн).
Тот же Китай публиковал результаты обучения мультимодальной сети на каком-то своем фреймворке, и там было скорее описание того, как они это все распараллелили.
«AI-тренер — это профессия будущего, которая требует экспертизы в области искусственного интеллекта (ИИ) и работы с текстом. Мы ищем таких специалистов, потому что разрабатываем YaLM 2.0 — нейросеть следующего поколения, которая будет работать в «Алисе», «Поиске» и других наших сервисах. AI-тренеры помогут нам выйти на качественно новый уровень обучения ИИ. Современные нейросети получают знания о мире из интернета, но, чтобы научиться их применять, нужен хороший тренер», — сообщил СМИ руководитель управления машинного интеллекта и исследований «Яндекса» Алексей Гусаков.
Это разметчики данных, которых, учитывая всякие Apache Spark (который делает синтаксический разбор на всех языках, и прочие coref), целая гора? ).
А делать генерализацию вопросов-ответов кто не дает(summarization)? ) Это знатно повысит качество текстов. Да еще с кросс-энтропией ).
Или ведущие ИИ корпорации собираются перепечатывать весь интернет? )
Источники внутри «Яндекса» пояснили, что зарплата одного такого сотрудника в Москве с учётом всех надбавок и бонусов может составлять около 150 тыс. рублей в месяц.
Удивительно, целых 2 тысячи долларов. Я вот сдавал экзамен на PhD vacancy (C++, з\п от 4 тысяч долларов) на 90%.
Уровень Яндекса оказался Значительно выше ). Яндекс - и не Google, но еще и не DreamCoder(DARPA).
Да, надо как-нибудь сделать чтобы все сводилось к рядам ).
Низкая точность - добавьте слоев.
(del)
Да, с учетом что процентов 70% работодателей не совсем понимают, что они разрабатывают и зачем - это самый правильный совет.
Так же на российском рынке, где средняя з\п далека от запада (а навыки решения задач примерно сопоставимы), этот совет не дает ничего.
Чтобы убедится в ужасающие ситуации, достаточно почитать описания вакансий.
Например:
1) Знание и опыт работы с RabbitMQ - боже, 4 понятия - сообщение, канал, подписка, и поглощение сообщений. Ну и Exception-ы при обработке сообщений
2) Опыт работы с MongoDb - то же самое, XPath, запросы, и прочее )
Попробуйте ради прикола выставить среднюю ЗП (тысяч 6 долларов, с учетом что вы - чуть ли не бог, да и средний программист), и увидите, как Работодатели исчезнут.
Потому что супер-бизнес не имеет таких денег, потому что делают всякие бесполезные продукты.
Интересное сообщество, обошел MatLab и остальную чернь в алгоритмах - 20 минусов xD
Приделал пару команд к боту - MacAir :)
Ребят, а откуда минуса?
Вообще все тупорылые, некоторые умнее, а некоторые совсем умные, как NSA )
Язык безопасный, либы и среда - нет ).
И в общем-то можно легко переписать и либы, и среду, (и, надеюсь, даже среду исполнения, учитывая магическое as state machine :) ) спасибо прогрессу.
Почему не на ChatGPT/DreamCoder? NSA опять оставила всех далеко позади, ползти, за призрачными шансами....
Ого, так вот за что Ротшильда (Агента-57) убили в Швейцарии?
Ого, это лучше оффлайн-версии?
60% шанс получить г-но :)
Какие-то слишком сложные выводы и формулы :)
Вы не понимаете, на самом деле нет правильных практик
Ну да, вот большие корпорации любят тратить 2 доллара а не 10 центов на амортизацию оборудования и электричество )
Вообще все эти Мы обучили такую же сеть напоминает:
https://youtu.be/cuxZ2u8-WXg?t=54
Ну а ловкий трюк с вольфрамом?
В принципе, получая алгоритмы аналогом DreamCoder можно прийти к гораздо более лучшим результатам, чем Дистиллированный Трансформер Илона-Гейтса ).
Всё NLU весит под 100-200 мегабайт (синтаксис, синонимы (и даже любые другие отношения выраженные в координатах)), Q&A, etc). Преобразование Язык -> запрос -> обработчик запроса -> результат напрашивается сам собой.
Вообще большие модели работают только благодаря квантизации (quantization) (правда, даже на телефоне в оффлайн).
Тот же Китай публиковал результаты обучения мультимодальной сети на каком-то своем фреймворке, и там было скорее описание того, как они это все распараллелили.
1) А не дороговато ли прогнозировать уровень энергопотребления нейросетями? )
Тем более необходимо иметь много данных, а нагрузки на сеть растут, характер потребителей меняется, а 100 МВт в час это более 33 млн в час по деньгам.
2) А зачем подбирать активирующую функцию если данные об энергопотреблении - дай бог 20 мегабайт? ) И все обучается на домашнем ПК за минуты.
3) Почему не кластеризация и полиноминальная регрессия? (более адекватная к изменениям модель)
Т.е. не догнали даже gpt 3.5? ) А уже GPT 4, да еще и с Wolfram )
Особенно понравилось про
А можно вопрос дилетанта?
А вот если DreamCoder лучше Вас, несравненного Израилевича и всех остальных в алгоритмах, какой нам-то толк читать про это?
Все же сложится покруче Twitter-а (Который еще будет дожимать Илон Маск, создатель ChatGPT) :)
Это разметчики данных, которых, учитывая всякие Apache Spark (который делает синтаксический разбор на всех языках, и прочие coref), целая гора? ).
А делать генерализацию вопросов-ответов кто не дает(summarization)? ) Это знатно повысит качество текстов. Да еще с кросс-энтропией ).
Или ведущие ИИ корпорации собираются перепечатывать весь интернет? )
Удивительно, целых 2 тысячи долларов. Я вот сдавал экзамен на PhD vacancy (C++, з\п от 4 тысяч долларов) на 90%.
Уровень Яндекса оказался Значительно выше ). Яндекс - и не Google, но еще и не DreamCoder(DARPA).
Ого, я думал есть какие-нибудь другие способы устроиться на работу.