Как стать автором
Обновить

Комментарии 16

Прогноз на 2025 год: В связи с развитием AI и LLM работы для квалифицированных программистов станет.... меньше !И соответственно вырастит безработица

Эта этическая проблема появилась с изобретением трактора. Теперь один трактор собой может заменить 100000 человек с лопатами. Но в итоге безработные земледельцы, меньше стали жаловаться на голод.

Еще напомню, что от появления первой модели трактора до массового внедрения в сельское хозяйство прошло 40 лет.

Не забывайте о т.н. "Кривой освоения" (Adoption curve). Для механической техники (например, трактор) - это десятилетия, для цифровой - годы и даже месяцы.

Да и область внедрения нужно учитывать: трактор - тягловый агрегат, главным образом, для транспорта, или силовой (мобильный движок для приведения в движение разных механизмов). Г. Форд насчитал 95 функций (применений) трактора.

А для цифровой (компьютерной) техники трудно найти даже 5 областей, где компьютеры не применяются. А примеряются - от детских игрушек до космоса... Так что дело найдется всем, специалистов даже не будет хватать.

Всё так, на нехватку программ тоже жаловаться не будут. Но кому-то придётся переехать из офиса с печеньками в "город", "на завод".

Почему меньше то? При автоматизации труда труд становится дешевле, а значит работы становится больше. Сейчас программист делает за день то, на что 40 лет назад уходил месяц работы целого коллектива, но рабты меньше не стало - ее стало кратно же больше. Сейчас благодаря сеткам перформанс поднимется не слишком существенно, максимум на 10-20% в ближайшие лет 20. Пропорционально увеличится и количество работы.

@Moog_Prodigy

>Понятно, что существуют self-hosted LLM типа llama и другие, но они на порядок в "потребительских качествах" уступают продуктам OpenAi

Этот отрыв стремитально сокращается. Крупные ллм в принципе продукт мертворожденный и ни кому особо не нужный - опенаи и другие компании пытаются сейчас заскочить в уходящий поезд и получить хоть какойто гешефт. Лет через 5-10 про эти модели ни кто и не вспомнит, останутся исключительно специализированные селфхостед решения.

@BrNikita

> Почему-то написали, что fine-tuning отменяется, хотя набирает популярность у исследователей test time training (TTT) подход и вероятно в o3 его уже начали использовать

Не начали. Это не универсальный подход. Ну и ттт - это не файнтьюн совсем. На арк аги же о3 справляется за счет брутфорса. Другие модели с брутфорсом справляются не хуже.

Все эти проблемы безусловно, имеются, и галлюцинации - самая главная. Но забывают почему-то упомянуть о нулевой проблеме судного дня LLM : LLM вам не принадлежат, данные тоже, монополизация компаний может дать очень нехорошие тенденции. Понятно, что существуют self-hosted LLM типа llama и другие, но они на порядок в "потребительских качествах" уступают продуктам OpenAi. Хотя если допиливать системный промт, как то обрабатывать эти промты перед выдачей, зацикливать их - дает результаты сильно лучше, чем голые модельки.

Плохо: OpenAi может управлять миром (это не шутка, почти). Nvidia вообще флагман, но с таким подходом как бы первая не купила вторую, в долгосроке.

Хорошо: Они доказали что это (ИИ, вот это вот что сейчас) возможен, и на этом принципе клепать ИИ начали другие компании а то и энтузиасты.

Электростанция вам тоже не пренадлежит, но в силу привычки вас это не беспокоит.

Ну, если в такую аналогию, то маленькие электростанции под названием "дизель-генератор" или "бензин-генератор" имеют многие люди, и я в том числе. Всякое ж бывает. Если еще уменьшить масштаб, то есть различные электрогенераторы на мускульной тяге, где нужно просто вращать рукоятку. Солнечные панели, ветряки - тоже оно. То есть если вот просто край надо добыть э\э и не зависеть ни от кого - решение имеется)

Электростанцию интересуют только мои деньги. На них они купят уголь, выплатят ЗП персоналу, еще и сети всякие по пути Х10 от тарифа докинут. Им неважно, куда я трачу э\э - майню биток, работаю на станке, держу сервер или просто грею улицу. Их устраивает, меня устраивает - ноль проблемс.

В LLM все немножечко не так: вы можете обломаться с первым же запросом, потому что "я не хочу отвечать на этот и подобные вопросы, давайте поболтаем о чем нибудь другом?". Утечки из этих самых запросов - кто может гарантированно доказать, что их нет? Так называемый alignment может не просто запрещать ответы LLM, нет, но она будет отвечать ровно так, как этот самый alignment ей установили создатели. Пикабу видели? Развлекательный сайт, и неплохой вроде был но после покупки определенным лицом там все стало немножко не туда и не таким. Вот это самое и есть тот пресловутый базис, которым можно уже реально влиять на мнения людей через ответы.

 маленькие электростанции под названием "дизель-генератор"

"маленькую LLM" и вы себе можете позволить.

Электростанцию интересуют только мои деньги

Это тоже не так - электричество, если вы в РФ, вам поставляет государственная организация и есть огромный список чего вам можно делать, а чего нельзя. Попробуйте нарушить правила(законы) и отключение от сети это еще самое меньше что может случиться с вашим предприятием. Что касается alignment - у той же open ai, коммерческие контракты, в рамках которых вам дается и выделенные доступ и другие правила ограничения, отличные от публичной ChatGPT. Только платите и для вас сделают вашу собственную модель поверх базовой, например, без фильтра на описание химических реакций если это нужно для вашей работы.

Привет из 2025! Ну вот теперь DeepSeek-R1 вполне доступен для Self-hosted (по крайней мере его 8b и 32b варианты под 4bit)

Причем здесь о1 preview если уже вышла о1 и даже уже представлена о3. Потому если и будут равняется то уже на о3 которая вийдет в январе. Поэтому прогноз намного больше оптимизма. Ну и смотря что называть AGI, почему то кажется и вторая версия теста на AGI которая появится в первой половине года не продержится долго.

В api о1 не доступна.

Почему-то написали, что fine-tuning отменяется, хотя набирает популярность у исследователей test time training (TTT) подход и вероятно в o3 его уже начали использовать. В том же ARC Prize работа про TTT подход заняла второе место.

Ставлю на то, что в 2025 году такие подходы позволят вывести рассуждения моделей на новый уровень и можно будет говорить о достижении AGI.

Слишком дорого. Это десятки долларов на каждый вопрос. Допустимо для сложных ответственных вопросов, но для большинства задач не подходит.

AGI в каком понимании? В понимании уровня фантастов?

Вот у меня тут вопрос, по сути, что мы назовем AGI то им и будем считать. Нет же условно-четких критериев обозначения AGI. Да-да, там есть косвенные признаки, но их имитацию пришить не трудно. Опять же, сейчас люди забывают, что LLM всего лишь предикативная машина, по сути пытающаяся удовлетворить запрос человека перебором слов в определенной последовательности.

o-1 и прочие, что-то формата саморазмета варианта ответов, конечно это похоже на прототип мышления, но все равно, какие-то критерии понимать хотелось бы)

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации