Comments 34
полгода назад крепко подсела на курсор. но что-то он в последний месяц работает совсем дико и не может даже с цсс справиться
Но вот что нейросети пока не умеют — так это зарабатывать. Они не понимают, что хочет бизнес, не держат в голове десятки зависимостей и не учитывают ограничения. ИИ может сократить косты, но не может создать новую ценность. Он не понимает пользователей. Не чувствует рынок. Не придумывает фичу, которая выстрелит. Пока мы видим, что он отлично работает как инструмент поддержки, но вряд ли может заменить креативного и контекстного разработчика. И тем более — продуктовую команду.
Топовые мультиагентные сетки уже выигрывают бизнес-игры у кожаного с разгромным счетом, вот только недавно из заперещенной компании хвалились, Маск вроде тоже говорил об этом. Сетке разом доступны все знания кожаных, включая приватные (расскажите мне сказочку, что сетку не учат на переписках и прочих закрытых данных, которые есть в распоряжении корпораций), доступ к данным у железного надежный и мгновенный, чего нельзя сказать о кожаном.
В первую очередь это касается низкоуровневого программирования. Микроконтроллеры, прошивки для электроники — всё это требует индивидуального подхода. Тут нет стандартных решений, и у каждой задачи может быть уникальный контекст.
Там еще больше ехал шаблон через шаблон, а "история одного байта" потому и лежит в нетленке, что была один раз на миллиард железных задач. Еще чуток - и будет "сунул в ИИ даташит - вынул типовой HAL", и пиши приклад, больше о железе не вспоминая.
Установил я Gemini как асистента в телефоне.
Даю ему команду: "Установи таймер на 5 минут"
Всё ок, таймер на 5 минут установлен.
Следом ему говорю: "Оповести меня когда на таймере останется одна минута"
А в ответ: "Извините, я не могу это сделать"
Занавес.
Вот вам и причина, по которой они не заменят, по крайней мере точно не в ближайшее время:)
…но это временно ©
Этот тигр, ему 5 месяцев, он не кусает. Поэтому он никогда не укусит. Ога.
Извините, но ваш сарказм строится на том, что тигр точно вырастет и может изменить своё поведение... Но про нейросетки такого сказать однозначно нельзя :)
Да и про тигра нельзя. Может умереть рано, может быть совершенно неагрессивным. Все прогнозы всегда приблизительные.
Вот только на прогноз "нейросети остановились в прогрессе и точно не станут в два раза умнее" я бы деньги не поставил. Станут, без сомнения.
Ох, а давайте не будем? :)
Ведь тогда придётся вывести полное и непротиворечивое определение слова "ум"... А потом как-то прикрутить к нему количественные показатели :(
Не придется. Прогресс AI не так уж сильно зависит от того, сможем ли мы в комментариях придумать хорошее определение.
Какой бы бенчмарк вы не придумали, если он объективен и хотя бы частично доступен людям, AI сделают в нем прогресс за следующий год. Любой.
Конечно это не что-то, что я смогу математически строго доказать, но давайте вопрос проще. Можете ли вы придумать задачу, в которой AI не сделает прогресса? Что это за задача?
Соседняя новость
King, стоящая за культовой франшизой Candy Crush, готовится уволить около 200 сотрудников в связи с масштабными внутренними изменениями. Источники, знакомые с ситуацией, сообщили, что сотрудники таких отделов, как дизайн уровней и нарративные тексты, потратили годы на разработку ИИ-инструментов для ускорения рабочих процессов, а теперь эти же инструменты делают их роли ненужными.
Если смотреть на структуру ИИ то всё в основном определяется датасетами как основой для реализации, а она выражена на человеческом языке с возможностью вариаций. Поэтому, скорее всего, то что имеется сейчас будет крайне сложно масштабировать без изменения подхода к обучению ИИ и внутреннему представлению того что человек называет алгоритмом. Если посмотреть на техотчёт Дипсик [arXiv:2412.19437] - на обучение потрачено 3 млн машино-часов карточки H800, потребляющей, скажем 1 кВт (с учётом инфраструктуры) Итого имеем 3 ГВт*ч электричества для обучения только одной версии. Это конечно не сравнится с битком, но тенденция будет явная и скоро начнут все торговать некий токен-койн как монета для обучения ввиду ограничения ресурсов. Соответственно для более продвинутой потребуются уже сотни гигаватт-часов и сложность скорее всего растёт экспоненциально. Представьте главного админа, нажатие кнопки "learn" которого приведёт к годовой выработке условной Калининской АЭС.
почему 1ГВт*ч для обучения модели это много? модель учится один раз, новая версия выходит раз в полгода, а используется миллионами людей. По киловатт*часу на юзера в полгода это что, много?
Всё верно, зависит конечно от количества пользователей и на них можно переложить бремя затрат на электричество. И пока что пользователь готов за это платить, даже если будет миллион юзеров и с каждого по 100 руб месячной подписки получается 1e8 ₽, берём 5 руб/квтч получается 2e7 квтч или 2e10 втч или 2 ГВтч. Вообщем такой сбор покроет выпуск новой модели (только по электричеству без учёта серверных затрат, подготовку датасетов и команды). Но тут другой момент более существенный. Относительная скорость обучения падает с разрастанием серверной, так как длинный провод между стойками вносит свою задержку в десятки и сотни нс (это к тому что быстро и качественно обучать "распределённо" не получается). Плюс датацентр на 100 МВт это уже капитальное сооружение которое должно на 100% нагрузку отработать 20 часов только под задачу ИИ. Датацентр на 1 ГВт это уже что-то из разряда планов (кластер Prometheus, Lancium) с градирнями, ЛЭП под 500 кВ и кабельным хозяйством от Земли до Луны. И вот получается что потенциально имеется теоретическая предельная точка по объёму модели, потребляемой мощности и производительности, которая, как может оказаться, не привнесёт покрывающий эти затраты эффект. То есть просто хороший справочник и поисковик уже не актуален и требуется от сети качественно новый эффект синтеза нового нежели "понимания" имеющегося.
когда компуктеры были большими и питались перфокартами, тоже кто-то строил такие расчёты и обосновывал пределы вычислительной мощности. а оно вона как вышло.
Так собственно расчёты в полной мере оправдались. Тактовая частота вычислителя и атомарных операций не растёт с начала нулевых и остаётся на полке 2-3 ГГц. Транзисторы GAA и прочие FinFet в экспериментальном варианте с субмикронными нормами это конец 90-х. Тогда собственно и было предсказано насыщение. Всё остальное - тонкая доводка. Как были редакторы образца Turbo C так и остались, как вводили программы перфолентой так и сейчас построчно набивать экран шрифтами. Концептуально мало что изменилось за эти 20 лет, проблема выросла вширь за счёт бо́льшего количества элементарных операций на кристалле. Параллелизм это уже финишняя черта развития. Вверх пластины не пойдут даже с интерпозерами, так как тепло отвести невозможно с плотностью под сотню Вт на кв. см., это преимущество только накопители-флешки. То есть всё что можно выжать уже практически выжато на классической технологии. Остаются квантовые и потенциально криогенные многослойные системы а также аналоговые предварительно обученные нейропроцессоры, но это уже отдельная не перфокартовая история.
Сейчас использую агента в двух ситуациях
Первая - надо написать что то со слишком редким для меня синтаксисом. Например, разбор дерева выражений или рефлексия по динамически генеренному коду.
Вторая - я устал и больше не в состоянии активно формировать код влезая в детали, а задача пока не требует вылизывания и довольно линейная. Например, это тесты, небольшие очевидные фитчи или POC.
В этих двух случаях ускорение реально в разы.
В остальных случаях ощущение как описано в статье - проще сразу сделать нормально самому, чем пересматривать пять итераций с агентом.
Однако видно, что возможности агентов прирастают со временем, как и опыт их использования. До какой точки этот процесс дойдет, пока не ясно.
Вы описали в некоторой мере метод формирования кода по данным, некий аналог синтеза по таблице истинности или конечного автомата по его диаграмме переходов. Если ИИ научится по индукции проверять код на заданные ограничения (исключение глюков), проводить локальное тестирование, выбирать между производительностью и объёмом памяти (ресурс-ориентированный подход), синтезировать алгоритм по промптам из разряда n, n log n, n^2, то тогда уже "проще самому" отойдёт на второй план. В этом случае почти не важна база на которой он это пишет, будь хоть Лисп, Бейсик или Верилог. Главным будет результат теста, бенчмарки и соответствия выходным данным (по сути ТЗ) в виде формального описания и того что обычно кладут в assertion или debug-обёртки, включая различные исключения.
ИИ не заменит того, кто думает.
Вот на каком основании такое утверждение? ИИ-программисту сейчас 2 года от роду. 2 года! Это просто пробные эксперименты пока. Когда появился автомобиль, тоже скептики утверждали, что нельзя ехать быстрее 5км/ч, а то люди сойдут с ума и перед автомобилем обязан был идти человек с флагом. Какого уровня достигнет ИИ-программист через 5-10 лет никто не знает. Но наверняка все описанные проблемы будут решены. Их решение уже сейчас просматривается.
Согласен, что сейчас ИИ это джун. Сам так им и пользуюсь, как будто у меня бесплатный толковый джун в помощниках.
Однако живого джуна надо растить и учить лет 25, платить ему зарплату, и ещё он был отобран из не самых глупых человеков. А тут бесплатный по щелчку пальцев.
я думаю все дело в размере обрабатываемого контекста и стоимости обработки, с каждым днем все лучше и больше можно обработать/заместить с помощью ИИ, также не все могут работать с ИИ, уметь организовать работу ИИ, это сравнимо с умением организацией работы целого отдела...остается учиться этому и развивать ИИ
ИИ (не) отнимает работу у разработчиков, или Почему вас пока не уволят