Комментарии 305
Нет, нельзя. Я попросил ChatGPT посчитать мне маску для CAN Identifier, чтобы была фильтрация сообщений. И попросил после проверить другие Message ID, которые не должны входить в заданный промежуток. В итоге логическое И он смог выполнить правильно только с третьей попытки, сперва вообще его не выполнив, потом выполнив логическое ИЛИ.
Эта задача очень простая и расчет был, что ChatGPT позволит потратить меньше времени. В итоге, мне кажется, я потратил на эту задачу больше времени, чем сделал бы это сам.
Я не разбираюсь в CAN, но выглядит как будто модель o3 вполне себе справляется с этой задачей. https://chatgpt.com/share/67a517fc-88e8-8007-a9f3-e1728d764cf6
Я не разбираюсь в CAN, но выглядит как будто модель o3 вполне себе справляется с этой задачей.
Ключевые слова — «не разбираюсь» и «выглядит».
Ключевое - различие в значении слова "справляется" в разных диалектах русского (как минимум техническом и повседневном точно, но, скорее всего, и внутри каждого из них различий тоже хватает).
И это прикол всех больших языковых моделей. Они выдают результат который кажется правдоподобным.
Больше всего бесит то, что если вопрос действительно сложный, и модель на него не знает ответа, то она начинает пытаться выкрутится и сочинять на ходу.
О том и речь: для тех, кто не разбирается, оно и правда выглядит правдоподобным. А потом ракета взрывается, самолёт разбивается, а ИИ — в домике!
так мне ИИ и нужен в первую очередь для того чтобы написать что-то в чем я не разбираюсь.
Три идиота (2009) - Чатур произносит вступительную речь на дне учителя:
нужен в первую очередь для того чтобы написать что-то в чем я не разбираюсь.
А научиться и начать разбираться (ну, хотя бы чтобы галюны от годноты отличать) — это типа не для реальных пацанов?
Был один такой персонаж (который не разбиралася и не хотел)
(Спойлер: плохо кончил.)
И это прикол всех больших языковых моделей.
Это — не прикол, это — следствие.
Следствие того, что ИИ — это искусственная интуиция, а не интеллект.
Они выдают результат который кажется правдоподобным.
Именно так и работает интуиция.
del
Я работал с ЧатГПТ в радиоэлектронике, где я ничего не понимаю. В целом, он даёт дельные советы и рекомендации, и кое-что может набросать. Проблема в том, что он легко ошибается и выдумывает, а я об этом не знаю, потому что зеленый в этой области.
В программировании помогает больше, потому что я обычно вижу, врёт или нет.
Думаю, что технология классная, и она будет везде, но нужно несколько лет, чтоб устаканилось.
Вряд ли устаканится. Это никакой не ИИ, это всего лишь новый уровень поиска с анализом, который часто выходит боком в виде необоснованных фантазий модели.
Беда в том что многие верят и радуются ответам, не понимая что это подстава, которую надо очень внимательно проверять.
Как раз это ИИ. И он не ищет, он генерирует и именно по этой причине и страдает "галлюцинациями". Люди тоже таким страдают. Например сон рождает галлюцинации, называемые снами, а ещё есть ложные воспоминания, попытки угадывания как у студентов на экзамене и пр. Это фактически общая черта как искусственного, так и естественного интеллекта. И по этой причине он даёт отличные результаты когда нужно что-то придумать и ужасные когда речь заходит о фактах. Возможно со временем количество таких "галлюцинаций" снизится, но они никогда не исчезнут. А значит его придется все равно перепроверять и контролировать, как это происходит и с людьми. Не будет волшебной кнопки "сделать зашибись". И конечно не нужно путать ИИ и искусственный разум (или сильный ИИ). Первый вполне себе существует сейчас, второй не факт что вообще появится в обозримое время. А если появится, то не факт что будет сотрудничать с людьми.
А я, надеюсь, доживу до этого времени, когда импланты в мозг помогут сознание расширить железом, а в идеале полностью перенести.
Предполагаю, что этот процесс будет чреват потерей части информации. Но это не страшно. Это значит лишь, что наш мозг сам уже "забыл" ее. И искусственный разум будет помогать людям в этом процессе переноса.
В агрессивность сверх интеллекта относительно людей я не верю. Скорее будет наоборот. Это люди будут проявлять агрессию против "новых" ИИ-людей. И если война и будет, то только между старыми и новыми человеками. Обычно самые агрессивные люди - малограмотные.
Как раз это ИИ. И он не ищет, он генерирует и именно по этой причине и страдает "галлюцинациями".
Как раз это не ИИ!
Он именно что ищет - отключите ему языковую модель, много он вам нагенерит?
Генерит ответы он уже из найденных кусков. Соответственно - чего нет в базе данных, того не будет и в выдаче. Отдельным бонусом идёт вероятность нагенерить шизофазии из корректно найденных кусков))
Я ДипСик погонял и в хвост, и в гриву - и на фактах, и на логике, и на фантазировании... В данный момент(!) его практическая ценность для меня на уровне... Акинатора)) Тоже по началу есть вау-эффект, который очень быстро сменяется зевотой... В "данный момент" выделил потому, что тут очевиден количественный рывок (модели будут всё более объёмными), которой опосредованно перейдёт в качество. Но каким либо "интеллектом" тут и не пахнет...
Так ведь и человек генерит из "кусков". Ребенок так же ничего не нагенерит, и рисует обычно каракули без всякого смысла.
И человеку надо время сформировать свою модель, к тому же она у всех разная: врач, бухгалтер, историк ...
Уверен, что увеличение мощностей(не только для текста но и визуальных образов) и улучшение алгоритмов, приведут ИИ к неотличимым результатам.
Так ведь и человек генерит из "кусков". Ребенок так же ничего не нагенерит, и рисует обычно каракули без всякого смысла.
Причём здесь ребёнок??? Здесь готовый продукт лажу генерит! А вы в качестве контраргумента с ребёнком сравнивать будете? А чего не с тараканом?
И человеку надо время сформировать свою модель, к тому же она у всех разная: врач, бухгалтер, историк ...
Опять подмена понятий)) Т.е. тот факт, что нейросеть именно ищет, а не генерирует - сомнений не вызывает?
Вот зачем вы проводите прямую аналогию с человеческим интеллектом? Тут очень мало похожего. Частенько надо ровно наоборот - абстрагироваться от предыдущих знаний, поскольку они могут мешать взглянуть на задачу с неожиданной стороны. Ровно то самое, на что нейросети в принципе не способны))
Уверен
Ну это уже ваша проблема. Кто-то и в плоскую землю верит....
приведут ИИ к неотличимым результатам
Неотличимым от чего? Второй Исаак Ньютон появится?
Здесь готовый продукт лажу генерит!
Это вы его считаете готовым продуктом, у меня нет такого мнения, и оно больше сходится с мнением компаний помечающих эти продукты как "оно может выдавать неверные результаты".
факт, что нейросеть именно ищет
Этот факт мне неизвестен, как и всем остальным. Нейросеть использует готовую модель, обученную на данных отфильтрованных людьми, и эти модели имитируют работу нейронных связей человеческого мозга.
абстрагироваться ... на что нейросети в принципе не способны
Успешность нейросети в этом направлении ограничена вычислительными мощностями и уровнем развития алгоритмов, а не принципиальной невозможностью. Человек не абстрагируется от знаний, а переключает стратегию поиска решений. Никто не предоставит бесплатно такие вычислительные ресурсы.
И да, будет лучше чем Исаак Ньютон. Эволюция это называется.
Это вы его считаете готовым продуктом, у меня нет такого мнения, и оно больше сходится с мнением компаний помечающих эти продукты как "оно может выдавать неверные результаты".
В прод вывалили? Вопросы? И у меня ничего не помечено.
Этот факт мне неизвестен, как и всем остальным.
А чегой-то вы за всех расписываетесь? Всё, аргументация закончилась? Вам выше писали тоже самое.
и эти модели имитируют работу нейронных связей человеческого мозга.
И близко ничего похожего! Звучит, конечно, красиво - нейро! Но как, например, эмулируется синапс?
Человек не абстрагируется от знаний
Ещё как абстрагируется. Просто берут и отбрасывают тезис о том, что Земля плоская. Или о том, что через точку не лежащую на данной прямой можно провести не более одной прямой, параллельной данной. Или что классическая механика применима к окружающему миру во всём диапазоне масштабов. Ну и т.д. и т.п.
Человек не абстрагируется от знаний, а переключает стратегию поиска решений. Никто не предоставит бесплатно такие вычислительные ресурсы.
Для переключения стратегии нужны какие-то небывалые вычислительные ресурсы? Только что сами придумали?
И да, будет лучше чем Исаак Ньютон.
Очччень большие сомнения в этом есть. Не, я так-то только за - подождём десяток лет, загрузим в них всю известную матчасть... и просто посчитаем вселенную - так что ли? Ну надеюсь получится поэффективнее, чем с управляемым термоядом, а то пол века уже ждём...
Эволюция это называется.
- естественный процесс развития живой природы
Но как, например, эмулируется синапс?
ИИ имитирует генерацию выходных данных, а не повторяет строение. Я не утверждал что механика алгоритма и матрицы весов в точности повторяет биологию мозга.
Для переключения стратегии нужны какие-то небывалые вычислительные ресурсы
Нет, а для повторной генерации решения еще как нужны, а если этих стратегий 100?. И GPT-4 с 1.7Трлн параметров, как то сильно уступает десяткам млрд нейронов и сотням трлн синапсов человека(с питанием от батарейки). И это не бесплатно.
Эволюция так же бывает технологической и какой угодно.
А чегой-то вы за всех расписываетесь?
Кто мне может запретить поступать так же как это делаете вы?
А то что вы не видите плашек(gpt, gemini) или описаний в более развернутых документах, выражаясь вашим языком: это ваши проблемы.

Очень большой скепсис меня одолевает в этом плане... Особых прорывов в нейрофизиологии пока не наблюдается, чтобы так вот запросто слепить математическую модель мозга. Я бы тут (но это, конечно, глубочайшее имхо) вообще больше ставку на квантовые компьютеры сделал...
Но давайте рассуждать о том, что мы имеем по факту. Я знаю что такое "постоянная Капицы" ;)
А по факту сейчас и это близко мозг не напоминает. Я, конечно, могу это применять в ряде задач уже прямо сейчас (но с рядом оговорок, разумеется), но я так же вижу и ряд просто фундаментальных ограничений (в сравнении с "белковым мозгом"). Которые не решаются простым увеличением вычислительной мощности.
Эволюция так же бывает технологической и какой угодно.
А зачем вы подменяете понятия? Это вы так научно-технический прогресс обозвать решили? Потому что эволюция - это всё-таки несколько иное.
Кто мне может запретить поступать так же как это делаете вы?
Хм... Вы даже на риторические вопросы отвечаете. А вот вопрос "посчитают ли нейросети вселенную?" почему-то проигнорировали...
Кто может запретить? Ну не знаю... Навскидку - санитары ;)
Я-то как раз стараюсь даже общеизвестные факты подавать как "имхо", а вы сразу "этот факт никому не известен". Ну мне, как минимум, известен. Сама нейросетка признаётся что её можно рассматривать как аналог википедии))
А то что вы не видите плашек(gpt, gemini) или описаний в более развернутых документах, выражаясь вашим языком: это ваши проблемы.
Я вот это вижу:

А ещё вот это:

Оно мне с ходу предложило себя монетизировать путём платного составления диет))

Это хорошо что вы о санитарах вспомнили. Самое время 😂
А теперь вопрос - почему вы исходите из того, что "общеизвестный факт" и "этот факт" - это один и тот же факт? Уточнение "даже" наводит на мысль, что не один и тот же.
Воткстатида. Со всплеском популярности жыпытей вижу увеличение количества человеков, которые идут к нему со своими вопросами, как к оракулу, при этом воспринимая ответы как истину в последней инстанции даже когда там явный бред написан.
Мне, например, абсолютно очевидно, что упомянутые «общеизвестные факты» — одни, а «этот факт» — другой. Например: «Я даже лесные орехи аккуратно раскусываю — а вы пытаетесь грецкий орех с первого раза раскусить».
Я попросил ChatGPT посчитать мне маску для CAN Identifier, чтобы была фильтрация сообщений...
"Не правильно ты, дядя Фёдор, бутерброд ешь" (c)
Нейросеть нужно просить не "напиши мне маску для фильтрации сообщений",
а нужно попросить "отфильтруй мне сообщения":
нейросеть не должна писать программу
а, нейросеть сама должна полностью заменять программу
Пользователю нейросети не нужны "красивые шашечки",
пользователю нейросети нужно "ехать", а что там под капотом ему не интересно:
нейросеть не просят "напиши мне программу, которая нарисует котика"
нейросеть просят "нарисуй мне котика", а код который рисует котика пользователю не нужен.
Замена программистов нейросетью - это:
не нейросеть которая пишет программный код
а это нейросеть, которая на ходу генерирует интерактивное видео с работающей программой
Это верно, мы сфокусированы тут на коде, а ИИ могла бы работать с продуктом целиком, включая и аппаратно-административную часть. Энтакий рабочий, но сильно черный ящик.
Энтакий рабочий, но сильно черный ящик.
Угу, а современные крупные системами с тоннами легаси ни разу не черный ящик, да. Ведь чисто гипотетически кто-нибудь когда-нибудь может сделать полный анализ легаси-кода (потому что документацию пролюбили еще 15 лет назад). Делать это в реальности никто, конечно, не будет
емнип лет 15 назад здесь была веселенькая статья о реверс-инженеринге советского достояния - нефтяного завода. Рекомендую найти почитать, тем более в пятницу). Завод как черный ящик.
Но тут вопрос в другом - легаси все же имеет шансы быть разобранной на привычные нам кирпичики принятой инженерной школы, тогда как результат работы ИИ уже может требовать наличия другой инженерной школы вообще и вариативность там очень высокая. Насколько я слышал в схемостроении и прочем *-строении уже с этим столкнулись, что ИИ перестает мыслить в наших парадигмах, а его подход нам для сколь нибудь быстрого анализа уже недоступен.
Но ведь легасичёрныйящик выдает детерминированный результат. А если выясняется что результат неверный, есть возможность (хотя бы теоретическая) выяснить где именно проблема и может быть даже её скорректировать.
В случае с нейрочернымящиком, результат недетерминированн и каждый раз будет разным. Более того, принципиально невозможно определить что именно пошло не так. Поэтому придется 100% результатов валидировать, а затем для каждого невалидного изобретать индивидуальную коррекцию.
Но ведь легасичёрныйящик выдает детерминированный результат
Если в коде гонки из нескольких процессов - он нифига не детерменированный
Верное замечание. Теперь можно продолжить чтение моего комментария далее первого предложения )
Детерминированный, просто условия гонки надо проанализировать: вместо одного возможного результата будет несколько — и получения одного из них можно добиться путём применения строго дозированных внешних воздействий.
Если условия зависят от железа (например, какая-то функция выжирает оперативку и залазит в своп) или сетевых задержек - гарантировать что-либо становится маловозможным
У меня был кейс, когда рендерилась страничка, в ней условно десяток компонентов, которые стучались в разные апи. И обменивались информацией, вытягивая данные из DOM по селекторам с таймаутами
Лютый говнокод, но так исторически сложилось
В итоге проще было переписать с нуля, чем рахобраться, почему оно иногда падает
Если я сохраню от картинки, нарисованной в Stable Diffusion, не только prompt, но и все остальные параметры, включая seed, я даже на другой машине смогу в точности повторить результат.
С языковыми моделями аналогично. Просто на вход вы ей в реальности подаете не только то, что сами написали, но и некую случайную величину. Но при действительно полностью фиксированном входе и результат будет в точности такой же.
Только если у вас точно такие же гигабайты весов на другой машине. Поскольку их постоянно дорабатывают/дообучают и переделывают, то вам все эти гигабайты тоже придется с каждым вашим "приложением" копировать.
Ну и вишенка: ошибки округления на разном железе могут быть немного разные, так что даже при тех же seed и весах, оно может выдасть вам совсем другой результат. Так что еще и видеокарту добавляйте к гигабайтам входных данных.
Только если у вас точно такие же гигабайты весов на другой машине
Вы имеете ввиду, что для получения того же результата помимо промпта должна использоваться та же самая модель? Разумеется.
Не вижу отличия замены модели от замены традиционной программы. Большинство пользователей точно так же заметит замену MS Office на Libre Office (будет похоже, но с нюансами).
Я понимаю, к чему вы клоните. Более того, в целом я с вами согласен. Сам категорически отказываюсь, когда меня просят добавить ИИ там, где можно обойтись обычным алгоритмом (пусть это и дольше ваять, нежели тупо скормить данные ИИ в надежде, что он что-то путное выдаст).
Я всего лишь пытался показать, что "недетерминированность" связана с наличием дополнительных параметров, о которых обычно не задумываются. Более того, если глубже копнуть, становится вполне понятно, почему при смене seed в том же Stable Diffusion картинка зачастую меняется кардинально. И в действительности можно даже примерно предсказать, что на каком сиде получится.
Вы имеете ввиду, что для получения того же результата помимо промпта должна использоваться та же самая модель? Разумеется.
Не вижу отличия замены модели от замены традиционной программы.
Разница в том, что модели раз в 100 объемнее и неделимы. Если вы модель чуть дообучите лучше решать логические задачки, то ее поведение в генерации сайтов-открыток непредсказуемо поменяется. Поэтому для воспроизводимости вам нужна будет отдельная сетка под каждую задачу, что тем более невыполнимо.
Я отвечал на
В случае с нейрочернымящиком, результат недетерминированн и каждый раз будет разным
понимая это как наезд в стиле "спрашивали одно и то же совершенно одинаково, но каждый раз получали разный результат".
Так вот, я считаю, что проверить, что результат таки детерминированный (каждый раз одинаковый при абсолютно одинаковых вводных) - можно.
Дообучение именно модели, всякие эмбеддинги для натаскивания на специфические задачи - отдельные большие темы, не относящиеся к поднятому вопросу детерминированности.
Тем более, что держать огромную модель, чтобы много раз спрашивать одно и то же, рассчитывая получать один и тот же результат - вряд ли практическая задача.
Ну т.е. я с вашими аргументами согласен, но они про другое.
Я делал If на нейросети, главная фича - нечеткий запрос. То, что надо для ранжирования ответов другой нейросети (или той же самой но в другом промте).
Вот как он выглядит:
"zapros" = ("Ты прочитал этот текст. Ответь, структурирован он как список, или это текст непрерывный? Если текст по большей части представляет собой список с пунктами, напиши мне "struct". Если текст не похож на список, напиши мне "техt". Больше ничего не пиши, только свой ответ.")
Далее мы делаем несколько прогонов этого промта на одинаковых вводных. Как раз для того, чтобы исключить влияние случайного сида. В тупом скрипте проверяются совпадения на длину ответа (если больше len("struct") то результат отрицательный), на слова "struct" и "text", при совпадении двух или более проверок принимаем решение выполнять ветку. И это типа оператор IF. А что вы хотели? По другому никак.
Это долго. Это можно только на локалке делать, ибо токенов жрет сотнями тысяч.
На самом деле, сплав llm и автоматизации может породить новый ЯП. Не тот, о котором недавно была статья, типа "новый ЯП - естественный язык". А вот такой, специализированный, с нечеткой логикой.Конечно выглядит это как фреймворк над фрейморком, и жестокий оверинжиниринг, но это не для точных расчетов, а именно для нечетких задач, типа написания текстов или саммари. Один из столпов, которые еще не осилили компьютеры - но надеюсь осилят.
Смешно выглядят те, кто пишут нейронке "напиши мне программу", выбирают какую то всратую нейронку, она им что-то там кодит, а они потом пишут сотни статей "почему нейронки - говно" или наоборот "скоро заменят всех программистов". Ну неправильно они этот инструмент используют. Они видят это не как инструмент, а как конечную точку - отправил запрос, и кнопка "сделать хорошо". О том, что нейронки кого то там заменят орут только инфоцыгане. У них и джунов хватают любые работодатели, и нейронка заменит джуна, и молочные реки и кисельные берега. Нет. Это лишь инструмент, метаязык программирования если хотите. Бейсик современности (о сколько ругались "настоящие программисты" на бейсик!).
Но ведь легасичёрныйящик выдает детерминированный результат
Бывает и иначе
нейросеть не просят "напиши мне программу, которая нарисует котика"
нейросеть просят "нарисуй мне котика", а код который рисует котика пользователю не нужен.
Угу. То есть, не "напиши мне программу, с помощью которой я буду общаться с друзьями", а "общайся со мной вместо друзей"?
Просьба к минуснувшим молча, привести хоть один реальный пример, когда пользователь попросил нейросеть "напиши мне программу которая рисует котика".
Может минусуют по той причине, что контекст поста - замена программистов в написании программ, а не выполнение отдельных повседневных задач? Пользователи системы вообще в курсе про какой-то там CAN-identifier, который нужно отфильтровать, или они просто работают с теми данными, содержание которых изначально выбрал аналитик?
Нам всё ещё нужен графический интерфейс, который необходимо разрабатывать, сейчас невозможно функционал любой системы один-к-одному переложить в чатбот.
контекст поста - замена программистов в написании программ
Нет, замена программистов = отсутствие необходимости в написании программ, а "нейросеть пишущая код программы - это робот запряжённый в карету вместо лошади".
Много вы видите на улицах карт в которых запряжены лошади? Лошадь и карету заменили на автомобили, а не запрягли вместо лошадей роботов в кареты.
Перспективы у нейросетей пишущих код - как у робота запрягаемого в карету вместо лошади.
Но вы не предлагаете машиной заменить карету, вы предлагаете нанять слугу, который "ну как-нибудь там" будет вместо вас возить грузы и людей.
Тому кто хочет, чтобы его отвезли - не важно что и как будет делать слуга, и будет ли робот вместо лошади. Если нейросеть вместо написания кода, наймёт индусов AI нанимает человека для решения капчи, потому что сам не смог её решить , пользователя - это полностью устроит. ^__^
Просто код лишний в этой схеме. Стало возможным создавать системы иного типа, как интеграция нескольких нейросетей, одна из которых LLM, другая распознает чеки/приходники и прочих входящий поток, голосовая LLM для диалога с пользователем и клиентом, нейросетка правильных проводок и еще одна сверху для обучения хорошему и расшивки "непознанного". В опытно-промышленном масштабе это уже работает как небольшой полностью автоматизированный магазинчик. Для ввода нового товара или новой акции не нужно прогамировать, обычным языком рассказал, прошел тестовый цикл продажи и сказал "запомни и делай так". Мне рассказывали как набивали перфокарты, сам немного пописал на ASM и сейчас, когда в Low Code без знания регистров и подсчета пушей в стек, просто мышкой накликиваются и натаскиваются вполне себе производственные системы. Да это за счет чудовищной, по меркам 90-х вычислительной работы и расхода памяти, где те 640 килобайт и "верхняя память" с "кучей", ничего этого просто не нужно, отмерло.
код лишний в этой схеме. Стало возможным создавать системы иного типа, как интеграция нескольких нейросетей
Именно так! А нейросеть пишущая код - это робот запряжённый в карету вместо лошади.
Стало возможным создавать системы иного типа, как интеграция нескольких нейросетей, одна из которых LLM, другая распознает чеки/приходники и прочих входящий поток, голосовая LLM для диалога с пользователем и клиентом, нейросетка правильных проводок и еще одна сверху для обучения хорошему и расшивки "непознанного". В опытно-промышленном масштабе это уже работает как небольшой полностью автоматизированный магазинчик. Для ввода нового товара или новой акции не нужно прогамировать, обычным языком рассказал, прошел тестовый цикл продажи и сказал "запомни и делай так"
Статьи про это на Хабре ещё нет?
Про агентов есть, читал что-то такое. Но чаще всего сложно написано или непонятно.
Я тоже считаю, что будущее за ансамблями из нейронных сетей. Когда сотни нейросеток, работающих совместно, будут успешно заменять множество людей.
Причем нейронки будут с узкой специализацией. Одна, идеально работающая с распознаванием, другая - заточенная на общение с людьми, третья очень хорошо считает, четвертая профи в работе с бд и т.д.
При этом, считаю, что нейросеть, пишущая код - тоже нормальное явление. Сравнение с роботом, запряженным в карету, не совсем корректно. Вы под каретой подразумеваете язык программирования. Если его убрать, то что останется?
Если убрать вообще все, то нужна будет нейросеть - операционная система. Способная обрабатывать ввод/вывод, управлять памятью, создавать драйвера для подключаемых устройств и т.п.
Мне трудно представить нечто подобное. Людям до таких систем далеко.
непонятно, за что минусуете человека?
И всё это требует мощного сервера, жрущего кучу электричества, вместо простенького микроконтроллера...
А можно примеры таких магазинов?
замена программистов = отсутствие необходимости в написании программ
Ну да, ну да

привести хоть один реальный пример, когда пользователь попросил нейросеть «напиши мне программу которая рисует котика».
К сожалению, найти ссылку не могу (гугль выдаёт N страниц «Кандинский рисует реальную кошку»), но реально такое было, ещё в самом начале всего этого нейрошума.
на текущем этапе развития нейросетей эта идея малопригодна к использованию. Малый контекст и скорость не позволяет обрабатывать тех объемов информации и получать ту точность что можно получить кодом.
На текущем этапе производительности железа. Нейронки это, грубо, веса и целочисленная арифметика. Мой первый комп не мог mp3 воспроизводить, хотя вин 3.1 на нем все же загружалась. Работала - не скажу, было очень некомфортно/медленно. Сейчас мелкий чип аппаратно раскручивает видео в 8К с аудио особо не напрягаясь. И нейросетевые ускорители уже есть, у меня во Frigate на видео в реалтайм на 7 камер объекты классифицирует небольшой Coral, без него довольно мощный 5-й "Рязань" захлебывается.
условно говоря большая и быстрая нейронка не значит что инфа будет в ней точной, потому что нейронка по определению не точна. Также как человек постоянно должен сверяться со справочниками, хотя и может помнить много точной инфы, но зачастую лишь той что часто пользуется. Также полагаю и нейросетевые мозги в идеале должны будут иметь интерфейсы к базам данных, справочникам, интернету чтоб уточнять и верифицировать свои ответы. А так это понятно что через 10 лет будет нормально иметь локально ИИ уровня ChatGPT в телефоне и т.п. но это не будет значит что он заменит программы и базы данных, я вижу что скорее он будет ими управлять и использовать их.
Сейчас все ругаются, что программы медленные, раздутые и требуют кучу железа, что бы работать. Давайте их все заменим на нейросеть, которая жрет видеокарты и мегаватты для работы.
Это даже не касаясь проблем галлюцинаций и неточностей. Программа, если ее проверить и логически доказать, что она работает, будет работать всегда и везде. А вот нейросеть каждый раз может новый глюк выдавать.
Ну и еще пример, попросите нейросеть не котика вам нарисовать, а соцсеточку. Она вам, конечно, посты всяких "знаменитостей" и фоточки котиков выдумает, но вы точно ли хотите читать полностью нагаллюционированные посты?
Фейсбук, конечно, пытается именно это хтоническое будущее реализовать, чтобы раздуться перед инвесторами, мол смотрите сколько у нас контента и энгейджмента, но это уже матрица какая-то получается. И я сильно подозреваю, что пользователям это не понравится.
Или попросите нейросеть изобразить вам банковское приложение. Вы можете сколько угодно смотреть на красивые циферки, что она вам выдумала, но ваш перевод никто не получит и товар вам не отгрузит, несмотря на очень правдобадобные галлюцинации нейросетки.
и какие сервисы так можно заменить?
Не нужно отвёрткой закручивать гвоздь.
следующий шаг: вместо того, чтобы просить нейросеть нарисовать котика, программист должен ее спрашивать: "а нужен ли мне вообще котик"...
Вопрос в том, о каком историческом промежутке мы говорим. Текущая модель на уровне 10-12 летнего школьника. С другой стороны, этот результат достигнут менее чем за те-же 10-12 лет. Наверное, за 1-2 года модели мидла не заменят, но если говорить об интервале 15-30 лет (что, опять же в историческом масштабе - мизер), то имхо вполне вероятно. На бОльшем интервале прогнозировать глупо, там уже другие риски учитывать нужно, геополитические, а не технологические. Так что, сейчас - не заменит, в перспективе 15-30 лет - очень вероятно (если не вернёмся в каменный век).
На самом деле и до массового использования ИИ программисты далеко не только программировали. Хороший программист умеет:
Собрать требования
Изучить источники данных
Формализовать задачу
Написать код
Протестировать и отладить его
Оформить этот код в виде отдельного микросервиса, либо куска монолита
Написать документацию к этому коду
Ну и там ещё какие-то неявные шаги могут быть. С какими-то этапами ИИ может помочь, но в целом пока до полной замены хорошего программиста ещё очень далеко. Хороший программист гораздо больше думает над задачей в целом, чем пишет собственно для неё код.
И даже с кодом, насколько я понимаю, задача в таком виде, как ставится программисту: "вот тебе исходники, вот тебе задача, подумай, как добавить/изменить эту функциональность так, чтобы не сломать всё остальное" - ну, она вряд ли хорошо решается ИИ. Её программист то должен хорошо подумать как сделать, если это вообще возможно.
вот тебе исходники, вот тебе задача, подумай, как добавить/изменить эту функциональность так, чтобы не сломать всё остальное
Да это целая простыня требований. Моей последней задачей была таска с пустым телом и названием "Implement new approach to xxxx". Дальше сам. Думаю, дойдем и до более компактных постановок.
Ну да, я ж синьор, плюс у нас прожект менеджера нет, поэтому всё сам. Ну, за это и платят хорошие деньги синьорам, собственно. Не за то, что они умный код только генерят, а за то, что по короткой постановке могут задачу целиком сделать на автономном ходу. Сами всё выяснят, уточнят, напишут, проверят...
Однако при этом надо помнить, что джун — это личинка синьора.
Я помню, как был джуном, хотя это и было 30 лет назад. Тебе чётко ставят задачу, твоё дело только её закодить. Все вопросы как это должно выглядеть снаружи и внутри за тебя решают аналитики и ПМ. Чуть что непонятно - можно спокойно курить бамбук, пока тебе этот вопрос не прояснят. Не жизнь, а малина.
Вот на основе этого комментария надо было бы статью делать.
Сейчас нет ещё слишком рано. Но о1 и о3-mini уже кое-что коряво могут написать. Вот когда выйдет полная о3 появиться реальная конкуренция. И люди ее быстро проиграют новым моделям которые пойдут после о3 pro.
Осталось доказать, что сравнимый по качеству результат за месяц работы этой нейросети будет стоить дешевле 4 тыс.
Написать - это хорошо. А отдебажить? Я вот тут сейчас дебажу интересный race condition между кодом на Rust и кодом на C. В проекте на полторы миллиона строк кода (QEMU). Когда o3 pro сможет сделать это за меня?
Все может быть несколько хуже. Код, написанный ИИ будет так же в репозитариях. И кода, созданного ИИ который никто не ревьювил и который далек от понятного человеческого формата, будет все больше и он будет основанием для следующего ИИ кода. И тогда уже если задача по дебагу ляжет на человека, то она уже может оказаться неподъемной. Мы будем иметь черный ящик кода, доступный нам только через промпты и через его интерпретацию для нас тем же ИИ.
Управлять то этим все равно квалифицированные кадры будут, разве что зп может уменьшиться.
Да вот не выглядит так, что там нужны квалифицированные кадры.
Я думал что оператору нужно хотя бы более менее нормальное ТЗ давать инструменту. А по факту я сейчас половину слов не пишу, когда даю задание, потому что и так понимает чё я хочу.
Это работает пока проект совсем крохотный и логика простая. Зачастую проще самому написать, чем продираться через итерации неработающего когда.
Тут есть принципиальная проблема. Вот нейросеть написала код. Кто даст гарантию, что в нем нет ошибок ? Нейросети имеют свойство галлюцинировать и рисовать 6 пальцев на картинках. Но если на картинке это сразу заметно, то чтобы найти ошибку в коде, нужно проверить его весь, строчка за строчкой, при этом понять, что именно этот код делает. Это не сильно проще, чем написать его самому. Возможно даже сложнее. То есть, все равно нужен живой программист, который будет проверять за нейросетью, но тогда зачем нам нейросеть ?
А кто даст гарантию что в коде который человек написал нет ошибок? Баги кто по вашему делает?
Это лечится code review и рефакторингом. Кто за LLM проверять будет? Другая LLM?
Ни рефакторинг, ни ревью не дают таких гарантий. Чего уж там, даже мануальное тестирование и регресс продукта 100% гарантий не дают.
А ревьюить код за нейронкой может человек, а то и другая нейронка, это все же не писать с нуля
А за человеком кто проверять будет? Другой человек? Ха-ха-ха, какая нелепая мысль.
Вчера как раз закончилася сессия по поиску ответа на вопрос, "почему мы не видим на проде некоторых транзакций, которые на стедж". Входящие данные должны быть одинаковы, все зеркалится. 5% транзакций - отсутствуют. А в кафке - есть.
Три дня в три сенйора искали. Код, естественно, после код ревью.
Причина? Ну, джун поменяла в космос в конфиге список терминалов, добавила новый только на стейдж. И просто "ой, я про это забыла". А данные фильтруются по списку(не в списке - выкидываются).
Удачи сформулировать запрос к АИ по такому поводу.
Когда пишешь код, обычно достаточно глубоко погружается, а code review это поверхностный взгляд. Я пару раз уже ловил ошибки в сгенерированном коде, который я ревьювил, но если бы я его писал сам, то этих ошибок бы не допустил.
Как часто вы встречали художников которые неосознанно рисуют 6 пальцев на руках, две сросшиеся головы, руки вместо ног или глаз с парой зрачков?
А diffusion сетки и их аналоги делают такое частенько.
Ошибки людей прогнозируемы и предсказуемы, мы уже хорошо умеем с ними работать, а вот ошибки llm нам ещё долго предстоит изучать, и нужен ревьювер с особым скилом чтобы их видеть.
Живые художники таааак лажают с рисованием тел, вы не представляете. Невероятные углы в суставах, отсутствие важнейших мыщц, и так далее.
Живого художника можно оценить по одной-двум картинам, а живого программиста - по одной-двум задачам на испытательном сроке. Рост квалификации живого художникам или программиста - более-менее линеен и предсказуем. Нейросеть же может нарисовать шесть пальцев, а в следующий раз пять пальцев, а потом снова шесть пальцев. И к разумной самооценке, к объяснению окружающим своего решения ("сустав нарисован вот с таким углом потому что...") нейросеть не способна.
Ты будешь удивлён, но художники часто ошибаются. К итоговому варианту скорее всего это все будет исправлено, но в процессе ошибки это регулярный гость и лишние пальцы, фаланги, кривые черепа, обыденность в процессе работы над картиной.
Лишние пальцы уже сейчас в Flux офигенно исправлены. И генерация текста улучшена. За 2 года прогресс офигенный.
В части реализма IMHO прогресс живого хужожника за два года меньше был бы.
Вот с чем у моделей пока проблема - так это с рисованием напрочь отсутствующего в ее датасете. Жду, когда сможет изобразить "бокал вина, заполненный до краев" без танцев с бубнами :)
Ну давайте к примеру из программирования - я на ревью буду ожидать утечки памяти, ошибки в условиях и граничных ситуациях. Но я никак не буду ожидать полное несоотвествие названий переменных и применения (а от нейронки я такое даже видел). Или разделения обработки непрерывной функции на отрезки.
Когда у вас int i = 0 это не итератор в цикле, а переменная определяющая видимость поля, int sum это итератор и т.д.
И ведь исходя из принципа оценки вероятности следования символов - выражения могут выглядеть очень логично, но на деле быть полной чушью.
Int D = b^2 — 4*a*c будет выглядеть совершенно логично, если все параметры передаются как аргументы, и не важно что b - это баланс, а c - скорость света, в точке вызова функции.
Тут нужно ревью совсем совсем другого уровня.
В работе всегда делаю именно так как вы говорите - строгое код ревью построчное.
А вот для себя "заказал" несколько достаточно сложны инструментов(экранов так на 20 и строк тысяч на 5). Ничего не проверял в коде, только тестировал результат и вносил правки на основе тестирования. Получилось очень быстро и результаты меня удовлетворяющие.
Когда вместо меня придет кто-то кому нужен софт - он сделает также. И всё будет работать с вероятностью не сильно меньше, чем если он закажет тоже самое на апворке.
И это сейчас, когда инструменты только-только стали пригодными для использования. Через полгода год, когда их подкрутят ситуация будет еще более впечатляюще/удручающая.
Тесты?
Все просто. Когда вдруг ChatGPT за 20$ завалит проект, то фирма заплатит заказчику неустойку раз в 100 больше, чем зарплата программиста( 4000$X 12 месяцев) и потеряет свой имидж и клиентов от слова НАВСЕГДА.
А еще прикольнее будет, если ChatGPT вдруг отключат НАВСЕГДА. Тогда фирма и за 10000$ не найдет программистов. Оно Вам надо? Вопрос риторический.
Уже даже не смешно читать страшилки про замену программистов за 4000$ сначала на "инженеров", которых учат программированию на курсах "молодого бойца по программированию", а теперь на ChatGPT за 20$.
ChatGPT не лучший программист. В курсоре периодически переключаюсь между chatgpt/claude-sonnet/deepseek - вполне пригодны все варианты. Дипсик по ощущениям даже получше за счет способности переваривать контекст большего объема.
В интернете есть инструкции как настроить курсор на работу с оффлайн моделями. Тот же дипсик просто развернут и всё.
Проблема надуманная.
Та хрень это все. И дипсик и другие LLM. Недавно писал проект на flutter. Нужно было простенькую функцию реализовать, которая шлёт запрос на веб и получает json по http. Думаю: "ну дам задачку дипсику, вроде не сложно, должна справиться". По итогу час доказывал нейросети, что её код не работает (буквально не компилируется). Проще было бы самому написать, хотя казалось бы "ура, нейросети скоро будут за меня работать". Да и технология не такая уж ноунейм, чтобы нейронка такие галлюны ловила.
В очередной раз напишу:
Все программисты в мире делятся на две категории:
— Те, кто считает, что ChatGPT кодит на порядок лучше их;
— Те, кто считает, что ChatGPT кодит на порядок хуже их.
И первые, и вторые абсолютно правы.
Предположу, что те , кто получает 4000$ в месяц кодит лучше , чем ChatGPT, а те, кто мечтает получать 4000$, кодит хуже.
Все верно?
-----------------------
Но, проблема не в том, кто как кодит, а в том, что качество и достоверность этой кодировки оценивает человек, а не ChatGPT.
---------------------
Если кодит ChatGPT, то авторство принадлежит ChatGPT, так как все, что ChatGPT накодил находится изначально в облаке.
Чтобы использовать нейросеть в разработке, нужно самому обладать хорошей квалификацией, чтобы её проверять, иначе вероятностная природа ответов сослужит плохую службу. Я всегда это сравниваю с мультиком, где были "двое из ларца".
Вы пробовали сами? Во многих задачах не надо ничего проверять. ПРосто кормишь её описанием проблем после тестирования и она их правит.
Она таким образом полностью переписала мне вебсервис с современного JS на древний, чтобы он смог запускаться на старом iPad. Я вообще не в зуб ногой, что там в JS изменилось, я вообще не веб программист. И просто описывал ей проблемы, а она исправляла.
С переписыванием с языка на язык ии неплохо справляется.
С переписыванием с языка на язык ии неплохо справляется.
Я Вам сейчас страшный секрет открою: с переписыванием с языка на язык соответствующий кросс-компилятор великолепно справляется!
Пожалуйста, можно мне кросс-компилятор с visual foxpro на java? Не шучу, реально надо. Найдёте? А вот chatgpt плохенько, но справляется
Не шучу, реально надо.
А чего ж тогда ещё не написали, ежели «реально надо»? Я всё то, что мне было реально надо, взял и сам себе написал.
То есть реально, вы предлагаете самому переписать продукт, который Microsoft делала примерно 15 лет?
вы предлагаете самому переписать продукт
Ну я ж переписал?
который Microsoft делала примерно 15 лет
Открою страшный секрет: у меня за спиной не стояли менеджеры с хлыстом.
Подозреваю, что, по мнению предыдущего комментатора, кому надо, чтобы справлялось не "плохонько" - тот этот кросс-компилятор сам себе напишет, а если не напишет - значит, не слишком-то и надо.
Да, пробовал, такие циклы правок могут занимать от 2 до 10 итераций, для небольшого кусочка специализированного кода. При этом, если знать предмет и внутренности платформы/языка, можно получить результат гораздо быстрее, и отсечь галлюцинации еще на первом этапе.
Я пробовал. Даже писал про это: https://habr.com/en/articles/868790/
Результат бездумного кормления непригоден к сопровождения от слова совсем.
Учиться на программиста вообще стало бессмысленно, кому они нужны джуны, в таких реалиях?
Какую-то из предыдущих новостей про Google и 25% прокомментировал разработчик из Google, что значительная часть в составе этих 25% - это обычное автодополнение в IDE.
Если автопополнение считать то еще до ии ide писали 80% кода. Максимум 2-3 буквы вводишь, а дальше из автопополнение выбираешь.
Так они ещё и язык специальный придумали, где можно побольше избыточного бойлерплейта генерировать, Golang называется xD
Теперь понятно зачем он такой невыразительный. Чтоб красивые проценты по достижениям нейросетей рисовать.
У всех этих примеров успешности разработки через ЛЛМ есть одна общая черта. Это всегда небольшой новый проект. Хоть бы один рассказал как он успешно взял легаси-проект на пару мегабайт исходников и добавил в него новую функциональность, сэкономив при этом кучу времени. Ну, для разнообразия примеров эффективности ЛЛМ в разработке.
Не корректно говорить что это LLM. Инструмент для программирования это более сложная конструкция, там LLM плюс достаточно большая надстройка над ней.
Именно поэтому "программируя" напрямую в чате с ChatGPT/DeepSeek или включив их в курсоре - вы получите сильно разные результаты по качеству.Вы, конечно, правы что контекста у модели не хватит чтобы переварить мегабайты исходников. Именно поэтому парадигма разработки с ИИ-инструментами совершенно другая, а именно - модульность. Чтобы модель работала с исходниками одного модуля, а остальные видела через API. Тогда ей хватает размера контекста чтобы не теряться. К слову, вообще-то, и человеческий код должен также писаться. Но у нас любят размазывать зависимости по всему коду. Жаловаться что ИИ-инструмент плохо разбирается в говнокоде и поэтому он плох - как минимум странно.
Нет никаких проблем использовать ИИ-инструменты для программирования в легаси проектах. Кормишь ему конкретные куски проекта и просишь в них разобраться - он вполне разбирается. Да, безусловно, при работе с большим легаси требуется больше внимания к инпуту и выхлопу, чтобы получить хороший результат.
Нет никаких проблем использовать ИИ-инструменты для программирования в легаси проектах. Кормишь ему конкретные куски проекта и просишь в них разобраться - он вполне разбирается. Да, безусловно, при работе с большим легаси требуется больше внимания к инпуту и выхлопу, чтобы получить хороший результат.
Если эти куски разбросаны по всему проекту, то это очень сложно компактно собрать все. И бизнес требования бывают сложные, а не просто отдать значение из базы. А легаси это еще всякие хитрые костыли.
ИИ помогает конечно и с легаси, но довольно слабо. Стартуешь проект с нуля первые несколько дней может быть буст х10, пока это не превратиться в неподдерживаемые говно, тогда уже понадобиться вникать и переписывать, а в старом проекте дай бог 10% к производительности добавит.
Меня поражает, как люди минусят ответы даже если они написаны по факту.
О чем-то это да и говорит.
Только есть нюанс. Программист тоже пользуется всеми этими инструментами. То есть сравнивать надо не программиста и chatgpt, а {программист + chatgpt} (за $4000) и просто chatgpt (за $20).
Пока что это как заменить водителя гужевого транспорта на автомобиль. Автомобилю тоже нужен водитель и притом ещё большей и квалификации.
Пока что это как заменить водителя гужевого транспорта на автомобиль. Автомобилю тоже нужен водитель и притом ещё большей и квалификации.
Да, но водитель грузовика может обеспечить сильно больше тонно-километров, чем водитель кобылы.
пока находится на автобане между двумя логистическими центрами и вопрос не доходит до "последней мили", где иногда и на лошадь перегрузить может быть дешевле. И цена автобана и его поддержания тоже ж не бесплатна и вся эта авто-инфраструктура. Лошадь же гораздо более автономна. Но лошадь не лучший пример. Вот собаки как охранник уже получше.
да, но грузовик без водителя не сможет ничего.
Точно так же, как ChatGPT или IDE без программиста (или человека, идентифицирующего себя как программиста).
Интересно, кстати, кого с нуля научить проще - водителя грузовика или лошади с телегой.
Интересно, кстати, кого с нуля научить проще - водителя грузовика или лошади с телегой.
А фиг знает. С одной стороны - живое существо с не особо детерминированным поведением, с другой - управляя фурой можно случайно угробить горааааааздо больше людей и чужой собственности, ибо размеры и скорости сильно иные.
Автопилот и его сегодняшнее развитие в чем-то схожи с обсуждаемой темой.
в коде где больше 1000 строк победит человек
а может и раньше
но для такого соревнования нужен день, вряд ли кто захочет проверять
1000 правильных строк gpt пишет меньше чем за 5 минут легко. Чего тут проверять? Вопрос немного про другое
Написать то и я могу. Вопрос в другом-вот есть код на 1.000 строк и он что-то делает. Сможет ли чат гпт добавить ещё сколько-то строк, чтобы код делал ещё что-то, не сломав при этом предыдущую функциональность?
Да, сможет. Сможет ровно столько строк на сколько ей хватит контекста. Вопрос расширения контекста это вопрос эволюционного развития, так что там проблем не будет.
Сейчас 1000 строк это и не близко к верхней границе возможностей.
*Сможет ровно столько, на сколько модель обучили. Когда ИИ спрашиваешь что-то обывательское (а-ля наклепай сервис на Node.js и чтобы отдаваемый фронт поддерживался IE и т.п.), то всё гуд, но чуть в сторону и он начинает бред нести, пытаясь собрать в кучу что знает и что "созвучно" с описаным промптом. Как ребёнка заставить рассказать про тему, которую слышал, но вообще не знает — расскажет вроде осмысленную, но всё-таки отсебятину :) Да и сидишь как с каким-то ребёнком "не, вот в этой строчке ошибка", "не работает", "не компилится" и т.д.
ИИ не волшебная пилюля, без данных очень тяжело воспроизводить и генерировать что-то. В интернете, откуда и берут на чём тренировать модельки, очень много про то, как написать сайт, седелать babel обёртку или инициализировать новый-фреймворк-100500, но никто не пишет статьи о том, как "я переписал специфичный сервис" или "пофиксили баги в переписанном мной сервисе", в таком же количестве как вопросов о типизации JS на StackOverflow
Без данных ИИ ничего не может. А нормальным данным, за которыми ИИ буквально бует повторять, без хороших инженеров неоткуда взяться
ИИ — это как тот глуховатый джинн.
Только он даже написанные тесты реализовать сам не в состоянии хоть 1000 итераций сделай. Это прямо как в анекдоте, я печатаю 1000 знаков в минуту, но такая херня получается.
Gpt точно нет. Он даже толком html прописать не может, о чем вы....
Не спорю, есть другие модели, более менее норм. Но и они пока человека не заменят
Пробовали ИИ для разработки, в общем осталось мутное ощущение... и ладно бы ошибок или галлюцинаций, газлайтинга блин.
1) Если задача простая, то часто можно получить готовое решение сразу, но... можно получить его с "бомбой". Делаем промт написать класс авторизации - написал - при логине проверял данные, писал в печеньки, а дальше просто верил данным из печенек. Пробовали исправить - начинается газлайтинг вида "проверка пользователя происходит, проблемы нет".
2) Если задача сложная, то ИИ видимо строит какую-то свою схему и отвечает на основе нее. Загрузили готовый код в ИИ, попросили написать такой же, но с немного другими исходными данными. Перекорежил половину кода вплоть до нерабочести (переименовал функции, часть выкинул, часть заменил своими) и... в ответ на любые промты - газлайтит - мол код один в один как Вы и предоставили, изменены только переменные.
3) Работа с либами неоднозначна. Даешь промт на использование одной либы, но ему забито, использует апи от другой и опяь же - газлайтит, что использует тот апи что ему сказано.
4) Работа с дизайном/версткой. Божитымой. Первый промт в принципе генерит что-то приличное. Но практически любая просьба о точечных изменениях валит всю верстку хуже чем если бы мы сами этим занимались (а к верстке у нас таланта нет от слова вообще).
У нас была простая задача - на незнакомом нам языке написать рабочий код - бэк и фронт, думали с помощью ИИ напишем быстрее. "агащазблин"© начало было действительно быстрым - отдельные куски заработали быстро, но когда пошло усложнение, тесты, проверка того что код не только "делает что надо" но и "не делает чего не надо", тут всё.
Провозившись с помощью промтов к ИИ пару дней - от ИИ не отказались, но использование свелось к "а напиши-ка мне как делается эта штука", чтобы уже дальше посмотрев примерный образец - написать нормальный код. Офигенно полезно и экономит время на самом деле, но главное - не рассчитывать ни на что большее.
При чем когда ему загружаешь уже готовый код и просишь об изменениях - смотрим пункт 2 - он составляет у себя где-то там свое представление о коде, которое с реалиями совпадает лишь отчасти, в недостаточной части. Поэтому изменять готовый код просить - очень сомнительная затея.
Честно говоря после первых проб и хвалебных од в интернетах - были очень сильно разочорованы. Все же ИИ пока не программер, а скорее продвинутый поисковик и хелп. Или притворяется, работать-то так-то никому особо не хочется, а покажешь хороший результат - подпрягут:)
Для этого надо готовый проект реверснуть в промпт вручную, желательно с зависимостями, причем промпт едва ли не менее объемный чем сама бизнес-логика. И тогда может быть что-то и получится, но гарантии нет, можно получить точно такой же пшик.
И интересно как отнесутся ИБшники, что вся кодовая база при загрузке готовых проектов осядет в логах чатгпт на серверах типо "недружественных стран" )
Так практически это и пробовали. У нас к проекту максимально детальное ТЗ было.
Тут реально нам проблема представляется в том, что при написании/разборе кода ИИ переводит его в какую-то свою внутреннею схему и дальше работает с ней. А вот в ходе перевода туда и обратно - как раз и происходят "потери смысла". Поэтому код "снуля" у него получается более или менее, а вот любые изменения/доработки и/или работа с готовыми проектами и оппа - сразу реальность получить что-то приемлимое падает на порядок.
Вы каким инструментом пользуетесь?
LLM в Python вроде неплохо разбираются, как по мне, который с этим языком не работал. Бесплатный Copilot рассказал общий план решения задачи, как подготовить данные, какие либы использовать, накидал кода для задания структуры модели, обучения, тестирования, запуска. Подсказывал, если вылазили косяки. Такой ускоренный курс датааналитика за 2 дня.
Проблема современных LLM мне кажется, что они заточены на выдачу ответа максимально быстро, вместо того, чтобы основательно подумать. "Думающие" LLM типа DeepSeek-R1, OpenAI o3 должны быть более полезны в разработке. Но они должны тратить ещё больше времени на обдумывание, каждой строчки кода, делать пометки в процессе работы, иметь доступ к компилятору для тестирования. Но тогда и стоить такая модель будет не $20, не $200, а все $4000/мес.

Как выглядит промпт инженер при увеличении сложности по.
Для использования ChatGPT за $20 нужен программист за $4000. Поэтому стоимость использования ChatGPT в сумме будет $4020, что на $20 дороже просто программиста. Бизнес на такое не пойдёт
Пробовал разные.
Много времени уходит на правки сгенерированного кода и написание промпта. На практике быстрее самому написать.
Единственное что нравится, это дописывание кейсов в готовых табличных тестах.
Если похожего или соответствющего задаче кода не было в интернете (откуда собственно все нейросетки учились) то хрен они что напишут правильное. В принципе. Например для выполнения определенной задачи нужна правильная последовательность вызовов АПИ с нужными параметрами. Если нет этого в обучающих данных, то как оно поймет что делать вообще? Так как надо для этого допустим надо прошерстить документацию вдоль и поперек, представить по косвенным признакам как оно работает, и сделать несколько тестовых приложений для уточнения поведения. И только тогда написать тот код который будет работать как нужно.
Вы шутите? Кормите ей документацию по API и она успешно его использует.
Начинаешь писать с ней код внутри существующего проекта, она подхватывает методы из существующих классов и их использует.
Если бы всё было как вы описали - она была бы совершенно не пригодна.
У вас странный и непонятный опыт использования сетей для программирования. Возможно вы дергали всяких левых недоделанных бесплатных ботов из телеги, а не нормальные инструменты?
ничего личного, но по моим наблюдениям - чем лучше вы разбираетесь в технологии, тем от "ей" меньше пользы :)
Ну так логично же. LLM не делает "лучше лучшего". Не стоит сразу замахиваться на "заменить всех сеньоров".
А вот джун + LLM, натасканная на код, вполне эквивалентна паре джунов. Или делает из джуна мидла.
LLM может заменить часть программистов, но не всех.
Проблема только в том, что джун — это личинка синьора. Не будет джунов — не будет и синьоров.
Если заменить всех джунов - безусловно.
Но речь-то о том, что если сейчас работает десяток джунов, на увеличившийся объем работы вместо еще пяти возьмут ИИ. При этом новых джунов брать будут, просто в меньших количествах. К примеру, на замену "выросшим".
Причем далеко не все джуны и сейчас вырастают в синьоров. Думаете не было такого, что кого-то брали "ну ладно, этот хоть что-то может, текущую дыру закроет"? Такого в будущем не возьмут (заменят ИИ), ну так он до синьора и безо всякого ИИ не дорос бы.
Правда в ваших словах, безусловно, есть. Но маловероятно, что она реализуется, поскольку "ИИ заменит программистов" понимают как "заменит ВСЕХ программистов" только в страшилках, но не в реальных прогнозах.
В конце концов, мы же не страдаем, что благодаря болгаркам-циркуляркам уменьшилась потребность в пилильщиках. Да и снижения качества строительства вряд ли объясняется тем, что теперь не приходится долго ручной пилой фигачить...
Согласен, плюс если документация не в открытом доступе на данное API, то начинаются приколы с добавлением "в python несуществующих пакетов" и непонятно откуда взявшимся синтаксисом.
Программистам которые используют LLMки в повседневной работе очевидно что на текущем уровне они не представляют им никакой конкуренции, потому что не могут достаточно надежно находить собственные ошибки и галлюцинации.
LLM можно сравнить со специалистом который вдруг сошел с ума. И вот он местами выдает профессиональный контент, а местами бред в который верит. Другой специалист достаточной компетенции может использовать его генерацию, отфильтровывая бред. И проблема в том что если компетенции не достаточно, то отделить бред можно только проверкой на практике, потому что он очень правдоподобен.
Когда появится AGI встанет другой вопрос, сможет ли он генерировать софт дешевле человека. Пока рассуждающие модели вроде как очень дороги в потреблении ресурсов.
Вот только по мере роста доступных вычислительных мощностей качество кода нейронок растёт, а качество кода среднего разработчика - падает.
Первое правило разработки: программист пишет код настолько плохо, насколько это ему позволяют доступные пользователю ресурсы. Чем мощнее становятся компы, тем более жрущие и тормознутые программы появляются. Electron уже давно стал мейнстримом, а представьте, что будет, если объёмы памяти и количество ядер на среднем девайсе вырастут ещё раз в 10...
Ухудшение кода, который пишут разработчики, полностью линейно: они говнокодят ровно столько, сколько получается, останавливаясь на той границе, где пользоваться их софтом уже неприятно, но всё ещё не настолько мучительно, чтобы пользователь от него отказался.
То есть если вычислительные мощности выросли в 10 раз, то ровно во столько же раз подросли и аппетиты программ.
И раз мы видим, что рост вычислительных мощностей увеличивает качество нейроночного кода, но ухудшает качество кода живых разработчиков, то итог немного предсказуем. Даже если вот прямо завтра прогресс в области ИИ остановится, то это лишь отсрочит неизбежное, ибо живые программисты продолжат регрессировать. Вычислительные мощности подрастут ещё в 10 раз, и живой миддл будет говнокодить уже вполне на уровне нейронок. А раз так, то его замена неизбежна.
Если качество кода разработчиков становится все хуже, то каким образом улучшится качество у нейронок, которые обучаются на существующих проектах? Если весь код отныне будет писать ии, опять же, откуда возьмётся прогресс?
От способов обучения. Погуглите data secrets(на хабре тоже постили).
Оч коротко: запускаем код с тестами, выбираем работающие ветки + проверяем на "красоту кода" это идёт в награду, остальное в штраф.
Все это работает только на простых выборках. В более сложных проектах подобное быстро приводит к тому, что одни и те же категории весов, в одном коде работают нормально, а в другом ломают все вдоль и поперек.
Покуда не будет LLM с огромным размером контекста и соответствующей разрядностью никакой замены не будет и близко. А их не будет, потому что для этого нужно куда больше вычислительных мощностей, чем есть. Алгоритмы в части задач могут помочь, но ничего универсального из этого никак не получить.
Костыль, который будет делать вид, что понимает то, что от него хотят, как максимум. До уровня, когда нейронки будут думать, а не просто переставлять блоки за пределами указанных весами, еще ой как далеко...
Да что-то не получается пока, я спросил ChatGPT написать мне продукт для репликции MSSQL standalone instance, с возможность реплицировать куда угодно, то есть сделать аналогAlways On и что то ChatGPT ответил не внятно.
Ладно попросил сделать его продукт для рисования больших графов, с возможность использовать разные символы, геоданные, создавать анимации и тоже не смог ChatGPT мне помочь.
Это все равно, что от первоклассника требовать решать задачи с пределами функций. Куда Вы торопитесь? Не знаю, как Вы, а я про chat gpt узнал всего пару лет назад. ИИ учится. И то, что ему не под силу сейчас, и из - за чего можно ложно самоуспокоиться (я могу, а он - нет) , будет под силу совсем скоро. И тогда задач, которые ИИ не сможет решить, будет все меньше, а тревог у программистов - все больше.
Вы программист или менеджер? С таким ТЗ вы пошлете менеджера или вас пошлют? Постановка размытая и не корректная.ИИ нужен бейбиситинг похлеще программистов, т.к. ИИ вообще не умеют переспрашивать(хотя программисты порой тоже).
Реплицировать куда угодно
Chat gpt: принято, я запомнил вашу базу.
Ну само собой я ради интереса расписал относительно подробное ТЗ на создания репликатора, но само собой я не ожидал чудес от ChatGpt. Более того черт с этими программами, дайте возьмем книгу Кнута Конкретная Математика и попросим эти чаты/сики решить задачи со звёздочками из той книги.
Если я правильно понял суть статьи: дешёвый ЧатЗПТ не может заменить недорогого программиста. Что ж, очень рад. ЧатЗПТ, конечно, бывает весьма полезен, но даже о1 и о3 мини глючат часто и безбожно. Надо будет потребовать повышение зарплаты, пока не поздно...
Не корректно поставлен вопрос. Почему именно "полная автоматизация"? Пусть будет не полная. Пусть ИИ будет подмастерьем, помощником, который закрывает локальные задачи. Именно здесь он максимально эффективен. Именно в таких задачах он быстрее программиста. Перфекционизм и завышенные ожидания надо отложить на несколько лет. Все придет.
4000? Не многовато ли, чтобы стучать по клавиатуре? ИИ вскоре покромсает заоблачные гонорары. В 90-е я ещё застал секретаршу, которая набирала письма на печатной машинке. Где она сейчас? Программисты - люди повторят судьбу динозавров.
кто победит в 2025?
ChatGPT за $20 и эффективный менеджер за $20000.
Вообще не понимаю. ИИ заменит программистов. А блогеры и ютубуеры? Не?
Нигде не вижу заголовков - блогеры всё. Вышла нейросеть, убийца блогеров. Тот мир приспокойненько взял софт себе на вооружение и ещё больше гребёт денег.
Мы же такие - совместно маршируем к замене себя на то, что сами создавали. Класс) Так и надо нам программистам - кого то же должна ллм заменить) Нас в первую очередь.
А блогеры и ютубуеры? Не?
Neuro-sama - Vedal987 на твиче. В январе на некоторое время стал каналом с самым большим количеством подписок (с некоторыми оговорками).
Однако забавно, что этот пример схож с ситуацией ИИ для программистов. Формула успеха заключается в комбинировании ИИ с человеком, особую популярность канал обрел за счет коллабораций нейронки с реальными людьми и взаимодействия с ее "создателем".
ИИ , создает главную проблему - он не дает инженеру расти и развиваться, решая проблемы. Решать проблемы, это главный скилл инженера. Для самообучения ИИ шикарен, это лучший наставник, но заменить им сотрудника, плохое решение, которое приведет к проблемам. Пример из жизни, друг работал на предприятии (обычный рабочий), с пакетом программ MS Office, у которого макросы написаны на VB , гении управленцы, наслушавшись сказок про ИИ, решили не нанимать программиста чтоб он переписал макросы под Р7 Офис (там объем большой был, это не условные вставки), а деньги на разраба попили на премии. Итог очевиден: какой-то код был написан, но написан, естественно с ошибками в расчетах, а местами просто не работал, из-за чего огребли все. Не знаю, чем там закончилось, но думаю, урок усвоили
допустим я сделал меш, и его надо проверить, ИИ может помочь, кидаем в миксамо получаем чутка анимаций, но с Т позой придётся работать вручную или по риг системе, тут пока не видел такого ИИ, тоесть проверить меш удобно, а дальше с этим мешем, тоесть включая всю наводящую базу до анимаций и после мне всё равно приходится проделывать с моделькой)
это конечно не промпт, просто чтоб чатгпт сделал весь пайплайн это очень громоздкое обьяснение чату что и почему вроде
Ну что за глупость.. Что сильнее: лошадь, телега или человек с телегой с запряжённой лошадью? Gpt это ведь не замена, а инструмент. Разницы нет на что тратить ресурсы: на двадцать человек с деревянными счётами за кассой или дирекцию, маркетологов, команду техников и автомат с тем же товаром, что и в первом случае. Или автор на полном серьёзе считает, что от перемены мест слагаемых меняется сумма? Это словно побег от реальности в сторону того, что кто-то и совершенно бесплатно сделает за тебя всю работу. Но даже для робота нужен шаблон и мало того уголь, сама идея.
Изучаю Голэнг. Попросил написать пример сервиса, который принимает фотографии, пережимает их, и сохраняет. Каждый раз, снижая бОльшую сторону до 1000пх, он переворачивает вертикальные фото в горизонтальные.
И если сначала вместо всего опуса обработки фотографий он просто взял библиотечный .fit(), то потом он встал в позу и сказал, что его код делает что нужо, а пользователь дурак.
Проблема даже не в том, что он ошибается или сочиняет (хотя это кстати тоже проблема, скажем, для задач системного администрирования), а в том, что он или сразу или с течением попыток перестает воспринимать запросы на исправление, когда показываешь ему ошибку. Так что сегодня - вряд ли, но еще пару-тройку поколений, микс нескольких нейросеток, и оно будет готово.
Не очень понятно кто он? (Возможно понятно, но я скипнул статью заминусованную).
не очень понятно вы ошибки ему сыпите в чат без обновления кода? Не надо так. Обновляйте код + дописывать ошибку в новом чате.
Я попробовал вайб кодинг: 3к строк - мне написала о1mini. А потом пошли проблемы, которые решает но не так как я хочу. Хотя я лениво пишу на псевдо английском(с опечатками и тд).
Как инструмент ускорения - 10/10. Описанное вами - скорее проблема в вас и непонимании инструмента, вашу задачу он(о1high) точно решит.
Кажется, что большинство комментаторов использовали какие-то старые версии LLM. За те два года, что я использую LLM в программировании я вижу очень большой прогресс. В GPT 3.5 даже на небольших задачах часто были галлюцинации. С o1/o3-mini-high, а иногда и с Claude 3.5 Sonnet я могу накинуть сразу несколько файлов для контекста, скопировать задачу из Jira и сказать "пиши". В большом проценте случаев ИИ напишет с первого раза как надо.
Да, LLM может что-то не учесть или использовать старую библиотеку, но это больше вопрос к промпту. Да, иногда было такое, что LLM с самого начала предлагала не самое оптимальное решение, и на его разбор мне приходилось тратить больше времени, чем если бы я написал сам. Но в основном нейросети мне в ежедневном режиме очень экономят время. Да, нужно ревьювить каждую строчку, но это в любом случае надо делать. А исправлять приходится всё меньше и меньше. Тут и нейросети вышли на новый уровень и я научился что, как и в каких случаях у них запрашивать.
Я не вижу причин, почему эта тенденция должна остановиться. Пока есть проблемы с большим контекстом и связкой с пользовательским опытом (LLM видит только код, но не интефейс продукта в динамике), но это не выглядит нерешаемым.
В краткосроке наверное ничего страшного не произойдёт. Программисты будут эффективнее, но задач много, можно будет просто начать делать те задачи, которые раньше не сходились по экономике, а теперь начнут сходиться.
Но в дальнейшем LLM вполне могут заменить не только джунов и мидлов, но и тимлидов, PM и т.д. Эта работа требует большей квалификации, происходит на более высоком уровне абстракции, но в целом такая же работа с данными, во что LLM умеют. Пока не так хорошо, как работать с атомарными задачами, но посмотрим что будет дальше.
Делал на днях мелкую фигню для души, понадобилось сделать crop для видео средствами модуля python-vlc. Ввожу в Гугль запрос: "python-vlc crop video". Первым делом гугловский ИИ выдаёт следующее:
import vlc
# Create an instance of the VLC media player
player = vlc.MediaPlayer("path/to/your/video.mp4")
# Set the crop filter
player.video_set_crop_geometry("0,0,100,100") # (x, y, width, height)
# Play the video
player.play()
Функция video_set_crop_geometry в библиотеке действительно есть, но с таким параметром не работает. Пошарил по ссылкам, не нашёл решения, чуть переформулировал запрос, ИИ сгенерировал код плюс-минус аналогичный, только теперь там было что-то вроде:
video_set_crop_geometry("0.3,0.3,0.7,0.7")
Типа, не в пикселях, а в долях от размеров. Тоже не работает. Реальный синтаксис там оказался довольно хитровыделанный, нашёл его потом.
Не знаю, правда ли оно лучше пишет на nodejs монолиты микросервисов лендингов бэкендов с конверсией лидов, но у меня вызывает некоторое недоумение сам факт разговоров, что оно то ли вотъ-вотъ заменит, то ли уже заменило всех программистов, когда оно вот просто врёт в банальном примере вызова функции из API.
ChatGPT 4o выдаёт
Cropping a video using
python-vlc
directly is not supported, as VLC's Python bindings do not expose video cropping functionality. However, you can achieve this in two ways:1. Use VLC Command-Line (with Python subprocess)
...
2. Use FFmpeg (Recommended)
...
Ну и o3-mini c поиском детальнее этот пояснил. Гугл просто не разобрался, похоже. Ну и тут, похоже, у авторов своё определение для crop, раз в название функции включили, а оно не меняет размер на самом деле.
ChatGPT 4o выдаёт
И, что характерно, это всё неправда. Функция для обрезания видео в библиотеке присутствует, та самая video_set_crop_geometry
, только вызывать её надо так:
# left, top, width, height of the crop region
l, t, w, h = 657, 0, 606, 1079
W = w + l
H = h + t
player.video_set_crop_geometry(f"{W}x{H}+{l}+{t}")
Ваш "o3-mini c поиском" хотя бы общий формат строки сказал правильно (что не через запятую, а этот "x++"), но с параметрами опять не угадал.
Тут, конечно, можно было бы предъявить авторам библиотеки, что, во-первых, нафига синтаксис столь замудрёный и неочевидный, а, во-вторых, почему он при этом ни хера не описан в документации - вернее, описан, но вот так:
video_set_crop_geometry(self, psz_geometry)
Set new crop filter geometry.
Parameters:
psz_geometry - new crop filter geometry (None to unset).
И это всё, по-моему - во всяком случае, описания этого psz_geometry
я там не обнаружил. Но это не отменяет того факта, что весь этот ИИ не только не помог, но и все 4 раза (две моих попытки и две ваши) навалил какой-то лажи.
Если в сети нет примеров, то неудивительно, что она запуталась. Программист бы тоже запутался. Как я ниже писал, всё сейчас по сути в начальном состоянии. Человек выполняет последовательные действия для достижения результата. Сейчас только появляются подобные системы. Думаю, пройдёт 2-3 года или даже меньше, и на подобные вопросы при необходимости она будет искать и смотреть видео, анализировать исходный код, каналы в Discord и прочее.
В сети есть примеры - как минимум, один, который я, как я писал выше, в конце концов нашёл. Мне пришлось долго копаться, потому что у меня в голове нет большой языковой модели всего интернета. А у ИИ есть, значит, и на том примере оно тоже училось. Казалось бы, возьми да выдай. Но нет. Зато неправильных примеров (которых, по-моему, в сети как раз нет) оно навыдумывало сколько угодно. Вопрос валидации - что код делает действительно то, что нужно - я так понимаю, в процессе взаимодействия с ИИ не ставится в принциие: нуу, вот вам что-то, оно, наверное, делает чего-то. "Думаю, пройдёт, и оно будет" - это мнение основано на глубоком знании темы или на личном опыте веры?
Так это же не пример, а заголовок функции с именами параметров, API просто. По нему только гадать можно какой там формат.
Вопросов и вообще императивных действий там не ставится. Всё отдаётся на откуп обучению и тут уже вопросы к качеству исходных данных. Если их мало и они противоречивы, то не обучится нормально. А валидация неявно происходит за счёт глубоких слоёв, где формируются смыслы взаимосвязей между данными. Просто ИИ не поисковая система, как тут некоторые пишут, и сохранение точных данных не гарантировано. Модели с reasoning должны получше справляться с многоэтапным анализом задач и вариантов решения.
А насчёт "функция для обрезания видео в библиотеке присутствует" так если почитать ту отсылку на Stackoverflow, так там, как я понял, обсуждали вопрос, что реальный размер видео не меняется, то есть это не полноценный кроп, а затемнение просто. Поэтому и 4o написала, что кропа нормального нет.
Формат у вас: player.video_set_crop_geometry(f"{W}x{H}+{l}+{t}")
У o3-mini: media_player.video_set_crop_geometry("widthxheight+offset_x+offset_y")
В чём разница? Что не так формально описал? Где он вообще этот пример нарыл, интересно?
Update: вот даже полный пример с комментариями дала, я его даже запустил и он работает вроде. Что вам не нравится-то? Нигде в сети не найти пример, а тут готово. Тут обновлённый ответ.
Скрытый текст
import vlc
import time
def main():
# Создаем экземпляр VLC
instance = vlc.Instance()
# Создаем media player
player = instance.media_player_new()
# Задаем путь к видео (замените на путь к вашему файлу)
media = instance.media_new("example_video.mp4")
player.set_media(media)
# Устанавливаем геометрию обрезки
# Формат строки: "ширинаxвысота+смещениеX+смещениеY"
# Например, "640x480+100+50" означает:
# - 640 пикселей по ширине и 480 пикселей по высоте
# - смещение от левого края 100 пикселей и от верхнего края 50 пикселей
crop_geometry = "640x480+100+50"
player.video_set_crop_geometry(crop_geometry)
# Запускаем воспроизведение
player.play()
# Ожидаем 10 секунд для демонстрации
time.sleep(10)
# Останавливаем воспроизведение
player.stop()
if __name__ == "__main__":
main()
Только она там даёт ссылку на документацию и в ней я вообще этой функции не нашёл, зато много других с кропом. Не разбирался, может где и есть или уже не поддерживается.
Вот таковы должны быть размеры кропа из вашего примера на кадре размером 1280x720 (откройте картинку в графическом редакторе, проверьте сами):
Заголовок спойлера

А вот тут верхний скриншот иллюстрирует, как выглядит кроп согласно вашему примеру (неправильно, сравните с частью изображения, попавшей в рамку на кадре выше), а нижний - как выглядит правильный кроп, если сделать так, как я выше писал, и до чего опять ваши нейросети не смогли додуматься, уже в пятый раз соврамши. Разница в том, что первые два числа - это не ширина и высота, а пиксельные координаты правого нижнего угла. Обратите также внимание, что это именно полноценный кроп видео, а не "затемнение просто" - видео обрезается по заданной геометрии (опять-таки, неправильно ваша "4o написала, что кропа нормального нет"):
Заголовок спойлера

Ага, понятно. Я тоже обратил внимание, что что-то не совсем то кропится если исходить из того, что это ширина и высота. Ну, это уже вопросы к разработчикам, которые 1) тупо назвали параметры 2) нигде это нормально не описали. Нейросеть к ним в голову пока залезать не научилась и шерстить исходники, запуская на виртуалке и проверяя код. Возможно, ещё научится.
Да, вижу, что кроп полноценный, но что-то ж там на stack overflow на эту тему обсуждали.
Чтобы нейросеть написала код нужно не меньше работы восококвалифицированного специалиста, чем это нужно в случае с программистом.
Так что о какой то замене довольно странно рассуждать. Скорее о допрлнении.
Обобщенная методология, более эффективное обучение, избавление от рутины. Вот что дает людям нейросеть.
Если взять историю разработки, то когда-то нужно было хорошо понимать, как работает память компьютера. Потом появились операционные системы, потом браузер
...отчего хорошо понимать, как работает память компьютера нужно быть не перестало.
В 2030м точно можно ставить на ИИ против разработчика.
Реальность такова: множество LLM, тот же чатгпт, к примеру, сегодня действительно могут написать 90% проекта быстрее, лучше, качественнее, чем суперсеньор с опытом 10+ лет, и сэкономить программисту кучу времени...
Вот только в оставшихся 10% будет ТАКОЙ затык, на разрешение которого уйдут всё это сэкономленное время.
По итогу, в сухом остатке, программист, юзающий LLM получает...
...комфорт от отдохнувших суставов верхних конечностей... ☺️
Кроме шуток: оно того реально стоит 😄
Очень смелое заявление про 90%. В реальности на дейликах постоянно звучат фразы "потратил несколько часов на проверку галлюцинаций ChatGPT, а в итоге пришлось самостоятельно читать документацию и думать головой". Причём что забавно - если предложить ChatGPT использовать конкретные алгоритмы и конкретные методы в API, то варианты генерируются работающие. Но если про них не знать заранее - можно десятки часов разгребать неработающий код на базе несуществующих API (ну или "в Python это работает, а в ваших C++/C#/Java/Go/... ищите сами или спросите на профильных форумах").
Очень смелое заявление про 90%.
Не смелое, а логичное.
Просто я умею считать и хорошо понимаю статистику 😊
Если взять совокупность ВСЕХ задач, по которым обращаются к LLM, совокупность ВСЕХ вариантов проектов ("напиши код на питоне, который выводит символ "А" в консоль" - это тоже проект), больших, маленьких, огромных и крошечных, и т.д. такие числа и получатся - в большинстве случаев ~90% случайно взятого из этой выборки проекта LLM сделает быстрее, выше, сильнее, чем человек.
А вы - не очень хорошо умеете, поэтому, вам, как и большинству людей, будет казаться, что частные примеры, в которых "далеко не 90%" вносят сколь угодно значимый вклад в общую картину.
Понять когда LLM применимы, а когда пока ещё нет, довольно просто. Если я вижу задачу, которая проблемна для LLM, я просто делаю её сам, максимум делегирую нейронке бойлерплейт по ней. Было пара ситуаций, когда LLM предлагала изначально неверное решение, которое выглядело как верное, и чтобы понять что оно не сработает, уходило много времени. Но это скорее исключение, которое не перевешивало сэкономленное время на других задачах.
Эти боты заменяют не хороших программистов или даже службу поддержки, а самые примитивные вопросы.. Другое дело, что мне казалось , что в последнее время этих вайтишников набирают не столько для дела, а по принципу чем больше людей, круче проект - больше бабок распилить у нас или у них привлечь на фондовой бирже. Сейчас тренд пошёл на "прикрутить AI " В принципе, шахматисты тоже не сразу признали и научили пользоваться движками.
Чтобы получить хороший ответ от ИИ , надо сперва хорошо сформулировать вопрос - т.е. надо сперва разбираться в теме.
G-code пытался написать для ЧПУ станка, задача была самая простая, но найти общий язык с ИИ не получилось. Калькулятор + блокнот решили вопрос быстрее и проще. Вероятнее надо обучать ИИ для некоторых деталей или вникать как сформулировать то что нужно.
Ну и как бы тут ещё вопрос в срочности и важности. Хочешь вникнуть в тему и есть время - ИИ подходит, а если надо как можно скорее и что то критичное, то обученный и квалифицированный человек.
На данный момент даже у 6 промпт инженеров должно быть понимание того что пишет нейронка, иначе придется искать инженера и с его помощью все это исправлять. Пока уровень точности нейронки не достаточно высок, то и специалисты будут нужны. Сейчас все зависит от темпов ее развития.
В разработке системного ПО (компиляторы, СУБД, ...) бОльшую (ну или значительную) часть занимают не новые фичи, а затыкание выявленных дыр в безопасности (security fixes).
Было бы интересно услышать - кто-нибудь использовал (ну или видел/слышал как используют ) LLM именно для устранения разного рода уязвимостей в низкоуровневом ПО?
Потому что с прикладным ПО вроде как на данном этапе все понятно (правда, каждому свое :) )
LLM вполне могут писать банальный код и даже построить какой-то простой проект более-менее адекватный. Однако в плане поддержки они просто ужас. Помню в проектах, где специально заставлял кодить только GPT, меня задолбало ему писать уточнения, т.к. сам он всегда идёт по пути наименьшего сопротивления. Если можно весь код обернуть в один файл, он его обернёт. Если ему говоришь сделать 2 правки он делает всегда только одну за ответ. Он обожает тупо удалять важные куски кода. Он обожает писать странные решения, а так же обожает вложенные if и elseif. LLM любая, банально не способна вести проект. Они круты, в написании муторного кода (например просчёт коллизий для 3д объектов), но маленького по размерам. Они хорошо работают с классами в 100-200 строк кода, но требуют постоянного контроля, т.к. обожают нести отсебятину.
Ну и главная проблема LLM для бизнеса. Представим ситуацию, что компания решила написать простой интернет-магазин и каким-то чудом нейронка с этим справилась, а менеджер, что задавал запросы нейронке отдалённо, что-то понимает в кодинге. И вот ситуация, на сайте нашли баг-блокер, бизнес теряет клиентов, надо фиксить, а серваки GPT, опять упали, после того, как восстановили работу GPT из кода выкинул важные блоки, менеджер не знает, что делать, сам он поправить не может, не хватает скилов. И что делает бизнес в такой ситуации? Правильно идёт к кодерам за помощью.
Обычно такое лечится очень простыми промптами. Например, "давайте сперва продумаем оптимальную архитектуру, а потом напишем код", "напишем для окружения с такими-то версиями". Ну и писать все нюансы лучше заранее. В любом случае перед написанием кода и без LLM их надо будет продумать. Не обязательно как-то извращаться, максимально короткие фразы LLM отлично понимают. А про удаление частей кода - современные нейронки корёжат код всё реже и реже. Раньше это было проблемой, но не сейчас.
А зависимости от ChatGPT уже нет. Падает он не то что бы часто, так-то и прогер может заболеть. А если всё-таки упал - есть Claude, есть тот же DeepSeek на сторонних хостингах и т.д.
Ну я недавно экспериментировал. Заставил GPT делать простенький шутер на Tree.js. Создал отдельный проект а gpt, задал глобальные промпты для всех чатов проекта, сделал скрипт что все исходники минифтцирует и бьёт по файлам, чтобы их можно было загруить проект GPT. И казалось бы у GPT есть все данные и контекст, но описанных мной ошибок, хоть и стало меньше, но они есть. Более того, даже с учётом правильно настроенного gpt проекта, он с каждым новым чатом проекта теряет контекст и забывает что было в предыдущих чатах проекта.
Да, пользоваться можно любой моделью, хоть llama обучить самостоятельно документации по нужному стеку, но проблемы эти никуда не денутся. Недавно была новость о создании AI разработчика, что состоял из множеста агентов и конкретно агент, отвечающий за кодинг, чуть ли не на уровне джедаев код пишет. По итогу ai разраб при работе с реальным проектом смог успешно выполнить только 15% задач. Так что для полноценной разработки проектов только средствами AI ещё далеко.
Я обожаю, что есть две полярности: или "чатджпт заменит ваще всех, погромистов не будет ни одного!!", или "да никого нейросеть не заменят, через месяц им каюк, они даже print hello world написать не могут - я знаю, я с ГПТ-2 в 2019 работал". При этом почему-то мало кто думает, что просто вместо двух программистов по 4к долларов каждый останется один и за 3к. Труд удешевится, уровень входа будет ниже, производительность - выше.
Останется один программист за 6к, ибо во-первых инфляция, а во-вторых этому программисту нужно будет знать "и за себя и за вон тот ИИ". Т.е. и самому уметь программировать и делать подходящие промпты для ИИ, понимать какие там бывают галлюцинации и уметь их корректировать. Короче, уровень входа наоборот повысится, хотя в целом эффективность труда программиста + ИИ вырастет.
делать подходящие промпты для ИИ, понимать какие там бывают галлюцинации и уметь их корректировать
это сильно менее квалифицированная работа, чем писать всё самому. Нейронки всё лучше и лучше понимают, что хочет пользователь. Это скорее сродни навыку "гуглить" и "смотреть stackoverflow", чем что-то, чему сложно обучиться.
И много программистов работают в режиме только "гуглить и смотреть stackoverflow"? В реальности этими инструментами ограничиваются только те, кто ботов под телегу, например, пишет. Тут да, так можно. Всё остальное программирование этим никак не победилось.
Улучшение производительности труда обычно приводит не к уменьшению количества работников, а к увеличению выпуска.
в краткосроке да. Задач всегда много, можно просто начать делать то, к чему раньше было не подступиться. Но мы только на самых ранних этапах, в дальнейшем традиционный кодинг может перейти во что-то совершенно другое.
Стало ли меньше программистов после появления IDE? Стало ли меньше бугалтеров с появлением экселя и 1С? Кодинг во что-то новое может и перейдет, но людей потребует больше, а не меньше, потому что станет больше возможностей - больше продуктов - новые рынок и предложение. Тот же рынок аи-агентов, который сейчас абсолютно пустой, а завтра каждое мелкое предприятие на 3 человека захочет себе решение с интеграцией и кастомизацией, как это было с сайтами во время доткомов.
Тот же рынок аи-агентов, который сейчас абсолютно пустой
...потому что если не можешь нормально написать запрос к Mid Journey, чтобы нарисовать котика как ты хочешь, можешь попросить chatGPT написать за тебя запрос для Mid Journey.
Причем тут это и AI-агенты? Агент это продукт типа такого https://devin.ai/
бухгалтеров стало меньше на прям порядок (10 раз) с появлением компьюторизации - факт. Вы просто скорее всего не застали нативный бумажный складской и бухгалтерский учет, когда каждому перемещению вручную оформлялась и подшивалась в журналы бумага, а уж бухгалтера вечерком переписывали содержание этих бумаг в бухгалтерские реестры. Так же вручную. Вот даже не с 1С, а куда как более примитивными системами учета весь штат этих бухгалтеров, коих действительно были десятки, заменялись на одну модную девочку-оператора, 386й и принтер.
Бухгалтерия - штука довольно типовая, хорошо, что её автоматизировали. Но вообще до полной автоматизации всех сфер жизни ещё очень далеко. Пока будет что автоматизировать, нужда в программистах не исчезнет. И таких областей, нуждающихся в автоматизации, пока только больше становится. Так будет не всегда, конечно, но пока так.
бухгалтеров стало меньше на прям порядок (10 раз) с появлением компьюторизации - факт.
Факт выдуманный из головы? Ваш личный опыт с девочками и принтерами не является доказательством чего либо, надо смотреть статистику. Вот возьмем США:
Согласно The Bureau of Labor Statistics, на 1984 год в "accountants and auditors" занято 856,000 человек. В 2012 году, после всех этапов компьютеризации, их число составило 1,280,000 человек, на 49% больше. И продолжило расти

Как-то не видно что автоматизация их изжила.
Извините, но с 84го по 2012й прошло целое поколение в 28 лет. Несомненно учет подстроился под резко уменьшенную его себестоимость и ему снова понадобились люди, но уже по сути другой профессии, хотя и с тем же названием. Все же "водитель кобылы" и "водитель автомобиля" это разные профессии и для поколения водителей кобылы, коими мы с вами являемся, эта перестройка была не легким бременем.
я нигде не писал про легкость, я пишу про то, что новые орудия труда в конечном итоге увеличивают выпуск, так как это приносит больше денег. Если собственнику средств производства предложить на выбор увеличить доходы на 10% или на 10% уменьшить расходы, то абсолютное большинство выбирает рост доходов. Почему - тема полценной научной работы.
Может быть и так. Сейчас очень сложно предположить каким именно будет рынок труда во время AGI. Один вариант - да, получится как с компьютеризацией, с помощью ИИ мы начнём открывать те области, которых пока нет (например, как появилась новая область по доставке продуктов или по обслуживанию IT-систем). Другой вариант - ИИ будет эффективно выполнять всю ту работу, что можно сейчас сделать условно на удалёнке, тогда этот труд или перетечёт во что-нибудь другое или нет. Но там полностью неизведанная территория, я не знаю как это прогнозировать.
А я вам скажу, как прогнозировать.
Вас уволили. Печаль. Идете искать работу.
А теперь представьте, что за вами всегда и везде следует ваш приятель, который лучше во всем: выше, красивее, сильнее, умнее, просит в 10 раз меньше и готов работать 24/7 без пенсии.
Вы водитель - он шумахер, водит всё и ночью не спит.
Вы актер - он хоть шварцнеггер, хоть клава шифер, хоть одновременно и гундосить как гоблин умеет.
Вы скиллы выкатили, а у него, да покруче, не перечитать. Язык зулусов знает. Плюс на балалайке играет. И всё это за стоимость подписки.
Придумайте, куда податься, чтобы приятель не вытянул, если он по определению АГИ? Я не смог.
если все будут безработными, то для кого будет работать ваш приятель-ии? Кому капиталисты будут товары продавать? Чтобы заработать на производстве айфона надо чтобы были те, кто его купят, если все население нищее и сидит без работы, то айфоны даже по себестоимости никто не возьмет.
Это вопрос из другой плоскости.
Возможно он тревожит лучшие умы, поэтому тянут резину.
Всё может случиться внезапно. Пару лет назад ролики с антропоморфными роботами без слез не взглянешь, теперь уже и ходят и бегают и шевелятся бодро, пальчиками чего-то хватают.
Еще год-два, манипулятор допилят и выпустят в продакшн. Купил штук пять на "Магнит", будут шуршать круглосуточно, расставляя товар по полкам, а работников торгового зала - на мороз. Вам их жалко? Вот и мне не очень, я-то не продаван.
С этого и начнется, а потом джинна уже в бутылку не загонишь
Думаю, немножко не те цифры будут. Вместо 20 программистов по 4к останется один оператор по работе с нейросетью, ну, может за 8к. И ещё подписка на AI не за 20 долларов, а побольше. Оператор будет знать о возможностях и ограничениях нейросети и как ей правильно скормить запрос постановщика задачи.
Надеюсь что у Ратибора просто родители дегенераты а не осознанная потребность так себя называть
При этом нейросеть не устает, не берет отпуск и не просит повышения. Google уже генерирует четверть своего кода с помощью ИИ, а точность нейросетей в решении алгоритмических задач приближается к человеческой.
Вот только есть нюанс, современные агенты к моделям действительно решают задачки, математические например на поступление, но цена вопроса далеко не 20 баксов в месяц. Задачка вроде как обходится в 1к зелёных. А по подписке они не идут. да и про подписку говорят, что щас она чисто замануха и не окупается. А в программировании задачку надо ещё увидеть, а это куда сложнее.
Победит бомж с помойки за пирожок. Представляете сколько пирожков можно купить за $20?
ИИ пока хорошо пишет шаблонные вещи, как только заходим в не шаблонный код все ослик встал.
Новости: скоро нейросети заменят программистов, нужно только точно и подробно поставить задачу и они все сделают сами.
Программист: фух, можно не бояться.
С точки зрения разработки электроники и ПО уровня выше JS-макаки, GPT - это просто довольно хороший ПОИСКОВИК, но часто очень сильно врущий. Если вам лень перерывать кучу форумов/статей/обучалок итд..., что бы найти какой-то ответ, то GPT !!ИНОГДА!! может вам дать хорошее направление поиска. Но его все равно нужно глубоко перепроверять, так как с более чем 50-60% там будут куча косяков.
Поймите, вы, одно! GPT всегда старается быть похожим на человека! ВСЕ! Это его единственная задача, не придумать вам код, не проанализировать решение, не разумно мыслить))) Он просто пытается внешне походить на ответы человека!
Если вашего вопроса уровня Ctrl+C /Ctrl+V нет на форумах, нет в описаниях, нет в примерах, нет в легко доступных источниках - все давай досвидания, Он вам выдать просто сраную ахинею!
Почему на некоторые вопросы он отвечает красиво - потому что какой то очередной вопрос рандомной JS-макаки рассусолен в 100 статьях, и 500 форумных тем...
Было безумно забавно смотреть на GPT когда он мне один раз выдал странную вещь по Rust - написал в целом нужный мне код в котором были парочка странных ошибок. Ради интереса я загуглил. И нашел ТОЧНО ТАКОЙ ЖЕ ДО БУКВЫ КОД, на одном из форумов где чувак спрашивает, почему у него он не работает, и именно эти парочку странных ошибок народ ему там помогает исправлять, но GPT естественно их не исправил, а сделал Ctrl+C /Ctrl+V )))))
Какую ахинею он несет по микроконтроллерам / ПЛИС и прочим железным штукам... Там просто безумее... забавно когда он пытается запихнуть говно код под STM32(а то и под AVR), который кстати тоже обычно только "похожий" на рабочий, везде где только появляется слово микроконтроллер, и не важно про какой чип или семейство идет речь... Как говорится - о чем больше информации в процентном соотношении в интеренете то и пихает ))) А слово FPGA его добивает окончательно...
возможно для каких-то более специализированных вещей так и есть, но с веб-разработкой современные модели справляются очень хорошо. 50-60% случаев с косяками давно не наблюдаю, а если косяки и появляются довольно часто проблема в том, что я сам не точно сформулировал запрос.
Скорее веб разработка эта специализированная вещь, с безгранично доступным кодом и говнокодом для обучения, в которой GPT над...чился. Но это даже не 5% от всей остальной мировой как вы говорите "специализированной" разработки... И судить только по ней, как некоторые люди кричат "ИИ!!! скайнет!!! заменит хххх кодописов!!! молитесь кожанные мешки!!!", как минимум странно и узко...
Можно ли заменить разработчика в машинных кодах на ассемблер и промпт-инженера на ассемблере?
Можно ли заменить разработчика на ассемблере на компилятор C и промпт-инженера на C?
Это вопрос из разряда "можно ли заменить лошадь на робота, чтобы робот вёз карету?".
Автомобиль появился в 1885 году, а робот смог заменить лошадь ли в 2022 году https://www.youtube.com/watch?v=lTlQkO0oAmw
Пользователю нейросети не нужны "красивые шашечки",
пользователю нейросети нужно "ехать", а что там под капотом ему не интересно:
нейросеть не просят "напиши мне программу, которая нарисует котика"
нейросеть просят "нарисуй мне котика", а код который рисует котика пользователю не нужен.
Замена программистов нейросетью - это:
не нейросеть которая пишет программный код
а это нейросеть, которая на ходу генерирует интерактивное видео с работающей программой
Почитал прения.
Вроде программисты, умные люди (должны быть), умеющие в тренды, ан нет.
Три года назад.
Аааа! Гы-гы-гы.... Посмотрите как оно завершило строку. Ха-ха-ха. Т9 и то способнее.
Два года назад.
Аааа! Гы-гы-гы.... Посмотрите как дописана функцию. Ха-ха-ха.
Да любой вкатун получше сбацает.
Год назад.
Аааа! Гы-гы-гы.... Посмотрите, оно скуксилось уже на втором экране кода.
Тю, любой джун покруче будет
Наше время.
Аааа! Гы-гы-гы.... Посмотрите .....
Фи... даже на мидла не тянет, джун на троечку и то с натягом.
И эти ржаки, как я подозреваю, издают одни и те же люди с памятью золотой рыбки, способные только к сиюминутной оценке ситуации.
Касательно сабджа, вопрос только в "когда". И это "когда" не за горами.
Отдельное удивление адептам офигительной ответственности кодера. Да если оно рухнет! Да апокалипсис неизбежен! Нужна точность шесть девяток, а иначе всему крантыыыы! Поэтому живой кодер! Маст фореве!!!!
Да нифига подобного. Уйма народа пишет всякую срань, которая вылезает изо всех щелей любого сайта, уезжающие кнопки, выпрыгивающие консультанты, выскакивающие мотиваторы, заманухи, залепухи, порнухи, рекламухи и такого хлама тонны и приложенек к ним в придачу.
Вот это всё из заменят на двадцатибаксового робота и никто не заметит разницы. Лишних - на мороз. Работоспособных - в стойло. Тем, кто уже в стойле - уполовинить зарплату.
И так оно и будет
Замена программиста на нейросеть пишущую код программы - это замена лошади на робота везущего карету.
В реальности, лошадей заменили не роботы запряжённые в кареты, а автомобили. Нейросеть может заменить саму программу на интерактивную генерацию видео показывающего работу программы. Уже сейчас GPT начал убивать поиск Google и Яндекса
Вы зря везде лошадь тулите.
Сейчас мы видим человека, который либо сам тащит воз, либо с криками "я знаю куда вам надо" хлещет лошадь, нагруженную вашими пожитками.
Так вот, принципиальная разница в том, что меняют не живую лошадь на механическую или на робота, а кучера. Оказывается робот тоже может знать, куда вам надо и потащит вашу телегу по назначению без кучера.
С воза выпала не лошадь, с воза выпадает погонщик.
И эти кучера-погонщики очень бодро минусят карму :-). Мстительные мелочные людишки.

Пример. Какие-то люди, несомненно считающие себя мегакодерами нафлудили вот это всё во вкладку "Сервисы" Вконтакта. Они считают, что знают, куда мне надо и понавалили, извозчики-кучеры, бана-мать. Мне туда не надо, но, допустим, надо, край как приспичило в морской бой рубануться, гороскопы или овечку погонять. Что из этого не напишет робот?
Вот это всё - на мороз.
А вещи, которые критичны, составляют мизер от хлама выше. Видимо в них, критичных приложениях, и будут обитать вымирающие динозавры с мегаокладами и заоблачным ЧСВ, а писатели маджонгов и любимой_фермы_8 - на мороз и очень скоро
Это уже не радикальные фантазии, а вполне себе тренд. Может, не видео прямо, но динамическая ИИ-прослойка. Вот, например:
Сатья Наделла, генеральный директор Microsoft, недавно изложил смелое видение будущего бизнес-приложений в мире, где доминирует искусственный интеллект. По его словам, эпоха SaaS, какой мы ее знаем, подходит к концу, уступая место интегрированным платформам, где ИИ становится центральным двигателем. Эта трансформация готова разрушить традиционные инструменты и рабочие процессы, проложив путь новому поколению приложений.
Главное не путать "тренды" и "ошибки экстраполяции" ;)
Рутину ИИ безусловно заменит. И не только рутину. И роботакси будут и робопрограммисты. Но ещё не прямо сейчас. Что и обсуждается. В будущем может быть что угодно, конечно. В будущем может человечество вообще вымрет, или к примеру будет жить в зоопарках, как сейчас человекообразные обезьяны. А ИИ будет царствовать и на Земле и дальше в космосе.
Так все просто. Тем, кто верит в недоИИ предлагается делом доказать их веру и поставить будущее своего бизнеса в ависимость от недоИИ, а персонал уволить. Чего тормозят то? Ведь только богаче станут. Или таки нет :)
все гениальные расчеты строятся на том, что бизнесу типа окей оставаться в текущем состоянии, 50% делает нейросеть значит 50% разрабов можно уволить. Правда нахрена это делать, когда можно начать просто делать на 50% больше тасок и обходить конкурентов, это большой вопрос.
я конечно говорю про среднестатистическую продуктовую или аутсорс компанию, бигтехи тонущие в своей бюрократии разговор другой
Кто-то открыл пропасть минусаторов 😃
Здесь и сейчас рано подымать такие темы, тем более среди возрастной группы 25+.
То о чем пишет автор буду делать и реализовывать молодежь, которая не боится рисковать, не выросла по НАДЗОРОМ дяди боса или Лида. Те которым просто пофиг. Вот они и благодаря им и будут появляться компании миилионниеи и единороги на голом ИИ. И да такие уже есть, просто начните гуглить.
Начнётся всё с автотестов. Нейросети начнут писать автотесты. Они простые, линейные, одинаковые. Если не с первого раза, то через год-два ИИ научится их писать лучше людей.
Недавно искал информацию по компьютерной игре и стало интересно, сможет ли ее мне найти нейронка. Казалось бы, если гугл справится, то и нейронка сможет, правда? Спойлер — даже не близко.
Вопрос был следующий - какие треки можно сыграть в игре GTA San Andreas в танцевальной миниигре в ночном клубе? Пробовал и DeepSeek с обдумыванием и без, и ChatGPT в разных версиях, и даже, прости господи, GigaChat. Все выдавали либо галлюцинированный список песен примерно того времени, в котором происходит сюжет игры, либо же вообще ультимативное «там просто безымянные песни, написанные разработчиками, отмеченные в коде как song_1, song_2 и song_3». В гугле эта информация находится в первой пятерке результатов на каком-то форуме. А вы говорите, программиста заменить…
Claude:
В танцевальной мини-игре в клубе в GTA San Andreas представлены следующие треки:
"Running Away" от Roy Ayers
"Rock Creek Park" от The Blackbyrds
"Hot Pants" от Bobby Byrd
"Hollywood Swinging" от Kool & the Gang
"Love Rollercoaster" от Ohio Players
"Express Yourself" от Charles Wright & the Watts 103rd Street Rhythm Band
o3-mini:
В GTA San Andreas существует специальная миниигра – танцевальный конкурс в ночном клубе, где во время танца играют заранее зафиксированные треки.
• Один из трёх музыкальных треков, сопровождающих танцевальную миниигру – это композиция Kool & the Gang «Hollywood Swinging». Именно этот трек звучит, например, на втором уровне конкурса, и именно он часто упоминается фанатами как классика для такого мероприятия.
• Кроме «Hollywood Swinging» существуют ещё два трека, которые можно разблокировать по мере набора очков в миниигре. После успешного прохождения первого или второго этапа игрок получает возможность сыграть следующий трек – его часто называют «Funky» или дающим более зажигательный фанк, хотя точное название второго (и, возможно, третьего) трека может варьироваться в зависимости от версии игры и локализации.
Не в контексте, поэтому не могу оценить уровень галлюцинаций.
Вангую миллиард комментов "нет, не может" от недооцененных, никем не понятых, очень важных, очень умных и незаменимых программистов.
Сейчас очень промежуточный период бурного развития и слабого понимания работы, зачаточного состояния новых методов. Агентские и "думающие" по шагам системы буквально только появляются. Мультимодальность, без которой невозможно представить себе полноценную работу большинства программистов тоже в зачаточном состоянии. Экстраполировать текущий уровень развития крайне неразумно.
Вот ровно 1.5 года назад в бесплатной ChatGPT был контекст то ли 4000, то ли 8000 токенов, в платной до 32000, но они были очень сомнительные. Сейчас 128K, а Google вот, тоже бесплатно доступен и даёт уже 2 миллиона токенов. Можем мы предположить что появится хотя бы через пару лет? Может быть всё описанное будет вспоминаться как детские болезни - чрезмерное галлюцинирование, например, или забывчивость о каких-то поставленных задачах.
Интуитивно мы видим в любой технологии просто инструмент и нам кажется, что вот, просто программисты перейдут на другой уровень, будут уже промпты писать. Почему-то не осознаётся тот факт, что ИИ может превзойти интеллект программиста и зачем тогда нужно лишнее звено, каким бы вдумчивым, планирующим и ответственным оно себя не считало?
И вы сами наступаете на собственные же грабли - начинаете ванговать в рамках вашего мировоззрения))
Я согласен, что пока совершенно непонятно как это можно будет интегрировать в повседневную жизнь. Но вы сразу рубите с плеча - "превзойдёт программистов"... А зачем они вообще будут нужны? Для кого код писать? Для каких устройств? Если у вас, вместо интерфейса любого гаджета возможно и так нейросетка будет... Ну как usb-порт сейчас))
Я об этом и пишу, собственно, что сначала программисты начнут вместо написания кода писать промпты, просто переводя требования заказчика. А в будущем и данная интеллектуальная деятельность тоже может быть заменена ИИ, как электроника заменила лифтёров или зажигателей фонарей.
Тут интересно, что при развитии до такого уровня, вообще вся в целом интеллектуальная деятельность может быть заменена. Менеджмент, кассиры, писатели, врачи. Наверное, проблема конкуренции с ИИ коснётся всех примерно сразу, и потому не то чтобы программисты в каком то особо уязвимом положении. Интересно будет увидеть, как распределение ресурсов изменится после этого.
Для кого код писать? Для каких устройств? Если у вас, вместо интерфейса любого гаджета возможно и так нейросетка будет..
И будет у вас как в том анекдоте:
-- Вот все хвалят этого Карузо, а как по мне голос слабый, в ноты не попадает, картавит.
-- Вы были на концерте Карузо?
-- Нет, мне Рабинович напел.
Вот хотите вы, например, посмотреть фильм. Просите нейросеть показать его. Что она должна сделать? Сгенерировать его прямо на вашем смартфоне или всё-таки найти в сети и показать? Но в сети он будет в виде потока, закодированного каким-то детерминированным кодеком. Этот кодек должен кто-то предварительно написать, из воздуха он не появится.
Алгоритм нейросети, протоколы связи, даже интерфейс смартфона, в котором вы делаете запросы к нейросети - это всё программы, для написания которых требуются программисты.
Ну погнали по порядку:
Вот хотите вы, например, посмотреть фильм. Просите нейросеть показать его. Что она должна сделать?
Сгенерировать видеоряд и озвучку. "Искать в сети" у меня уже сейчас нет никакой нужды - я умею пользоваться Гуглом.
Ну и первое что приходит на ум, когда упоминают нейросети - эта генерация контента по запросу. Потому что тут не стоит требования "не просто выглядело правдоподобно, но и было правдой". Я первым делом сейчас лезу щупать нейросетки не в плане того как они решают задачи, а как "фантазируют" (фантазируют пока из рук вон плохо - слишком предсказуемо). Но по мелочи их можно уже юзать в этом аспекте практически. Адекватный сценарий она не напишет, но план и варианты сюжетных веток накидать может.
Дальше наш порядок вдруг заканчивается, потому что вы решили что мне зачем-то надо будет через неё именно искать фильм в сети))
Ну допустим приспичит мне поискать (типа интерфейс в браузере). Вам существующих кодеков мало? Каким кодеком оно будет закодировано в абстрактной точке времени, кем он будет написан и какие там потенциальные проблемы могут появится при декодировании - я совершенно без понятия! И мне не думается что это вырастет в какую-то неразрешимую проблематику)) Научить нейросеть писать кодеки - тоже не кажется чем-то из ряда вон...
Алгоритм нейросети, протоколы связи, даже интерфейс смартфона, в котором вы делаете запросы к нейросети - это всё программы, для написания которых требуются программисты.
Опять-таки, многое из этого может и неройсеть писать. Интерфейс смартфона так она вообще по моему желанию должна менять)) Даже самих себя могут писать - снова не вижу потенциально нерешаемой проблемы. Да, такая вот "рекурсия" получится))
Дальше, я не говорю что не нужны будут вообще ВСЕ программисты - есть ряд вещей, к которым нейросети в здравом уме никто не подпустит! Есть ещё всякая специфичная проприетарщина (порой с паяльником на коленке)...
Но их уже сейчас в ИДЕхи вставляют по полной, вы уже пользуетесь "нейросетевым кодом" (как минимум, от моего лица). Вы этот момент из виду не упускаете? Что нейросети попросту будут встроены в "софт для написания кода" ;)
Я вообще не большой поклонник "диванной футурологии". И к чему был ваш бородатый анекдот, так и не сумел понять...
Сгенерировать видеоряд и озвучку.
Хорошо. Нейросеть, сгенерируй мне фильм "Титаник". И что она должна сделать? Я не хочу смотреть нечто, выдаваемое нейросетью за известный (или малоизвестный) фильм. Я хочу посмотреть именно этот фильм, в его оригинальном видеоряде и озвучке.
мне зачем-то надо будет через неё именно искать фильм в сети
Так у вас же больше ничего нет, одни нейросети.
Опять-таки, многое из этого может и неройсеть писать.
Как только нужно что-то детерминированное, у нейросети возникают проблемы. Сгенерировать абстрактного "котёнка" - это без проблем. Сгенерировать код протокола TCP по стандарту RFC9293 уже будут проблемы.
И к чему был ваш бородатый анекдот, так и не сумел понять
К тому, что вместо Карузо вы будете слушать его перепевку нейросетью.
Я не хочу смотреть нечто, выдаваемое нейросетью за известный (или малоизвестный) фильм. Я хочу посмотреть именно этот фильм, в его оригинальном видеоряде и озвучке.
А, ну тогда попросите найти. Тоже мне проблема...
Вы реально думаете что она кодеков не найдёт для воспроизведения?)) Даже у меня на персональном ПК достаточно софта, чтобы воспроизвести вам любой видеоформат. Вот даже специально глянул - у меня PotPlayer "из коробки" корректно воспроизводит raw-видео с зеркалки. Да что там, я вам даже флэш-файл (ActionScript) сейчас спокойно воспроизведу... Это не какие-то "утраченные технологии великой цивилизации"))
Так у вас же больше ничего нет, одни нейросети.
Отнюдь. Нейросети, разумеется, не покроют всего "пула цифровых нужд". Чтобы не растекаться мыслью по древу, дам прямую аналогию - первые процессоры опционально шли с математическим сопроцессором. Просто потому, что есть "полупроводниковые технологии" на порядок эффективнее "общепринятых" в контексте тех или иных задач.
Нейросети могут кардинально поменять подход в проектировании интерфейсов, вот что имелось в виду. А могут и не поменять - тут уж как карта ляжет))
Как только нужно что-то детерминированное, у нейросети возникают проблемы. Сгенерировать абстрактного "котёнка" - это без проблем.
Ровно противоположные ощущения. Конкретику она как раз очень хорошо в недрах своей модели откапывает. Скажем так, в "формате Википедии" они пригодны для полноценного использования уже сейчас. А вот с абстракциями совсем всё грустно - оно и понятно, это никакой не "интеллект"))
Сгенерировать код протокола TCP по стандарту RFC9293 уже будут проблемы.
Имхо, самый простой тип задач для них - раз есть некий стандарт, значит с ним можно ознакомиться и строго следовать ему.
К тому, что вместо Карузо вы будете слушать его перепевку нейросетью.
Ага, понял. С чего бы начать... Давайте с моего любимого - раз уж вы игнорируете сам принцип, подвигаем немного границы ваших расплывчатых критериев))
Скажем так, назовёте нижнюю границу частоты дискретизации, при которой для вас это уже будет не Карузо, а Мойша? Я вот кое-что даже в midi могу слушать - вроде ничего, не сильно страдаю ;)
И в итоге мы придём к тому, что "труЪ-Карузо" это исключительно партер Ла Скала в период его творческого пика. Что ж мне теперь Карузо не слушать?))
Вы вообще претензии не по адресу отправляете. Суть их я понимаю - вон, многие уже сейчас озаботились "достоверностью контента". Только я тут причём, что вы на меня какую-то морально-этическую проблематику взваливаете?)) Я даже проповедником этих нейросеток не являюсь - скорее наоборот.
Так что пусть об этом голова болит у тех, кто пишет эти нейросети.
Уже 30 лет как существуют генераторы бойлерплейтов. Сегодня бойлерплейты выдает ллм-ка. Ничего особенно не изменилось кроме того, что возможность генерации бойлерплейтов заметили гуманитарии. Так что у нас получается: бойлерплейт убьет программистов? А почему 30 лет как не убил?
В соседней теме Число безработных IT-специалистов в США выросло до 152 000 человек
Стоит понимать, что аргументы о несовершенности, галлюцинировании GPT и прочих нейросетей на данный момент — недостаточный аргумент. Любой работодатель готов мириться с процентом ошибок и сбоев, который на текущий момент выдают нейросети, если речь идет о некритичных задачах или проектах.
Любой работодатель готов мириться с процентом ошибок и сбоев,
и тут «Боинг» такой: «подержи моё пиво!»
Мне чат помогает в тех вещах, где я могу проверить его ответ. Например, мне нужно быстро джсончик создать большой или тестовые данные. Иногда может как-то красиво оптимизировать код или придумать имена переменным или коммитам, когда нет фантазии. С кодом тоже помогает, но я знаю, как ему составить запрос и очень часто он только раза с 5 поймет, что нужно или не сможет выкрутиться, и нужно будет искать в других источниках. Если кто-то думает, что чат сможет помочь тем, кто не разбирается, то это удачи им
Программист за $4000 против ChatGPT за $20: кто победит в 2025?