Комментарии 20
Это мне сегодня выдал гуглевский поиск. Причем два раза. Я даже не понимаю, как получилось вставить такую в поиск (явно случайно, но вроде ничего такого не набирал)...

Спасибо! Есть над чем подумать. Но вот человек с 4 пальцами, кейс в поляне реальный :)
Все врут ( © House M.D.)
Гуглевский ИИ предложил мне доставку электричества на дом курьером.

Наверное, он привезёт ящик батареек.
Смотрю на эти пляски с бубном, и начинает казаться, что руками сделать легче.
Или может, мини-код написать который на каждый запрос задаст все нужные вопросы и составит промпт.
мы все так пишем запросы чату GPT.
Не, братан, так пишут запросы только те кто хочет чтобы всю логику и архитектуру за него построил ИИ-помощник. А они в этом деле пока что не преуспевают. Так что люди на опыте пишут точечные запросы наваливая контекста. Я чаще всего пишу интерфейсы и полное описание методов и классов которые хочу получить от ChatGPT. Это даёт максимально контролируемое качество кода.
С таким подходом проще уже самому написать. Что в бота пишешь что в блокнот, один черт
Вообще нет. Ведь при написании кода даже простого ты тратишь внимание и когнитивную активность. И даже самые внимательные местами допускают ошибки. По моему опыту ИИ отлично справляется с написанием кода от простого до средне-сложного. Соответственно ты снимаешь с себя необходимость парится над реализацией, просто четко описываешь что и в каком виде хочешь получить. Отгрузить ИИ один метод - сравнительно бессмысленно, отгрузить ИИ 100 методов это про офигительный прирост производительности.
И даже самые внимательные местами допускают ошибки
А самые ленивые (а хорошие программисты — ленивые) пишут маленький скрипт, который ошибок не допускает.
просто четко описываешь что и в каком виде хочешь получить.
И в очередной раз

Точно. Я не разу не программист, но с таким подходом заканчиваю приложение. Уже в открытом тестировании Гугл Плей.
1) Я не пишу запросы на русском. Учитывая количество данных и соотношение представленных языков для претрейна/sft/RLHF, делать запросы на русском это стрелять себе в ногу. Ну только если вы не пользуетесь гигачатом каким-нибудь, но тут вопросов ещё больше возникает...
2) Я не использую чат, а пользуюсь встроенным в IDE тулом, который через API запускает модель в режиме агента. Можно курсор если лень настраивать, можно cline/roocode/aider. Таким образом модель автоматом имеет на вход нужный контекст, может сама поискать по файлам дополнительный контекст, понять устройство репозитория, погуглить в крайнем случае если модель не имеет каких-то знаний. И даже запустить код, но мне нерелевантно ибо основной код это обучение нейронок, и просто так его не позапускаешь, хотя с примерами входа-выхода вполне можно тестить базовые вещи. Не совсем понимаю людей которые в 2025 используют тупо чат для кодинга.
3) Я использую системные промпты и меняю модели в зависимости от желаемого результата. У меня есть пресет на "объясни подробно код", для проектировки классов я запускаю модели с reasoning, и дальше уже реализую методы и функции частично сам, частично с ллм, по ходу проверяя тестами работоспособность сложных для ллм мест. Учитывая пункт 2, любую ошибку можно легко кинуть дальше в агента/чат и ллм сама достанет из кода проблемные места, предложит решение или хотя бы добавит в код всяких выводов для дебага для локализации проблемы.
3*) Если изначальная задача сложна и я не понимаю как это в целом должно работать, то я иду в перплексити и делаю deep research на возможные подходы к решению моей проблемы/фичи. Например, если мне нужно уменьшить kv кеш обучаемого трансформеров, я не буду это в тупую просить закодить(на такой запрос ллм может тупо разбить на чанки и запускать почанково, что далеко не самый оптимальных подход, но самый простой), я пойду в ppl, загуглю подходы, выберу что-нибудь (например sliding window через flex attention) и уже это сначала спроектирую, а потом реализую.
Вещи, которые ллм видела слишком часто при обучение не получится исправить никаким промптом. Ллм будет выдавать их практически всегда. Поэтому и мусор она будет генерить всегда.
Интересно, когда ИИ начнёт обращаться в суд или искать другие способы выполнить обещания в выплате обещанных ему 1.000.000$, которые мы указали в промпте? :)
Я устал править за нейросетью — теперь пишу промпты по-другому