
Комментарии 9
Сейчас нейронка напишет супервирус и убежит в сеть.
Попросил ChatGPT сделать краткую выжимку по пунктам указанного гайда. Пункт первый: "универсального подхода нет - экспериментируйте".
почему нейронка не может сама себе промпты писать? Когда ей говоришь: выбери и возьми себе подходящую роль что-то еще более менее.
А вот если спрашиваешь, как бы ты сам написал промпт, если бы тебе надо было создать семантическое ядро, он просто идеальный промпт создает и потом сам же по нему работает? Крч, вопрос - почему он автоматом не может себе промпты формулировать?
Очевидный ответ-его это не учили.
Нейронки умеют писать промпты и делают это неплохо.
Но прежде, чем написать промпт, модели нужно понять, что от нее хотят: задачу, формат вывода, ограничения, весь нужный контекст (кто делает, для кого, какие есть ресурсы, делали ли что-то раньше и т. п.)
В персональных задачах достаточно дать модели задачу, попросить первым ответом задать уточняющие вопросы, а затем, получив информацию, ответить. Грубо говоря: "я планирую поехать в Турцию, спроси всю нужную информацию, затем предложи мне три плана поездки". Модель в ответ вывалит целый список вопросов (когда, кто едет, какой бюджет, хочется лежать на пляже или смотреть достопримечательности, готовы ли арендовать машину - и еще десяток вопросов), затем предложит вполне вменяемые варианты.
Если же говорить про руководство выше, то оно заточено больше на API: через него часто строят ИИ-ассистентов, а им надо задать инструкции. Но и в руководстве есть рассказ, как использовать GPT-5.1 для улучшения собственных промптов.
видимо бывают случаи, когда юзеру надо чтоб ИИ ответил именно на такой промпт, который написал юзер, без предварительных улучшений самим ИИ
ИИ не может сформулировать сам себе промт, потому что у него нет на это причины. Построение диалога идет следующим образом запрос - ответ. ИИ ждет поставленной ему задачи. Он не может первый начать диалог. Весь диалог строится от первого сообщения. Поэтому, если в первом сообщении дать задание на построение промта - он его выполнит. Нужно всего лишь задать направление - что делаем - как делаем - что ждем на выходе. Еще одна глобальная ошибка - заставить ИИ на себя примерить роль - писателя, учителя - кого угодно. Он автоматом начинает фантанировать галлюцинации - так как ролевой командой ему развязывают руки. С одной стороны - он получает определенный вектор направления, с другой - начинает отыгрывать роль без каких либо ограничений. Еще один нюанс - один чат под одно задание. Т.е. - если в чате дали задание на написание промта - то этот промт лучше всего запустить в новом чате первым сообщением.

Это у 5.1 такая защита от создания God Object :)))
OpenAI раскрыла секреты промптинга GPT-5.1