Обновить

Комментарии 7

Признаком LLM-текста для меня зачастую являются слова, которые редко употребляются в обычном русском языке, а их аналоги часто употребляются в английском: нарратив, рамка, поверхность (API), удерживает (назначение), оптика... Но частое общение с LLM делает эти обороты более привычными. Это как "дорожная карта" (roadmap) - резало слух поначалу, затем попривык. Раньше всегда говорили "план" в таких случаях: "Есть ли у вас дорожная карта, мистер Фикс?"

Как англоязычный стиль разговора проникает в другие языки, так и стиль "разговора" Моделей проникает в наше человеческое мышление. Я уверен, что для эффективного использования Моделей нужно применять в общении эффективные "штапмы". Те из "кожанных", кто не сможет подавить в себе неприятие "нового стиля", просто будут менее эффективны (суть - менее полезны в человеческо-компьютерном обществе). Это не про выживаемость, если что, а про благосостояние (вот и штампик "Не А, а Б"!).

Тут ещё и "про" )). У меня к нему личная антипатия, не могу изжить.

"Про" - это моё, "кожаное" :) Когда-то, давным давно, я, скорее всего, написал бы "о". В школе - так точно. Но... вот такие паттерны у меня сложились.

Любая конструкция, которая задаёт отношение между объектами — это инструмент мышления. Запрещая её, вы убираете не украшение, а связь.

Можно ещё выполнить постобработку текста - запросить ту же LLM убрать все эти шаблоны после генерации.

А насколько влияет, и в какую сторону, использование инструкций составленных на основе COSTAR/COSTAR-A prompting framework перед основным запросом?

Да, разделение работы с текстом на два этапа - смысловой и стилистический, риски практически снимает. Надо только проговорить во втором промпте критичность сохранения смысла и логических связей.

COSTAR обычно и формирует основной запрос. O - и есть задача. В целом влияет положительно, в первую очередь, за счёт структуры промпта - вы точно не пропустите важные для ЛЛМ элементы. А остальное будет зависеть от наполнения. Если вы в T - тон, поставите требование сухого научного языка и одновременно, чтобы было понятно школьникам, модель поплывёт.

COSTAR обычно и формирует основной запрос. O - и есть задача.

А я не так использую. У меня есть промпт на основе COSTAR для генерации других промптов под конкретную роль и также на основе COSTAR. Например, я прошу сгенерировать промпт для роли "редактор журнала на русском языке для генерации и правки текста", получаю такой промпт, в другом окне чата с нейросетью вставляю уже его, роль редактора "принята" и дальше уже можно просить генерировать или править текст. Насколько это эффективно?

Эффективнее, чем писать руками. Другой вопрос, что ллм не знает, чего не знает.

Я бы перед формированием базового промпта перечислил все требования к редактору, попросил бы ллм его раскритиковать и добавить свои пункты. И потом на основании этого попросил сформировать ролевой промпт.

А дальше итерационные исправления.в случае необходимости.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации