Комментарии 7
Признаком LLM-текста для меня зачастую являются слова, которые редко употребляются в обычном русском языке, а их аналоги часто употребляются в английском: нарратив, рамка, поверхность (API), удерживает (назначение), оптика... Но частое общение с LLM делает эти обороты более привычными. Это как "дорожная карта" (roadmap) - резало слух поначалу, затем попривык. Раньше всегда говорили "план" в таких случаях: "Есть ли у вас дорожная карта, мистер Фикс?"
Как англоязычный стиль разговора проникает в другие языки, так и стиль "разговора" Моделей проникает в наше человеческое мышление. Я уверен, что для эффективного использования Моделей нужно применять в общении эффективные "штапмы". Те из "кожанных", кто не сможет подавить в себе неприятие "нового стиля", просто будут менее эффективны (суть - менее полезны в человеческо-компьютерном обществе). Это не про выживаемость, если что, а про благосостояние (вот и штампик "Не А, а Б"!).
Любая конструкция, которая задаёт отношение между объектами — это инструмент мышления. Запрещая её, вы убираете не украшение, а связь.
Можно ещё выполнить постобработку текста - запросить ту же LLM убрать все эти шаблоны после генерации.
А насколько влияет, и в какую сторону, использование инструкций составленных на основе COSTAR/COSTAR-A prompting framework перед основным запросом?
Да, разделение работы с текстом на два этапа - смысловой и стилистический, риски практически снимает. Надо только проговорить во втором промпте критичность сохранения смысла и логических связей.
COSTAR обычно и формирует основной запрос. O - и есть задача. В целом влияет положительно, в первую очередь, за счёт структуры промпта - вы точно не пропустите важные для ЛЛМ элементы. А остальное будет зависеть от наполнения. Если вы в T - тон, поставите требование сухого научного языка и одновременно, чтобы было понятно школьникам, модель поплывёт.
COSTAR обычно и формирует основной запрос. O - и есть задача.
А я не так использую. У меня есть промпт на основе COSTAR для генерации других промптов под конкретную роль и также на основе COSTAR. Например, я прошу сгенерировать промпт для роли "редактор журнала на русском языке для генерации и правки текста", получаю такой промпт, в другом окне чата с нейросетью вставляю уже его, роль редактора "принята" и дальше уже можно просить генерировать или править текст. Насколько это эффективно?
Эффективнее, чем писать руками. Другой вопрос, что ллм не знает, чего не знает.
Я бы перед формированием базового промпта перечислил все требования к редактору, попросил бы ллм его раскритиковать и добавить свои пункты. И потом на основании этого попросил сформировать ролевой промпт.
А дальше итерационные исправления.в случае необходимости.

Штампы LLM. Разбираю с новой точки зрения