Комментарии 13
Спасибо за статью! Ссылка на репо битая, 404 отдаёт.
Пожалуйста и спасибо. Ссылку поправил. https://github.com/xronocode/grace-docx
Во-первых
Зачем нужны эти промпты для редактирования, если представлена вот такая примитивная задача?
Добавь в раздел 4.2 новый пункт про порядок согласования
Открыть документ, дойти до нужного фрагмента и дописать его — это легче и быстрее, чем создавать для большой языковой модели инструкции с помощью особого промпта с Хабра, описывать собственно сами изменения, а потом перепроверять и исправлять работу за роботом. Думаю, в случаях, когда у промпта есть название, ситуация по определению переусложнена.
Во-вторых
Зачем редактировать тексты с помощью больших языковых моделей? На выходе получается какой-то однотипный кошмар, в котором немедленно угадывается искусственный интеллект.
Просто посмотрите, как тут всё ужасно с ритмом, везде рублёные предложения:
Вы открываете чат. Загружаете договор на 80 страниц или корпоративный регламент на 200. Пишете: «Добавь в раздел 4.2 новый пункт про порядок согласования».
AI читает весь документ целиком. Находит (или не находит) нужное место. Что‑то вставляет. Иногда попадает, иногда — нет.
«Это не А, это Б», где желательно как можно сильнее обозначить паузу между фрагментами:
Это не баг конкретной модели, это архитектурное свойство трансформеров.
Дело не в мощности модели. Дело в том, что она работает вслепую
Агент работает не вслепую – он читает граф, находит нужный модуль, следует контракту, верифицирует результат.
Разница принципиальная: агент не угадывает. Он следует протоколу, который сам же и составил.
В тексте 2 длинных тире, шириной с букву M (em-dash), и 26 коротких тире, шириной с букву N (en-dash). Em-dash только в первых четырёх абзацах, кстати.
Откровенная ошибка:
Исследование Chroma (2025) протестировало 18 frontier-моделей и обнаружило: каждая деградирует при каждом шаге увеличения контекста – включая GPT-4.1, Claude Opus 4 и Gemini 2.5. Это не баг конкретной модели, это архитектурное свойство трансформеров.
У вас ссылка на статью Chroma некликабельна.
В статье Chroma есть предложение, которое буквально утверждает обратное: «We also do not explain the mechanisms behind this performance degradation». То есть работа не может объяснить механизмы деградации. Слова «architecture» в той статье вообще нет.
В-третьих
У меня такое впечатление, что либо я сошёл с ума, либо половина Интернета рехнулась. Сначала языковую модель либо просят написать текст с нуля, либо что-то подровнять в полуготовом черновике, и БЯМ выдаёт много этого машинного текста. Полученное всегда выглядит как слоп: одни и те же языковые обороты, раздражающий темп речи, характерные однотипные привычки в использовании форматирования (выделения италиком и полужирным) и знаков препинания (избыток тире, дефисов). Затем это всё публикуется от своего имени, будто так и должно быть, будто никто не видит, что это машинный текст этого неприятного стиля.
В отдельных случаях бывает так, что у автора уже есть отличный черновик, в котором достаточно просто подровнять опечатки и убрать ошибки пунктуации. Но при этом автор зачем-то вставляет текст в языковую модель, чтобы получить оттуда этот неудобоваримый слоп. Вот типичный пример: статья и оригинальный черновик.
Вы мне поверьте: сами создатели искусственного интеллекта не имеют вкуса и чувства красоты. Вот самый типичный пример: эта картинка была продемонстрирована в качестве улучшения работы модели генерации картинок DALL·E 3 относительно второй версии. Здесь в промпте просили изобразить экспрессивную картину маслом печенья с шоколадной крошкой в молоке, и вариант слева якобы хуже.

Не ждите, что ИИ улучшит ваш текст, он его только испоганит.
Вы могли бы поспорить, что можно доверить языковым моделям что-то нудное и нехудожественное — договоры и юридические документы, например. Но погодите, есть целая страница, где собирают случаи обнаружения галлюцинаций искусственного интеллекта в судебных документах. Там сейчас уже 1277 случая, и некоторые юристы за свою лень поплатились. Не думаю, что есть смысл рисковать даже с каким-то корпоративным регламентом.
Не представляю, зачем доверять ИИ тексты. Если они предназначены для людей, то читать неприятно, если для юристов — опасно; если правок мало — легче вручную, если много — нужно тратить время на перепроверку. Уловка-22 работает по всем фронтам.
Исключая традиционные стенания про то как нехорошо пользоваться ИИ, от которых уже тошнит ей Богу, у Вас в логике дыра с Марианскую впадину. "есть целая страница, где собирают случаи обнаружения галлюцинаций искусственного интеллекта в судебных документах. Там сейчас уже 1277 случая, и некоторые юристы за свою лень поплатились." Вам любой юрист с опытом накидает не 1277 а 122 777 случаев галлюцинаций вполне естественного юридического интеллекта за которые поплатились и сами авторы и их клиенты - некоторые даже лет по 30 отсидели. Мы какой вывод из этого должны будем сделать ? Что не надо пользоваться юристами ? "Не представляю, зачем доверять ИИ тексты." Я ежедневно читаю тексты написанные людьми и для людей, иногда прям моими сотрудниками и вот лучше бы они ИИ пользовались хоть читать можно будет без головной боли.
Спасибо. Ссылку поправил. Надеюсь вы оставили голос - "Не пользуюсь ИИ для редактирования текстов"? Если нет, проголосуйте, пожалуйста.
Хотелось бы ИИ, который сможет прочитать и рассказать. Например, прочитать 10 000 страниц и рассказать, что там написано про Ивана Ивановича.
Человек с этой задачей не справляется, у человека не хватает времени и внимания.
Не знаю как у автора получилось запихнуть в ИИ документы по 80 и 200 страниц. Однажды попытался проверить чисто ошибки в тексте на 60 страниц с помощью ChatGPT, так он его просто не осилил. Выдал страниц 5 и спекся. А резать и скармливать кусками тот ещё гемор.
На скрине живой скриншот с реального документа на 80 страниц в Claude. Первый раз ему его действительно тяжело переварить. После разметки работает с ним шустрее.
В режиме чата? Так и будет. Надо юзать агентов
Да кто же вам генерирует эти дурацкие заголовки?! Каждая третья статья с тем же паттерном в заголовке [я/мы/он/она] [чё-то там] — и вот [как/почему/зачем]
:) это классический копирайтерский приём «проблема - решение», он работает потому что сразу отвечает на вопрос «а мне это вообще надо читать?». Но согласен, когда каждая третья статья так называется – замыливается, может вызывать и раздражение.
Если есть вариант как назвать эту конкретную тему лучше – возьму на заметку на будущее.

Ваш AI не умеет редактировать большие документы. Вот почему – и как это починить