Обновить

Ваш AI не умеет редактировать большие документы. Вот почему – и как это починить

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели7.1K
Всего голосов 1: ↑1 и ↓0+1
Комментарии13

Комментарии 13

Спасибо за статью! Ссылка на репо битая, 404 отдаёт.

Во-первых

Зачем нужны эти промпты для редактирования, если представлена вот такая примитивная задача?

Добавь в раздел 4.2 новый пункт про порядок согласования

Открыть документ, дойти до нужного фрагмента и дописать его — это легче и быстрее, чем создавать для большой языковой модели инструкции с помощью особого промпта с Хабра, описывать собственно сами изменения, а потом перепроверять и исправлять работу за роботом. Думаю, в случаях, когда у промпта есть название, ситуация по определению переусложнена.

Во-вторых

Зачем редактировать тексты с помощью больших языковых моделей? На выходе получается какой-то однотипный кошмар, в котором немедленно угадывается искусственный интеллект.

Просто посмотрите, как тут всё ужасно с ритмом, везде рублёные предложения:

Вы открываете чат. Загружаете договор на 80 страниц или корпоративный регламент на 200. Пишете: «Добавь в раздел 4.2 новый пункт про порядок согласования».

AI читает весь документ целиком. Находит (или не находит) нужное место. Что‑то вставляет. Иногда попадает, иногда — нет.

«Это не А, это Б», где желательно как можно сильнее обозначить паузу между фрагментами:

Это не баг конкретной модели, это архитектурное свойство трансформеров.

Дело не в мощности модели. Дело в том, что она работает вслепую

Агент работает не вслепую – он читает граф, находит нужный модуль, следует контракту, верифицирует результат.

Разница принципиальная: агент не угадывает. Он следует протоколу, который сам же и составил.

В тексте 2 длинных тире, шириной с букву M (em-dash), и 26 коротких тире, шириной с букву N (en-dash). Em-dash только в первых четырёх абзацах, кстати.

Откровенная ошибка:

Исследование Chroma (2025) протестировало 18 frontier-моделей и обнаружило: каждая деградирует при каждом шаге увеличения контекста – включая GPT-4.1, Claude Opus 4 и Gemini 2.5. Это не баг конкретной модели, это архитектурное свойство трансформеров.

У вас ссылка на статью Chroma некликабельна.

В статье Chroma есть предложение, которое буквально утверждает обратное: «We also do not explain the mechanisms behind this performance degradation». То есть работа не может объяснить механизмы деградации. Слова «architecture» в той статье вообще нет.

В-третьих

У меня такое впечатление, что либо я сошёл с ума, либо половина Интернета рехнулась. Сначала языковую модель либо просят написать текст с нуля, либо что-то подровнять в полуготовом черновике, и БЯМ выдаёт много этого машинного текста. Полученное всегда выглядит как слоп: одни и те же языковые обороты, раздражающий темп речи, характерные однотипные привычки в использовании форматирования (выделения италиком и полужирным) и знаков препинания (избыток тире, дефисов). Затем это всё публикуется от своего имени, будто так и должно быть, будто никто не видит, что это машинный текст этого неприятного стиля.

В отдельных случаях бывает так, что у автора уже есть отличный черновик, в котором достаточно просто подровнять опечатки и убрать ошибки пунктуации. Но при этом автор зачем-то вставляет текст в языковую модель, чтобы получить оттуда этот неудобоваримый слоп. Вот типичный пример: статья и оригинальный черновик.

Вы мне поверьте: сами создатели искусственного интеллекта не имеют вкуса и чувства красоты. Вот самый типичный пример: эта картинка была продемонстрирована в качестве улучшения работы модели генерации картинок DALL·E 3 относительно второй версии. Здесь в промпте просили изобразить экспрессивную картину маслом печенья с шоколадной крошкой в молоке, и вариант слева якобы хуже.

Не ждите, что ИИ улучшит ваш текст, он его только испоганит.

Вы могли бы поспорить, что можно доверить языковым моделям что-то нудное и нехудожественное — договоры и юридические документы, например. Но погодите, есть целая страница, где собирают случаи обнаружения галлюцинаций искусственного интеллекта в судебных документах. Там сейчас уже 1277 случая, и некоторые юристы за свою лень поплатились. Не думаю, что есть смысл рисковать даже с каким-то корпоративным регламентом.

Не представляю, зачем доверять ИИ тексты. Если они предназначены для людей, то читать неприятно, если для юристов — опасно; если правок мало — легче вручную, если много — нужно тратить время на перепроверку. Уловка-22 работает по всем фронтам.

Исключая традиционные стенания про то как нехорошо пользоваться ИИ, от которых уже тошнит ей Богу, у Вас в логике дыра с Марианскую впадину. "есть целая страница, где собирают случаи обнаружения галлюцинаций искусственного интеллекта в судебных документах. Там сейчас уже 1277 случая, и некоторые юристы за свою лень поплатились." Вам любой юрист с опытом накидает не 1277 а 122 777 случаев галлюцинаций вполне естественного юридического интеллекта за которые поплатились и сами авторы и их клиенты - некоторые даже лет по 30 отсидели. Мы какой вывод из этого должны будем сделать ? Что не надо пользоваться юристами ? "Не представляю, зачем доверять ИИ тексты." Я ежедневно читаю тексты написанные людьми и для людей, иногда прям моими сотрудниками и вот лучше бы они ИИ пользовались хоть читать можно будет без головной боли.

Спасибо, я указал в статье, что сама семантика (содержание) за рамками статьи. контент, конечно нужно проверять и вычитывать. Согласен.

Спасибо. Ссылку поправил. Надеюсь вы оставили голос - "Не пользуюсь ИИ для редактирования текстов"? Если нет, проголосуйте, пожалуйста.

Хотелось бы ИИ, который сможет прочитать и рассказать. Например, прочитать 10 000 страниц и рассказать, что там написано про Ивана Ивановича.

Человек с этой задачей не справляется, у человека не хватает времени и внимания.

Не знаю как у автора получилось запихнуть в ИИ документы по 80 и 200 страниц. Однажды попытался проверить чисто ошибки в тексте на 60 страниц с помощью ChatGPT, так он его просто не осилил. Выдал страниц 5 и спекся. А резать и скармливать кусками тот ещё гемор.

На скрине живой скриншот с реального документа на 80 страниц в Claude. Первый раз ему его действительно тяжело переварить. После разметки работает с ним шустрее.

В режиме чата? Так и будет. Надо юзать агентов

Согласен. Это "офисный вариант". Для тех кто не готов ради базовых задач погружаться глубже.

Да кто же вам генерирует эти дурацкие заголовки?! Каждая третья статья с тем же паттерном в заголовке [я/мы/он/она] [чё-то там] — и вот [как/почему/зачем]

:) это классический копирайтерский приём «проблема - решение», он работает потому что сразу отвечает на вопрос «а мне это вообще надо читать?». Но согласен, когда каждая третья статья так называется – замыливается, может вызывать и раздражение.

Если есть вариант как назвать эту конкретную тему лучше – возьму на заметку на будущее.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации