Pull to refresh
399.84
BotHub
Neural Network Aggregator: ChatGPT, Claude, Flux

Рейтинг 6 нейросетей для сокращения текста, ч. 2: кто король краткости?

Level of difficultyMedium
Reading time12 min
Views820

Тонны текста и в финале — чувство, что застряли в бесконечном произведении? Нейросети уже здесь, чтобы вытянуть вас из хаоса. Во второй части обзора — больше инструментов и тестов. Я рассмотрел DeepSeek‑R1, который превращает расшифровки в читабельные статьи, а также нейросеть ChatGPT-4o в генерации аннотаций и Grok-3, который успешно создал цепочку телеграм‑постов из видеовыступления. Результаты — под катом.

Ещё здесь рассмотрен Notion (тот самый для ведения заметок) — который тоже поддерживает ИИ‑редактирование. В этой части речь пойдёт о том, как максимально эффективно использовать каждый из этих инструментов. Давайте убедимся, что даже самая неуютная стена текста может быть превращена в лаконичный и удобный контент.


Рейтинг 6 нейросетей для сокращения текста, часть 1: промты рвут контент на части
Рейтинг 6 нейросетей для сокращения текста, часть 2: кто король краткости? ← вы находитесь тут.


DeepSeek-R1

Максимальный объём входных данных: 128 000 токенов, что примерно равно 384 000–640 000 русским символам, или 54 800–91 400 словам, или 256 страницам.
Максимальный объём выводимого сообщения: 32 768 токенов, что примерно равно 98 304–163 840 русским символам, или 14 000–23 400 словам, или 65 страницам.

Эта модель — ещё один незаменимый инструмент для сокращения текста. В каких случаях стоит выбирать именно её? С учётом того, что DeepSeek‑R1 в топе нейросетей для написания текста (смотрим здесь бенчмарк — только ChatGPT‑o3 недавно удалось сместить R1 с лидирующей позиции), стоит отдать этой модели приоритет, если задача преобразования креативная, допустим превратить один художественный текст в другой меньшего объёма. Ну а теперь ещё можно положить глаз и на o3, хах.

ChatGPT‑o3 и o4-mini уже в агрегаторе нейросетей BotHub. Регистрируйся по этой специальной ссылке, чтобы получить 100 000 токенов для доступа к любым моделям (работает без ВПН).

При помощи этой модели я попробую превратить объёмную расшифровку (лекция TED «Загадочная структура великих речей») в удобную статью или рассказ. Такие задачи часто требуют более чем терпения, так как разговорная речь полна слов‑паразитов и невнятных повторов.

Для этого к запросу приложен TXT‑файл длиною ~19 000 символов. Как вариант, можно отправить исходник через текстовое поле промта, но крупные фрагменты текста удобнее пересылать файлами.

Это была первая попытка:

Преобразуй транскрипт (файл приложен) в структурированную статью или рассказ, длиною 2 страницы. Выдели ключевые тезисы, истории, примеры и эмоциональные акценты из транскрипта. Удали повторы, слова‑паразиты, нерелевантные отступления. Добавь подзаголовки для разделов, если уместно. Сохрани авторский голос и эмоции, но адаптируй текст для чтения (замени разговорные конструкции на письменные). Добавь плавные переходы между абзацами, сделав текст связным. Включи контекст, который мог быть очевиден слушателям, но неясен читателям (например, объясни отсылки к событиям/персонам). При необходимости добавь метафоры или яркие описания для усиления нарратива.

Текст, выданный DeepSeek‑R1:

Итак, мы получили очень удобную выжимку из стенограммы. Думаю, в промте я слишком акцентировался на структурированности, поэтому вышло что‑то среднее между статьёй и конспектом — модель адаптировала профессионально‑коммуникационную теорию в мотивирующий план для тех, кто хочет лучше донести свои идеи.

Она объёмом в 5,5 раза меньше и идеальна для того, чтобы оценить содержимое выступления, так как содержит всю важную информацию оттуда. Изложение избавило от перескоков между тезисами, и текст обрёл чёткую структуру с подзаголовками и списками. Сохранилась даже эмоциональная составляющая — несколько раскиданных по тексту цитат и постскриптум, описывающий настроение автора выступления.

Этот промт годится для разных лекций, выступлений и конференций, когда вы хотите быстро изучить их суть, но нет желания продираться через вербальный хаос, свойственный живым выступлениям, — DeepSeek‑R1 обещает сделать это за нас.

Но что если мы хотим перекроить транскрипт в настоящую статью, причём от первого лица? Для этого исправим начало промта следующим образом. Думаю, 2 страницами не обойдёшься — немного увеличим.

Преобразуй транскрипт (файл приложен) в журнальную статью‑рассказ, длиною 3 страницы. Пусть текст будет от того же лица, что исходник. Сосредоточься на ключевых тезисах и историях, примерах и эмоциональных акцентах. Удали повторы, слова‑паразиты, нерелевантные отступления. Добавь подзаголовки для разделов, если уместно. Сохрани авторский голос и эмоции, но адаптируй текст для чтения (замени разговорные конструкции на письменные). Добавь плавные переходы между абзацами, сделав текст связным. Включи контекст, который мог быть очевиден слушателям, но неясен читателям (например, объясни отсылки к событиям/персонам). При необходимости добавь метафоры или яркие описания для усиления нарратива.

Текст, сгенерированный DeepSeek‑R1 в этом случае:

DeepSeek‑R1 отлично освоил задачу превращения сырого материала в статью, и здесь мы наблюдаем вдохновляющую речь, схожую по эмоциональному заряду с исходником. Заметно, что в некоторых местах чат‑бот старался говорить лаконично, уместив как можно больше смысла в предложения — избавляясь от второстепенных слов, но подбирая более выразительные для «остатка», таким образом не теряя настроения автора. Конечно, одна из причин этого — заданный лимит в 3 страницы, который нейросеть попробовала соблюсти наиболее эффективным образом.

Лёгкость, с которой акценты из выступления переводятся на язык замотивированного читателя, делает эту модель подходящим инструментом для обработки экспрессивных материалов. Транскрипты подкастов, выступлений и конференций — все эти материалы можно обработать в DeepSeek‑R1, чтобы получить из исходной расшифровки текст нужного формата.

OpenAI ChatGPT-4o

Максимальный объём входных данных: 128 000 токенов, что примерно равно 128 000–512 000 русским символам, или 96 000–192 000 словам, или 411 страницам.
Максимальный объём выводимого сообщения: 16 384 токенов, что примерно равно 16 384–65 536 русским символам, или 12 288–24 576 словам, или 53 страницам.

В плане обработки текста ChatGPT-4o находит применение в самых разных сферах — от журналистики до маркетинга. Прямо сейчас мы применим эту нейросеть для того, чтобы создать аннотацию, — это один из базовых способов уменьшить объём текста до краткого описания.

Аннотации — очень полезная штука, благодаря которым книги и научные статьи превращаются из пугающих кирпичей неизвестности в краткую сводку о содержимом. Благодаря этому, у нас экономится время при выборе нужного источника или произведения.

Создай информативную и привлекательную аннотацию для приложенного произведения, которая показывает ключевые элементы сюжета, темы, персонажей и атмосферу, не раскрывая спойлеров. Аннотация должна заинтересовать целевую аудиторию и соответствовать стилю исходного текста.

1. Входные данные:
— Укажи название произведения, его жанр, целевую аудиторию. Добавь ключевые слова, описывающие основные темы или уникальные элементы.
— Назови целевую аудиторию.

2. Требования к аннотации:
• Структура:
— Введение: представь главных героев/основную идею.
— Развитие: обозначь центральный конфликт/вопрос.
— Заключение: подчеркни уникальность произведения или его эмоциональный посыл.
• Содержание:
— Упомяните одного‑двух главных персонажа или ключевые события без спойлеров.
— Выдели основную тему.
— Опиши атмосферу.
— Для нон‑фикшен: укажи цель книги, проблему, которую она решает, и её практическую ценность.
• Стиль:
— Соответствуй тону оригинала.
— Избегай клише и общих фраз («Эта книга изменит вашу жизнь»).
— Используй яркие глаголы и эпитеты для создания интриги.
• Длина: 150–200 слов.

Можно добавить и дополнительные параметры, например усилить внимание на конкретных аспектах (отношениях персонажей, социальной критике, для детектива — на загадке, для научной работы — на методологии), задать конкретную тональность аннотации (нейтральная, академическая, эмоциональная, загадочная и т. д.), попросить упомянуть или не упоминать что‑то конкретное. В общем, как мы уже знаем, чем детальнее промт, тем ближе результат к задуманной идее.

Для теста взглянем на рассказ Рэя Брэдбери — «И грянул гром». Так выглядит аннотация, сгенерированная к нему в ChatGPT-4o:

По‑моему, аннотация неплохая в тех ситуациях, когда нам предпочтительнее академический язык. Нельзя сказать, что тут есть спойлеры (которых мы просили не допускать): с одной стороны, эффект бабочки — не такой уж спойлер, с другой — читатели могут более заинтересоваться в книге, узнав об этой особенности.

Если всё‑таки нужна менее формальная аннотация, не всё потеряно — стоит отправить тот же промт модели DeepSeek‑R1. И тут мы видим другую возможную аннотацию:

Сравним: ChatGPT-4o делает ставку на сдержанность и точность (чтение словно на конференции), а аннотация DeepSeek‑R1 выглядит намного живее. Здесь прибавилось необычных слов и выражений, а также литературных приёмов и цитат из самого текста произведения. Поэтому, думаю, выбор нейросети для создания аннотации стоит начать именно с модели R1.

xAI Grok-3

Максимальный объём входных данных: 1 000 000 токенов, что примерно равно 4 000 000–5 000 000 русским символам, или 700 000–1 000 000 словам, или 2462 страницам.
Максимальный объём выводимого сообщения: 128 000 токенов, что примерно равно 512 000–640 000 русским символам, или 89 600–128 000 словам, или 315 страницам.

Модель Grok-3 может особенно пригодиться в следующих сценариях использования:

  • Большой объём исходных данных — контекстное окно 1 000 000 токенов обработает что угодно.

  • Тексты с неоднозначными темами, которые другие чат‑боты могут зацензурировать.

Давайте не усложнять и возьмём задачу ближе к повседневным нуждам — создание цепочки телеграм‑постов из выступления, посвящённого стрессу.

Попробуем превратить материал сразу в несколько публикаций: тогда появляется уверенность, что темы не повторяются, а также что не понадобится последовательно скармливать чат‑боту фрагменты текста или уточнять, на котором из отрывков исходника сконцентрироваться в этот раз.

Вот как это можно сделать:

На основе предоставленного текста создай 5 телеграм‑постов для последовательной публикации. Каждый пост должен быть самостоятельным, но логически связанным с остальными.

Требования:
1. Формат каждого поста:
— Заголовок: яркий и интригующий (используй эмоджи, но без кликбейта).
— Основной текст: 2–3 коротких абзаца (максимум 500 символов).
— Контент: 1 ключевая идея из текста; 1 пример (исследование, метафора, кейс); 1 вопрос/действие для аудитории (например: «А как вы решаете подобные задачи?»).
— Визуал: предложи идею для изображения/графика (например, «скриншот графика из выступления», «иллюстрация с шкалой принятия решений»).
2. Структура серии:
— Пост 1: введение в тему + неочевидный факт/парадокс.
— Пост 2: конкретная модель/стратегия из материала.
— Пост 3: практическое применение (как это работает в реальности).
— Пост 4: контрпример или ограничения идеи.
— Пост 5: итоги + лайфхак из текста.
3. Стиль:
— Просторечные формулировки («Представьте, что...», «Учёные выяснили»);
— Акцент на пользу для аудитории («Как это применить», «Почему это важно»);
— Хештеги в конце (3–5 штук, например, «#НаукаПоведения #Лайфхаки»).

Данный промт не привязан к тематике транскрипта, однако он заточен конкретно под пять постов. Но если что, можно его сократить или удлинить — например, воспользовавшись метапромтингом и попросив чат‑бота переписать запрос.

Взглянем на результат Grok-3:

Скрытый текст

Начнём с очевидных плюсов. Чат‑бот корректно распределил материал, превратив текстовые джунгли в структурированную и понятную форму. Это ли не инструмент мечты для контент‑менеджеров и эсэмэмщиков, которые тонут в море букв? Каждый пост несёт чёткое смысловое наполнение, является логическим продолжением предыдущего и сохраняет связь с темой. Здесь имеется и слой интерактивных элементов — вопросы читателю привносят нужный элемент вовлечения, который так важен для социальных сетей.

На мой взгляд, не все посты выглядят заманчиво — например, 3-й и 4-й дают слишком очевидные советы. Самый простой и эффективный способ в этой ситуации — сгенерировать несколько вариантов по одному промту, затем собрать цепочку из подходящих фрагментов.

Notion

Стоимость подписки Notion AI: 7,50 €.
Ограничение бесплатного аккаунта: на пробном аккаунте доступно 20 правок текста с помощью ИИ.

Основное преимущество сервиса — интеграция ИИ прямо в интерфейс редактора: выделяете текст (словосочетание/предложение/абзац/...), пишете промт — и вот вам предложен результат. Такой подход особенно подойдёт пользователям, работающим с короткими текстами или нуждающимся в быстрых корректировках для заметок, писем или блогов. Функция схожа с процессом редактирования в Jasper, однако последний не позволяет выполнить ИИ‑редактирование для очень крупного фрагмента текста — в случае Notion лимиты более либеральные.

У сервиса лимитирована демо‑версия: модуль Notion AI (предназначенный для ИИ‑обработки) позволяет внести два десятка правок, после чего понадобится приобрести подписку.

Как можно сократить текст в Notion:

  • Копируем исходный текст в документ (на скриншоте — статья с «Википедии»). После этого отобразится меню, где, кстати, есть пункт для уменьшения объёма текста — Make shorter.

  • Но мы им не воспользуемся, а опишем изменение своими словами, поэтому сейчас вставим текст без обработки. Для этого можно выбрать пункт Paste либо щёлкнуть где‑либо вне меню, чтобы его закрыть.

  • Выберем фрагмент текста, который хотим уменьшить, например всю исходную статью.

  • Отобразится мини панель инструментов, жмём Ask AI:

  • Пишем промт для обработки текста:

  • Через несколько секунд отобразится результат. С помощью кнопки Accept можно принять и подтвердить результат — исходный текст заменится, Discard предназначена для отмены изменений, а Try again — для повторной попытки.

Иногда доступна кнопка Add below, которая добавляет сгенерированное под исходным фрагментом. Таким образом Notion пытается по содержимому запроса «прочитать мысли» пользователя — нужно ли исправить или дополнить текст. Например, если генерировать заголовок или план текста, то отобразится только кнопка для добавления. В принципе, тот случай, когда интерфейс слишком много думает, — угадывает он не всегда, и было бы интуитивнее, если бы всегда отображались оба варианта.

Кстати, в процессе генерации Notion отображает изменения в стиле diff (удалённые/добавленные фрагменты), но в случае сжатия текста, увы, это не работает — порядок текста сбивается:

Notion уменьшил объём текста следующим образом:

Скрытый текст

Пожалуй, Notion годится лишь для очень простых правок: текст выглядит чрезвычайно шаблонным, как будто применена устаревшая модель GPT-3.5. Другой важный момент — длина текста сильно не соответствует запрошенной: при запросе и 750, и 1000 слов функция Ask AI выдавала в диапазоне 250–300.


Не так‑то просто выбрать, правда? Для меня попытка назвать одну наилучшую нейросеть для уменьшения объёма оказалась далеко не очевидной. Но, немного подумав, я составил рейтинг именно так:

  • 1-е место: DeepSeek‑R1.

  • 2-е место: Claude-3.7-Sonnet и Grok-3.

  • 3-е место: ChatGPT-4o.

  • 4-е место: Gemini-2.5-Pro.

  • 5-е место: Notion.

Целых три модели — DeepSeek‑R1, Grok-3, Claude-3.7-Sonnet — выдают более‑менее одинаково крутые результаты. Но у них есть небольшие фишки — например, у Grok (как и у Gemini) миллион токенов в запасе контекстного окна и нет проблем с цензурой контента, а DeepSeek‑R1 стоит выбрать, когда нужно получить что‑то креативное.

Если же взять ChatGPT-4o и Gemini-2.5-Pro, они скорее ориентированы на структурное уменьшение объёма текста, с уклоном в академический либо даже шаблонный язык. Эти нейросети кажутся конструктором с деталями помельче, который нужно настраивать ещё тщательнее.


В этом финале второй части статьи мне сложно смотреть на лабиринты неструктурированного текста без мыслей «А как бы это преобразовала нейросеть?» или «Что за модель здесь подойдёт?». Как минимум, получилось узнать, что никакой текст больше не кажется неподвластной горой, — всё достижимо и упрощаемо. Чат‑боты уже сегодня могут решать большинство текстовых задач — осталось извлечь из этого максимум пользы, подбирая нужный промт, от которого зависит значительная часть успеха.

Благодарю за прочтение, буду рад комментариям👇

Tags:
Hubs:
+5
Comments0

Articles

Information

Website
bothub.chat
Registered
Founded
Employees
2–10 employees