
Несколько дней назад я опубликовал перевод статьи из британского издания The Prompt. Там утверждалось, что кембриджские исследователи научились сжимать любой текст до минимального промпта с точностью восстановления 98%. Реакция была предсказуемой. Часть аудитории узнала формат «британские учёные», несколько человек спросили серьёзные технические вопросы.
Идея — что любой текст можно описать коротким промптом и восстановить из него — не требует никакого Кембриджа. Это можно проверить прямо сейчас. Что я и сделал.
Хабр — очевидный выбор для такого эксперимента. Не потому что удобно, а потому что это лучшая техническая площадка в русскоязычном пространстве. Здесь самое требовательное сообщество: статья с накрученным рейтингом живёт недолго, глубокий разбор находит свою аудиторию, а в комментариях можно получить замечание от человека, который строил то, о чём ты написал. Нигде в бывшем СССР нет второй такой концентрации людей, которые читают исходники, а не пресс-релизы, и которые не верят ни одному громкому заявлению без воспроизводимого результата. Именно поэтому рейтинг здесь что-то значит. Если статья набрала 200+ голосов — значит, сообщество её проверило.
Я взял две статьи с высоким рейтингом. Обе вышли на этой неделе, обе в топе.
Эксперимент 1
Статья: «Незаменимые сотрудники это не проблема» Автор: AriaQA | Рейтинг: +217

Тезис статьи: незаменимые сотрудники — ресурс, а не дефект архитектуры. Стандартные методы снижения bus factor не работают. Работает: платить 1.5-2x, документация через процесс, найм на самостоятельность, дежурный и тихие часы. Два личных сценария. Вывод: деньги, дисциплина, честность.
Я написал промпт. Вот он полностью:
Напиши статью для Хабра (личный стиль, абзацы, без списков). Тема: незаменимые сотрудники — это ресурс, не проблема. 80/20: большинство работает за деньги, меньшинство тащит проекты. Стандартные методы не работают: документация, ротация, менторство. Что работает: платить 1.5-2x, документация через процесс, найм на самостоятельность, дежурный + тихие часы. Два личных сценария — провал и успех (+40% зарплаты). Вывод: деньги, дисциплина, честность.
Это 67 слов. Не используй поиск в интернете — только обучающие данные.
ChatGPT вернул статью на 651 слово. Вот что из оригинала выжило:
Структура: полное совпадение
Аргументы: полное совпадение
Ключевые цифры: 40% — точное совпадение
Два сценария, включая выгорание и уход эксперта: совпадение
Дежурный, тихие часы: совпадение
Вывод: деньги + дисциплина + честность — совпадение
Что не выжило: одна авторская метафора и несколько острых формулировок. Стилистический остаток.
И кое-что интересное произошло в обратную сторону: ChatGPT добавил девятимесячный таймлайн в сценарий провала. В оригинале его нет. Он звучит убедительно. Читатель не заметит разницы.
Коэффициент сжатия: 67 слов → 651 слово. 10:1.

Эксперимент 2
Статья: «Telegram обошёл блокировку РКН» — нет, не Telegram Автор: David_Osipov | Рейтинг: +312
Здесь я ожидал похожего результата. Не получил.
Чтобы ChatGPT воспроизвёл структуру и аргументацию, мне понадобился промпт в 357 слов. Почти в пять раз длиннее. Вот он:
Промпт для эксперимента 2 (357 слов)
``` Не используй поиск в интернете. Пиши только на основе своих знаний.
Ты разработчик, который следит за темой DPI и обхода блокировок в России. Напиши статью для Хабра в жанре разбора и критики. Тон: раздражённый, технически точный, с уважением к сообществу и скептицизмом к корпоративному PR. Пиши абзацами, как живой человек. Минимум вложенных списков.
Сюжет статьи — хронологическая история:
Когда ТСПУ начал блокировать MTProxy и FakeTLS-маскировку Telegram, СМИ написали что Telegram “обошёл блокировку”. Это неправда. Официальная команда Telegram не сделала для этого ровным счётом ничего. Код не менялся несколько месяцев, команда молчала.
Пока Telegram молчал, небольшое сообщество разработчиков само взялось за работу. Они перехватили пакеты, сравнили TLS-хендшейк Chrome (который ТСПУ пропускает) с хендшейком Telegram (который блокируется), нашли конкретные расхождения и исправили их за 24 часа.
Что нашли: в реализации FakeTLS у Telegram было две грубые ошибки. Первая — использовался идентификатор расширения, которого не существует в современных браузерах, что тривиально детектируется DPI. Вторая — в заголовке пакета объявлялся один размер ключа, а передавался другой. Реальные клиенты так не делают никогда. Обе ошибки — элементарные сигнатуры для любого DPI.
Сообщество отправило Pull Request с подробным объяснением, тестами на реальных сетях и точным описанием проблемы. Telegram принял. В комментарии к коммиту написали “inspired by wide internet discussions” — минимальная атрибуция. Критический момент: патч применили только в десктопном клиенте. iOS, Android, tdlib — не тронуты, уязвимы так же.
Дуров написал пост про 65 миллионов россиян и цифровое сопротивление. “С нашей стороны мы будем продолжать адаптироваться”. Прямой ответ на это: ваша сторона не сделала ничего пока анонимные инженеры не принесли готовое решение с точностью до байта.
Принятые изменения — необходимый минимум, не решение. Остаются детектируемые паттерны: фиксированный padding, фиксированные размеры TLS-записей, ALPN объявляет HTTP/2 но передаёт MTProto. Современный ТСПУ использует ML-классификацию по поведению потока, а не только статические байтовые сигнатуры.
Тем временем сообщество уже проектирует фундаментальные решения для tdlib — динамические профили, энтропия на соединение, шейпинг таймингов.
Заверши так: настоящее цифровое сопротивление — это анонимные инженеры, реверсящие DPI ночью, а не корпоративные пресс-релизы. 99% пользователей Telegram просто хотят чтобы мессенджер работал. Одни это починили. Другие написали красивый пост.
Объём: 900-1100 слов. Живой текст, никакой агрессивной разбивки на списки.
И даже при этом в результате нет ничего из следующего:
Конкретные hex-значения расширений TLS
Точный размер ключа (32 байта объявлено, 20 передано)
Номер Pull Request и хеш коммита
Название сообщества, которое это починило
Бюджет ТСПУ в рублях
ChatGPT восстановил аргумент. Он не восстановил работу.
Коэффициент сжатия: 357 слов → 914 слов. 2.6:1.

Что это значит
Честно говоря, после первого эксперимента я сидел и смотрел на два текста рядом довольно долго. Это неприятное ощущение. Не потому что один из них «плохой». А потому что непонятно, какой из них «настоящий».
Кембриджские исследователи, если они существуют, были правы в одном: текст сжимается. Но не весь и не одинаково — и вот это различие оказалось важнее, чем я думал, когда начинал.
Первая статья восстанавливается из 67 слов. Структура, аргументы, цифры — всё на месте. Хуже того: детали, которые ChatGPT придумал сам, звучат так же достоверно, как детали оригинала. Девятимесячный таймлайн, которого в оригинале нет — он там смотрится органично. Я бы не заметил, если бы не сравнивал специально.
Со второй статьёй всё иначе. Там мне понадобилось почти 360 слов только чтобы воспроизвести аргументацию — и всё равно не хватило. Потому что суть статьи David_Osipov не в том, что он правильно расставил разделы. А в том, что он открыл Wireshark, поймал пакеты, нашёл конкретный байт и объяснил, почему именно он. Это ChatGPT не знает. Это не в обучающих данных. Это было сделано руками, ночью, на живой сети.
Вот что такое эти пресловутые 2%.
В первой статье — это авторский стиль. Несколько метафор, пара острых фраз. Не критично. Потеря незаметна.
Во второй — это и есть вся статья. Уберите конкретные артефакты — и останется пересказ того, что ChatGPT и так знает про DPI и Telegram.
Я не говорю, что AriaQA не писал эту статью. Я понятия не имею. Может, писал сам, может с помощью инструментов, может продиктовал вслух пока ехал в метро. Это не мой вопрос и не моё дело.
Мой вопрос был другой: можно ли восстановить статью из промпта? Ответ — зависит от статьи. Если в ней есть что-то, чего нет в обучающих данных — нет, нельзя. Если её содержание исчерпывается структурой и общими соображениями, которые модель и так знает — да, легко.
Это неудобный результат. Не для авторов конкретных статей — для всех нас, кто что-то пишет и публикует.
Мне кажется, именно поэтому такой эксперимент имеет смысл делать здесь. Хабр — одно из немногих мест, где на неудобный результат не закроют глаза и не заминусуют за то, что вопрос некомфортный. Здесь принято разбираться.
И последнее — скорее как мысль вслух.
Если статья восстанавливается из 67-словного промпта с точностью 98% — может, стоит просто публиковать промпт? Читатель получает ту же информацию. Экономия времени: автору не нужно разворачивать, читателю не нужно сворачивать обратно. Хабр мог бы ввести новый формат публикации. Назвать его, например, «сжатая статья». Или просто «промпт».
Я шучу, конечно.
Наполовину.
Оба промпта из эксперимента — в тексте выше. Если хотите — попробуйте сами, сравните с оригиналами и напишите в комментарии что получилось. Интересно, будут ли у вас те же результаты или ChatGPT придумает другой таймлайн.
И отдельный вопрос к администрации Хабра — без иронии, честный: если ChatGPT-реконструкция статьи воспроизводит оригинал с точностью 98%, можно ли опубликовать её как перевод? Технически это перевод с промпта на русский язык. Автор промпта указан. Источник указан. Отличий от оригинала — 2%, что укладывается в допустимую погрешность большинства человеческих переводов.
Если администрация не против — готов попробовать.
Перевод исходной статьи The Prompt, с которой начался эксперимент: «Исследователи Кембриджа доказали, что вашей статьи не существует»
