ИИ-детекторы любят формулировать простое обещание: «Мы точно знаем, где человек, а где нейросеть». Генераторы отвечают ещё увереннее: «Наши тексты детект не ловит».

Обе стороны звучат убедительно — и обе упрощают реальность.

Если смотреть на эту систему изнутри, становится ясно: речь идёт не о качестве отдельных текстов и не о том, «умнее» ли один алгоритм другого. На самом деле это непрерывная технологическая гонка между генераторами и детекторами. Каждая сторона подстраивается под изменения другой, теряет преимущество и снова пытается его вернуть.

У этой гонки нет устойчивого состояния и не может быть финальной точки, где одна из сторон побеждает окончательно. 

Мы в Кэмпе были внутри этой гонки: любое найденное решение работало лишь какое-то время, после чего переставало быть эффективным. Но мы нашли выход.

Ниже — трезвый разбор, почему стабильное прохождение ИИ-детекта технически невозможно, почему со временем под удар попадают даже человеческие тексты и как мы вышли из этой гонки.

Как обучаются ИИ-детекторы

Со стороны может показаться, что ИИ-детекторы — это про тонкое понимание отличий машинного текста от авторского. Будто алгоритм «чувствует», кто именно его написал.

На практике всё гораздо приземлённее. Любому детектору нужны данные. Много данных. И самые ценные из них — не синтетические тексты, а реальные студенческие работы.

Когда популярный генератор обновляет способ генерации текста, его работы массово начинают падать в проверяющие системы. В этот момент у детектора появляется удобный материал для обучения: свежие тексты одного типа, с понятным происхождением и реальным контекстом использования.

Фактически детекторы дообучаются на продуктах генераторов — просто потому, что именно эти тексты чаще всего оказываются на проверках.

Отсюда следует простой вывод: как только генератор начинает стабильно проходить проверку и становится массовым, он сам превращается в источник данных для обучения детектора.

Почему любое прохождение детекта всегда временное

Внутри это выглядит комично и циклично.

  1. Команда находит конфигурацию моделей и параметров, при которой тексты перестают детектиться.

  2. Некоторое время всё действительно работает, как и ожидалось.

  3. Затем детектор начинает ловить эти тексты.

  4. Процент прохождения падает — иногда резко, иногда постепенно.

  5. Команда фиксирует падение, меняет настройки, пробует другой подход к генерации — и цикл начинается заново.

Это не ошибка и не провал. Просто в какой-то момент у детектора накапливается достаточно новых примеров, чтобы выделить общий паттерн и перестроить свои правила. То, что вчера выглядело обычным студенческим текстом, сегодня становится сигналом для детектора — типичным маркером, который он начинает распознавать и учитывать при проверке новых текстов.

Поэтому эта гонка не идёт от релиза к релизу. Она происходит фоново, пока генераторы и детекторы учатся друг на друге.

По каким признакам детекторы реально отличают тексты, и почему под удар попадают человеческие

Детекторы не работают со смыслом и авторством — они работают с набором признаков, которые регулярно повторяются в текстах одного типа.

Анализируется комбинация факторов: 

  • повторяемость лексики и оборотов, 

  • частотные связки слов, 

  • типовые конструкции академического стиля, 

  • равномерная структура, 

  • предсказуемые переходы между абзацами. 

Именно поэтому в зону внимания попадают обороты вроде «целью данной работы является» или «в рамках исследования» — не потому что они плохие, а потому что стабильные и массовые.

И вот тут уже возникает парадокс.

Академический стиль сам по себе стандартизирован: людей годами учат писать «правильно» — одинаковыми вводными, похожей логикой аргументации, предсказуемыми выводами. 

Для преподавателя это нормально: так и должен выглядеть академический текст. А для детектора это удобная статистическая мишень: чем больше текст похож на устойчивый шаблон, тем проще выделить в нём повторяющиеся паттерны.

Поэтому когда детекторы повышают чувствительность, то есть снижают порог «подозрительности», первыми в зоне риска оказываются как раз ровные, аккуратные тексты без стилистических отклонений — в том числе написанные людьми. 

Мы столкнулись с этим на практике: закинули в детект человеческие работы, созданные задолго до появления ИИ, которые не прошли проверку.

Почему 100% прохождение ИИ-детекторов технически невозможно

Есть соблазн сказать:
«Окей, давайте просто использовать самые дорогие модели и всё победим».

На практике это не решает проблему.

— Детектору всё равно, дорогая модель или дешёвая.
— Если паттерн повторяется, он станет сигналом.
— Если паттерн редкий, он станет сигналом ещё быстрее.

Можно усложнять пайплайн, мешать модели, менять параметры, рандомизировать текст — и всё это действительно работает. Только временно.

Дальше система неизбежно упирается в своё базовое ограничение.

Генераторы оптимизируют тексты под прохождение проверок. Детекторы оптимизируют распознавание этих оптимизаций. Обе стороны дообучаются на результатах друг друга и постоянно сдвигают границу «нормы».

В такой системе невозможно зафиксировать состояние, в котором текст всегда будет считаться допустимым. Любое стабильное решение со временем превращается в повторяемый паттерн.

Именно поэтому 100% прохождение технически недостижимо.

Это та же логика, по которой не существует вечного антивируса или идеального спам-фильтра. Есть только временные преимущества и очередной виток цикла.

Почему мы в Кэмпе давно перестали мыслить категориями «обхода»

Внутри продукта нет задачи «сломать детект» — это тупиковая оптимизация.

Гораздо устойчивее работают подходы, в которых ИИ не выступает финальным автором текста, а берёт на себя вспомогательные и технические роли:

  • помогает собрать черновик, 

  • выстроить структуру работы, 

  • снять рутинную сборку, 

  • аккуратно оформить текст,

  • привести источники в порядок.

В такой модели ключевые решения остаются за человеком. Смысл, логика аргументации, выводы и финальные формулировки всё равно формируются в процессе человеческой работы с текстом — и это даёт устойчивый результат.

Именно поэтому мы рассматриваем ИИ как инструмент, который помогает в процессе, но не заменяет работу студента над текстом.