
ИИ-детекторы любят формулировать простое обещание: «Мы точно знаем, где человек, а где нейросеть». Генераторы отвечают ещё увереннее: «Наши тексты детект не ловит».
Обе стороны звучат убедительно — и обе упрощают реальность.
Если смотреть на эту систему изнутри, становится ясно: речь идёт не о качестве отдельных текстов и не о том, «умнее» ли один алгоритм другого. На самом деле это непрерывная технологическая гонка между генераторами и детекторами. Каждая сторона подстраивается под изменения другой, теряет преимущество и снова пытается его вернуть.
У этой гонки нет устойчивого состояния и не может быть финальной точки, где одна из сторон побеждает окончательно.
Мы в Кэмпе были внутри этой гонки: любое найденное решение работало лишь какое-то время, после чего переставало быть эффективным. Но мы нашли выход.
Ниже — трезвый разбор, почему стабильное прохождение ИИ-детекта технически невозможно, почему со временем под удар попадают даже человеческие тексты и как мы вышли из этой гонки.
Как обучаются ИИ-детекторы
Со стороны может показаться, что ИИ-детекторы — это про тонкое понимание отличий машинного текста от авторского. Будто алгоритм «чувствует», кто именно его написал.
На практике всё гораздо приземлённее. Любому детектору нужны данные. Много данных. И самые ценные из них — не синтетические тексты, а реальные студенческие работы.
Когда популярный генератор обновляет способ генерации текста, его работы массово начинают падать в проверяющие системы. В этот момент у детектора появляется удобный материал для обучения: свежие тексты одного типа, с понятным происхождением и реальным контекстом использования.
Фактически детекторы дообучаются на продуктах генераторов — просто потому, что именно эти тексты чаще всего оказываются на проверках.
Отсюда следует простой вывод: как только генератор начинает стабильно проходить проверку и становится массовым, он сам превращается в источник данных для обучения детектора.
Почему любое прохождение детекта всегда временное
Внутри это выглядит комично и циклично.
Команда находит конфигурацию моделей и параметров, при которой тексты перестают детектиться.
Некоторое время всё действительно работает, как и ожидалось.
Затем детектор начинает ловить эти тексты.
Процент прохождения падает — иногда резко, иногда постепенно.
Команда фиксирует падение, меняет настройки, пробует другой подход к генерации — и цикл начинается заново.
Это не ошибка и не провал. Просто в какой-то момент у детектора накапливается достаточно новых примеров, чтобы выделить общий паттерн и перестроить свои правила. То, что вчера выглядело обычным студенческим текстом, сегодня становится сигналом для детектора — типичным маркером, который он начинает распознавать и учитывать при проверке новых текстов.
Поэтому эта гонка не идёт от релиза к релизу. Она происходит фоново, пока генераторы и детекторы учатся друг на друге.
По каким признакам детекторы реально отличают тексты, и почему под удар попадают человеческие
Детекторы не работают со смыслом и авторством — они работают с набором признаков, которые регулярно повторяются в текстах одного типа.
Анализируется комбинация факторов:
повторяемость лексики и оборотов,
частотные связки слов,
типовые конструкции академического стиля,
равномерная структура,
предсказуемые переходы между абзацами.
Именно поэтому в зону внимания попадают обороты вроде «целью данной работы является» или «в рамках исследования» — не потому что они плохие, а потому что стабильные и массовые.
И вот тут уже возникает парадокс.
Академический стиль сам по себе стандартизирован: людей годами учат писать «правильно» — одинаковыми вводными, похожей логикой аргументации, предсказуемыми выводами.
Для преподавателя это нормально: так и должен выглядеть академический текст. А для детектора это удобная статистическая мишень: чем больше текст похож на устойчивый шаблон, тем проще выделить в нём повторяющиеся паттерны.
Поэтому когда детекторы повышают чувствительность, то есть снижают порог «подозрительности», первыми в зоне риска оказываются как раз ровные, аккуратные тексты без стилистических отклонений — в том числе написанные людьми.
Мы столкнулись с этим на практике: закинули в детект человеческие работы, созданные задолго до появления ИИ, которые не прошли проверку.

Почему 100% прохождение ИИ-детекторов технически невозможно
Есть соблазн сказать:
«Окей, давайте просто использовать самые дорогие модели и всё победим».
На практике это не решает проблему.
— Детектору всё равно, дорогая модель или дешёвая.
— Если паттерн повторяется, он станет сигналом.
— Если паттерн редкий, он станет сигналом ещё быстрее.
Можно усложнять пайплайн, мешать модели, менять параметры, рандомизировать текст — и всё это действительно работает. Только временно.
Дальше система неизбежно упирается в своё базовое ограничение.
Генераторы оптимизируют тексты под прохождение проверок. Детекторы оптимизируют распознавание этих оптимизаций. Обе стороны дообучаются на результатах друг друга и постоянно сдвигают границу «нормы».
В такой системе невозможно зафиксировать состояние, в котором текст всегда будет считаться допустимым. Любое стабильное решение со временем превращается в повторяемый паттерн.
Именно поэтому 100% прохождение технически недостижимо.
Это та же логика, по которой не существует вечного антивируса или идеального спам-фильтра. Есть только временные преимущества и очередной виток цикла.
Почему мы в Кэмпе давно перестали мыслить категориями «обхода»
Внутри продукта нет задачи «сломать детект» — это тупиковая оптимизация.
Гораздо устойчивее работают подходы, в которых ИИ не выступает финальным автором текста, а берёт на себя вспомогательные и технические роли:
помогает собрать черновик,
выстроить структуру работы,
снять рутинную сборку,
аккуратно оформить текст,
привести источники в порядок.
В такой модели ключевые решения остаются за человеком. Смысл, логика аргументации, выводы и финальные формулировки всё равно формируются в процессе человеческой работы с текстом — и это даёт устойчивый результат.
Именно поэтому мы рассматриваем ИИ как инструмент, который помогает в процессе, но не заменяет работу студента над текстом.
