Китайские студенты начали жаловаться на то, что им приходится дорабатывать самостоятельно написанные дипломы, чтобы пройти проверку специальных алгоритмов университетов. В итоге многие упрощают свои работы.
Ранее местные вузы ввели новые требования: если алгоритм сочтёт, что слишком большая часть текста написана ИИ, то диплом не примут. В одних вузах допустимый порог соавторства ИИ составляет 30%, в других — от 15 до 40%. Такую проверку уже ввели в десятках вузов, в том числе в Сычуаньском и Цзянсуском университетах. Однако студенты утверждают, что алгоритмы часто ошибаются, и многие из работ, для которых вообще не использовался ИИ, проваливают тесты.
Так, Сяобин, студентка из провинции Ляонин, которая училась на направлении немецкой литературы, рассказала, что написала работу сама, а ChatGPT и DeepSeek использовала только для редакции пары абзацев. Девушка заплатила 70 юаней, чтобы проверить текст в одной из систем, одобренных вузом. В итоге алгоритм выдал, что половина диплома создана ИИ. Сяобин много раз переписывала работу, но итоговый балл оставался высоким. Ей помогла только замена точек на запятые. Синтаксис работы стал странным, но показатель авторства ИИ упал до 2%.
«Весь этот процесс показался мне абсурдным… Я чувствую себя невиновным человеком, которого волокут на виселицу», — пожаловалась Сяобин.
В социальных сетях студенты активно делятся подобными историями. Они жалуются, что тексты приходится упрощать, «превращая работы, которыми они гордились, в неловкие и детские». Когда ручное редактирование не работает, многие прибегают к инструментам на базе ИИ, предназначенным для переписывания текста и обмана систем обнаружения. Университеты в основном полагаются на инструменты, разработанные China National Knowledge Infrastructure (CNKI), Wanfang Data и Chongqing VIP — академическими технологическими компаниями, которые давно продают инструменты для обнаружения плагиата. Но некоторые из тех же платформ, включая Chongqing VIP и PaperPass, также предлагают услуги по сокращению объёма работ с помощью ИИ.
Некоторые студенты также обращаются к платформам, рекламирующим «исключительно человеческое переписывание» работ. Другие полагаются на более дешёвые чат-боты на основе ИИ.
Дэдэ, студентка колледжа из провинции Фуцзянь, заплатила около 500 юаней ($70) человеку, который обещал ручное редактирование. В итоге диплом прошёл проверку, но содержание работы стало бессвязным. Ключевые термины были неверно истолкованы, а фразы заменены неподходящими синонимами. «Было совершенно очевидно, что она использовала инструмент ИИ для редактирования моей работы вместо того, чтобы переписать её самой», — отметила Дэдэ. Так, упоминание «трёх ножей», традиционного украшения для волос женщин в провинции Фуцзянь, было заменено на «трёхлезвийные инструменты».
Другая студентка сообщила, что сервис с поддержкой ИИ заменил слово «полупроводник» в её работе на «0,5 проводника».
Студенты жалуются, что все эти платформы связаны между собой. Одна и та же компания может одновременно продавать детектор и сервис, который помогает его обойти. При этом разработчики предусмотрительно включили в пользовательское соглашение отказ от ответственности.
В итоге, когда работа не проходит проверку университетского алгоритма, автор платит, чтобы её «очистить», а потом снова платит за повторную проверку. Университеты официально не комментируют ситуацию.
В некоторых вузах преподаватели уже начали выступать за пересмотр такого подхода. Так, Нанкинский университет выпустил внутреннее сообщение, в котором рекомендовал не полагаться только на автоматическую проверку.
«Более серьёзная проблема в том, что эти инструменты создают у студентов ощущение, будто использование ИИ — это нечто постыдное», — отметил профессор кафедры коммуникаций из провинции Шаньдун.
Ранее сообщалось, что система AI Scientist-v2 от компании Sakana AI смогла в рамках эксперимента создать научную работу, которая успешно прошла процесс рецензирования на семинаре международной конференции ICLR. При этом рецензенты не знали, была ли сгенерирована конкретная работа ИИ или написана человеком, но ранее их предупредили о такой возможности. Внутренняя проверка компании показала, что AI Scientist v2 иногда допускал ошибки в цитировании, в том числе неверно указывал авторов и годы публикации других статей.