Комментарии 10
Теперь нейросети используются для детектирования текстов, сгенерированных нейросетями. А потом накопленный опыт будет использоваться, чтобы делать сгенерированные тексты всё более правдо- (человеко-)подобными. В интересное время живём, товарищи!
" - А вы и конфеты за меня есть будете?
- Ага!"
Буквально вчера был обзор исследования. Где показали, что если дообучать родственные сети(скорее всего требуются исходно одинаковые веса - общего предка) на вполне нейтральных текстах, сгенерированных "заражонной" сетью (имеют ввиду ее особенности, например в статье это было предпочтение определенному животному, но тут может быть полет фантазии, от поддержки республиканцев до..). То обучаемая сеть начинает проявлять эти особенности.
Может я неправильно прочитал статью, но никакого детектора иишности текста нет. Учёные просто оценили какие паттерны активируются при генерации текста. При этом, определить авторство готового текста их способом нельзя.
В статье На сколько ваш текст похож на ИИ, я уже указывал на те же самые паттерны. Хотя, как мне кажется необоснованная уверенность, как раз ИИ не присуща. Но может это особенность модели.
Вообще уверенно скажу, определить на 100% авторство ИИ способами ИИ невозможно. А на необходимый процент люди и сами определяют иишность текста.
Из любопытства проверил предсказуемость фраз из разных статей на разных моделях промптом, нет не получилось.... Так что только лезть под капот модели (любимое выражение ИИ кстати) и смотреть как она генерирует статью. Тогда будет точное понимание, что эта статья сгенерировано ИИ. ))
Теперь нужно чтобы поисковики делали оценку контента сайта и чтобы по галочке можно было исключить нейроконтент и чтобы на хабре не давали такое опубликовать...
Нейроконтент может вскоре преобладать над человеческим, вижу иногда люди на сайтах типа stack overflow копипастят из нейронки ответ даже не зная что это неправильное решение.
Ловушка для генеративных крысок готова
Все существующие детекторы "человечности" текстов некорректные. Доверять им такую проверку нельзя. Да и цели такой проверки сомнительны. Кому интересно, аргументацию подробно указал в своей статье. Повторяться не хочется, тем более коротко не выйдет. https://berezovski.by/sgenerirovan-li-tekst-nejrosetyu-mysli-pro-servisy-proverki-chelovechnosti-kontenta/
А что мешает взять этот детектор, прикрутить его к нейросети в процессе обучения, и штрафовасть ее чуть сильнее за контент который через детектор не прошел?
В чём идёт практическая польза человечеству от этого? Извините, но это похоже на бюрократический aнанизм и техноересь
Не опять, а снова: в МФТИ разработали «прозрачный» детектор ИИ-текстов