Как стать автором
Обновить

В платной версии сервиса «Антиплагиат» добавлена опция определения текста, созданного с помощью чат-ботов типа ChatGPT

Время на прочтение2 мин
Количество просмотров11K
Всего голосов 5: ↑4 и ↓1+6
Комментарии11

Комментарии 11

Очень сомнительная история. Хочется узнать цифры по ошибкам первого и второго рода. А также рекомендации, что делать ученикам/студентам, столкнувшимся с ошибкой первого рода (ложноположительное заключение). Если про плагиат всё просто: можно открыть первоисточник и сравнить, то как опровергать заключение, что текст написан не тобой, а роботом?

Нет оснований не доверять платной версии уважаемых людей, с многолетними исследованиями.

Все таки лучше в явном виде добавлять теги иронии.

Еще возникают сомнения насчет архитектуры проверяющей модели Антиплагиат. Сравнение текста не столь эффективно в данном случае. Представляется мне похожая модель, что в картинке с проверкой американской конституции. Возможно, у них достаточно данных, но проверить эту информацию не представляется возможным, как и статистики по ошибкам.

Что делать столкнувшимся с подобным - неизвестно, т.к. недоказуемо, особенно в научных работах.

Hidden text

что текст написан не тобой, а роботом?

Так это надо доказывать тем, кто утверждает, что ваш текст написан роботом.

Доказательством будет заключение Антиплагиата.

Со ссылками на первоисточники.

Собственно как это и было много веков ранее с бумажными версиями.

Прекрасно помню, как этот антиплагиат обходился вставкой специальных невидимых символов между буквами) Надо б щас проверить это. А так, система - дрянь, учитывая качество гуманитарного образования, не понятно зачем ее вообще там применяют (точнее понятно, что просто делают деньги из воздуха)

Обходилась она так только в бозовых данных, а в полном отчёте все эти символы становились видны. Другое дело, что научруки в те времена не всегда утруждали себя заглянуть в полный отчёт, а в то и вовсе работу на планиат проверял методист или библиотекарь, тому вообще все равно и в отчёт он не лез

Сейчас пишет в отчёте, что использовались методы обхода антиплагиата (когда находит подобные символы)

Я скептически отношусь к этой опции. регулярно и много использую и антиплагиат (в его платных сервисах) и генеративные AI и ChatGPT с момента запуска уже стал базовым рабочим инструментом. Но родные openAI сервисы проверки на предмет генерации очень ограниченные и несложным промптингом стилей пока легко обходится. Такой сервис может сделать сама генеративная модель через цифровую watermark, а вот утверждение что мы такие умные "что нашли универсальные watermark" и научились значимо отличать сгенерированный тексты от человеческих - звучит пока бездоказательно. с удовольствием посмотрю на работы в этой области. Пока не видел.

Так что пока как в анекдоте "доктор, у меня сосед в 80 лет говорит что занимается сексом 3 раза в день" - ну так и вы можете говорить.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории