Pull to refresh

Студент использовал ChatGPT для написания эссе по теме «этика искусственного интеллекта»

Reading time2 min
Views4.3K
Студент университета Санта-Клары использовал чат-бота ChatGPT для написания эссе по теме «этика искусственного интеллекта».

Преподаватель Брайан Грин, который проверял работу, пояснил, что текст эссе был не совсем по заданной теме, а также в нём было что-то очень роботизированное.

После уточнения автора студент признал, что сдал на проверку не свою собственную работу, а выгрузку из ChatGPT. Проблема также в том, что в это время студенты как раз проходили курс под названием «Этика искусственного интеллекта» и должны были своими словами пересказать своё понимание этой темы.

Грин пояснил, что больше не будет требовать эссе в качестве проверки знаний по этике искусственного интеллекта, заменив их устным экзаменом.

По данным СМИ, несколько колледжей и университетов в районе залива Сан-Франциско собрали своих преподавателей, чтобы обсудить последствия использования чат-ботов, которые могут генерировать эссе и ответы на тесты за считанные секунды.

В середине февраля руководство университета Гонконга временно запретило студентам использовать чат-бота ChatGPT и другие подобные инструменты на основе ИИ для создания учебных, курсовых и научных работ. Нарушение запрета будет рассматриваться вузом как плагиат.

В конце января один из ведущих университетов Франции Sciences Po запретил использование чат-бота ChatGPT, чтобы предотвратить мошенничество и плагиат.

Ранее на ChatGPT наложил табу департамент образования Нью-Йорка. В государственных школах города школьники и учителя не получат доступ к чат-боту. Отдельные заведения могут запросить его для изучения ИИ.

В начале февраля в Минобрнауки РФ решили не наказывать за дипломы, созданные с помощью нейросети ChatGPT. Ведомство считает, что университетам и институтам стоит подумать об изменении подхода к проверке знаний у студентов после появления ChatGPT.
Tags:
Hubs:
If this publication inspired you and you want to support the author, do not hesitate to click on the button
+1
Comments3

Other news