По информации Vice, при должном рассмотрении ответы ChatGPT настолько плохи в написании эссе, что преподаватели почти сразу замечают отсутствие смысла в тексте при проверке работ студентов, которые использовали ИИ вместо того, чтобы самим сделать задание.
Профессора и учителя вузов пояснили СМИ, что классическое студенческое эссе после выхода ChatGPT не прекратит свое существование, так как теперь педагоги в курсе чат-бота и рассматривают текстовые работы сквозь призму возможности использования ИИ и адаптировались к ситуации с появлением компьютерных помощников в домашних заданиях.
«Первым показателем того, что я имею дело с ИИ, было то, что, несмотря на синтаксическую связность эссе, оно не имело смысла», — рассказал СМИ доцент философии Университета Фурмана Даррен Хикс. Оказалось, что он проверял эссе на тему «Юм и парадокс ужаса».
Другой преподаватель пояснил СМИ, что эссе, посвященное критике одной из работ Джудит Батлер, было резким, лязгающим (в смысле сильно разнотонным), ошибочным и просто чепухой, так как в нём смешались различные источники. Текст этого эссе был серией предложений, которые имели свой собственный смысл по отдельности, но вместе имели очень мало смысла.
Студенты раньше тоже часто ошибались в самостоятельном написании эссе, но теперь преподаватели начали распознавать идиосинкразические нестыковки, из-за которых ChatGPT не справляется с заданием. По мнению преподавателей, многие эссе чат-бота воплощают в себе совокупность черт, которые вызывают у читателя эффект «зловещей долины».
Есть также контрольные стилистические подсказки, по которым видно, что это ChatGPT. «Обычно чат-бот создает эссе, наполненные банальностями без здравого смысла», — рассказал СМИ преподаватель университете Северной Каролины Брет Деверо. «Это своего рода разница между заказом хорошей еды в ресторане и заказом всего меню в ресторане, добавлением его в блендер, а затем приготовлением супа. Последний будет просто не очень вкусным», — охарактеризовал Деверо попытки ChatGPT написать эссе.
Также выяснилось, что ChatGPT — неприкрытый лжец. Если его привычка к фабрикации данных не проявляется в самом эссе, он, скорее всего, потеряется в цитатах. Чат-бот имеет склонность создавать полностью воображаемые произведения иногда вымышленных авторов. В ответах чат-бот не разбирает имена менее известных ученых со знаменитыми и часто смешивает их. Преподаватели считают, что в этом случае можно быстро понять, что эссе написано ИИ, только если проверяющий сам является экспертом в определенной предметной области. В этом случае он сразу увидит, что эссе не сделано собственноручно впавшим в панику студентом за час до крайнего срока, а чат-ботом, который не понимает, что фантазии в этой работе неуместны.
«Эссе — это набор слов, в который мы помещаем мысли, чтобы поделиться ими с кем-то еще. Но у ChatGPT не может быть оригинальных мыслей, он может только ремиксовать текст, который уже есть в его учебных материалах. Он может только плохо копировать, написав, что кто-то уже сделал лучше где-то в другом месте», — подытожил Деверо.
В конце февраля студент университета Санта-Клары использовал чат-бота ChatGPT для написания эссе по теме «этика искусственного интеллекта». Преподаватель Брайан Грин, который проверял работу, увидел, что текст эссе был не совсем по заданной теме, а также в нём было что-то очень роботизированное. После уточнения автора студент признал, что сдал на проверку не свою собственную работу, а выгрузку из ChatGPT. Проблема также в том, что в это время студенты как раз проходили курс под названием «Этика искусственного интеллекта» и должны были своими словами пересказать своё понимание этой темы.
Ранее группа одарённых школьников во Флориде использовала ChatGPT, чтобы не тратить время на домашние задания. Их быстро вычислили преподаватели, так как в новых работах стиль письма учеников, особенно в эссе, значительно отличался от ранее сданных заданий в прошлом году.
В середине февраля руководство университета Гонконга временно запретило студентам использовать чат-бота ChatGPT и другие подобные инструменты на основе ИИ для создания учебных, курсовых и научных работ. Нарушение запрета будет рассматриваться вузом как плагиат.
В конце января один из ведущих университетов Франции Sciences Po запретил использование чат-бота ChatGPT, чтобы предотвратить мошенничество и плагиат.
Также на ChatGPT наложил табу департамент образования Нью-Йорка. В государственных школах города школьники и учителя не получат доступ к чат-боту. Отдельные заведения могут запросить его для изучения ИИ.
В начале февраля в Минобрнауки РФ решили не наказывать за дипломы, созданные с помощью нейросети ChatGPT. Ведомство считает, что университетам и институтам стоит подумать об изменении подхода к проверке знаний у студентов после появления ChatGPT.
Профессора и учителя вузов пояснили СМИ, что классическое студенческое эссе после выхода ChatGPT не прекратит свое существование, так как теперь педагоги в курсе чат-бота и рассматривают текстовые работы сквозь призму возможности использования ИИ и адаптировались к ситуации с появлением компьютерных помощников в домашних заданиях.
«Первым показателем того, что я имею дело с ИИ, было то, что, несмотря на синтаксическую связность эссе, оно не имело смысла», — рассказал СМИ доцент философии Университета Фурмана Даррен Хикс. Оказалось, что он проверял эссе на тему «Юм и парадокс ужаса».
Другой преподаватель пояснил СМИ, что эссе, посвященное критике одной из работ Джудит Батлер, было резким, лязгающим (в смысле сильно разнотонным), ошибочным и просто чепухой, так как в нём смешались различные источники. Текст этого эссе был серией предложений, которые имели свой собственный смысл по отдельности, но вместе имели очень мало смысла.
Студенты раньше тоже часто ошибались в самостоятельном написании эссе, но теперь преподаватели начали распознавать идиосинкразические нестыковки, из-за которых ChatGPT не справляется с заданием. По мнению преподавателей, многие эссе чат-бота воплощают в себе совокупность черт, которые вызывают у читателя эффект «зловещей долины».
Есть также контрольные стилистические подсказки, по которым видно, что это ChatGPT. «Обычно чат-бот создает эссе, наполненные банальностями без здравого смысла», — рассказал СМИ преподаватель университете Северной Каролины Брет Деверо. «Это своего рода разница между заказом хорошей еды в ресторане и заказом всего меню в ресторане, добавлением его в блендер, а затем приготовлением супа. Последний будет просто не очень вкусным», — охарактеризовал Деверо попытки ChatGPT написать эссе.
Также выяснилось, что ChatGPT — неприкрытый лжец. Если его привычка к фабрикации данных не проявляется в самом эссе, он, скорее всего, потеряется в цитатах. Чат-бот имеет склонность создавать полностью воображаемые произведения иногда вымышленных авторов. В ответах чат-бот не разбирает имена менее известных ученых со знаменитыми и часто смешивает их. Преподаватели считают, что в этом случае можно быстро понять, что эссе написано ИИ, только если проверяющий сам является экспертом в определенной предметной области. В этом случае он сразу увидит, что эссе не сделано собственноручно впавшим в панику студентом за час до крайнего срока, а чат-ботом, который не понимает, что фантазии в этой работе неуместны.
«Эссе — это набор слов, в который мы помещаем мысли, чтобы поделиться ими с кем-то еще. Но у ChatGPT не может быть оригинальных мыслей, он может только ремиксовать текст, который уже есть в его учебных материалах. Он может только плохо копировать, написав, что кто-то уже сделал лучше где-то в другом месте», — подытожил Деверо.
В конце февраля студент университета Санта-Клары использовал чат-бота ChatGPT для написания эссе по теме «этика искусственного интеллекта». Преподаватель Брайан Грин, который проверял работу, увидел, что текст эссе был не совсем по заданной теме, а также в нём было что-то очень роботизированное. После уточнения автора студент признал, что сдал на проверку не свою собственную работу, а выгрузку из ChatGPT. Проблема также в том, что в это время студенты как раз проходили курс под названием «Этика искусственного интеллекта» и должны были своими словами пересказать своё понимание этой темы.
Ранее группа одарённых школьников во Флориде использовала ChatGPT, чтобы не тратить время на домашние задания. Их быстро вычислили преподаватели, так как в новых работах стиль письма учеников, особенно в эссе, значительно отличался от ранее сданных заданий в прошлом году.
В середине февраля руководство университета Гонконга временно запретило студентам использовать чат-бота ChatGPT и другие подобные инструменты на основе ИИ для создания учебных, курсовых и научных работ. Нарушение запрета будет рассматриваться вузом как плагиат.
В конце января один из ведущих университетов Франции Sciences Po запретил использование чат-бота ChatGPT, чтобы предотвратить мошенничество и плагиат.
Также на ChatGPT наложил табу департамент образования Нью-Йорка. В государственных школах города школьники и учителя не получат доступ к чат-боту. Отдельные заведения могут запросить его для изучения ИИ.
В начале февраля в Минобрнауки РФ решили не наказывать за дипломы, созданные с помощью нейросети ChatGPT. Ведомство считает, что университетам и институтам стоит подумать об изменении подхода к проверке знаний у студентов после появления ChatGPT.