Как GPT меняет образование: можно ли сдать экзамены, ничего не учив?
Современные технологии уже не раз переворачивали подходы к обучению — вспомним появление интернета или онлайн-курсов. С развитием искусственного интеллекта образование вновь переживает трансформацию. В конце 2022 года широкую популярность получил чат-бот ChatGPT (модель семейства GPT от OpenAI), способный генерировать связные ответы на практически любые запросы. Неудивительно, что студенты быстро полюбили новый инструмент, и столь же ожидаемо он вызвал беспокойство преподавателей: не приведет ли ChatGPT к массовому списыванию?[1] За последний год ИИ-ассистенты распространились повсеместно, и академическое сообщество пытается понять, как реагировать на этот вызов. В этой статье мы проанализируем, насколько GPT способен помочь сдать экзамены без реального изучения предмета, а также обсудим этические последствия и возможные изменения в системе образования.
GPT и университетские экзамены
Может ли студент сдать экзамен, опираясь только на GPT, и почти не учиться сам? Недавнее исследование напрямую проверило этот вопрос, попытавшись выяснить, сколько университетских курсов смог бы «пройти» ChatGPT без участия студента. Результаты оказались неожиданно высокими. При самых простых подсказках (без специальных уточнений) модель правильно ответила примерно на 65% экзаменационных вопросов, а при более продуманных запросах точность возросла до 85%[1]. Иначе говоря, в значительной части дисциплин нейросеть действительно способна набрать проходной балл вместо студента. В том же исследовании GPT успешно решил экзаменационные задания по более чем 5 500 вопросам из разных STEM-курсов; особенно хорошо давались тесты с выбором ответа – ИИ получил проходной результат в 77% курсов при формате множественного выбора[1]. Если задание требовало развернутого текстового ответа по шаблону (например, написать короткое пояснение), модель показывала себя ещё лучше. Зато открытые творческие задачи без единственно верного ответа давались гораздо сложнее[1].
В каких областях GPT показывает лучшие результаты? Практика показывает, что ИИ особенно силён там, где требуется воспроизведение типовых знаний или структурированных шаблонов. Например, в программировании GPT способен генерировать код по описанию задачи. На базовых заданиях по информатике качество решений, генерируемых ChatGPT, сравнимо с уровнем среднего студента, а иногда приближается к уровню опытного программиста[2]. Также высоки успехи в предметах, где ответы можно подобрать из накопленных знаний, – например, тесты по биологии или истории, вопросы по теории из учебников. Гуманитарные науки оказались особенно уязвимы к автоматическому решению в части письменных работ. Модель может мгновенно написать связное эссе на заданную тему. Показателен случай, когда журналист проверил ChatGPT на задании из юриспруденции: он ввёл тему эссе по праву, и бот буквально за мгновение выдал развёрнутый и довольно качественный ответ. «Домашнее эссе мертво», — заключил автор, указывая на то, насколько легко ИИ справился с работой такого типа[3].
Реальные примеры экзаменов, сданных ИИ. Пока использование ChatGPT студентами носит неофициальный характер, но эксперты и преподаватели уже провели ряд экспериментов, проверяя способности GPT на реальных задачах. Ниже несколько показательных случаев:
Бизнес (MBA).
Профессор Уортонской бизнес-школы Кристиан Тервиэш дал модели GPT-3.5 задачи из своего итогового экзамена по курсу операционного менеджмента. ChatGPT справился с большинством вопросов и, по оценке профессора, получил бы оценку B– (выше среднего) за экзамен[3]. Бот отлично решал стандартные задачи по анализу бизнес-кейсов, хотя допустил несколько удивительных ошибок в элементарных расчетах (арифметика за 6 класс) и затруднился в более сложных вопросах, требовавших одновременного учета нескольких факторов[3].
Право.
В Университете Миннесоты четверо преподавателей проверили ChatGPT на экзаменах сразу по четырем разным юридическим курсам. Ответы модели оценивали вслепую наряду с работами реальных студентов. В итоге средний балл ИИ составил C+ (удовлетворительно), что ниже среднего результата студентов (B+), но тем не менее бот смог пройти все экзамены на уровне, достаточном для получения диплома[4]. Оценки по разным предметам варьировались от B до C–. Авторы исследования отметили, что сам по себе ChatGPT выглядел бы довольно посредственным студентом-юристом, однако показал неожиданный прогресс для машины. Неудивительно, что после этого случая многие преподаватели в том вузе запретили во время экзаменов доступ к интернету[4].
Медицина.
В опубликованном в конце 2022 года эксперименте исследователи прогнали ChatGPT через все три этапа американского медицинского лицензионного экзамена (USMLE). Без какой-либо специальной подготовки ИИ прошел каждый из этапов на уровне порога сдачи[3]. В публикации отмечается, что ответы ChatGPT были не только в правильном диапазоне, но и сопровождались развёрнутыми объяснениями – местами на уровне, сравнимом с рассуждениями реального выпускника медшколы[3]. Хотя результат близок к минимально необходимому, сам факт, что модель сдала столь сложный экзамен, впечатляет. Это наглядно показывает потенциал больших языковых моделей в помощи обучению студентов-медиков.
Приведенные примеры свидетельствуют: GPT умеет сдать тест или написать ответ по многим предметам на оценку не ниже удовлетворительной. Особенно тогда, когда экзамен проверяет знания фактов или применение типовых методов решения. Для студента это рождает соблазн: зачем тратить десятки часов на конспекты и зубрежку, если ИИ может сгенерировать ответ за секунды? Однако полагаться только на нейросеть — далеко не беспроигрышная стратегия. Существуют серьезные области, где даже самые продвинутые модели ошибаются.
На графике показано, какую долю университетских курсов могут «сдать» различные версии GPT в зависимости от требуемого минимального балла. Зеленые линии – более новая модель (GPT-4), оранжевые – предыдущая (GPT-3.5); сплошная линия соответствует тестам с выбором ответа (MCQ), пунктир – открытым вопросам. По оси X отложен порог прохождения экзамена (в процентах правильных ответов), по оси Y – доля курсов, где ИИ преодолевает этот порог. Видно, что GPT-4 существенно превосходит GPT-3.5: например, чтобы сдать ~80% курсов, старой модели хватит порога в районе 50%, тогда как новой – уже около 70%. Более сложные открытые задания снижают результаты обеих моделей, но GPT-4 все равно удерживает больше пройденных предметов на высоких требованиях к оценке. [1] Ограничения и слабые места GPT.
Во-первых, GPT не гарантирует правильность математических расчетов. Языковая модель оперирует словами и обучена на текстах, а не на формальных правилах арифметики. Поэтому при решении задач она может впадать в иллюзию знания: текст ответа выглядит уверенно, но результат неверен. Кристиан Тервиэш (упомянутый профессор Уортона) отметил, что ChatGPT делал «ошеломляюще глупые ошибки» в задачах, требующих всего лишь навыков шестиклассника[3]. Подобные промахи широко задокументированы пользователями: например, бот может неправильно сложить дроби или перепутать формулы, если решение выходит за шаблон, сохранённый в его памяти.
Во-вторых, критическое мышление и нестандартные задачи остаются ахиллесовой пятой ИИ. Исследователи отмечают, что современные модели испытывают трудности с заданиями, требующими анализа, оценки и создания чего-то принципиально нового – то есть с тем, что педагоги относят к верхним уровням таксономии Блума[1]. Такие задания подразумевают синтез информации и оригинальные идеи, а это пока выходит за рамки возможностей даже GPT-4[1]. Иными словами, нейросеть превосходно воспроизводит усвоенные знания (например, пересказывает факты или применяет известные алгоритмы), но слабо умеет решать совершенно новые проблемы, где нет готового ответа в обучающих данных. Наконец, многое упирается в формат экзамена. GPT может написать текст, но не явиться вместо вас на очный опрос или практический зачёт. На устном экзамене студенту всё равно придется самостоятельно рассуждать перед комиссией. Да, теоретически нечестный студент может попытаться воспользоваться ИИ скрытно – например, были случаи, когда на экзамен проносили скрытую камеру и наушник, передавая задания наружу для решения AI. Так, в Турции абитуриент сконструировал систему с мини-камерой в пуговице и беспроводным наушником, через которую удаленный ИИ считывал вопросы и диктовал ответы ему в ухо в реальном времени[5]. Но такие ухищрения скорее из области шпионских технологий и чреваты тяжелыми последствиями при поимке (упомянутого студента арестовали). В обычных условиях использовать ChatGPT на устном экзамене нереально.
Таким образом, полностью "ничего не учить" и надеяться на GPT — рискованно. Модель может помочь написать эссе или решить типовой тест, но она не заменит глубокое понимание. Студент, пренебрегающий учебой, рискует провалиться на заданиях, выходящих за рамки шаблона, или на итоговой аттестации, где потребуется продемонстрировать самостоятельные знания. Разумнее спросить: как интегрировать новые возможности ИИ в обучение без ущерба для качества образования?
Этические и академические последствия
Является ли использование ИИ академическим мошенничеством? Большинство образовательных учреждений склоняется к утвердительному ответу. Если студент выдает за свою работу текст, полностью или частично созданный нейросетью, — это фактически равносильно плагиату и нарушению академической честности[6]. В кодексах многих вузов уже появляются пункты, запрещающие несанкционированное применение AI при выполнении заданий. Логика запрета понятна: когда мы оцениваем знания учащегося, важно, чтобы ответы отражали именно его понимание предмета. Если же за него думает алгоритм, студент не демонстрирует собственных компетенций, а значит, оценка теряет смысл. Даже с юридической точки зрения вопрос об авторстве ИИ-контента пока не до конца ясен, но с этической стороны работа, написанная ChatGPT, не своим трудом, ничем не лучше скачанного из интернета реферата. Поэтому, как правило, использование GPT для списывания считается мошенничеством, с теми же последствиями — вплоть до отчисления при повторных нарушениях.
Как преподаватели противодействуют нечестному использованию ИИ? Первой реакцией многих стала запретительная. Некоторые школы и университеты ограничили доступ к ChatGPT на кампусе. Например, департамент образования Нью-Йорка (одной из крупнейших школьных систем) объявил о блокировке ChatGPT на устройствах и сетях школ уже в январе 2023 года[7]. Преподаватели вузов также начали перестраховываться: на экзаменах требуют сдавать телефоны, отключать Wi-Fi, возвращаются к письменным работам на бумаге под присмотром, чтобы исключить возможность тайно воспользоваться подсказкой сети. В Миннесотском эксперименте с юридическими экзаменами сразу после получения результатов профессор заявил, что на всех его будущих тестах студентам будет запрещён выход в интернет[4]. В российских университетах также звучали идеи ограничить доступ к ChatGPT. Показателен случай в РГГУ (Российском государственном гуманитарном университете): там студент сумел сдать дипломную работу, написанную нейросетью, объёмом 60 страниц с 70% оригинальности текста, — после чего администрация предложила блокировать ChatGPT в учебных заведениях, опасаясь последствий для качества образования[8].
Помимо организационных мер, появились и технические средства борьбы. Так, компания Turnitin (известная по системе проверки плагиата) внедрила инструмент для детектирования AI-сгенерированного текста. Появился ряд онлайн-сервисов, обещающих по косвенным признакам отличить стиль GPT от человеческого. Однако точность таких методов далека от идеала. Предварительные тесты показывают множество ложных срабатываний и промахов[9]. Бывали случаи, когда стилистику самого преподавателя детектор ошибочно помечал как "написанную ИИ" — и наоборот, умелые студенты обучались слегка перефразировать ответы бота, чтобы обходить обнаружение. OpenAI даже выпустила собственный определитель AI-текста, но вскоре закрыла его из-за низкой надежности (слишком высокий процент ошибок)[9]. Таким образом, полагаться только на детекторы пока нельзя – это скорее гонка вооружений, где совершенствование моделей затрудняет их распознавание.
Если списывание принимает новые формы, то и противодействие ему тоже эволюционирует. Многие педагоги считают, что путь запретов и ловли нарушителей не решает проблему в корне[1]. Как отметил один из вице-президентов швейцарской EPFL, "живые" контролируемые экзамены могут на время удержать статус-кво, но в долгосрочной перспективе образование должно сместить фокус: перестать требовать от студентов того, что машины делают лучше нас, и сконцентрироваться на том, что человеку дается лучше ИИ[1]. Иными словами, возможно, настало время пересмотреть формат экзаменов и сами учебные цели.
Заключение
Появление GPT стало для образования одновременно вызовом и возможностью. С одной стороны, мы убедились, что сдать экзамены, почти не учившись, технически возможно во многих случаях – достаточно умело воспользоваться ИИ. Алгоритмы уже сейчас решают тесты и пишут сочинения на уровне, порой не уступающем среднестатистическому[3][4]. Однако путь обмана чреват серьезными последствиями. Студент, который полагается лишь на подсказки GPT, обманывает не только преподавателя – он обманывает самого себя, лишая себя процесса обучения. Знания, не добытые собственным трудом, остаются поверхностными и хрупкими. Как отмечают исследователи, слишком легкое получение ответов через ИИ может привести к слабым фундаментальным основам, из-за чего потом станет только тяжелее осваивать более сложные концепции[1].
С другой стороны, игнорировать GPT в надежде "переждать" не получится. Генеративные модели уже здесь и будут только улучшаться. Сегодня ChatGPT допускает ошибки в расчетах, а через пару лет, возможно, научится мгновенно и безошибочно решать сложнейшие уравнения. Запретить студентам доступ ко всем новым технологиям невозможно, да и неправильно. Значит, системе образования предстоит адаптироваться. Экзамены и задания должны эволюционировать так, чтобы по-прежнему выполнять свою главную функцию – проверять и укреплять реальные знания и навыки. Мы видим первые шаги в эту сторону: от отказа от примитивных тестов к проектной работе, от зазубривания фактов к развитию критического мышления.
Можно ли сдать экзамен, ничего не учив, с помощью GPT? Отчасти можно, особенно если экзамен устарел и проверяет лишь память или шаблонные умения. Но будет ли толк от такого "успеха"? Работодатель вряд ли наймет выпускника, который без подсказки растеряется перед нестандартной задачей. Да и сам выпускник, не имея прочных знаний, почувствует себя обманутым, столкнувшись с реальными проблемами в работе. Поэтому и студенты, и преподаватели постепенно приходят к пониманию: ИИ – новый мощный инструмент, который следует использовать с умом. Не как чит-код для обхода обучения, а как интеллектуальный калькулятор, расширяющий возможности обучения.
Можно провести параллель: когда появились калькуляторы, плохой ученик стал считать еще хуже – ведь можно не учить таблицу умножения. Но хороший ученик благодаря калькулятору стал решать еще более сложные задачи, недоступные раньше, потому что рутина упростилась. Так и с GPT: при разумном применении он позволит ученикам и учителям продвинуться дальше и глубже в освоении предмета. Система образования стоит перед выбором: закостенеть и пытаться отгородиться от новых технологий, либо открыться им навстречу и вместе воспитать поколение, которое умеет эффективно сотрудничать с AI. Судя по всему, второй путь неизбежен. А значит, задача на ближайшие годы – перестроить учебный процесс так, чтобы и честность оценивания, и качество знаний только выигрывали от присутствия GPT, каким бы продвинутым он ни стал в будущем. Такой симбиоз возможен, если мы будем готовы меняться. Образование не раз доказывало свою гибкость – докажет и сейчас, превратив GPT из угрозы в незаменимого помощника преподавателя и студента.
Источники:
New Study Suggests GPT Can Outsmart Most Exams, But It Has a Weakness [Электронный ресурс]. — Режим доступа: https://www.odditycentral.com/news/student-caught-using-artificial-intelligence-to-cheat-on-university-entrance-test.html (дата обращения: 13.03.2025).
ChattyG takes a first-year university C/C++ programming exam // The Register [Электронный ресурс]. — Режим доступа: https://www.theregister.com/2023/10/03/chatgpt_code_college/ (дата обращения: 13.03.2025).
Here Are the Exams ChatGPT and GPT-4 Have Passed so Far [Электронный ресурс]. — Режим доступа: https://www.businessinsider.com/list-here-are-the-exams-chatgpt-has-passed-so-far-2023-1 (дата обращения: 13.03.2025).
ChatGPT passes law school exams despite 'mediocre' performance [Электронный ресурс]. — Режим доступа: https://www.reuters.com/legal/transactional/chatgpt-passes-law-school-exams-despite-mediocre-performance-2023-01-25/ (дата обращения: 13.03.2025).
Student caught using artificial intelligence to cheat on university entrance test [Электронный ресурс]. — Режим доступа: https://www.odditycentral.com/news/student-caught-using-artificial-intelligence-to-cheat-on-university-entrance-test.html (дата обращения: 13.03.2025).
Is Using AI to Write an Essay Cheating? [Электронный ресурс]. — Режим доступа: https://www.pennfoster.edu/blog/is-using-ai-to-write-an-essay-cheating (дата обращения: 13.03.2025).
Wharton professor tested ChatGPT with final exam and would give it a B- [Электронный ресурс]. — Режим доступа: https://www.businessinsider.com/wharton-professor-tested-chatgpt-withfinal-exam-would-give-b-2023-1 (дата обращения: 13.03.2025).
Не можешь запретить – возглавь: как российские вузы используют нейросети в образовании [Электронный ресурс]. — Режим доступа: https://profile.ru/scitech/ne-mozhesh-zapretit-vozglav-kak-rossijskie-vuzy-ispolzujut-nejroseti-v-obrazovanii-1395646/ (дата обращения: 13.03.2025).
AI Detectors Don't Work: Problems with AI-text Detection [Электронный ресурс]. — Режим доступа: https://mitsloanedtech.mit.edu/ai/teach/ai-detectors-dont-work/ (дата обращения: 13.03.2025).