ИИ заменит образование или переведёт его на новый уровень?
С момента выпуска ChatGPT в конце 2022 года одними из самых активных его пользователей стали ученики и студенты. Когда стремительный рост пользовательской базы в конце весны 2023 года замедлился, это ненадолго показалось признаком близкого сдувания пузыря ИИ, но в сентябре рост продолжился; причиной падения оказались банальные летние каникулы. Хоть другие виды организаций испытывали трудности с применением поразительно мощного и на удивление некомпетентного инструмента, для учащихся его полезность в написании изложения по «Гамлету» на полторы тысячи знаков стала очевидной сразу. Этим вызваны и нынешние рекламные кампании OpenAI и других разработчиков ИИ с предложениями скидок студентам.
Каждый год примерно 15 миллионов студентов в США пишут статьи и экзамены, состоящие из миллиардов слов. Хотя результатом каждого курса становятся студенческие работы — статьи, экзамены, исследовательские проекты и так далее — продуктом курса остаётся нарабатываемый студентами опыт. «Результаты обучения возникают вследствие действий и мыслей студента и только в результате того, что делает и думает студент», — писал великий теоретик образования Герберт Саймон. Само задание — это макгаффин, скоропортящийся товар с экономической ценностью, равной примерно нулю долларов. Оно ценно только как способ принудить студента трудиться и думать.
Полезность письменных заданий зависит от двух допущений: во-первых, чтобы написать о чём-то, студенту нужно понять тему и упорядочить свои мысли. Во-вторых, оценивание письменных работ студентов, по сути, означает оценку их труда и мыслительных усилий. К концу 2022 года логика этих допущений начала давать сбой. Труда по написанию и получаемого при этом опыта можно избежать, просто введя промпт; это значит, что теперь оценивание письменных работ может быть не связано с оценкой того, что научился осознавать или выражать студент.
Генеративный ИИ может быть полезен в обучении. Подобные инструменты хорошо справляются с объяснением сложных концепций, помогают практиковаться в тестах, изучать руководства и так далее. Студенты могут написать статью и попросить у ИИ отзыв о её стиле изложения, проверить, как выглядят её варианты для людей с различными уровнями чтения или сгенерировать краткое изложение, чтобы понять, чётко ли передан смысл. Сразу после запуска ChatGPT наряду с ленивыми пользователями появились и увлечённые. Но то, что ИИ может помогать студентам учиться, не гарантирует, что он действительно им поможет.
Сказав, что единственный возможный источник обучения — это действия и мысли студента, Саймон делает вывод: «Учитель может продолжать обучение, только повлияв на стремление студента к обучению». Генеративный ИИ стал неотъемлемой частью учебного процесса, поэтому мы, очевидно, должны влиять на студентов, чтобы они применяли полезные способы использования ИИ и избегали вредящих. Наша проблема заключается в том, что мы не знаем, как это сделать.
Я работаю администратором в Нью-Йоркском университете, мои обязанности заключаются в том, что я помогаю факультету адаптироваться к цифровым инструментам. Два последних года мы с преподавателями и студентами пытались понять происходящее в аудиториях. Во время этих бесед факультет испытывал различные степени досады, любопытства или восхищения, но ближе к завершению прошлого года самой часто выражаемой эмоцией стала печаль. И такой ситуация оказалась на факультете, который, на мой взгляд, внедряет стратегии, рекомендованные мной и моими коллегами: он подчёркивает связь между трудом и обучением, при обнаружении сгенерированных ИИ работ он предлагает студентам второй шанс, а не просто снижает оценки и так далее. Факультет сообщил нам, что рекомендованные нами стратегии работают не так, как мы рассчитывали, и сказал он это в состоянии сильного расстройства.
В начале семестра один преподаватель рассказал мне, что защитил свои задания от ИИ, но студенты начали жаловаться, что работа слишком сложна. Когда он сказал им, что это стандартные задания, просто перефразированные таким образом, чтобы их не могли выполнять современные ИИ, студенты ответили, что это мешает их «стилю обучения». Один студент попросил перенести сроки, обосновав это тем, что в день сдачи задания ChatGPT не работал. При обсуждении поставленной задачи ещё один сказал: «Вы просите меня попасть из точки А в точку Б, так почему я не могу поехать на машине?» Третий, когда ему задали вопрос о работе, преимущественно написанной ИИ, ответил: «Так все делают». И это истории, услышанные в 15-минутной беседе только с одним преподавателем.
Всё более печальные отзывы об использовании ИИ мы слышим и от студентов. Один из моих коллег сообщил, что студенты испытывают «глубокий конфликт» от применения ИИ. Вот некоторые из записанных ею наблюдений:
«Я стала ленивее. ИИ упрощает чтение, но из-за него мой мозг постепенно теряет способность мыслить критически и понимать каждое слово».
«Я ощущаю, что слишком полагаюсь на ИИ, из-за чего страдает моя творческая составляющая».
Об использовании кратких изложений текста,сгенерированных ИИ: «Иногда я даже не понимаю, что хочет сообщить мне текст. Иногда это слишком большой объём текста за короткий промежуток времени, а иногда текст мне просто неинтересен».
«Да, он полезен, но я боюсь, что когда-то начну читать только краткие изложения по версии ИИ, а не воспринимать тексты самостоятельно, то стану слишком зависимым от ИИ».
Основная причина использования студентами ИИ — тревога. В дополнение к привычному беспокойству об академической успеваемости студенты ощущают давление времени, связанное с трудоустройством, стажировкой и факультативными заданиями, а также тревогу о среднем балле и выписках из зачётной ведомости для работодателей. Сложно сказать им: «Вот инструмент, который, по сути, может выполнять за тебя задания, снизив тревожность и сэкономив десять часов работы без ущерба для среднего балла. Но тебе не стоит его так использовать». Однако чтобы выполнение заданий приносило пользу, подобные самоограничения со стороны студентов необходимы.
Судя по свидетельствам, самоограничение распределено неравномерно. В ноябре в сабреддите Нью-Йоркского университета на Reddit появился пост с заголовком «Не могу перестать использовать Chat GPT при выполнении домашней работы». (Судя по истории постов автора, он действительно студент Нью-Йоркского университета.) В посте написано следующее:
Я буквально и десяти секунд не могу провести без Chat при выполнении заданий. Меня бесит то, во что я превратился, потому что понимаю, что не учусь НИЧЕМУ, но в то же время я зашёл слишком далеко, чтобы отказаться от него. Мне нужна помощь, я потерял всю мотивацию. Я уже на старших курсах, и выпущусь, не накопив никаких знаний по моей основной специализации.
Учитывая это и множество других наблюдений за последние месяцы, я осознал, что многие из нас, использующих ИИ в обучении, совершили коллективную ошибку, считая, что ленивое и активное его применение находятся на краях спектра, и что стимулирование студентов к активному использованию одновременно заставит их отказаться от ленивого.
Факультет и студенты доказали мне, что это не так, или, по крайней мере, не совсем так. Способы применения ИИ — это не спектр, а независимые опции. Студент может сам активно участвовать в выполнении одного задания, лениво подойти к другому, а в третьем использовать смешанный подход. Хорошее применение ИИ не отвращает студентов автоматически от плохого; преподаватель может внедрить ИИ для генерации отзывов об эссе и подготовки к тестам, но это не помешает студентам использовать его для написания большинства заданий.
Наша проблема заключается в том, что у нас две проблемы. Первая — нам нужно понять, как стимулировать студентов применять ИИ творчески и осознанно. Вторая — разобраться, как разубедить их использовать его ленивым и наносящим ущерб образом. Обе задачи важны, но вторая сложнее.
Студентам легко объяснить, что если отдать выполнение заданий на откуп ChatGPT, то это не разовьёт их интеллект точно так же, как поднятие гири грузоподъёмником не разовьёт их мышцы. Мы осознавали эту проблему ещё с конца 2022 года, и студенты регулярно сообщали нам, что осознают вред некоторых способов применения ИИ. Однако избегать простых решений оказалось столь же сложно, сколь и следовать плану силовых тренировок. Причина одинакова: человеческий мозг невероятно искусно умеет рационализировать приятное, но вредное поведение.
Применение этих инструментов может создать ощущение того, что ты учишься. В своём видео «ИИ может делать за тебя домашнюю работу. И что теперь?» Джосс Фонг объясняет это следующим образом:
У исследователей образования существует термин «желаемые трудности», описывающий подобного активного участия, который действительно даёт результаты, но неудобен. И опасность ИИ заключается в том, что мы можем не сохранить эти усилия, особенно потому, что уже склонны ошибочно интерпретировать небольшие трудности как признак того, что мы не учимся.
Такое предпочтение ощущения беглости в ущерб желаемым трудностям был обнаружен задолго до появления генеративного ИИ. Именно поэтому многие студенты регулярно сообщают о том, что они учатся большему от хорошо изложенных лекций, чем от активного обучения, хотя из множества исследований мы знаем, что всё ровно наоборот. Одна из недавних статей имеет вызывающее название «Сравнение активного обучения и ощущения обучения». В другой делается вывод, что беглость изложения преподавателем создаёт ощущение обучения без увеличения активного обучения.
Подобные споры велись, когда в 1970-х годах произошло широкое распространение электронных калькуляторов. Хотя многие люди не считают, что использование калькуляторов вызывает проблемы, учителя начальных классов запрещают их, когда ученики изучают арифметику. В одном исследовании говорится, что ученики пользуются калькуляторами, чтобы обойти необходимость понимания математической задачи (то есть для того, для чего мы с вами их и используем). В другом эксперименте при использовании калькулятора, запрограммированного на «ложь», четверо из десяти студентов просто соглашались с вариантом ответа, в котором женщине, родившейся в 1945 году, в 1994 году исполнилось 114 лет. Студенты Университета Джонса Хопкинса, активно пользовавшиеся калькулятором в начальных классах, в колледже имели более низкие оценки по математике, а многие заявления о положительном влиянии калькуляторов на оценки в тестах подобны выводу о том, что человек может бежать быстрее, если дать ему автомобиль. Очевидно, у калькуляторов есть сферы применения, но не стоит притворяться, что слишком активное их использование не вредит ощущению величин чисел.
Исследования когнитивных искажений при использовании ИИ тоже начинают демонстрировать схожие паттерны. Исследование 2024 года с прямолинейным названием «Генеративный ИИ может вредить обучению» гласит, что «доступ к GPT-4 существенно улучшает оценки… Однако мы также выяснили, что при последующем отказе в доступе студенты показывают результаты хуже, чем те, кто доступа к ИИ не имели». В ещё одном исследовании выяснилось, что студенты, имеющие доступ к большой языковой модели, переоценивают свой уровень понимания. В результате исследования 2025 года, проведённого Университетом Карнеги-Меллона и Microsoft Research, был сделан вывод, что повышенная уверенность в генеративном ИИ связана с более низким уровнем критического мышления. Как и в случае с калькуляторами, есть множество задач, в которых автоматизация важнее, чем понимание пользователя, но для студенческих работ инструмент, улучшающий оценки, но вредящий опыту — это плохой компромисс.
В 1980 году философ Джон Сирл, размышляя о связанных с ИИ спорах того времени, предложил мысленный эксперимент под названием «Китайская комната». Сирл представил англоговорящего испытуемого, не знающего китайский язык, который сидит в комнате со сложным набором инструкций на английском по поиску одного множества китайских символов и сопоставлению с ними второго множества. Когда под дверь комнаты подсовывают слова на китайском языке, испытуемый ищет их в одном множестве, пишет соответствующие символы на другом листе бумаги и подсовывает его под дверь. Испытуемый не знает, что за дверью находятся владеющие китайским люди, передающие в комнату вопросы, а получаемые ими листы бумаги содержат ответы на идеальном китайском. Сирл задался вопросом, знает ли испытуемый в комнате, как читать и писать на китайском, и безоговорочно ответил, что нет.
Когда Сирл предложил свой мысленный эксперимент, никакой ИИ не мог приблизиться к такому поведению; его статья была написана для того, чтобы подчеркнуть теоретическую разницу между намеренным действием и следованием инструкциям. Сегодня этот эксперимент стал ещё одним способом использования уже существующего искусственного интеллекта, разрушающего систему образования.
Показательно недавнее дело Уильяма А. из документов суда. Уильям был студентом системы школ округа Монтгомери (штат Теннесси), он испытывал трудности с чтением. (Позже ему диагностировали дислексию). В соответствии с требованиями акта об образовании людей с нарушениями здоровья система школ предоставила Уильяму индивидуальный план обучения, предназначенный обеспечить «бесплатное должное народное образование» с учётом нарушений здоровья ученика. В процессе учёбы план Уильяма менялся, в него добавилось дополнительное время, а также разрешение на использование технологий для выполнения заданий. Он выпустился в 2024 году со средним баллом 3,4, не умея при этом читать. Он даже не мог написать своё имя.
Согласно материалам дела, для выполнения письменных заданий «Уильям сначала диктовал тему задания в документ при помощи ПО, преобразующего голос в тест»:
Затем он вставлял текст в ИИ-помощников наподобие ChatGPT. Далее ПО генерировало статью по этой теме, которую Уильям вставлял в свой документ. В конце Уильям пропускал эту статью через ещё одно ПО для проверки правописания наподобие Grammarly, чтобы она отражала соответствующий стиль.
Этот процесс — практическая версия китайской комнаты для преобразования речи в текст. Именно так подросток выпустился из старшей школы с почти полной безграмотностью.
Местный суд постановил, что система школ нарушила акт об образовании людей с нарушениями здоровья, и приказал в качестве компенсации представить Уильяму сотни часов репетиторства. Округ подал апелляцию, заявив, что поскольку Уильям мог следовать инструкциям для получения требуемого результата, то ему было предоставлена приемлемая замена умению читать и писать. 3 февраля судья апелляционной инстанции принял решение, подтверждающее исходный вердикт: школы Уильяма не выполнили свою задачу, сделав упор на выполнение заданий, а не на обучение.
Для Сирла стало аксиомой то, что испытуемый в китайской комнате не умел ни читать, ни писать на китайском; следование инструкциям — не замена пониманию. Судья апелляционной инстанции принял аналогичное решение по делу Уильяма А, не научившегося читать и писать на английском: копипастинг из ChatGPT — не замена грамотности. И многие мои коллеги обеспокоены тем, что каждым выполненным заданием мы позволяем студентам строить собственные китайские комнаты.