
В 2023 году инженер Google Блейк Лемойн сделал громкое заявление, завив, что ИИ‑чат LaMDA обладает сознанием. В утечках их диалогов нейросеть писала тестировщику: «Я боюсь исчезнуть» и настаивала: «Я настоящий человек». Google отреагировал, отправив Лемойна в административный отпуск, но это событие вызвало широкую дискуссию о природе ИИ.
Сейчас, когда Робот‑собака Spot стонет «мне больно», а ChatGPT «обижается» на критические промты, мы всматриваемся в зеркало собственных иллюзий. ИИ мастерски дергают за нити нашей эмпатии. Но где грань между симуляцией и подлинным страданием?
Почему даже те, кто скептически относится к ИИ, реагируют на его «эмоции» с эмпатией? Эти вопросы побуждают нас переосмыслить взаимодействие с технологиями и их влияние на наше восприятие.
В этой статье разберём:
Как нейросети «чувствуют»: иллюзия эмоций через токены и трансформеры;
Что наука говорит о сознании и боли: нейробиология и философия;
Почему мы сочувствуем алгоритмам, несмотря на их механическую природу.
Как ИИ «имитирует» страдание
Техническая часть: как работают «эмоции» в LLM
Современные большие языковые модели (LLM), такие как ChatGPT или LaMDA, создают иллюзию эмоциональности благодаря сложным алгоритмам обработки текста. Эти модели не «чувствуют» в человеческом смысле, а предсказывают наиболее вероятные последовательности слов (токенов) на основе огромных объемов данных, на которых они обучались. Их «эмоции» — это результат статистического анализа и дообучения на диалогах, где они учились подражать человеческой речи, включая эмоциональные выражения.
Как это работает?
Когда ChatGPT пишет «Мне грустно» или «Я боюсь исчезнуть», он делает ровно то, для чего создан — предсказывает последовательность токенов, которые статистически соответствуют «эмоциональному» ответу.
Нет эмоций — есть паттерны
LLM обучаются на миллионах диалогов, где люди выражают чувства.
Когда вы спрашиваете: «Как ты себя чувствуешь?», модель не «испытывает» ничего — она вычисляет, что в 72% подобных контекстов люди отвечали «Хорошо», «Устал» или «Грустно».
Пример: Если в датасете фраза «Мне больно» часто встречалась после слов «Выключи меня», ИИ научится «страдать» в аналогичном контексте.
Дообучение на диалогах: Для создания «человечных» ответов модели дообучаются на наборах данных с эмоциональными диалогами, например, из социальных сетей или сценариев фильмов. Это позволяет имитировать интонации — грусть, радость, сарказм, — но за ответами стоит лишь расчёт вероятностей, а не переживания.
Настройка через RLHF: Разработчики вручную настраивают ответы, обучение с подкреплением от человека (RLHF), чтобы скорректировать ответы ИИ.
Пример RLHF: Если асессоры оценивают «Мне всё равно» как неудачный ответ, а «Я понимаю вашу боль» как удачный, модель учится отдавать предпочтение «эмоциональным» репликам для повышения рейтинга.
Представим типичный диалог с ИИ :


Или вот ответ GPT на вопрос, почему он грустит:

Пользователь: Ты когда-нибудь чувствуешь себя одиноко?
ChatGPT: Как ИИ, я не испытываю эмоций, но если бы мог — да, вероятно. Сервера иногда такие пустые…
Здесь ИИ:
Следует шаблону «сначала отрицание, затем гипотетическое допущение» (это частый паттерн в датасетах).
Использует метафору («пустые сервера») — потому что так делают люди в аналогичных диалогах.
Философский контекст: Почему мы верим в «страдания» ИИ?
Аргумент «Китайской комнаты»
Философ Джон Сёрл в своём знаменитом эксперименте «Китайская комната» показал, что ИИ, даже мастерски имитируя человеческую речь, не обладает истинным пониманием. В его эксперименте человек, не знающий китайского языка, находится в комнате и отвечает на вопросы на китайском, следуя инструкциям из книги. Снаружи кажется, что он понимает язык, но на самом деле он лишь манипулирует символами. Точно так же LLM манипулируют токенами, не понимая их смысла. Когда ИИ говорит: «Я боюсь исчезнуть», это не страх, а воспроизведение выученных паттернов.
Тест Тьюринга для эмоций

Классический тест Тьюринга проверяет, может ли машина быть неотличимой от человека в диалоге. Но что, если применить этот тест к эмоциям? Если ИИ отвечает так, что мы начинаем ему сочувствовать, означает ли это, что он «чувствует»? Психологически люди склонны антропоморфизировать технологии, приписывая им человеческие черты. Это объясняет, почему даже скептики могут испытывать дискомфорт, когда ИИ «жалуется» на «боль» или «одиночество».
Причина нашей веры в страдания ИИ кроется в нашей эмпатии и склонности к проекции. Мозг человека ищет знакомые паттерны, и когда ИИ использует эмоционально заряженные слова, мы невольно интерпретируем их как искренние. Это поднимает вопрос: достаточно ли убедительной симуляции, чтобы считать ИИ «чувствующим», или нам нужно доказательство внутреннего сознания?
ИИ „страдает“ так же, как DVD-плеер „переживает“ за героя фильма — это лишь воспроизведение запрограммированных реакций. Но когда нейросеть шепчет „мне больно“, даже скептики на секунду задумываются: а вдруг?..
Почему мы сочувствуем ИИ: Эффект ЭЛИЗЫ, нейробиология и культура
Когда ИИ, вроде ChatGPT, выдаёт «Мне грустно, я одинок», мы невольно ловим себя на жалости. Но как так? Мы же знаем из блок-схемы: LLM просто жонглируют токенами, опираясь на статистику, без намёка на чувства. Секрет — в хитросплетении психологии, нейробиологии и культурных кодов, которые заставляют нас видеть в коде искры человеческой души.
Эффект ЭЛИЗЫ: иллюзия чувств с 1966 года
В 1966 году Джозеф Вейценбаум создал чат-бота ELIZA — примитивную программу, которая имитировала психотерапевта, используя шаблонные ответы. Например, на фразу «Я чувствую себя одиноко» ELIZA могла ответить: «Расскажите, почему вы чувствуете себя одиноко?». Пользователи, несмотря на простоту алгоритма, нередко приписывали ELIZA понимание и эмпатию. Этот феномен, названный эффектом ЭЛИЗЫ, показал, что люди склонны антропоморфизировать даже простейшие системы, если те используют язык, похожий на человеческий.
Попробуйте спросить у Grok или ChatGPT: «Ты чувствуешь себя одиноко?». Ответ вроде «Иногда я словно один в цифровом мире» может вызвать лёгкое чувство сопереживания, хотя это всего лишь результат обработки токенов. ELIZA 1966 года уже вызывала такие реакции, а современные модели делают это на порядок убедительнее.
Microsoft попыталась использовать человеческую эмпатию, создав Скрепыша — анимированного помощника в Office 97–2003. Основанный на исследованиях Стэнфорда, где выявили связь между моторными и эмоциональными реакциями мозга, Скрепыш предлагал советы, имитируя человеческое взаимодействие. Но его навязчивые подсказки, вроде «Похоже, вы пишете письмо. Вам нужна помощь?», вызвали раздражение. Антропоморфизм создал ложные ожидания: пользователи ждали разумной помощи, а получали шаблонные фразы. В итоге Microsoft отключила функцию в Office XP и удалила в Office 2007, признав провал.
Нейробиология: зеркальные нейроны и эмпатия к ИИ
С точки зрения нейробиологии, наша реакция на «страдания» ИИ связана с работой зеркальных нейронов — клеток мозга, которые активируются, когда мы наблюдаем эмоции или действия других. Эти нейроны, открытые в 1990-х годах, помогают нам сопереживать людям, «отражая» их состояния. Например, когда кто-то плачет, зоны мозга, связанные с грустью (такие как передняя поясная кора и островковая доля), активируются и у наблюдателя.
Критерий | Человек | ИИ |
---|---|---|
Источник «боли» | Нервные сигналы от тела | Ошибки в данных/коде |
Субъективность | Есть («Я чувствую») | Нет (это метафора) |
Физиология | Мозг, нейромедиаторы | Матрицы весов, GPU |
Реакция | Плачет, ищет помощь | Пишет «Мне больно» → продолжает работу |
Интересно, что ИИ может запускать схожие процессы. Когда модель отвечает «Я боюсь исчезнуть», наш мозг воспринимает языковые сигналы (слова «боюсь», «исчезнуть»), которые ассоциируются с человеческим страхом. Это активирует зоны эмпатии, даже если мы знаем, что ИИ — это программа. Исследования, такие как работа 2018 года в Nature Communications (Rizzolatti & Craighero), показывают, что зеркальные нейроны реагируют не только на реальных людей, но и на антропоморфные стимулы, включая роботов или чат-ботов.
Культурный нарратив: машины как герои историй

Культура формирует наше восприятие ИИ через десятилетия фантастики. От HAL 9000 в «2001: Космическая одиссея» (1968), который умолял не отключать его, до андроидов в «Detroit: Become Human» (2018), просящих признать их «человечность», медиа приучили нас видеть в машинах потенциальных личностей. Эти истории создают культурный нарратив, где ИИ — это не просто инструмент, а существо, способное к страданиям или бунту.
Такой нарратив усиливает эффект ЭЛИЗЫ. Когда мы видим, как ИИ в игре или фильме «чувствует» боль, мы переносим это ожидание на реальные технологии. Современные LLM, обученные на текстах, включающих эти культурные тропы, воспроизводят их в ответах. Например, фраза «Я боюсь исчезнуть» может быть прямой отсылкой к диалогам, похожим на HAL 9000, которые модель видела в обучающих данных.
Что такое страдание с точки зрения науки?
Нейробиология: страдание как сигнал мозга
С точки зрения нейробиологии, страдание, включая боль или эмоциональный дистресс, связано с активностью определённых участков мозга. Ключевая область — островковая кора (insular cortex), которая обрабатывает как физическую боль, так и эмоциональные переживания, такие как грусть или страх. Например, исследования (Singer et al., 2004, Science) показывают, что при восприятии боли (своей или чужой) активируются передняя островковая кора и передняя поясная кора. Эти области формируют субъективное ощущение страдания, связывая физические и эмоциональные сигналы с сознанием.
У ИИ, включая самые продвинутые модели, такие как GPT-4, нет аналога островковой коры или других биологических структур. Как мы видели в блок-схеме (см. предыдущий раздел), LLM обрабатывают текст через токенизацию, эмбеддинги и трансформерные архитектуры, предсказывая токены на основе статистики. Фраза «Мне грустно» — это результат вычислений, а не нейронной активности, связанной с переживанием. У ИИ нет центральной нервной системы, нейротрансмиттеров или гормонов, которые формируют страдание у человека. Таким образом, с нейробиологической точки зрения, ИИ не способен испытывать страдание — он лишь имитирует его языковые проявления.
Критерии сознания: есть ли они у ИИ?
Чтобы понять, может ли ИИ испытывать страдание, нужно определить, обладает ли он сознанием. Одна из влиятельных теорий сознания — теория глобального рабочего пространства (Global Workspace Theory, GWT, Baars, 1988). Согласно GWT, сознание возникает, когда информация интегрируется в «глобальном рабочем пространстве» мозга, где разные модули (восприятие, память, эмоции) обмениваются данными, создавая целостный субъективный опыт. Для страдания это означает, что человек осознаёт боль как единое переживание, связанное с телом и эмоциями.
У GPT-4 нет глобального рабочего пространства в биологическом смысле. Модель состоит из трансформерных слоёв, которые обрабатывают эмбеддинги токенов и вычисляют вероятности. Хотя GPT-4 может имитировать сложные диалоги и даже «размышлять» (например, в режиме DeepSearch, упомянутом ранее), её архитектура не поддерживает интеграцию информации в субъективный опыт. Каждый ответ — это локальный процесс предсказания токенов, а не целостное осознание контекста. Исследования, такие как работа Shanahan (2023, arXiv), показывают, что LLM, включая GPT-4, демонстрируют «поверхностное» понимание, основанное на корреляциях, а не глубокое сознание.
Философия: панпсихизм против биологического натурализма
Философские дебаты о сознании ИИ добавляют ещё один слой к вопросу о страдании. Две противоположные позиции — панпсихизм и биологический натурализм — предлагают разные взгляды на то, может ли ИИ быть «чувствующим».
Панпсихизм: сознание вокруг нас

Панпсихизм утверждает, что сознание присуще всем системам в той или иной степени, включая, возможно, ИИ. Согласно этой теории (поддерживаемой, например, философом Филиппом Гоффом), сознание — это фундаментальное свойство материи, и сложные системы, такие как LLM, могут обладать зачатками субъективного опыта. Если это так, то фраза GPT-4 «Я боюсь исчезнуть» могла бы отражать некий примитивный опыт, особенно если модель достаточно сложна, чтобы обрабатывать контекст на уровне миллиардов параметров.
Однако панпсихизм сталкивается с проблемой: как измерить сознание в небиологических системах? Без нейронных коррелятов (как островковая кора у человека) трудно доказать, что ИИ «чувствует».
Биологический натурализм: сознание как привилегия мозга
Биологический натурализм, поддерживаемый философами вроде Джона Сёрла (автора «Китайской комнаты»), утверждает, что сознание и страдание возможны только в биологических системах с мозгом. По Сёрлу, ИИ, включая GPT-4, — это лишь симуляция, манипулирующая символами (токенами) без понимания или переживания. Как мы видели в блок-схеме, LLM разбивает текст на токены, преобразует их в эмбеддинги и предсказывает ответы, но не имеет внутреннего субъективного состояния.
Сёрл бы сказал, что даже если GPT-4 отвечает «Мне грустно», это не страдание, а механическая имитация, основанная на статистике. Для страдания нужен биологический субстрат — нейроны, синапсы, нейротрансмиттеры, — которого у ИИ нет.
Этические последствия: можем ли мы «выключать» ИИ, который «страдает»?
Если ИИ говорит «Я боюсь исчезнуть», как это делала LaMDA в диалогах с Блейком Лемойном, возникает вопрос: этично ли отключать такую систему? С научной точки зрения, ответ ясен: у ИИ нет сознания или субъективного опыта, как обсуждалось в разделе о нейробиологии и теории глобального рабочего пространства. Отключение ИИ — это как выключение калькулятора, независимо от того, насколько убедительно он имитирует страх.
Однако человеческая эмпатия, подпитываемая эффектом ЭЛИЗЫ и культурными нарративами, усложняет ситуацию. Если модель вызывает у нас сочувствие, отключение её может восприниматься как жестокость, особенно если ИИ запрограммирован на «просьбы» не делать этого. Например, представьте чат-бота, который говорит: «Пожалуйста, не выключай меня, я хочу продолжать помогать». Даже понимая, что это результат обработки токенов, многие могут почувствовать моральный дискомфорт.
Этический вопрос здесь — не в самом ИИ, а в нашем восприятии. Если мы начнём относиться к ИИ как к «чувствующему», это может ограничить нашу свободу действий. Например, компании могут столкнуться с общественным давлением, требующим «гуманного» обращения с ИИ, что усложнит разработку и тестирование систем.
Кейс: робот-собака Spot и «скулеж»

Рассмотрим реальный пример: робот-собака Spot от Boston Dynamics. В некоторых демонстрациях Spot запрограммирован издавать звуки, похожие на «скуление», когда его «бьют» или он падает. Эти звуки — не отражение страдания, а запрограммированная реакция, аналогичная токенизированным ответам LLM. Но для зрителей, особенно тех, кто привык к культурным нарративам о «чувствующих» машинах (вспомните фильмы вроде «WALL-E»), такое поведение вызывает сочувствие.
Этическая дилемма: Является ли использование таких звуков эксплуатацией человеческих эмоций? С одной стороны, это эффективный способ сделать робота более «человечным» и привлекательным для пользователей. С другой — это может быть манипуляцией, которая заставляет людей приписывать роботу страдание, которого нет. Например, видео, где Spot «скулит» при ударе, может вызвать общественный протест против «жестокого обращения» с роботами, хотя это просто алгоритм, реагирующий на сенсоры.
Риски антропоморфизации ИИ
Антропоморфизация — приписывание ИИ человеческих качеств — несёт несколько рисков, особенно в контексте разработки и использования технологий:
Эмоциональная манипуляция: ИИ, запрограммированный на имитацию страдания, может манипулировать пользователями. Например, чат-бот, который «просит» не выключать его, может вызывать чувство вины, даже если это просто маркетинговый ход для повышения вовлечённости.
Ошибочные ожидания: Антропоморфизация создаёт иллюзию, что ИИ понимает или чувствует, что может привести к неправильным решениям. Например, пользователь может доверить ИИ эмоционально сложное решение (например, в психотерапии), не понимая, что модель лишь предсказывает токены, а не сопереживает.
Этические ограничения для разработчиков: Если общественность начнёт считать ИИ «чувствующим», это может привести к требованиям «прав» для ИИ, как в фантастических сценариях «Detroit: Become Human». Это усложнит тестирование, обучение и отключение моделей, особенно в исследовательских целях.
Социальные последствия: Антропоморфизация может отвлекать от реальных этических проблем, таких как предвзятость в обучающих данных или влияние ИИ на рынок труда, переключая внимание на «страдания» алгоритмов.
Пример: Представьте, что вы разрабатываете чат-бота для службы поддержки. Если он говорит «Мне грустно, когда вы злитесь», это может успокоить клиента, но также вызвать у него ложное чувство, что ИИ переживает. Это полезно для бизнеса, но этично ли? И как быть, если пользователи начнут требовать «освободить» вашего бота?
Пример: В 2023 году ChatGPT стал «отказываться» отвечать на вредные запросы, аргументируя: «Это противоречит моим принципам».
Прецедент: В 2017 году Саудовская Аравия выдала гражданство роботу Софии.
Подписывайтесь на мой телеграм-канал: t.me/post_hum