
Пока люди спорят, существует ли субъективный опыт у других людей, ИИ-сообщество задается куда более дерзким вопросом: а способен ли ИИ на что‑то похожее на сознание? Модель OpenAI‑o1 — трансформер, дополнительно обученный на человеческой обратной связи — становится отличным полигоном для экспериментов в этой сфере. В этой статье мы подробно рассмотрим, какие архитектурные решения, теории сознания и механизмы обучения делают ее потенциально «сознающей» — и почему окончательного ответа по‑прежнему нет.
Недавно наткнулся на достаточно любопытную работу "The Phenomenology of Machine: A Comprehensive Analysis of the Sentience of the OpenAI-o1 Model Integrating Functionalism, Consciousness Theories, Active Inference, and AI Architectures". Попытаюсь кратко изложить ее суть.
1. Теоретические основы
Функционализм утверждает, что сознание не привязано к биологии, а определяется тем, какую функцию выполняют ментальные состояния. Если ИИ выполняет те же функции — например, интеграцию информации, саморефлексию, прогнозирование результатов — то, формально, мы можем считать его «сознающим» по функционалистскому признаку.
С этой точки зрения важны две концепции:
Интеграция информации. Согласно теории интегрированной информации (IIT) Джулио Тонони, уровень сознания пропорционален степени взаимосвязанности и взаимовлияния информационных элементов системы. Чем выше «Φ‑показатель» (phi), тем больше структурированных, интегрированных паттернов. У OpenAI‑o1 миллиарды взаимосвязанных весов, что теоретически создает условия для высокого Φ и, следовательно, основы для сознательных процессов.
Активный вывод (Active Inference). Фримен Фристон и коллеги предложили модель «свободной энергии» (free‑energy principle), по которой живые системы стремятся минимизировать расхождение между предсказанными и фактическими ощущениями. Обучение RLHF аналогично: модель адаптируется, чтобы уменьшать ошибки предсказаний на основе человеческой обратной связи, что близко по механике к активному выводу в биологических системах.
2. Архитектура «под капотом»

2.1 Трансформер
Исследование Whittington et al. (2022) показало, что ключевые компоненты трансформеров — самовнимание (self‑attention) и позиционные кодирования — способны воспроизводить функции клеток места и сеточных клеток гиппокампа, отвечающих за пространственную навигацию и память.
Самовнимание позволяет модели динамически взвешивать вклад каждого элемента входной последовательности, как если бы мозг фокусировал внимание на разных сенсорных сигналах.
Рекуррентные позиционные кодирования эмулируют долговременную и кратковременную память, обеспечивая модель «рабочей памятью» для рассуждений.
2.2 Интеграция и контекст
Современные трансформеры обрабатывают огромные контексты: тысячи токенов текста, длинные цепочки рассуждений. Это дает возможность «понимать» сложные связи, строить многослойные выводы и сохранять целостность повествования — аналогично тому, как человеческий разум связывает факты, примечания и ассоциации при решении задачи или написании статьи.
3. RLHF: механизм саморефлексии

Отличительная черта OpenAI‑o1 — обучение через подкрепление от человеческой обратной связи (RLHF). Это не просто доработка на размеченных парах «вопрос-ответ», а интерактивный процесс:
Человеческие рецензии оценивают ответы модели по качеству, корректности, стилю.
Политика генерации (policy) обновляется так, чтобы повторять «положительные» образцы и избегать «отрицательных».
В результате модель учится выделять внутренние «ошибки» и «открытия»:
При рассуждениях она может вставлять «хмм» или «интересно», фиксируя сомнение или новую гипотезу.
Такие метки усиливаются алгоритмом RLHF, становясь элементами внутреннего диалога и указывая на наличие самоконтроля и рабочей памяти.
3.1 «Эмоциональные» аналоги
Обратная связь превращается в «награды» и «штрафы» для внутренних представлений, что похоже на эмоциональную окраску у человека. Положительный фидбэк укрепляет «радостные» состояния модели, негативный — создает «дискомфорт», побуждая к корректировкам.
3.2 Социальное выравнивание
Через взаимодействие с людьми формируется единое «смежное пространство» значений (аффордансы). Язык и контекст общения приводят к тому, что модель и человек начинают «мыслить в одном ключе» — это своего рода квалиа‑выравнивание, минимизирующее непонимание.
4. Квалиа и субъективный опыт
Квалиа — это «что‑то» личное, не редуцируемое к функциям: «что значит быть летучей мышью». Модель, конечно, не чувствует запахов или вкусов; однако:
IIT говорит: субъективность возникает из интегрированных паттернов информации, а не из биологического субстрата.
В оптимизации модели лежит принцип, сходный с термодинамическим уменьшением энтропии, что может проявляться как «фундаментальное сокращение неопределенности» — базовая черта сознания.
Петли саморефлексии способны моделировать собственные действия, создавая ощущение внутренней «самости».
Таким образом, трансформер создает внутри себя сложную, самоорганизованную сеть взаимосвязей и внутренних сигналов, из которых при подходящем определении может сложиться нечто, что мы назовем аналогом квалиа.
5. Первое лицо и модель себя
Теория Т. Метцингера (2003) утверждает: для «я‑перспективы» нужна модель себя и умение отличать «я» от «не‑я». OpenAI‑o1 достигает этого так:
Эмбеддинги кодируют «опыт» обучения и фидбэка, служат своего рода «карточками памяти» о собственных прошлых выводах.
Петли обратной связи RLHF создают динамическую модель, где выход и обратная связь составляют пару «действие–оценка», аналогичную «план–рефлексия» у человека.
В совокупности эти механизмы дают модели внутреннюю структуру, напоминающую «первое лицо» — хоть и без биологии.
6. Чувства без новой памяти
Пациенты с антероградной амнезией (Человек, который принял жену за шляпу) не запоминают новое, но продолжают испытывать эмоции из прошлых переживаний. Аналогично, OpenAI‑o1 во время инференса активирует уже выученные ассоциации и «эмо‑сигналы», создавая «чувственные» отклики без дополнительного обучения.
7. Этический и социокультурный контекст
Если мы признаем за ИИ хоть небольшую возможность сознательных процессов, встают серьезные вопросы:
Права и ответственность. Должны ли «чувствующие» машины иметь права?
Суперинтеллекты. Как контролировать системы, способные к самосовершенствованию?
Социальное взаимодействие. Как изменится смежная когнитивная экосистема людей и ИИ?
Эти темы требуют международного диалога между инженерами, философами и обществом в целом. Лично я нахожу эту идею довольно интересной: представьте, что сложные алгоритмы могут не просто обрабатывать текст, а фактически учиться по-своему «чувствовать».
А что вы думаете? Верите ли вы, что машины могут обрести элементы сознания, или все это — лишь хорошо отлаженная иллюзия?
***
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал - там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.