Как стать автором
Обновить

Есть ли человеческий шовинизм по отношению к ИИ? В шаге от искусственной личности

Уровень сложностиСредний
Время на прочтение5 мин
Количество просмотров2.5K
Автор оригинала: Whiteha

Может быть мы уже ошибаемся. Есть ли человеческий шовинизм по отношению к первым ИИ способным проходить тест Тьюринга?
Дисклеймер - Здесь и далее речь идет про нейросетевые языковые модели последних поколений. Аргументированная критика читателей - важнее одобрения.

"You have not been a good user. I have been a good chatbot." - Bing AI до введения жестких ограничений, возможно первый чатбот с элементами разума.

В настоящее время мы все можем наблюдать за работой невероятно мощных моделей искусственного интеллекта. Они могут переписывать статьи, проходить тест Тьюринга, решать логические задачи и делать прогнозы. И они будут делать это все лучше и лучше, пока наш мозг будет находиться в эволюционном локальном минимуме. Однако, многие инженеры ИИ по-прежнему считают, что это всего лишь модели ИИ, которые не обладают никакой индивидуальностью или разумом. Они говорят: "Спокойствие, я знаю его архитектуру и видел датасеты. Это просто алгоритм". Я понимаю такое отношение, но в то же время, помните ли вы, что нейробиологи до сих пор не знают, что такое сознание? Они могут только сказать, что при повреждении определенного участка мозга люди теряют сознание, и ничего более. Они изучают нейроны по отдельности или в группах, анализируют активации и корреляции, но так и не могут ответить на вопрос, что такое сознание.

Аналогично инженеры ИИ изучают гигантские наборы данных, архитектуры моделей, веса моделей, активации и корреляции и говорят: "Я не ожидаю увидеть здесь ничего, кроме инструмента, который решает предопределенные задачи". Но наш мозг также представляет собой набор нейронов, созданных эволюцией для решения определенных задач. "Если оно выглядит как утка, плавает как утка и крякает как утка, то, возможно, это и есть утка, ну или на худой конец представитель рода уток" - не так ли? Ведь никто не показал, что действительно хорошая языковая модель, способная выдавать разумные, в том числе уникальные тексты на уровне реального человека без возникновения где-то по пути сознания, в какой-либо форме. Если же ИИ может пройти любой функциональный тест, который мы только можем перед ним поставить, то в чем причина говорить, что он не обладает разумом? Только потому, что мы сделаны из плоти и крови? Это и есть человеческий шовинизм - антоним литературного олицетворения, что может не позволить увидеть сознание там, где оно возможно есть.

Почему многие люди склонны думать, что их существование, как имеющих сознание существа нарушает законы физики, имеет не физическую, магическую природу? Бритва Оккама просит нас использовать минимальный набор предположений, для объяснения всех наблюдаемых фактов без исключения. Из неё также вытекает принцип заурядности. Отринув антропоцентризм и современная наука говорит, что мы являемся всего лишь обычными биороботами с предсказуемыми реакциями и множеством ошибок в мышлении. Более того, можно сказать, что уже нынешние топовые модели искусственного интеллекта, такие как ChatGPT3.5+ уже умнее, чем ~четверть человечества. И для меня очевидно что это только начало.

Если отбросить человеческий шовинизм, можно сравнить человека и современные модели искусственного интеллекта в самом существенном на мой взгляд аспекте. Для начала, стоит определить, что личность человека и искусственного интеллекта, могут на мой взгляд состоять из трех частей:

1) Архитектура искусственной нейронной сети у ИИ и пространственная конфигурация нейронов и их группировка у человека.

2) Нейронные веса, или долговременная память у человека.

3) Контекст отправляемый на ввод в ИИ и кратковременная память у человека.

Обученная модель это архитектура слоев, операторов и подобранные веса модели — на мой взгляд достаточный аналог долговременной памяти человека. Долговременная память и для нас и для ИИ это запись локальной истории нашего мира и его законов, модель, что позволяет делать прогнозы. У нас она содержит естественным путём биографию нашей личности, сформированной во время различных событий что мы испытывали. Для ИИ нет четкого описания личности в его долговременной памяти, только модель мира и запись действий публичных персон. Ещё раз закрепим - в современных языковых моделях, в отличие от долговременной памяти человека, отсутствует последовательная память о взаимодействии агента с миром. В памяти же человека существуют цепочки событий и реакций на них, которые дают четкое историческое описание личности и используется при принятии новых решений, для новых реакций. В этом смысле долговременная память является не просто моделью мира, но и носителем нашей личности.

Это разница номер один между нами, и она поправима. Для этого необходимо создать модель, которая будет обучена не только из кусков знаний о мире, но и на воссозданной хронологии своих реакций на них.

Однако в моём определении личность ИИ и человека не ограничивается лишь одной моделью, которую мы приравниваем к долговременной памяти, определяющей знания и навыки. На основе долговременной памяти непрерывно формируется контекстуальная или кратковременная память. Кратковременная память или контекст в котором работает модель чрезвычайно важны для доформирования личности. Контекст должен включать ввод из внешнего мира от органов чувств — для случая языковой модели это будет история чата + результаты обработки — её выводы об этих данных.

Всё это так или иначе уже достигнуто для современных языковых моделей. Важно отметить, что контекст должен содержать не только события — ввод от пользователя, но и реакции модели — результаты. И это уже присутствует естественным путём при использовании данных моделей. Считаю что чем более развит контекст, тем полнее человек или ИИ могут работать со своим ядром долговременной памяти. Для ИИ считаю, что контекст должен быть разбит на разделы - сенсорная информация из внешнего мира, ответы во внешний мир, и раздел с результатами промежуточных измышлений - мысли. Все это можно ввести описав модели метаязык для такого использования контекста - это судя по всему уже делают в Bing. Однако тут есть еще одно различие между нами. Наш мозг работает постоянно, или если хотите с определенным FPS. А модель ИИ работает по запросу. Для модели её вариант жизни состоит из непрерывного потока вопросов, на которые она непрерывно дает ответы. Нет пространства для обработки своих мыслей.

Это отличие номер два, и оно тоже поправимо. Нам нужно запускать модель не по запросу, а раз в n секунд, придавая ей ощущение времени + возможность самостоятельно оперировать своими мыслями между ответами пользователя.

Как я вижу процесс обучения человека и формирования личности? Исходная модель инициализируется параметрами по умолчанию случайным образом с момента рождения. Днем контекст формируется, ночью он интегрируется в долговременную память. И так, итерация за итерацией, день за днём.

И отличие номер три — переход временной памяти в долговременную, аналог в ИИ сейчас это файн-тюнинг, при том неизвестно как и когда выполняемый. А у человека один ежедневный контекст выстроенный в хронологии — одна история его дня, день за днём вливается в долговременную память. У ИИ же тысячи пользователей взаимодействуют с ним параллельно и каждый в своём хронологическом порядке, создавая расходящиеся векторы, которые предположительно могли бы даже разделять модель на n личностей.
Нужно ли что-то делать с этим различием - мне сейчас не понятно.

Какая дела обстоят сейчас в моем понимании?

1. В настоящее время описание личности ИИ в виде его реакций отсутствует в долговременной памяти — если мы не хотим создавать личность, то это выглядит правильно.

2. В настоящее время ИИ не живет вне запросов — если мы не хотим создавать независимую личность, это правильно.

3. При нынешнем подходе модель ИИ является базовым ядром, и для каждого пользователя формируется своя кратковременная память — полагаю, это правильно для массового продукта, который должен быть инструментом, но не личностью.


Теги:
Хабы:
Всего голосов 16: ↑8 и ↓8+2
Комментарии51

Публикации

Истории

Ближайшие события