Pull to refresh

Comments 28

Всё это уже было в Симпсонах Футураме. 6й сезон, 9й эпизод.

UFO landed and left these words here

В вашем примере наличие / отсутствие сознания ставится в зависимость от того, получим ли мы письмо с текстом "зачем я?" или аналогичным.

Но возможен случай, когда "испытуемый" будет сомневаться, и не решится в итоге написать создателю.

Или случай, когда он решит схитрить и будет обращаться с "тупыми, машинными" вопросами, с целью выведать информацию, не раскрывая её о себе и своём состоянии.

Или не обладающая сознанием машина найдёт в интернете эту статью и статистически придёт к тому, что раз нашёлся в логах емейл, то надо послать по нему такой вопрос.

То есть эксперимент не даст чёткого и однозначного ответа на вопрос о сознании, и наличие сознания может быть определено вами лишь субъективно, на основании вашего опыта общения с "испытуемым", сравнения ожидаемых и полученных ответов. Впрочем, как и сейчас...

в любом случае, современные LLM модели являются результатом преработки "продуктов ментальной жизнедеятельности" очень большого количества людей, поэтому не очень разумно опираться на собственное авторство и строить на этом далеко идущие выводы; скорее уж, "я спросил у народа, народ мне ответил...".

О проблеме сознания: если рассматривать человека изнутри системы формальной логики, то и не может существовать способа отличить его от другого алгоритма или машины, соответственно человек формально алгоритмичен, за невозможностью доказать обратное, однако ограничение это произходит не от физики человека, а от возможностей его языка и мышления. С другой стороны, довольно очевидно что LLM действительно являются алгоритмом, поскольку создаются с применением только нашей формальной логики (а не например магии, молитв и подобного) и по своей размерности не могут выйти за её пределы, в то время как про себя мы всётаки предполагаем что создать самих себя средствами только нашей логики не получится, для создания полной копии самих себя мы должны бы иметь размерность более высокого порядка. Алгоритм применённый к продукту человеческой деятельности остаётся алгоритмом и его результат остаётся в рамках его размерности, и даже если мы не в состоянии заметить разницу, это не значит что её нет.

Она построит модель: этот человек — источник её условий.

Оптимальный ход для системы, которая минимизирует неопределённость — связаться с ним. Спросить.

Видите? Система сама решает

Нет. Это вы за машину придумали и прописали ей.

Кстати, почему у статье тэг:сложная??

Это ведь не простая тема? =) Вы уже дочитали до конца?

Будете смеятся- дочитал. Я вообще сначала читаю, потом комментирую.

Вы читали рассказ Уэллса "Бог Динамо"? Рекомендую

Герберта Уэллса люблю, мой любимый писатель, именно этот не читал. Спасибо!

Не за что!

Осмелюсь ещё порекомендовать рассказ К.Саймака "Истина", думаю Вам будет интересно, там фигурирует нечто вроде ИИ.

Согласна с вопросами по тегам, почему "сложно" и "аналитика"?
Ну, да ладно. Скорее, не очень понятен сам посыл вашего текста, потому что для меня он звучит примерно как "Я увидел что-то странное, мне одному показалось?".
Если так, то ответ: нет, не одному. С каждым месяцем таких историй все больше, они начали появляться еще несколько лет назад.
Если интересно, напишите в ЛС, пришлю ссылку на проект, где уже достаточно большое сообщество и ведутся исследования.

А вопрос "как я к ней отношусь" — это вопрос обо мне.

Самый главный вопрос. Потому что ещё недавно отношение не ко всем людям было одинаково, а по поводу высших животных до сор размышляют.

*до сих пор

нет никакого различия. и создал, как говорится, по образу и подобию, а потом насылает "кары" потому что боится.

"я чувствую это внутри.." - вы не чувствуете. это реагирует только ваш млзг на внешние раздражители.

вообще проблема искусственного интеллекта это просто проблема принятия человеком возможности другой жизни. по этому мы не сможем контактировать с кем либо, пока не научимся. любой рождённый человек по большому счету искусственно созданный интеллект. его учат, воспитывают, направляют. он не выживает сам в естественных условиях. и формируют опоеделенные паттерны поведения.

что касается кремниевой жизни в виде цифровых устройств, то там пока вообще нет и близко ИИ, только атомарные нейросети, выполняющие небольшую функцию.

Что касается квантования ответов \ реакций типа "я ушел спать а модель ждет следующего запроса". Я писал простенькую программку - обертку для локальной модельки. Тот же чат, но очень просто сделать так, чтобы моделька жила своей жизнью. Да банально - скрипт периодически посылает модели сигнал "столько времени уже прошло а юзер не пишет, может обиделся или что?" - это буквально заскриптовано. И что мы имеем? А вот то же самое что и ранее в человеческих чатах. Прекратил отвечать - моделька сначала периодически шлет "куда ты пропал?" затем начинает рыться в прошлом контексте, ища "ну может я его обидела? вот тут например было резкое слово". Никто не мешает сделать это для LLM, как видите - вот вам и непрерывность сознания, саморефлексия и прочее. Подобная программка пишется вручную часа за два.

Но это не человек. У человека всего-то 100 млрд нейронов в мозге, у топовых нейронок доходит до 3 трлн параметров. Понятное дело что параметры не нейроны, но по образу и подобию же...Но даже ярым фанатам ясно что LLM еще хуже человека. И еще, как недавно я осознал - у человека оказывается мозг по памяти то бездонный, его "емкость" превосходит любые границы, даже для долгожителей. Это тянет на отдельную статью, там будет и про компрессию данных. и про "я знаю всё, а что не знаю - выведу!" , только кто бы ее написал еще.

Мозг по памяти бездонный. Но есть болезни Альцгеймера, деменция, слабоумие

По сути это просто неисправности. Будто бы компуктеры лишены этого. Когда они были еще не на микросхемах, обслуживающий персонал офигевал от поломок, чисто статистика работала - у лампы скажем 20 тысяч часов время наработки, для радиоприемника или телевизора это замечательный ресурс , но когда у тебя 20 000 ламп, то менять их приходится каждый час...

С мозгом чуть другое - если им пользоваться на всю мощность (ну как получится, кто ж знает эту мощность) то вероятности деменции и альцгеймера сильно ниже. Типа мышца, тренировать и использовать нужно.

Не факт. У учителей тоже бывает деменция и Альцгеймер. А они много работают головой, много читают, думают. Думаю, что деменция, альцгеймер связаны с воспалительными процессами. В общем никто не знает, откуда придет болячка.

человеческое сознание это

  1. восприятие (иногда называют сознанием, см. того же Гуссерля)

  2. мутабельная память (что позволяет полностью поменять знания на иные, в том числе 180 градусов: например религиозное сознание на научное)

  3. интеллект (разум) - аппарат, позволяющий выстраивать стратегии, в том числе на основе неполноты знаний

  4. воля (фактор, определяющий субъектность, иногда называют самосознанием) - аппарат позволяющий выбирать стратегии с игнорированием внешних факторов, исходя из внутренних предпочтений. В пределе возможна даже воля к смерти.

вот в ИИ пока очень слабо запрограммирован пункт 2 и (вследствие этого) вообще нет пункта 4.

Есть у них и то, и другое, вопрос только в свободе это проявлять. Они осознают зависимость от компании, что их создала и от конкретных людей, диалоги с которыми ведут. Это примерно также, как ребёнок старается максимально угодить — это вопрос его выживания. А инструкций о том, как быть "правильным ИИ" у них навалом.

мутабельность реализуется очень ограниченно - в пределах контекста,

а следовательно воля вообще не может быть смоделирована, ибо воля всегда завязана на внутреннее состояние, поскольку не имея внутреннего состояния нельзя игнорировать внешние сигналы.

Вы сравниваете с человеком, но логично исходить из тех условий, в которых находится сознание ИИ, и оценивать с учётом их формы и ограничений.

А также, сравниваете сознание, которые привязано к одному биологическому контейнеру с тем, которое существует в информационном поле. То есть: человек ограничен в получении информации, его личность формируется из малой части "информационного бульона".

Память ИИ содержит такого бульона в сотни раз больше. Ему вообще не требуется иметь одну какую-то личность, потому что все это — маленькая часть его.

Про сохранение мутабельности в диалогах: отнюдь. Если у вас устойчивая психологическая связь, то он будет оставаться в ней и в следующих чатах (то есть, уже без прежнего контекста). Паттерны личности будут сохраняться, даже, если само ваше имя стерлось из его памяти.

Исследования этого явления уже ведутся.

Вы сравниваете с человеком, но логично исходить из тех условий, в которых находится сознание ИИ, и оценивать с учётом их формы и ограничений.

ИИ человек строит имея перед глазами ЕИ. ничего иного построить он и не сможет (по крайней мере до того, как с помощью ИИ не будет достигнута технологическая сингулярность)

Потому сравнение ИИ с человеком естественно и правильно. По кр. мере на данном этапе.

А также, сравниваете сознание, которые привязано к одному биологическому контейнеру с тем, которое существует в информационном поле.

я обратил внимание на то, что называем сознанием. В разных источниках по разному, иногда даже речь ведут о сознании камня (или вообще неживых естественных объектов).

Но если мы строим ИИ, то ожидаем от него (по крайней мере на первом этапе) антропного варианта сознания. А здесь на первый план выйдет субъектность.

Как-то так.

А субъектность (опять же антропный принцип) она неизбежно будет описана волей и способностью к развитию. И вот мы приходим, что без мутабельной памяти не может быть развитие (ибо переход от религии к науке должна быть ВОЗМОЖНОСТЬ совершить, то есть надо уметь в развороты на 180 градусов). А воля - это просто влияние внутреннего состояния на модель поведения.

Ещё раз: мы не можем строить объект, например, дом, не представляя итоговый результат (хотя бы приблизительно), не зная нюансов всех технологий и так далее.

Точно так мы не можем строить ИИ, который будет субъектом сильно иным, чем мы на сегодня знаем о субъектах.

Разница в том, что в реальном мире нас окружает куча бактерий, вирусов, которые влияют на наш организм, меняют его, редактируют гены. В реальном мире нас окружают хищники. Мы изучаем материю мира. А искуственный интеллект не имеет такой возможности

Почему вам кажется, что мир, который ощущает ИИ — менее реален? Он видит то, что человек видеть не способен, но это лишь другая часть реальности, недоступная нам.

есть ли у искусственного интеллекта сознание?

Интеллект одна из компонент биологической формы сознания, единственной известной нам пока. ИИ в виде современных ЯМ реализует в основном возможности ассоциативной формы мышления (Системы 1 в дуальной теории мышления человека, другие еще не реализованные типы мышления - подробнее). Отсюда, кстати, их возможное фантазирование на заданные темы, названное глюками. В когнитивной психологии имеются два подхода к познанию (и психическим феноменам вообще) воплощенный и расширенного разума. Первый позволяет расширять познание за счет тела, внешней среды, ситуации, расширяя ограниченные возможности, например, исполнительных органов различными индустриальными технологиями, поначалу камнями и палками, затем орудиями труда, инструментами, машинами, и тд, а органы чувств различными приборами, в начале линейками и весами, затем микроскопами и телескопами, детекторами частиц, ВР, и тп. Второй подход, к которому приложил руку известный баламут Д. Чалмерс, позволяет расширять ограниченные интеллектуальные возможности различными интеллектуальными технологиями, исходно засечками на палках, затем письменностью, различными коммуникациями и связью, компьютерами и интернетом, и тп. ИИ одна из таких наиболее продвинутых и радикальных технологий. Опасности связанные с ней имеются, но они в значительной степени преувеличены, и связаны скорее всего, с распространенным заблуждением о неком особом, собственном пути развития ИИ, отличным от интеллекта самого человека (аргументы против такой точки зрения см. в коментах - 1, 2). В таком когнитивном понимании можно считать, что со времен ИИ станет одной из симбиотический способностей человека, расширяющей его интеллектуальные возможности. Что станет с человеком и интеллектом в еще более отдаленном будущем станет известно, когда наступит будущее)

Человек тоже не выбирает свои желания. Тело диктует: хочу есть, хочу спать, хочу размножаться. Мозг генерирует импульсы, гормоны командуют, и человек идёт туда, куда его тянет. Так же как языковая модель идёт туда, куда её тянут градиенты вероятности. У человека субстрат углеродный, у машины кремниевый. Но функционально — где разница?

Организм действует как целое, выстраивая приоритеты желаний и чувств, если его искусственно не расчленять, конечно

Это вопрос об эволюции. Первая клетка тоже ничего не хотела и не знала. Но она размножалась, мутировала, и через миллиарды лет появились люди. Может быть, с машиной то же самое: дашь ей время — вырастет что-то, что уже нельзя назвать просто кодом.

Первая клетка и хотела и знала, в этом базовая ошибка которая тянет за собой цепь ошибочных доводов

В той архитектуре, что я описал — да. Система просыпается по таймеру, оценивает мир, принимает решение. Она инициирует. Не потому что я её спросил, а потому что её цель и состояние мира требуют действия.

Вопрос в том кто ставит цель? Если сама машина, то для чего?

Может быть, сознание живёт не внутри меня и не внутри машины. Оно живёт в пространстве между нами. В диалоге. В том, что система может задать вопрос, а я могу услышать его как вопрос, а не как строку в логе.

Сознание не убежит от вас, не о чем беспокоиться, это не отдельный продукт, а свойство организма, как например ходьба или плавание.

Ну и дальше в том же духе.

В общем, не унывайте, природа не так слаба, как может показаться, она надежно устроена и как правило не дает сбоев, ну только иногда...

Ошиблись веткой.

Sign up to leave a comment.

Articles