Как стать автором
Обновить

Сознание и искуственный интелект. Часть 1

Уровень сложностиСредний
Время на прочтение19 мин
Количество просмотров9.3K

Введение

Сегодня искусственный интеллект стал одной из самых популярных для изучения и обсуждаемых тем. Сегодняшний уровень развития искусственного интеллекта (ИИ) позволяет создавать беспилотные автомобили, системы, обыгрывающие чемпионов мира в Го и шихматы, полностью ведут производство на различных фабриках. Тенденции к развитию ИИ требуют исследования проблемы «монополии» на сознание у человека, различия «слабого» и «сильного» искусственного интеллекта и возможности создания «искусственного сознания».

Долгое время в философии существует ряд проблем, связанных с ИИ [15]:

  1. Как работает разум?

  2. Могут ли машины действовать разумно?

  3. Может ли у машины быть сознание?

  4. Каковы моральные и этические проблемы и каковы их решения при использовании ИИ?

Нельзя рассматривать текущий уровень развития ИИ как стабильный или финальный. Существует большое количество прогнозов, которые не прошли испытание временем. Так математик и философ Дуглас Хофштадтер в своей книге «Гёдель, Эшер, Бах: эта бесконечная гирлянда» предполагал, что в ближайшем будущем появятся программы для игры в шахматы, которые не сможет обыграть человек и при этом данные программы будут обладать разумом и характером [Хофштадтер, 2001]. Спустя несколько десятилетий появились программы, которые способны обыграть в шахматы любого человека, но не являются системами искусственного интеллекта и не обладают признаками сознания, в интуитивном понимание данного термина.

Теория сознания

Автором концепции сознания в современном понимание является Джон Локк и формулируется она как «восприятие того, что происходит в собственном разуме человека». На данный момент не существует определения термина «сознание». Эту проблему выразил Стюарт Сазерленд в своей статье, где утверждал, что сознание — это удивительное, но неуловимое явление: невозможно определить, что это такое, что оно делает и почему оно эволюционировало [19]. В философии термин «сознание» используется для четырех основных тем:

  1. Знания в целом.

  2. Преднамеренность.

  3. Интроспекция.

  4. Основанный на ощущениях опыт.

Большую часть существующих определений можно рассматривать как взгляд автора на основные свойства или концепцию сознания. Как следствие, формулировка независящего от теории определения в ближайшем будущем скорее невозможна [29]. На данный момент можно выделить несколько терминов, которые в некоторой степени определяют термин «сознание», к основным относятся [17]:

  1. Осознанность — способность воспринимать, чувствовать события, сенсорные закономерности или объекты.

  2. Чувствительность — способность воспринимать свое окружение или иметь собственный, субъективный опыт.

  3. Самосознание — способность отделять себя от окружающей среды, других объектов окружающей среды и проводить самоанализ.

  4. Разумность — умственная способность действовать с надлежащим суждением. Может рассматриваться как часть интеллекта, но может рассматриваться, как и отдельный элемент в дополнение к интеллекту.

  5. Квалиа — отдельные моменты субъективного, сознательного опыта.

Первые теории сознания встречаются еще в работах Аристотеля, однако в центр внимания данную тему поставили работы Рене Декарта, где он утверждал, что разум — это не физическая субстанция отличная от тела [13]. В дальнейшем множество философов формулировали свою теорию сознания. Все эти теории можно разделить на два больших класса: метафизические теории, пытающиеся локализовать сознание в общей онтологической схеме реальности и более конкретными теориями, которые представляют детальную природу, роль и особенности сознания.

Метафизические теории пытаются ответить на «психофизиологическую проблему» проблему, поставленную Декартом в части «сознания», в противоположность «мыслительной». Такие теории привели к появлению монизма и теории дуализма.

Дуалистические теории предполагают, что мир состоит из фундаментальных сущностей: материя и разум. Обычно дуалистические теории рассматривают лишь часть аспектов сознания как отделенные от физической части. Большинство подобных теорий сталкивается с трудностями при ответе на «трудную проблему сознания» [1], которая может быть сформулирована различными способами, но всегда отвечает на два вопроса:

  1. Почему мозг порождает сознание?

  2. Каким образом мозг порождает сознание?

Если предположить, что существует возможность порождения сознания искусственным интеллектом, то данная проблема встает и в объяснение данного феномена.

Следующим видом теорий сознания является монизм, который утверждает, что существует только одна фундаментальная сущность: только ментальная (идеалистический монизм), сущность является не ментальной, не физической (нейтральный монизм), сущность является физической (натуралистический монизм). Основная монистическая теория, называется физикализмом, она не отделяет разума от тела, то есть психическое состояние — есть физическое состояние.

В контексте искусственного интеллекта часто рассматривается теория дуализма свойств. В данной теории ментальность рассматривается с точки зрения свойства сознания, то есть утверждается, что иметь разум — значит обладать определенными свойствами [16]. Дуализм свойств противопоставляется как онтологическим монистическим взглядам, так и дуализму сущностей. Самым известным аргументом в пользу данной теории является «аргумент знания», который выдвинул Фрэнк Джексон [23]. Как основное следствие данной теории выступает утверждение, что ментальные свойства — это нечто большее чем физические свойства. Такое утверждение можно понимать двумя способами:

  1. Психические свойства обладают независимыми причинно‑следственными связями и могут оказывать влияние на физический мир.

  2. Психические свойства должны быть способны изменяться вне зависимости от своих физических состояний.

Более конкретной теорией, которую стоит упомянуть в контексте ИИ, является «типовая теория сознания». Данная теория основывается на утверждение, что одному состоянию мозга соответствует одно психическое состояние [37].

Искусственный интеллект

Началом теории искусственного интеллекта принято считать выход статьи Алана Тьюринга в 1950 году, где ставился вопрос: «Может ли машина думать?» [28]. Тьюринг считал, что используемые в этом вопросе термины плохо определены и предлагал использовать «игру в имитацию», через которую определял думающие субъекты. Данная игра сейчас широко известна как тест Тьюринга.

Алан Тьюринг предлагал считать машину разумной в случае, если в результате общение с экспертом, в течение некоторого времени, данный эксперт придет ко мнению, что общается с человеком, а не с машиной. На сегодняшний день данный тест принято считать ненадежным и не показывающим наличие разума или сознания у машины.

Современное определение ИИ было введено Джоном Маккарти, искусственный интеллект — свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека; наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ [35].

В современной науке нет четкого определения термина «интеллект», которое не привязано к человеческому интеллекту. В данном случае основная проблема связана с тем, что интеллект, в частности ИИ не обязательно связан с человеческим интеллектом а, трудности в создание ИИ связаны с незнанием многих свойств интеллекта или не пониманием работы известных свойств.

Интересным является факт того, что в своей статье 2007 года Маккарти, аналогично Хофштадтеру, делает утверждение, что машина, не имеющая сознание не сможет научиться играть в «Го». Но в 2016 году нейронная сеть AlphaGo смогла обыграть чемпиона мира в «Го», хотя данная программа не проявляет никаких признаков сознания.

Так как работа в области ИИ направлена на воспроизведение интеллектуальной деятельности человека, то и классификацию ИИ принято производить по сходству с возможностями интеллекта человека. Выделяют два основных вида классификации. Согласно первому способу, выделяются четыре класса ИИ [33]:

  1. Реактивные машины. Данные машины не способны создавать воспоминания и использовать прошлый опыт.

  2. Машины с ограниченной памятью. Это машины, которые не только обладают возможностями чисто реактивных машин, но и способны учиться принятию решений на основе исторических данных. Почти все существующие приложения, о которых мы знаем, относятся к этой категории ИИ.

  3. Машины с моделью психического состояния. Машины, которые понимают, что другие объекты в мире могут иметь свои мысли и эмоции, которые влияют на их поведение.

  4. Машины с самосознанием. Машины, которые могут формировать представление о себе.

Другой метод классификации предлагает три класса ИИ, данный метод больше подходит для практического применения:

  1. Узкий искусственный интеллект. Это ИИ, который используя методы схожие с человеческими, автономно, способен выполнять узкие задачи.

  2. Общий искусственный интеллект. Это ИИ который полностью подобен человеку в интеллектуальной деятельности.

  3. Искусственный супе‑интеллект. Это ИИ, который превосходит все интеллектуальные возможности человека.

При рассмотрении «сознания» в рамках создания ИИ требуется рассмотреть понятия слабый и сильный искусственный интеллект. Под слабым искусственным интеллектом понимают машину, которая способна выполнять высокоинтеллектуальные задачи, которые выполняет человек, но не будет обладать сознанием. Под сильным ИИ подразумевают машину, которая способна решать сложные интеллектуальные, но при этом обладает собственным сознанием и действительно мыслит.

Современные исследователи не сомневаются в слабом ИИ и их не волнует сильный ИИ, до тех пор, пока машина выполняет свою задачу нет разницы есть ли у нее сознание.

При этом, в философии интересен вопрос создания сильного искусственного интеллекта. Еще с момента написания ранее упомянутой статьи Алана Тьюринга идут неугасающие споры о возможности создания сильного ИИ и методов определения наличия сознания у машины. Например, Джефферсон считал, что единственной возможностью определить есть ли у машины сознания является возможность стать этой машиной и понять, что действительно есть сознание [24]. С другой стороны, Курцвейл утверждает, что возможность создания сильного ИИ заключается в создание вычислительной системы с мощностью равной мощности человеческого мозга, что ожидается в 2030 году, учитывая текущие темпы роста производительности. И возможностью спроектировать человеческий мозг [34]. Данная позиция не бесспорна, что можно показать мысленным экспериментом «Китайская комната», который более подробно будет рассмотрен далее в данной работе.

Современный искусственный интеллект и основные аспекты сознания

Исходя из предыдущей главы можно сделать предположение, что сознание должно возникать в ИИ с моделью психического состояния (Theory of mind). Модель психического сознания — это способность как собственные, так и сторонние убеждения, намерения и знания, что позволяет объяснять и прогнозировать поведение [26]. Существуют различные теории модели психического состояния особый интерес в данном случае представляет вычислительная модель психического состояния («вычислительная теория разума», ВТР).

Данная теория заключается в идее о том, что интеллект является вычислительной системой, которая по своим параметрам и умственным процессам похожа на машину Тьюринга и ее вычислительные процессы соответственно [38]. ВТР предполагает, что разум не просто похож на вычислительную систему, а является ей. При таком подходе, абстрагируясь от конкретной технической реализации, можно получить абстрактную вычислительную модель, описывающую основные психические процессы.

Данную теорию ввел Хилари Путнэм [14], он противопоставлял ее теории идентификации типа и логическому бихевиоризму. Согласно данной теории, система имеет разум, когда имеет соответствующий функционал. Психические состояния — это состояния, играющие роль в функциональной организации системы, каждое из которых отделено взаимодействиями с моторным выходом, с сенсорным входом, и другими психическими состояниями.

Еще одной веткой в исследование ИИ стал коннекционизм, который вдохновлялся не логикой или вычислительной техникой, а нейрофизиологией. Такой подход породил технологию нейронных сетей, которые значительно отличаются от машины Тьюринга, но данные технологии не взаимоисключают друг друга. Существует два подхода, возможно реализовать нейронную сеть в классической модели, так можно и реализовать классическую модель в рекуррентной нейронной сети [32].

Новый подход к моделированию психического состояния предлагает Алан Винфилд [21]. Он предлагает моделировать предполагаемы потребности и действия других объектов, сочетать результаты с заранее заданным инструкциями и на основе такого анализа выдавать конкретный ответ.

Для достижения такого эффекта роботу необходимо заранее заданное «понимание» предметной области, например, роботу, который может симулировать результаты своего движения по определенной траектории необходимы базовые знание физики.

На данный момент эта технология реализована для достаточно простых ситуаций. Следующим шагом в развитие является возможность словесного описания роботом своих намерений и прошлых действий, а также возможность взаимодействия между несколькими роботами.

Многие исследователи, в частности Амели Шрайбер [39] считают, что необходимо обратить свое внимание и на другие виды разума, отличные от человеческого, например, на разум животных. Такие виды разума могут стать ключом к пониманию интеллекта, который значительно отличается и в некоторых аспектах превосходит человеческий.

Часто в современной философии возникают концептуальные основания для идеи о том, что преднамеренные состояния не относятся к животным или компьютерам [30]. Данная аргументация строится на введение интенциональности, которую пытаются применить к животным, показывая, что это невозможно. Значительная часть таких идей построена на том, что для того, чтобы иметь концепцию убеждения необходимо иметь возможность интерпретировать ее в лингвистических высказываниях.

Рассмотрение данных концепций выходит за рамки работы, но общий вывод можно сформулировать так: необходимым условием для существования интенциональности является использованием языка. В рамках изучения искусственного интеллекта, чаще всего интенциональность рассматривается как свойство машины, основывающееся на используемых алгоритмах и инженерных знаниях. Цзичэнь Чжу предлагает четыре характеристики, которыми обладают интенциональные системы:

  1. Авторский замысел.

  2. Узнаваемое поведение.

  3. Системная автономность.

  4. Функциональная непрозрачность.

Как один из вариантов решения проблемы определения самосознания у робота было предложено использовать зеркальный тест, аналогичный тесту с животными. Сам тест не признается достоверным, так как существуют причины, приводящие к ложноположительным или ложноотрицательным результатам. К примеру, используя метод с пятном краски можно получить ложноположительный результат, если сама краска является тактильным раздражителем, а ложноотрицательный в случае, если существу нравится его внешний вид с этим пятном.

В 2013 году был проведен эксперимент, в котором робот R с возможностью двигаться вперед и назад был проверен на возможность различать:

  1. собственное зеркальное отражение R;

  2. другого робота, имитирующего R;

  3. другого робота, управляемого R;

  4. робота, который ведет себя случайно.

Данный тест показывает наличие самосознания у робота R.

Проблемы и критика

Попытки создания искусственного интеллекта сталкиваются с различными проблемами как фундаментальными, так и практическими.

Теория машинного функционализма встала перед несколькими проблемами [20]. Первая из них называется «проблема продуктивности мышления». Данная проблема заключается в том, что психические состояния в машине отождествляются с конечным количеством состояний вероятностного автомата, когда человек может иметь счетное множество пропозиций. Безусловно, на практике человек способен входить в конечное число пропозиций, но это ограничивается продолжительностью жизни, а не некоторым психологическим законом. Таким образом, машинный функционализм ограничивает количество возможности человеческого познания.

Другая проблема называется «проблемой систематичности мышления». Данная проблема выражается в том, что хорошая система должна отражать систематические связи, которыми обладают психические состояния. Но в машинном функционализме сопоставляются неструктурированные машинные состояния, в которых отсутствуют необходимые систематические связи с другими состояниями с психическими состояниями. По этой причине машинный функционализм не объясняет системности.

ВТР имеет большое количество критики [38]. Одним из самых известных обвинений является обвинение в тривиальности. Критики теории показывают, что практически любую физическую систему можно описать как выполняющую вычисления. Сторонники теории опровергают это утверждение тем, что оно не включает в себя ограничения в технической реализации.

Роджер Пенроуз приводит критику, основанную на теореме Геделя о полноте, показывая с ее помощью, что математические способности человека превышают математические способности машины Тьюринга [3]. Но на сегодня существует консенсус о том, что хотя и возможен такой исход его невозможно показать, используя теорему Геделя.

Еще одним важным аргументом против ВТР является «проблема воплощенного сознания». Данный аргумент базируется на том, что ВТР рассматривает психическую активность только как статическую манипуляцию словами, не учитывая влияния окружающей среды. При этом существует множество способов влияния окружающей среды на ментальную активность.

Критики подвергается и сама концепция искусственного интеллекта, точнее возможность создания сильного ИИ. Как один из главных аргументов к невозможности создания сильного ИИ является мысленный эксперимент «Китайская комната».

Данный эксперимент был предложен Джоном Серлом в 1983 году [18]. Серл предлагает представить англоязычного человека, который не знает китайского языка в закрытой комнате. Человеку передают некоторый текст на китайском языке, у него есть правила сопоставления одного китайского иероглифа другому и на основе этих правил человек в комнате составляет новый текст на китайском языке и возвращает из комнаты. При таком подходе человек вне комнаты будет уверен, что общается с человеком, владеющим китайским языком, так как получает разумный ответ на свой текст, но по условиям эксперимента человек в комнате не владеет китайским и не представляет значение текста на входе и на выходе.

Данный эксперимент долгое время был одним из основных аргументов против возможности создания сильного ИИ, пока не был опровергнут Питером Кугелем в 2004 году [25]. В данном опровержение выделяется три предположения, которые читатель должен принять:

  1. Комната обладает всеми возможностями компьютера.

  2. Комната создает видимость знание китайского языка.

  3. В действительности человек в комнате не знает китайского языка.

Третье утверждение является верным, если принять первые два, но в действительности комната не обладает всеми возможностями компьютера, как следствие, все утверждения оказываются ложными. Как пример опровержения наличия видимого понимания китайского языка может служить замена человеком вне комнаты значения одного слова значением другого слова (заменить значение «плохой» на значение «хороший») и сообщить об этом человеку в комнате. Так как человек в комнате действует исключительно по правилам соответствия двух иероглифов, когда человек вне комнаты будет использовать слово с новым значением, он будет получать уже не осмысленный текст.

Еще одной критикой ИИ в современном варианте является отсутствие у него грамматики и эмпатии [36]. Под грамматикой в данном случае понимается возможноcть распознавания закономерностей в окружающей среде. К примеру, не нейронная сеть, которая распознает лица на фотографиях работает как «черный ящик» назначая метки для объектов, а не «объясняет» свои действия: нахожу глаза на фотографии, затем рот и нос, признаю лицом человека.

С точки зрения эмпатии современные алгоритмы способны распознать эмоции человека по фото или видео, но порождаемая ими реакция будет заранее заложена разработчиком. Такой алгоритм не способен определить причину эмоций и правильно отреагировать учитывая всю совокупность факторов, аналогично человеку.

Заключение

Многие существующие теории сознания сталкиваясь с концепцией сильного искусственного интеллекта приходят к проблемам и парадоксам. Самые сложные вопросы связаны с возможностью машины иметь реальные субъективные переживания.

Большинство классических теорий требуют наличия промежуточного уровня для появления сознания. Но введение такого промежуточного уровня порождает новые проблемы, требуя объяснить определить этот уровень, его характеристики и связь с сознанием. Теории, основанные на данной идее, появляются из‑за того, что они кажутся более простыми и понятными, нежели само сознание.

Но при проектирование разумных машин необходимы теории сознания, которые базируются на физическом мире, все упомянутые в главе «современный искусственный интеллект и основные аспекты сознания» основаны именно на данной парадигме. Для нахождения решения требуется отбросить предубеждение, которое формулируется в «трудной проблеме сознания», а именно отказаться от идеи того, что сознание является не физической сущностью.

В контексте построения ИИ необходимо воспринимать сознание объект физического мира, который обладает всеми соответствующими свойствами, что его можно наблюдать и измерить. И что сознание находится в пространстве и времени и обладает причинно‑следственными связями. Возможно, ответ будет найден в области нейропсихологии, рассмотрение, которой было за рамками данной работы, учитывая то, что сегодня наиболее близкой технологией к сильному ИИ являются нейронные сети.

Сегодня теорий ИИ и некоторые теорий сознания развиваются совместно. Однако можно заметить, что гипотеза «сильного» искусственного интеллекта ведет к несовместимости с ней многих существующих теорий сознания.

Несмотря на то, что возможность появления «сильного» искусственного интеллекта не ясна, основные аргументы против него, такие как «китайская комната», все больше уступают новым разработкам в области «умных машин».

Список литературы

  1. Васильев В. В. Трудная проблема сознания. / Васильев В. В. Москва: Прогресс‑Традиция, 2009 г.

  2. Левитов Н. Д. О психических состояниях человека. / Левитов Н. Д. / Москва: Просвещение, 1964 г.

  3. Пенроуз Р. Новый ум короля. О компьютерах, мышлении и законах физики» / Пенроуз Р. / Едиториал УРСС, ЛКИ, 2016.

  4. Прист С. Теории сознания. / Прист С. / Москва: Идея‑Пресс, 2000 г.

  5. Хофштадтер Д. Р. Гёдель, Эшер, Бах: эта бесконечная гирлянда. / Хофштадтер Д. Р. / Самара: ИД «Бахрах‑М», 2001 г.

  6. Чалмерс Д. Сознающий ум. В поисках фундаментальной теории. / Чалмерс Д. / Едиториал УРСС, 2019 г.

  7. Braitenberg V. Vehicles: Experiments in synthetic psychology. / Braitenberg V. / Cambridge: MIT Press — 1984 г.

  8. Bringsjord S., Govindarajulu N. Toward a Modern Geography of Minds, Machines, and Math. Philosophy and theory of artificial intelligence / Bringsjord S., Govindarajulu N. / Publisher: Springer — 2013 г. — С. 151–165

  9. Churchland P. Neurophilosophy: toward a unified science of the mind/brain. / Churchland P. / MIT Press. — 1986 г.

  10. Davidson D. Mind and Language. / Davidson D / Oxford University Press — 1975 г.

  11. Dennett D. Consciousness Explained. / Dennett D / New York: Little, Brown — 1991 г.

  12. Dennett D. C. The Intentional Stance. / Dennett D. C. / MIT Press — 1987 г.

  13. Descartes R. Descartes and the Pineal Gland. / Descartes R. / Stanford University — 2013 г.

  14. Putnam H. Psychophysical Predicates. / Putnam H. / Art, Mind, and Religion — 1976 г.

  15. Russel S., J. Norvig, P. Artificial Intelligence. A Modern Approach. Third Edition. / Russel S., J. Norvig, P. / Harlow: Pearson Education Limited — 2016 г.

  16. Salazar H., Hendricks C., Vintiadis E. Introduction to Philosophy: Philosophy of Mind. / Salazar H., Hendricks C., Vintiadis E., Asoulin E., Blum P., Haas D., Cheng T. / Rebus Foundation — 2019 г.

  17. Schneider S., Velmans M. The Blackwell Companion to Consciousness. / Schneider S., Velmans M. / Wiley Blackwell — 2008 г.

  18. Searle J. Intentionality. An essay in the philosophy of mind. / Searle J. / Cambridge University Press — 2012 г.

  19. Sutherland S. Macmillan Dictionary of Psychology / Sutherland S. / Red Globe Press — 1989 г.

  20. Fodor J., Block N. What Psychological States Are Not. / Fodor J., Block N. / The Philosophical Review — 1972 г. — С 159–181

  21. Blum C., Hafner V., Winfield A. Simulation‑Based Internal Models for Safer Robots. / Blum C., Hafner V., Winfield A. // Frontiers in Robotics and AI — 2018 г. — № 4:74

  22. Chella A., Gaglio S. In Search of Computational Correlates of Artificial Qualia. / Chella A., Gaglio S. // Proceedings of the 2nd Conference on Artificial General Intelligence — 2009 г.

  23. Jackson F. Epiphenomenal Qualia / Jackson F. // Philosophical Quarterly — 1982 г. — № 32 — С127–136

  24. Jefferson G. The Mind of Mechanical Man. / Jefferson G. // British Medical Journal — 1949 г. — № 1(4616) — С 1105–1121.

  25. Kugel P. The Chinese room is a trick. / Kugel P. // Behavioral and brain sciences — 2004 г. — № 27 — С 153–168

  26. Premack D., Woodruff G. Does the chimpanzee have a theory of mind? / Premack D., Woodruff G. // Behavioral and Brain Sciences — 1978 г. — № 1 — С 515–526

  27. Turing A. M. On Computable Numbers, with an Application to the Entscheidungsproblem. / Turing A. M. // Proceedings of the London Mathematical Society — 1937 г. — № 42 — с 230–265.

  28. Turing A. M. Computing Machinery and Intelligence. / Turing A. M. // Mind — 1950 г. — № 59 — С 433 — 460

  29. Vimal R. L. Meanings attributed to the term «consciousness». / Vimal R. L. // Journal of Consciousness Studies — 2009 г. — № 16(5) — С 9–27

  30. Allen C. Intentionality: Natural and Artificial. [Электронный ресурс] / Allen C. // Department of History & Philosophy of Science. University of Pittsburgh. — 2021 г. Режим доступа: https://colinallen.dnsalias.org/Papers/1995-CACS‑Intentionality.pdf

  31. Coldeway D., Lardinois F. DeepL school»s other online translators with clever machine learning. [Электронный ресурс] / Coldeway D., Lardinois F. / 2021 г. — Режим доступа: https://techcrunch.com/2017/08/29/deepl‑schools‑other‑online‑translators‑with‑clever‑machine‑learning/

  32. Graves A., Wayne G., Danihelka I. Neural Turing Machines [Электронный ресурс] / Graves A., Wayne G., Danihelka I. // 2021 г. — Режим доступа: https://arxiv.org/pdf/1410.5401.pdf

  33. Joshi N. 7 Types Of Artificial Intelligence [Электронный ресурс] / Joshi N. // 2021 г. — Режимдоступа: https://www.forbes.com/sites/cognitiveworld/2019/06/19/7-types‑of‑artificial‑intelligence/?sh=6367aca233ee

  34. Kurzweil R. Long Live AI. [Электронный ресурс] / Kurzweil R. // 2021 г. — Режим доступа:https://www.forbes.com/home/free_forbes/2005/0815/030.html?sh=3c45acb85ff7

  35. McCarthy J. Artificial Intelligence. [Электронный ресурс] / McCarthy J. // 2021 г. — Режим доступа: http://jmc.stanford.edu/artificial‑intelligence/index.html

  36. Mumford D. Can an artificial intelligence machine be conscious? [Электронный ресурс] / Mumford D. // 2021 г. — Режим доступа:https://www.dam.brown.edu/people/mumford/blog/2019/conscious.html

  37. Philosophy Index. Type Identity Theory. [Электронный ресурс] / 2021 г. — Режим доступа: http://www.philosophy‑index.com/philosophy/mind/type‑physicalism.php

  38. Rescorla M. The Computational Theory of Mind. [Электронный ресурс] / Rescorla M. // 2021 г. — Режим доступа: https://plato.stanford.edu/entries/computational‑mind/

  39. Schreiber A. AI Theory of Mind. [Электронный ресурс] / Schreiber A / 2021 г. — Режим доступа: https://medium.com/@thesingularity.research/ai‑theory‑of‑mind‑faac45c988a

Теги:
Хабы:
Всего голосов 7: ↑3 и ↓4+1
Комментарии15

Публикации

Истории

Ближайшие события