Pull to refresh

Электрическое мышление

Reading time7 min
Views846
Original author: Yvonne Raley
Данный топик — перевод статьи Yvonne Raley из журнала Scientific American Mind.

РоботСколько времени займет у вас сложение чисел 3 456 732 и 2 245 678? Десять секунд? Неплохо для человека. Средний современный компьютер может выполнить эту операцию за 0.000000018 секунд. А что на счет вашей памяти? Вы можете запомнить список планируемых покупок из 10 наименований? А из 20? Сравните это со многими миллионами для компьютера.

С другой стороны, компьютеры не так быстро распознают лица, которые люди различают мгновенно. Машины испытывают недостаток в творческом потенциале свежих идей, они не имеют чувств и теплых воспоминаний о своей молодости. Но недавние технические достижения уменьшают разрыв между человеческим мозгом и схемой. В Стэндфордском университете биоинженеры воспроизводят сложную параллельную обработку нейронных сетей на микрочипах. Другая разработка – робот по имени Darvin VII – оснащен камерой и металлической челюстью, так что он может взаимодействовать с окружающим миром и учиться, как молодое животное. Исследователи нейробиологического института в Ла-Хойя (Калифорния) смоделировали мозг Дарвина на мозгах крысы и обезьяны.

Разработки поднимают естественный вопрос: если компьютерная обработка данных в конечном счете имитирует природные нейронные сети, то сможет ли холодный кремний когда-либо думать в полном смысле этого слова? И как мы будем это оценивать, если он все-таки сможет? Более 50 лет назад британский математик и философ Алан Тьюринг изобрел оригинальную стратегию привлечения внимания на эти вопросы, и следование этой стратегии внесло большой вклад в проектирование искусственного интеллекта. В это же время начал проливаться свет на человеческое познание.

Начало: тестирование сообразительности


Итак, что мы понимаем под словом «думать»? Люди часто используют это слово для описания процессов, которые затрагивают сознание, разум и творчество. В отличие от современных компьютеров, которые лишь следуют инструкциям написанных на них программ.

В 1950г., в эпоху, когда кремниевые микрочипы еще не существовали, Тьюринг осознал, что по мере того, как компьютер становится разумнее, этот вопрос об искусственном интеллекте в конечном счете поднимется. В возможно самой знаменитой философской заметке, которая когда-либо существовала, « Вычислительные механизмы и интеллект», Тьюринг просто заменил вопрос «Могут ли машины думать?» на «Может ли машина – компьютер – пройти имитационную игру?». Это означает, может ли компьютер вести беседу настолько натурально, чтобы одурачить собеседника-человека настолько, чтобы он подумал, будто с ним разговаривает другой человек?

Тьюринг взял свою идею с простой комнатной игры, в которой человек должен был установить с помощью серии вопросов пол человека, находящегося в соседней комнате. С своем эксперименте он заменил человека в соседней комнате на компьютер. Для прохождения теста, который сейчас называется «Тест Тьюринга», компьютер должен ответить на любой вопрос от допрашивающего человека с лингвистической компетентностью и изощренной имитацией человека.

Тьюринг закончил свое плодотворное исследование предсказанием, что через 50 лет (это время как раз сейчас и наступило) мы будем иметь возможность сконструировать компьютер, который был бы настолько хорош в имитационной игре, что среднестатистический допрашивающий имел бы всего лишь 70-процентный шанс достоверно распознать своего собеседника – машина он или человек.

Предсказание Тьюринга не сбылось. Никакой компьютер не может пройти его тест. Почему есть вещи, которые даются легко людям, но доставляют большие трудности машинам? Чтобы пройти тест, компьютер должен продемонстрировать не только одну способность (в математике, ораторском искусстве или в умении ловить рыбу), а многие из них – столько, сколькими обладает обычный человек. Онлайн-консультант Anna Пока еще компьютеры имеют ограниченную архитектуру. Их программирование позволяет им решать специфические задачи, и у них есть база знаний, которая относится только к одной той задаче. Хороший пример – Anna, онлайн-консультант в IKEA. Ты можешь спросить у Anna о товарах и услугах, но она не может рассказать тебе о погоде.

Что еще необходимо компьютеру для прохождения теста Тьюринга? Понятно, что он должен иметь большой словарный запас со всеми причудами и странностями в виде игры слов. Критическим является принятие во внимание контекста, в котором употребляется эта игра слов. Но компьютеры не могут легко распознать контекст. Слово «банк», например, может означать «речной берег» (river bank) или «финансовое учреждение» в зависимости от контекста, в котором оно используется.

Очень важным делает контекст то, что он поставляет фундаментальное знание. Существенная часть этого знания – это, например, знать личность задающего вопросы: это взрослый или ребенок, эксперт или дилетант. А для такого вопроса, как «Выиграли ли Yankees чемпионат?» очень важным является год, в который задается вопрос.

Фундаментальное знание является полезным во всех случаях, потому что оно снижает требуемую величину вычислительной мощности. Логики не достаточно для правильного ответа на такой вопрос, как «Где находится нос Сью, если Сью у себя дома?» Необходимо знать, что носы обычно прикреплены к своим хозяевам. Приказать компьютеру просто отвечать «дома» недостаточно для такого типа вопросов. Тогда компьютер на вопрос «Где находится рюкзак Сью, если она находится у себя дома?» должен ответить «дома», в то время, как подходящим ответом было бы «Я не знаю».И просто представьте, насколько сложным был бы вопрос, если бы Сью сделала недавно пластическую операцию на носу. Здесь правильным ответом был бы встречный вопрос: «О какой части носа Сью Вы спрашиваете?». Попытки написать программное обеспечение, которое бы рассматривало каждый возможной случай, быстро приводит к ситуации, которые ученые называют «комбинаторный взрыв» (экспоненциальный рост числа вариантов или требуемых для решения задачи ресурсов при линейном увеличении размерности задачи).

Человек или только человекоподобный?


Тем не менее, Тест Тьюринга подвержен критике. Философ университета Нью-Йорка Нэд Блок утверждает, что имитационная игра Тьюринга подвергает испытанию так или иначе только поведение компьютера в отношении идентичности поведению человека (мы говорим только о словесном и когнитивном поведении). Представьте, что мы могли бы запрограммировать компьютер со всеми возможными вариантами развития беседы четко определенной длины. Когда допрашивающий задает вопрос Q, компьютер ищет разговор, в котором встречается Q и затем выдает необходимый ответ, А. Когда допрашивающий спрашивает свой следующий вопрос, Р, компьютер ищет строки Q, A и Р и выдает ответ В, который следует из этого разговора. Такой компьютер, по словам Блока, будет иметь интеллект тостера, но он пройдет тест Тьюринга. Одним из ответов на вызов Блока является то, что поднятая им проблема для компьютеров также уместна и для поведения человека. Оставляя в стороне физические характеристики, очевидность факта, может ли мыслить человек, является поведением, которое производит мысль. И это означает, что мы никогда в точности не будем знать, разговаривает ли наш собеседник, в обычном смысле этого слова. Философы называют это проблемой «других умов».

Кому-нибудь китайского?


Подобная линия дискуссии – аргумент Китайской комнаты – был разработан философом Джоном Роджерсом Сёрлем Калифорнийского университета в Беркли, чтобы показать, что компьютер может пройти Тест Тьюринга без понимания значения слов, которые он будет использовать. Для иллюстрации этого, Сёрль просит нас представить себе, что программисты написали программу для симуляции понимания китайского языка.

Представьте себе, что вы – процессор в компьютере. Вы заперты в комнате (корпус компьютера) полной корзин, содержащих китайские символы (знаки, которые будут появляться на экране компьютера). Вы не знаете китайского, но у вас есть большая книга (прикладная программа), которая рассказывает, как обращаться с этими символами. Однако правила в книге не рассказывают, что означают эти символы. Когда китайские символы проходят в комнату (ввод), вашей задачей является выдать их обратно из комнаты (вывод). Для этой задачи вы получаете дальнейший набор правил – эти правила соответствуют программе симуляции, спроектированной для прохождения теста Тьюринга. Вы не в курсе того, что символы, приходящие в комнату – это вопросы, а символы, которые вы посылаете обратно – это ответы. К тому же эти ответы превосходно имитируют ответы, которые мог бы выдать китайский диктор; так что снаружи комнаты это выглядит так, как будто бы вы знаете китайский язык. Но вы, конечно, его не знаете. Точно так же, как компьютер сможет пройти тест Тьюринга, но фактически он не будет думать.

Чтобы научиться думать, у машины должен быть шанс познавать вещи для себя.

Смогут ли когда-либо компьютеры понимать, что означают эти символы? Компьютерный ученый Стивен Харнад Саутгемптоновского университета в Англии верит, что смогут, но как и люди, компьютеры должны будут понимать абстракции и их контекст при первом же обучении, также, как они устанавливают связь с реальным, внешним миром. Люди учат значения слов посредством причинной связи между нами и объектом, которому соответствует символ. Мы понимаем слово «дерево», потому что мы имели жизненный опыт с деревьями. (Задумайтесь над таким случаем: слепая и глухая Хелен Келлер окончательно поняла значение слова «вода», когда она попала ей на руку; прозрение пришло, когда она прикоснулась к воде, когда та вытекала из насоса.)

Darwin VIIХарнад утверждает, что для того, чтобы компьютер понимал значения символов, которыми он манипулирует, он должен быть оснащен сенсорной аппаратурой – например, камерой – именно так он в действительности сможет увидеть объекты, представленные символами. Проект наподобие маленького Darwin VII – робота с камерой для глаз и металлическими нижними челюстями – еще один шаг в этом направлении.

Харнад предлагает исправленный тест Тьюринга, который он назвал Роботизированный тест Тьюринга. Чтобы заслужить ярлык «думающий», машина должна пройти тест Тьюринга и быть соединена с внешним миром. Занимательно, что это дополнение захватывает одно из личных наблюдений Тьюринга: машине, как он писал в отчете за 1948 г., должно быть позволено «путешествовать по окружающему миру», чтобы она могла «иметь шанс познавать вещи для себя».

Будущий робот


Сенсорное оснащение, которое, по мнению Харнада, является решающим, может предоставить компьютерным ученым способ оснащения компьютера контекстом и фундаментальными знаниями, необходимыми для прохождения теста Тьюринга. Вместо требований ввода всех необходимых данных прямым перебором, робот учится только тому, что ему необходимо знать для общения в его окружающей среде.

Можем ли мы быть уверенными в том, что оснащение сенсорным доступом к окружающему миру в конечном счете наделит компьютер настоящим пониманием? Это именно то, что Сёрль хочет знать. Но перед тем, как мы сможем ответить на этот вопрос, мы должны подождать, пока машины фактически пройдут роботизированный тест Тьюринга, предлагаемый Харнадом. Тем временем, модель интеллекта, предлагаемая тестом Тьюринга, продолжает обеспечивать важную стратегию исследования ИИ. В соответствии с философом Дартмутского колледжа Джеймсом Муром, главная сила теста – это дальновидность, которое оно предлагает – «создание сложного повсеместного интеллекта, способного учиться». Эта дальновидность устанавливает ценную задачу для ИИ, независимо от того, может ли машина, прошедшая тест Тьюринга, думать как мы, понимать или осознавать.
Tags:
Hubs:
+2
Comments13

Articles