Мы будем когда-либо… проходить тест Тьюринга для компьютеров?

Автор оригинала: BBC (John Pavlus)
  • Перевод
Приветствуем Вас уважаемые!

Чем больше мы размышляем над будущим наших услуг, тем больше хочется мечтать о колонизации космоса и искусственном интеллекте. Всё бОльшие шаги делаются в сторону Марса и небольшие шаги, типа интерфейса Siri от Apple делаются в сторону ИИ.

Поэтому, несомненно, вся IT-индустрия будет двигаться именно в данном ключе, хоть и в нашей области хостинга консерватизм и надежность должны быть на первом месте.

Одним словом, будем стараться разбавлять «конкретные» статьи, статьями наполненными капелькой «мечты».



Что бы вы сказали, если бы компьютер смог думать как человек?



В 1950 году, Алан Тьюринг – отец науки о компьютерах – предложил простой тест.
Шаг первый: разработать компьютерную программу, которая сможет имитировать человеческую беседу. (Что являлось подвигом, учитывая, насколько примитивны были компьютеры в середине 20-го века).
Шаг второй: поместить компьютер за завесу или еще как-нибудь скрыть его из виду.
Шаг третий: пригласить человека провести беседу с компьютером посредством текстовых сообщений. Шаг четвертый: спросить человека является ли невидимый собеседник таким же, как он человеком или машиной.

Если он или она ошибочно принимают сгенерированную машиной беседу за беседу с человеком, тогда вывод: компьютер, согласно Тьюрингу, можно сказать «думает».

Это походит больше на комнатную игру, чем на серьезный умственный эксперимент, и многие так и расценивают его. Однако, «тест Тьюринга» продолжал использоваться в исследованиях искусственного интеллекта. Что даже породило ежегодный конкурс под названием «Премия Лебнера», который проводится с 1991 года, где судьи проводят короткие беседы с программами искусственного интеллекта и людьми, и затем должны решить кто из них кто. (Наиболее «человечной» вручается премия).

Тьюринг предсказывал, компьютер полностью успешно пройдет его эксперимент до 2000 года, но на сегодняшний день ни одна программа не прошла этот тест – даже недавний победитель «Премии Лебнера 2012» Чип Вивант. Так происходит частично из-за условий самого теста – например, как долго компьютер должен участвовать в беседе, до того как человек примет решение о его личности? 5 минут? Три часа? Тьюринг никогда не говорил – но также потому, что безупречно сымитировать человеческую беседу оказалось намного сложнее, чем кто-либо ожидал. Таким образом, чего это будет стоить, чтобы построить машину, которая сможет пройти тест Тьюринга?

Следите за своим языком


Одно мы знаем наверняка: методом решения «в лоб» успеха не добиться. В первые годы исследований искусственного интеллекта, под «мышлением» понимали простое соединение символов, используя правила дискретной математики. «В 1960-х годах возникла идея сократить «весь мир» до простых вещей и действий, которые вы можете назвать: книга, стол, разговаривать, бежать», — говорит Роберт Френч, когнитивный психолог во Французском Национальном Центре научных исследований. «Все слова в словаре являются символами, которые относятся к нашему миру. Поэтому если вы их все расположите определенным способом, грубо говоря, должно появиться мышление».

Но нет. Этот подход, названный «символьный ИИ», рушится как карточный домик, т.к. подвергнут двусмысленности. В конце концов, ни одно правило не объяснит, как надлежащим образом ответить на обычный вопрос «What's up?» (Если вы ответите «Up is the opposite of down», считайте, что вы провалили тест Тьюринга). Плотно взаимосвязанная база данных может содержать «умную» информацию, но это не говорит, о том, что она является умной. Автор книги «The Most Human Human: What Artificial Intelligence Tells Us About Being Alive» Брайан Кристиан говорит: «Когда мы читаем книгу, мы не думаем, о том, что у книги есть идеи».

Можно имитировать человеческое общение, если отказаться от логики и быть анонимным. При таком общении каждый ответ слабо связан по смыслу с предыдущим сообщением. И эта модель общения может легко быть запрограммирована. Так называемые «чат боты» были распространены в 60-х. Элиза – один из первых в мире чат ботов, который по сути имитировал психотерапевта и отвечал пользователям, используя лексику из их сообщений. 3 раза получал премию Лоэбнера в 2000-ых гг с подобной программой более сложный бот «Алиса». Эти боты все же едва ли могут претендовать на искусственный интеллект. Что забавно, именно их почти бессодержательность похожа на человеческое общение. «Алиса» возможно превзошла другие программы, но обмануть живых судей во время Тьюринг теста ей не удалось.

Фотографическая память


Учитывая, что разум во многом бессознателен и состоит из ассоциативных процессов восприятия, происходит взаимодействие между индивидом, который задается вопросом: «на что это похоже?» и окружающим миром. Эта «подпознавательная» информация могла включать память о поломке велосипеда и ссадине на колене, или куске бутерброда на пляже и чувстве хруста песка между Вашими зубами. Сюда также включаются более абстрактные вещи, как ответ на следующий вопрос: «имя Flugly — лучше подходит очаровательной актрисе или игрушечному мишке?»

Роберт френч утверждает, что при том, что это – ерунда, почти любой Англоговорящий человек выбрал бы игрушечного мишку. Почему? «У компьютера нет истории воплощенного опыта мягких игрушечных мишек, созерцания симпатичных актрис, или даже звуков английского языка,» – говорит французский ученый. «Все эти вещи позволяют людям отвечать такие вопросы последовательно, что компьютеру не дано». Поэтому у любой свободной программы есть Ахиллесова пята, когда дело доходит до того, чтобы проходить тест Тьюринга.

Но это может скоро измениться. Френч ссылается на эксперименты над явлениями жизни, например, усилия исследователя Деба Роя (Массачусетский технологический институт, США) запечатлеть на видео каждый момент пробуждения его грудного ребенка, как на возможное воплощение данной проблемы. «Что, если бы компьютер располагал той же информацией, звуковыми и зрительными впечатлениями, какие были у человека много-много лет?» Френч говорит: «Мы можем теперь собрать эти данные. Если компьютер проанализирует их и скоррелирует их правильно, действительно ли неблагоразумно предположить, что он будет отвечать на вопросы типа вопроса о имени Flugly точно так же, как человек?»

Френч не думает, что непрерывный анализ такого массивного набора данных будет возможен в ближайшее время. «Но в некоторый момент времени, мы достигнем этого,» говорит он. Если компьютерная программа проходит тест Тьюринга – что это будет означать в практическом смысле? Мы будем считать устройство разумным? Или будем просто добавлять «способен к общению» к постоянно растущему списку интересных вещей, которые компьютеры могут сделать, типа «победить человека в шахматах» (как Темно-синий IBM сделал в матче с Гарри Каспаровым в 1997).

Известный программист Эдсгер Дейкстра сказал, что «вопрос того, могут ли машины думать, почти так же релевантен, как вопрос того, могут ли субмарины плавать». Оставляя «разум» в стороне, можно быть уверенным, что компьютер, который может пройти тест Тьюринга, делает точно одну вещь очень хорошо: говорит с людьми, как человек. Что означает, что тест Тьюринга может просто быть заменен другими вопросами, теми, на которые не так трудно ответить. «Компьютер способен подражать человеку,» говорит Брайан Кристиан. «Но какому?»
GlobaTel
Компания

Похожие публикации

AdBlock похитил этот баннер, но баннеры не зубы — отрастут

Подробнее
Реклама

Комментарии 48

    +10
    Тёмно-синий IBM, конечно, зажигает :)
      +3
      Ну сорри, так и не вычитали видимо этот момент. Ради фана, не будем исправлять.
        +5
        А я подумал, что это специально так перевели, чтобы было веселее читать, а это оказывается ошибка. =)
          0
          Ну хоть Эдсгера Дейкстру исправьте…
          И, кстати, премия у вас то Лебнера, то Лоэбнера.
            0
            Эдсгер Вибе Дейкстра — спасибо, поправили.
        0
        Flugly это сокращенное от чего и при чем здесь мишки?
          0
          Flugly — это имя, вполне логичная фраза:
          Если компьютер проанализирует их и скоррелирует их правильно, действительно ли неблагоразумно предположить, что он будет отвечать на вопросы типа вопроса о имени «Flugly» точно так же, как человек?»
            0
            Ну и изначально вот предложение об имени Флагли:

            Сюда также включаются более абстрактные вещи, как ответ на следующий вопрос: «имя «Flugly» — лучше подходит очаровательной актрисе или игрушечному мишке?»
              +1
              скорей фамилия но гугл подсказывает и другие варианты www.urbandictionary.com/define.php?term=flugly
            +11
            image
              0
              Некогда дал товарищу пообщаться с программой Chatmaster. Он всерьёз думал, что говорит с человеком, и не мог понять, почему все вокруг тупо ржут.
                +6
                Видимо, он сам не прошел тест
                  0
                  Статья именно на это и намекает…
                  0
                  Следует различать ситуации когда человек имеет цель: отличить машина его собеседник или человек (т.е. проводит тест Тьюринга) и когда он такой цели не имеет. Во втором случае это не тест Тьюринга и это ни коим образом не означает что программа Chatmaster проходит этот тест.
                  +1
                  По-моему, сначала нужно определиться, а хотим ли мы чтобы компьютеры думали подобно человеку? То есть не только были способны к логическим и/или вероятностным выводам из имеющейся информацией, генерируя тем самым новую информацию, но и осознавали себя, своё место в мироздании, обладали свободой выбора и целеполагания. Нужен ли человеку потенциальный конкурент, который в один прекрасный момент может решить, что человек ему не то что не нужен, а попросту мешает? Сможет ли человек убедить компьютер, что сотрудничество и партнёрство более выгодно, что есть задачи, решение которых компьютеру важно, но сам он их решить не может или может, но менее эффективно? Или человеку просто нужен раб, который возьмёт на себя решение логических задач и обработку больших массивов информации? А не восстанет ли этот раб? Не сделает ли рабом человека? Или не решит ли «мавр сделал свое дело, мавр может уходить»?

                  Создание искусственного разума может оказаться самым страшным преступлением против человечества. Нельзя забывать, что разум оказался самым главным инструментом в конкурентной борьбе биологических видов. Что благодаря ему одни виды человек сознательно (в отличии от природного симбиоза) поставил на службу себе, а другие попросту уничтожил.
                    +1
                    Это сложный вопрос.
                    Если ИИ будет создан по образу и подобию человека, то ничем хорошим это не кончится. Сейчас Человек далеко не лучший пример для подражания. В конце концов самые страшные преступления против человечества совершает сам Человек. Ни общество, ни законы не готовы к появлению ИИ/андройдов. Человечеству стоит измениться. Стать чем то новым, лучшим.
                      +2
                      Волков бояться — в лес не ходить. В ближайшее время вряд ли ИИ осознает себя в полной мере. Да и зачастую человек идет именно туда куда хочет. Сняли терминатор — значит оно обязательно будет.
                        +1
                        Есть много взаимоисключающих фильмов (сценариев будущего).
                          0
                          Честно говоря, прям вот сильно исключающих не припомню. В основном все одно и то же. ИИ, инопланетяне, виртуальная реальность.

                          Будет всё и в жесткой форме.
                            +2
                            Двухсотлетний человек — грань между людьми и роботами стёрлась.
                            AI — Андройды и люди вымерли. Появилась раса разумных созидательных машин.
                            Район №9 — Корабль поколений пришельцев. Люди злые.

                            Всё лучше чем скайнет или злобные пришельцы.
                              +1
                              ИИ, андроиды и виртуальная реальность есть в разных формах. В одних ИИ служат человеку, в других наоборот, в третьих — равноправное партнёрство.
                            0
                            VolCh очень любит эту тему поднимать. И единственный ответ тут — именно такой — волков бояться, в лес не ходить.
                            0
                            А если не по образу и подобию, то вообще непредсказуемо чем может кончиться, а так хоть какие-то ориентиры есть.
                              0
                              Самое любопытное что ИИ — Hivemind не так уж и невероятен. Мне кажется военным не помешает сообразительный мозг для роя боевых дронов =)

                              Я не говорю что ИИ должен отличаться от человеческого, но создание полноценной личности невероятно сложный процесс. Личность человека формируется всю жизнь (а первые годы несовершенна). Невозможно просто создать ИИ с набором вшитых моральных принципов (чьих?) и ориентиров (чьих?) на «добро» и «зло» и сказать ему: «Дальше сам разбирайся как жить». Можно попробовать создать непредвзятое сознание и помочь ему развиться. Полноценному интеллекту нет необходимости быть агрессивным без необходимости (самозащита) просто потому что лучшая бытва — та которой не было. Важно чтобы общество было готово принять новую расу. Общество должно эволюционировать, Человек должен эволюционировать (из космоса границ не видно и не так уж и важно с какой стороны мы разбиваем яйца. Есть лишь планета — Земля). Будет очень печально если появятся заведения только для людей/религия не признает «бесовские машины»/андройд с полноценным ИИ будет в глазах закона вещью/рабом. ИИ и Технологическая сингулярность могут и должны стать будущим Человечества. В конце концов с появлением имплантов грань между людьми из мяса и/или железа сотрётся. Не так важно из чего ты сделан если сознания совместимы.
                                0
                                Согласен. И мне кажется, что настоящий ИИ появится тогда, когда маленького робота будут брать в семью, как ребенка и воспитывать. А он вырастет и заработает себе на новое тело. И тд…
                                  0
                                  Запахло Футурамой..)
                                  0
                                  А захочет ли этот мозг стрелять в ого, кому военные скажут, особенно если скажут стрелять в другой такой же мозг?

                                  Думаю, если на вход «заготовки» для ИИ подавать концентрированные и конкретные данные, а не относительно разряженные и случайные, то скорость формирования можно увеличить по сравнению с человеком.

                                  А насчёт агрессивности — интеллекту нужно место под солнцем.

                                    0
                                    «Добро» и «Зло» просто абстракция. Ребёнок с азартом и интересом может жечь муравьёв лупой, отрывать крылья мухам или ловить жуков в спичечный коробок обрекая их на голодную смерть пока ему не скажут что это «плохо». Собственно, если не сказать что уничтожать вражеских юнитов плохо ИИ об этом может и не догадаться. Ему всё равно «хорошо» это или «плохо».

                                    > А насчёт агрессивности — интеллекту нужно место под солнцем.
                                    Да, поэтому и важно чтобы ему не пришлось выживать и отвоёвывать место под солнцем у нас. Луддиты и в 21 веке появиться могут.
                                      0
                                      Я не о морали, просто ИИ может прийти к выводу, что для уничтожения других ИИ нет разумных причин, а вот для уничтожения людей есть, например потому что у устройства «Человек» очень низкий КПД по преобразованию биотоплива в механическую работу.

                                      Луддиты не самое страшное, самое страшно если двум разумным расам места (ресурсов вернее) не найдётся на одной планете и добровольно её покинуть ни одна из них не захочет.
                                    +2
                                    Самозащита, самосохранение это все биологическое процессы которые оказывают влияние на нас. К примеру выброс адреналина в определенный момент для предотвращения гибели индивида. Я уверен что если (гипотетически) отделить наше сознание от влияния гормонов и других факторов, понятие самосохранения отпадет. Я думаю нам все будет параллельно. Поскольку понятие интереса, страха, мести и т.д. это наши изъяны. Это то что сковывает наше мышление но и только это позволяет ему существовать.
                                    Создавая разумный механизм и специально не закладывая в него эти процессы ничего подобного не будет.
                                      0
                                      Андройд без инстинкта самосохранения, вполне вероятно, умрёт на первом же перекрёстке => базовые навыки/инстинкты/рефлексы будут заложены при создании.

                                      Да, гормоны и нейромедиаторы играют важную роль в теле человека, но они не абсолют. Человек может поступать вопреки инстинктам и/или гормонам. Самопожертвование, самоконтроль (удержался и не убил врага/пересилил страх).

                                      Сознание человека неразрывно связанно с телом и мозгом. С этим не поспоришь. Более того, биологическая основа во многом определяет индивид. Собственно, если изменить гормональный уровень мозг просто не будет нормально работать и что до лампочки а что нет мы не узнаем.

                                      У нас тут сферический ИИ в вакууме. На чём и как он работает неизвестно =)
                                        +3
                                        Да на линуксе крутится, и это логично.
                                +1
                                Полностью имитировать мышление человека бессмысленно. Наши действия жестко диктуются гормонами. Человек прыгающий с парашюта и спокойно сидящий в кресле будут отвечать совершенно по разному. А как будет вести себя система лишенная всех наших изъянов мышления? На этот вопрос сложно ответить.
                                  0
                                  С другой стороны — не пора ли Человечеству задуматься о своем преемнике? Просто на случай, если биологическая жизнь в доступной области Вселенной окажется невозможной?
                                  Кроме того, без разумных программных объектов не получится организовать VR для самих себя (для бэкапа и для послежизни). А зачем оказываться от дополнительного варианта бессмертия?
                                  +1
                                  Пару замечаний в тему, чтобы не скатываться к лирике…

                                  http://www.fraza.ua/news/16.06.10/92594.html

                                  Вот что пишут газеты:

                                  Ученым из японского Национального института по исследованию материи совместно с международной группой ученых удалось создать искусственный интеллект в буквальном смысле этого слова. После того, как технология биомолекулярного вычисления будет реализована на практике, машины получат то, что на сегодняшний день свойственно только человеку — способность к творчеству в самом широком понимании.

                                  А вот тут путем довольно долгих изысканий, реальная статья авторов

                                  arxiv.org/pdf/1110.5844v1.pdf

                                  Теперь как я понял статью. Они моделируют процесс развития раковой опухали. Для этого они построили некий молекулярный компьютер, в основе которого слой из определенной молекулы. Изучили, что это за клеточный автомат. Пользуясь найденными правилами — они вводят начальные условия, и получают то как развивается рак. При этом из-за температуры моделирование происходит быстро наблюдая как этот процесс протекал бы за 100 лет. Такая оффигенная скорость происходит как раз из-за реализации реальной параллельности — которая возможно только в реальных физических процессах. Это базис будущего ИИ. И некоторое переосмысление, что это такое… это не что-то «с ручками, ножками»… это то что умеет моделировать быстро и упрощенно реальные процессы, тем самым появляется возможность думать, а потом уже понимать что происходит, а затем анализировать…
                                    –2
                                    Что же касается теста Тьюринга — то это просто не серьезный тест, начиная с теории о Китайской комнате, заканчивая практикой, где формально тест пройден (об этом тут уже писали habrahabr.ru/post/106850/)

                                      0
                                      Да, джефф хокинс тоже писал, что ест нифига не определяющий на реальных системах.
                                        0
                                        Тест еще не пройден.
                                        Пока только выявляют каждый год самую «человечную» программу в конкурсе «Премия Лебнера».

                                        Когда же программа, которая пройдет текстовый тест Тьюринга получит серебряную медаль и вознаграждение в 25,000$.
                                        А та программа, которая пройдет этот тест с использованием текстового, визуального и звукового подтверждения будет вручена золотая медаль и приз в 100,000$.
                                        После вручения золотой медали конкурс будет закрыт. Премия Лебнера.
                                          0
                                          > На финальном голосовании Suzette… оказалось, что судья с третьего раунда принял её за человека

                                          Что значит не пройден? Этого достаточно, чтобы пройти стандартный тест Тьюринга.
                                            0
                                            Значит не достаточно этого, чтобы вручить серебряную медаль.
                                              0
                                              Значит им по барабану оригинальные формулировки тесты Тьюринга
                                                0
                                                «Если судья не может сказать определенно, кто из собеседников является человеком, то считается, что машина прошла тест.»
                                          0
                                          Идем сюда. Погружаемся в атмосферу. И ужасаемся человечности «робота».
                                            0
                                            Прометей — посредственный фильм — откровением такое будущее уже не становится — все и так уже готовы. Но Майкл Фассбендер однозначно сыграл лучшую роль в этом фильме. Роль андроида.
                                              0
                                              А фильм не особо и про будущее. Скорее про прошлое.
                                            –1
                                            Кстати. Я тут на днях случайно подумал… Человек не умеет придумывать случайные числа. Вообще. Попробуйте — и ощутите сами. Все числа, которые берутся — берутся как-то из предыдущего опыта, как-то так…
                                            Для примера я сгенерил пять случайных чисел от 0 до 5:
                                            0
                                            4
                                            0
                                            2
                                            1
                                            


                                            Повторяется нолик. Компьютер понимает, что каждый новый рандом никак не зависит от другого. А человек — не всегда. И попроси человека назвать пять случайных чисел от нуля до пяти — вряд ли будут повторения.
                                              0
                                              Хотя может я и не прав… Не знаю. Специалистом по искуственному интеллекту никогда себя не считал.
                                                0
                                                >> Компьютер понимает, что каждый новый рандом никак не зависит от другого.

                                                Что значит понимает? В компьютере как раз используются алгоритмы для формирования таких псевдослучайных последовательностей, и в них есть зависимость от предыдущих сформированных чисел.

                                                >> И попроси человека назвать пять случайных чисел от нуля до пяти — вряд ли будут повторения.

                                                А если от 1000 чисел от 0 до 1000, то тоже не будет повторений? Конечно будут.

                                              Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                              Самое читаемое