Как стать автором
Обновить

Комментарии 48

Тёмно-синий IBM, конечно, зажигает :)
Ну сорри, так и не вычитали видимо этот момент. Ради фана, не будем исправлять.
А я подумал, что это специально так перевели, чтобы было веселее читать, а это оказывается ошибка. =)
Ну хоть Эдсгера Дейкстру исправьте…
И, кстати, премия у вас то Лебнера, то Лоэбнера.
Эдсгер Вибе Дейкстра — спасибо, поправили.
Flugly это сокращенное от чего и при чем здесь мишки?
Flugly — это имя, вполне логичная фраза:
Если компьютер проанализирует их и скоррелирует их правильно, действительно ли неблагоразумно предположить, что он будет отвечать на вопросы типа вопроса о имени «Flugly» точно так же, как человек?»
Ну и изначально вот предложение об имени Флагли:

Сюда также включаются более абстрактные вещи, как ответ на следующий вопрос: «имя «Flugly» — лучше подходит очаровательной актрисе или игрушечному мишке?»
Некогда дал товарищу пообщаться с программой Chatmaster. Он всерьёз думал, что говорит с человеком, и не мог понять, почему все вокруг тупо ржут.
Видимо, он сам не прошел тест
Статья именно на это и намекает…
Следует различать ситуации когда человек имеет цель: отличить машина его собеседник или человек (т.е. проводит тест Тьюринга) и когда он такой цели не имеет. Во втором случае это не тест Тьюринга и это ни коим образом не означает что программа Chatmaster проходит этот тест.
По-моему, сначала нужно определиться, а хотим ли мы чтобы компьютеры думали подобно человеку? То есть не только были способны к логическим и/или вероятностным выводам из имеющейся информацией, генерируя тем самым новую информацию, но и осознавали себя, своё место в мироздании, обладали свободой выбора и целеполагания. Нужен ли человеку потенциальный конкурент, который в один прекрасный момент может решить, что человек ему не то что не нужен, а попросту мешает? Сможет ли человек убедить компьютер, что сотрудничество и партнёрство более выгодно, что есть задачи, решение которых компьютеру важно, но сам он их решить не может или может, но менее эффективно? Или человеку просто нужен раб, который возьмёт на себя решение логических задач и обработку больших массивов информации? А не восстанет ли этот раб? Не сделает ли рабом человека? Или не решит ли «мавр сделал свое дело, мавр может уходить»?

Создание искусственного разума может оказаться самым страшным преступлением против человечества. Нельзя забывать, что разум оказался самым главным инструментом в конкурентной борьбе биологических видов. Что благодаря ему одни виды человек сознательно (в отличии от природного симбиоза) поставил на службу себе, а другие попросту уничтожил.
Это сложный вопрос.
Если ИИ будет создан по образу и подобию человека, то ничем хорошим это не кончится. Сейчас Человек далеко не лучший пример для подражания. В конце концов самые страшные преступления против человечества совершает сам Человек. Ни общество, ни законы не готовы к появлению ИИ/андройдов. Человечеству стоит измениться. Стать чем то новым, лучшим.
Волков бояться — в лес не ходить. В ближайшее время вряд ли ИИ осознает себя в полной мере. Да и зачастую человек идет именно туда куда хочет. Сняли терминатор — значит оно обязательно будет.
Есть много взаимоисключающих фильмов (сценариев будущего).
Честно говоря, прям вот сильно исключающих не припомню. В основном все одно и то же. ИИ, инопланетяне, виртуальная реальность.

Будет всё и в жесткой форме.
Двухсотлетний человек — грань между людьми и роботами стёрлась.
AI — Андройды и люди вымерли. Появилась раса разумных созидательных машин.
Район №9 — Корабль поколений пришельцев. Люди злые.

Всё лучше чем скайнет или злобные пришельцы.
ИИ, андроиды и виртуальная реальность есть в разных формах. В одних ИИ служат человеку, в других наоборот, в третьих — равноправное партнёрство.
VolCh очень любит эту тему поднимать. И единственный ответ тут — именно такой — волков бояться, в лес не ходить.
А если не по образу и подобию, то вообще непредсказуемо чем может кончиться, а так хоть какие-то ориентиры есть.
Самое любопытное что ИИ — Hivemind не так уж и невероятен. Мне кажется военным не помешает сообразительный мозг для роя боевых дронов =)

Я не говорю что ИИ должен отличаться от человеческого, но создание полноценной личности невероятно сложный процесс. Личность человека формируется всю жизнь (а первые годы несовершенна). Невозможно просто создать ИИ с набором вшитых моральных принципов (чьих?) и ориентиров (чьих?) на «добро» и «зло» и сказать ему: «Дальше сам разбирайся как жить». Можно попробовать создать непредвзятое сознание и помочь ему развиться. Полноценному интеллекту нет необходимости быть агрессивным без необходимости (самозащита) просто потому что лучшая бытва — та которой не было. Важно чтобы общество было готово принять новую расу. Общество должно эволюционировать, Человек должен эволюционировать (из космоса границ не видно и не так уж и важно с какой стороны мы разбиваем яйца. Есть лишь планета — Земля). Будет очень печально если появятся заведения только для людей/религия не признает «бесовские машины»/андройд с полноценным ИИ будет в глазах закона вещью/рабом. ИИ и Технологическая сингулярность могут и должны стать будущим Человечества. В конце концов с появлением имплантов грань между людьми из мяса и/или железа сотрётся. Не так важно из чего ты сделан если сознания совместимы.
Согласен. И мне кажется, что настоящий ИИ появится тогда, когда маленького робота будут брать в семью, как ребенка и воспитывать. А он вырастет и заработает себе на новое тело. И тд…
Запахло Футурамой..)
А захочет ли этот мозг стрелять в ого, кому военные скажут, особенно если скажут стрелять в другой такой же мозг?

Думаю, если на вход «заготовки» для ИИ подавать концентрированные и конкретные данные, а не относительно разряженные и случайные, то скорость формирования можно увеличить по сравнению с человеком.

А насчёт агрессивности — интеллекту нужно место под солнцем.

«Добро» и «Зло» просто абстракция. Ребёнок с азартом и интересом может жечь муравьёв лупой, отрывать крылья мухам или ловить жуков в спичечный коробок обрекая их на голодную смерть пока ему не скажут что это «плохо». Собственно, если не сказать что уничтожать вражеских юнитов плохо ИИ об этом может и не догадаться. Ему всё равно «хорошо» это или «плохо».

> А насчёт агрессивности — интеллекту нужно место под солнцем.
Да, поэтому и важно чтобы ему не пришлось выживать и отвоёвывать место под солнцем у нас. Луддиты и в 21 веке появиться могут.
Я не о морали, просто ИИ может прийти к выводу, что для уничтожения других ИИ нет разумных причин, а вот для уничтожения людей есть, например потому что у устройства «Человек» очень низкий КПД по преобразованию биотоплива в механическую работу.

Луддиты не самое страшное, самое страшно если двум разумным расам места (ресурсов вернее) не найдётся на одной планете и добровольно её покинуть ни одна из них не захочет.
Самозащита, самосохранение это все биологическое процессы которые оказывают влияние на нас. К примеру выброс адреналина в определенный момент для предотвращения гибели индивида. Я уверен что если (гипотетически) отделить наше сознание от влияния гормонов и других факторов, понятие самосохранения отпадет. Я думаю нам все будет параллельно. Поскольку понятие интереса, страха, мести и т.д. это наши изъяны. Это то что сковывает наше мышление но и только это позволяет ему существовать.
Создавая разумный механизм и специально не закладывая в него эти процессы ничего подобного не будет.
Андройд без инстинкта самосохранения, вполне вероятно, умрёт на первом же перекрёстке => базовые навыки/инстинкты/рефлексы будут заложены при создании.

Да, гормоны и нейромедиаторы играют важную роль в теле человека, но они не абсолют. Человек может поступать вопреки инстинктам и/или гормонам. Самопожертвование, самоконтроль (удержался и не убил врага/пересилил страх).

Сознание человека неразрывно связанно с телом и мозгом. С этим не поспоришь. Более того, биологическая основа во многом определяет индивид. Собственно, если изменить гормональный уровень мозг просто не будет нормально работать и что до лампочки а что нет мы не узнаем.

У нас тут сферический ИИ в вакууме. На чём и как он работает неизвестно =)
Да на линуксе крутится, и это логично.
Полностью имитировать мышление человека бессмысленно. Наши действия жестко диктуются гормонами. Человек прыгающий с парашюта и спокойно сидящий в кресле будут отвечать совершенно по разному. А как будет вести себя система лишенная всех наших изъянов мышления? На этот вопрос сложно ответить.
С другой стороны — не пора ли Человечеству задуматься о своем преемнике? Просто на случай, если биологическая жизнь в доступной области Вселенной окажется невозможной?
Кроме того, без разумных программных объектов не получится организовать VR для самих себя (для бэкапа и для послежизни). А зачем оказываться от дополнительного варианта бессмертия?
Пару замечаний в тему, чтобы не скатываться к лирике…

http://www.fraza.ua/news/16.06.10/92594.html

Вот что пишут газеты:

Ученым из японского Национального института по исследованию материи совместно с международной группой ученых удалось создать искусственный интеллект в буквальном смысле этого слова. После того, как технология биомолекулярного вычисления будет реализована на практике, машины получат то, что на сегодняшний день свойственно только человеку — способность к творчеству в самом широком понимании.

А вот тут путем довольно долгих изысканий, реальная статья авторов

arxiv.org/pdf/1110.5844v1.pdf

Теперь как я понял статью. Они моделируют процесс развития раковой опухали. Для этого они построили некий молекулярный компьютер, в основе которого слой из определенной молекулы. Изучили, что это за клеточный автомат. Пользуясь найденными правилами — они вводят начальные условия, и получают то как развивается рак. При этом из-за температуры моделирование происходит быстро наблюдая как этот процесс протекал бы за 100 лет. Такая оффигенная скорость происходит как раз из-за реализации реальной параллельности — которая возможно только в реальных физических процессах. Это базис будущего ИИ. И некоторое переосмысление, что это такое… это не что-то «с ручками, ножками»… это то что умеет моделировать быстро и упрощенно реальные процессы, тем самым появляется возможность думать, а потом уже понимать что происходит, а затем анализировать…
Что же касается теста Тьюринга — то это просто не серьезный тест, начиная с теории о Китайской комнате, заканчивая практикой, где формально тест пройден (об этом тут уже писали habrahabr.ru/post/106850/)

Да, джефф хокинс тоже писал, что ест нифига не определяющий на реальных системах.
Тест еще не пройден.
Пока только выявляют каждый год самую «человечную» программу в конкурсе «Премия Лебнера».

Когда же программа, которая пройдет текстовый тест Тьюринга получит серебряную медаль и вознаграждение в 25,000$.
А та программа, которая пройдет этот тест с использованием текстового, визуального и звукового подтверждения будет вручена золотая медаль и приз в 100,000$.
После вручения золотой медали конкурс будет закрыт. Премия Лебнера.
> На финальном голосовании Suzette… оказалось, что судья с третьего раунда принял её за человека

Что значит не пройден? Этого достаточно, чтобы пройти стандартный тест Тьюринга.
Значит не достаточно этого, чтобы вручить серебряную медаль.
Значит им по барабану оригинальные формулировки тесты Тьюринга
«Если судья не может сказать определенно, кто из собеседников является человеком, то считается, что машина прошла тест.»
Идем сюда. Погружаемся в атмосферу. И ужасаемся человечности «робота».
Прометей — посредственный фильм — откровением такое будущее уже не становится — все и так уже готовы. Но Майкл Фассбендер однозначно сыграл лучшую роль в этом фильме. Роль андроида.
А фильм не особо и про будущее. Скорее про прошлое.
Кстати. Я тут на днях случайно подумал… Человек не умеет придумывать случайные числа. Вообще. Попробуйте — и ощутите сами. Все числа, которые берутся — берутся как-то из предыдущего опыта, как-то так…
Для примера я сгенерил пять случайных чисел от 0 до 5:
0
4
0
2
1


Повторяется нолик. Компьютер понимает, что каждый новый рандом никак не зависит от другого. А человек — не всегда. И попроси человека назвать пять случайных чисел от нуля до пяти — вряд ли будут повторения.
Хотя может я и не прав… Не знаю. Специалистом по искуственному интеллекту никогда себя не считал.
>> Компьютер понимает, что каждый новый рандом никак не зависит от другого.

Что значит понимает? В компьютере как раз используются алгоритмы для формирования таких псевдослучайных последовательностей, и в них есть зависимость от предыдущих сформированных чисел.

>> И попроси человека назвать пять случайных чисел от нуля до пяти — вряд ли будут повторения.

А если от 1000 чисел от 0 до 1000, то тоже не будет повторений? Конечно будут.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий