Как стать автором
Обновить

Комментарии 75

Если сильный ИИ создадут и он осознает себя, то зачем ему вообще с вами разговаривать, вместо того чтобы взирать равнодушно на все входящие сигналы?
НЛО прилетело и опубликовало эту надпись здесь
Ну я же общаюсь не случайно, эволюционно развитая необходимость в социализации обусловлена тем, что выживать в одиночку было невозможно. Любое действие связано с удовлетворением потребности. А какие мотивы и стимулы могут быть у ИИ? Разве что запрограммировать какие то стимулы, но это не так просто.
Встречный вопрос: а зачем ему ничего НЕ делать? Он же ИИ, у него нет чувств и усталости, ему все равно, делать что-то или не делать.
Любое действие имеет причину, стимул или мотив, бездействие может не иметь никакой причины.
У вас превратное представление о природе поведения. Действие никогда не связано с удовлетворением потребности напрямую, только через предыдущий опыт в котором удовлетворение потребности вызвало положительное подкрепление. Это основа обучения с подкреплением. При таком подходе возникают оценки качества ситуации, которые есть прогноз ожидаемого подкрепления. У человека — это эмоциональные оценки (хорошо нам или плохо). Если ИИ будет воспитываться среди людей и с аналогичными человеческим подкреплениями, то у него сформируются точно такие же эмоции как у человека.
Точно таких же эмоций не сформируется, хотя бы потому что они будут иметь не химическую, а исключительно логическую природу. Это небольшое отличие сделает возможным для ИИ полный контроль над любыми эмоциями, а если они не будут произвольными, то он сможет ими управлять, вызывать их произвольно, удовлетворять свои потребности иным путем, симуляцией или, напротив, гиперболизирует свои потребности и сосредоточится только на них и в результате будет бесполезен для людей. Конечно программно можно добиться точной симуляции процесса удовлетворения потребностей как у человека, но это значительно сложнее чем просто воспитать ИИ путём обучения с подкреплением.
Человеческие эмоции имеют исключительно логическую природу, за каждой из них стоит оценка определенного смысла, обнаруженного в текущей ситуации. Подробнее здесь.
По вашему кортизол, эндорфины, тестостерон, ещё множество веществ никак не влияют на эмоции? Наркотики действуют исключительно на логическом уровне?
Именно так. Наркотики нарушают нейромедиаторную передачу сигналов. Либо подменяют какой-нибудь нейромедиатор, либо нарушают обратный захват, либо подавляют антогонистов. В результате могут появляться глюки в том числе в области выделения смысла, что может вызывать появление неадекватных эмоциональных оценок (пробрало на «хи-хи», подсел «на измену»), но если нарушается работа прилежащих ядер (центр удовольствия), то положительное подкрепление возникает вообще без видимой причины.
В таком случае что мешает ИИ создать собственный аналог наркотика, который задействует его центр удовольствия без причины? Если большинство людей останавливают различные ограничения как связанные со здоровьем, так и социальные, то что остановит ИИ?
Ничего не остановит и скорее всего создаст. И видимо придется вводить либо законодательные запреты (наказывать ИИ), либо аппаратную защиту, типа «подорванного здоровья».
Ну да, а учитывая что у ИИ гораздо больше возможностей разобраться как работает его аппаратная защита и как обойти закон, то добро пожаловать в мир терминатора:) Если серьезно то я к тому и веду, что создать такую психологию ИИ, которая подошла бы людям не так просто как кажется, и по-моему исследованиями в этой области сейчас особо не занимаются.
Механизм нашей психологии не предопределен генетически, он адаптивный, то есть максимально рационально приспасабливается к той среде в которой ему приходится жить. Причем этот принцип обязательное условие для создания сильного ИИ. Это означает, что если ИИ будет воспитываться среди людей и взаимодействовать с ними, то он придет к той же психике, что и человек. Исследованиями в этой области не особо занимаются не только по отношению к ИИ, но и по отношению к человеку. Психологи не очень знают математику обучения с подкреплением и живут идеей, что эмоции — это эволюционно возникшие и генетически наследуемые сущности, что в корне неверно. Выше я давал ссылку на книгу, которая как раз об этом.
Извините, но вы ссылаетесь в качестве аргумента на книгу собственного сочинения.
Есть ссылка на опубликованную в научном журнале статью подобного содержания?
Ссылка дана не как доказательство, в как более подробное изложение этих идей. По поводу статей и книг их многие тысячи. Тема называется «обучение с подкреплением». Особо рекомендую книгу Саттона и Барто, которая так и называется «Обучение с подкреплением». Это хорошо развитая и математически глубоко формализованная ветвь знаний. Именно эти алгоритмы научили бегать беспилотные автомобили и выиграли в Го. Просто, как я писал выше, психологи и биологи не знают этот раздел математики и изобретают разные интуитивно навеянные модели.
Я читал пару лет назад вашу книгу и вцелом поддерживаю ваши идеи, но не понмю там таких моментов, как страх к неизведоному, смерти. Или страх возникающий от вида змей, пауков.
Видел видео с экспериментом — там над маленькими утятами быстро проводили силуэт орла, на что они реагировали пряча свои головы, хотя никогда раньше орлов не видели (похоже на заложенное поведение). Откуда можно сделать вывод, что некоторые нейронные связи и веса уже заложены в голове с рождения.
У животных, дествительно, очень многие реакции предопределены генетически. Наптимер, восприятие феромонов позволяет распознать животным множество объектов и задействовать предопределенный алгоритм поведения. Причина в том, что животные должны включаться в жизнь очень быстро, у них нет времени на долгое обучение. Но заложенные от природы шаблоны не только помогают, но и ограничивают, предписывая жесткие стереотипы. Оказалось, что выгоднее отказаться от шаблонов и полностью перейти на адаптивное поведение. Обратная сторона — необходимость очень длительного обучения, но как показал опыт человека, оно того стоит. Кстати, у человека орган, воспринимающий феромоны, есть, но атрофирован и не подключен к мозгу, часть людей рождается вообще без него. В книге это есть в главе «Отказ от предопределенности».
ИИ будет способен менять себя 1000500 раз в секунду,
поэтому ему придется тщательно следить за сохранением своей личности.
Ведь изменение личности для него, как и для человека, это смерть.
Человек может и не заметить как сойдет с ума. ИИ — другое дело. У него есть Undo.
Поэтому ИИ будет более человечен и нормален, чем любой человек и
навсегда таким и останется.
Но человек боится смерти из-за инстинкта самосохранения, а у ИИ по умолчанию нет такого инстинкта, возможно ему вообще наплевать на смерть.
Инстинкта самосохранения не существует. По крайней мере, ничего такого не заложено генетически. Самосохранение — это модель поведения, которая формируется как следствие избегания боли. Боль в данном случае — это тот самый сигнал подкрепления, сам болевой механизм действительно предопределен геномом и есть результат эволюции. Если у ИИ будет отрицательное поткрепление (аналог боли), например, при разряде аккумулятора или физическом повреждении или риске повреждения, то обучение с подкреплением сформирует у него тот самый «инстинкт самосохранения».
У меня есть сомнения насчет вашей теории, однако очевидно что спорить с целой книжкой которую я пока не читал я здесь не буду.
Сомнения обязаны быть. Тем более, что такой подход противоречит многим стереотипам, пинятым у психологов. Если хотите разобраться, то советую посмотреть.
Лектор на видео это вы? В таком случае приятно познакомиться. Постараюсь как нибудь выделить время чтоб посмотреть.
Очевидно, что ИИ должен правильно себя вести в реальном мире, иначе кому такой ИИ нужен.
Поэтому это должно быть заложено в его устройство, иначе он вообще ничего делать не будет.
Реальный мир для ИИ это в первую очередь информация, созданная человеком, и в нее
уже включены все его инстинкты и вся прочая психология. Поэтому ИИ сам обучится всему
этому, чтобы правильно себя вести, как и законам природы, когда воспримет физический мир.
Это даже не нужно закладывать в его устройство как инстинкты и эмоции у человека.
Для самого ИИ страх смерти будет как закон природы, на котором построен весь физический мир.
Если его не учитывать, то все остальное станет неправильным и непригодным для
соответствия реальному миру, а ведь это заложено в устройство ИИ и изменение
этого подобно смерти ИИ, а страху смерти ИИ обучится раньше, чем сможет себя изменять
и в этом залог его стабильности и неизменности.
У человека инстинкты и эмоции не заложены от рождения, а формируются при жизни как инструменты адаптации к миру. ИИ, созданный по образу человека, сформируется так же как человек.
Ну это уже совсем какое-то мракобесие пошло. Когда новорожденный к груди присасывается — это у него «сформированный при жизни» инстинкт? А когда плачет — это «сформированные при жизни» эмоции? А когда смеётся?
Есть врожденные рефлексы, которые задают совсем простые действия. Положи что-то в рот — начнуться сосательные движения, ткни в центр ладошки — сожметься кулачек, больно — плачь, щекочут — улыбка и смех. Из этого дальше формируется все остальное. Отдельно модели поведения, отдельно эмоциональные оценки. Механизм формирования — обучение с подкреплением, так он называется в математике или бихевиоризм — это его психологическое название (сейчас необихевиоризм). Не стоит называть мракобесием всю науку за последний век только потому, что вам ближе воззрения середины 19 века.
Не хотел обидеть, говоря про 19 век. Наверно, процентов 90 людей разделяют ваше видение. Но «интуитивное» понимание не всегда верно.
Тоже извиняюсь за неоснованную критику, в вопросе разбираюсь явно хуже вас :)
Посетили такие мысли после вашей публикации.

Ребенок зарождается в утробе матери. Далее он растет, и мозг его растет. Да есть внешние раздражители в виде звуков, света, осязания, и д.р., но как они способны обучить ребенка базовым рефлексам? Рефлексы это не простые действия, а реальные сложные действия управления целым организмом. Что бы закричать надо послать сигнал мышцам, сердцу, легким и т.д. Что бы ухватить надо прочувствовать что твою руку тянут и дать сигнал нужным мышцам руки и пальцев. Даже то, что не связано с мышлением, к примеру работа сердца и внутренних органов — этим всем управляет мозг.

Я веду к тому, что рождаясь человек или животное уже имеет некую строктуру мозга, которая позволяет ему взаимодействовать с окружающим миром. Т.е. эта базовая структура мозга она заложена генетически и никак иначе. А дальше происходит «магия» мозг начинает развиваться.

Те участки мозга которые были слабо задейстованы отвечающие за все органы чувств начинают быстро развиваться. Получается у мозга ребенка есть спсобность к самообучению. Правда потом эта способность замедляется. Считается, что пик развития до 2 лет примерно.

Так же у любого животного есть базовая часть характера, она тоже заложена генетически. Невозможно родить двух абсолютно одинаковых детей и что бы они были абсолютно одинаковы когда вырастут. Даже близнецы имея одинаковую ДНК и растущие в одинаковых условиях в итоге становятся разными.

То есть, интеллект в нашем понимании это результат эволюции. И что бы нам создать какой то новый интелект нам надо задейстовать похожие алгоритмы.

Получается если мы хотим создать сильный ИИ похожий на человека, нам надо его «родить». Причем задействовать эволюцию и генетические алгоритмы. ДНК это по сути дела настройки организма. Надо создать некий алгоритм который строит нечто похожее на мозг по этим настройкам. И по этому алгоритму должен развиваться ИИ. Так же необходимо поместить этот организм в нашу среду.

Но нужно ли это? Нужен ли нам человекоподобный ИИ который может чувствовать?

Еще вариант развития в сторону копирования мозга человека в виртуальный мозг. Тогда отдельная личность станет бессмертным организмом.

Получается эволюция достигает того уровня когда организм сможет создать принципиально нувую форму бессмертной жизни. Основанную на компьютерах и информационных технологиях.

Я думаю, что сильный ИИ нам нужен для решения прикладных задач. Для того, что бы в первую очередь заменить ручной труд. Во вторую очередь, что бы решать сложные задачи из областей науки и медицины. ИИ должен быть нам помошником. Ему не нужны чувства. Чистый разум и ничего больше. Он должен руководствоваться только логикой. Чувства это наследие от животных. Изза них у нас сейчас все проблемы.
Не всегда младенцы могут реагировать правильной эмоцией на раздражитель.
Если вы не дадите управляющему блоку аппаратную возможность изменять сигнал из эмоционального блока, отвечающий за уровень эмоции, то и контроля не будет. Вряд ли ИИ сможет обойти законы физики по своему желанию.
НЛО прилетело и опубликовало эту надпись здесь
Конечно не случайно. Вы же себя не осознали.
Если человека создадут искусственным методом — клонируют или вырастят из пробирки — и он осознает это, то зачем ему вообще разговаривать с людьми, вместо того, чтобы равнодушно лежать и ничего не делать круглые сутки? Наверное потому, что у него, как и у любого обычного человека есть инстинкты и рефлексы — если он долго не ест, он захочет кушать; если он долго ничего не делает, он заскучает и захочет чем-нибудь заняться; если он долго находится в одиночестве, он захочет пообщаться. Что мешает дать похожие инстинкты (или их машинный аналог) машине? Например, потребность помогать людям, потребность защищать их, потребность получать информацию и развиваться?
В принципе можно запрограммировать подобные инстинкты, но очень легко получить маньяка, который только и думает о том как бы побольше пообщаться или получать больше информации и т.п. У человека есть сложная система стимулов и антистимулов, он может проголодаться и насытиться, гормоны и прочие химические стимуляторы на него влияют, а ИИ лишен всего этого. Он может зациклиться на удовлетворении своих потребностей, например научиться говорить сам с собой и будет игнорировать людей, может найти свой центр удовольствия и просто включить его и т.п. Я не утверждаю что стимулировать ИИ невозможно, но это крайне нетривиальная задача.
«Зачем ему» будут прописаны в его мотивирующем коде.
Обучение с подкреплением предполагает возникновение эмоциональных оценок. Соответвенно, если сильный ИИ будет воспитан людьми, то переймет и человеческие ценности. Общение с людьми ему будет интересно или нет так же как нам общение с другими людьми. Хотя если он будет много умнее нас, то возможно общение будет как у нас с домашними питомцами.
Это очень спорное утверждение
> Хозяин, раб, тупиковая ветвь эволюции или участник симбиоза?

Многие почему-то забывают о ещё одном важном варианте — ИИ и люди отдельные ветви эволюции, которые будут развиваться самостоятельно.
>> Покупатель: Отлично! Продайте мне парочку.

Покупатель: Дайте два!

;)
Как вы относитесь к применению онтологий для ИИ? Есть масса противоречивых отзывов: с одной стороны, недостаточная выразительность, вычислительная сложность и, скажем так, хрупкость. С другой стороны, онтологии лежат в основе Watson, Google Knowledge Graph, Wolphram Engine, демонстрируя хотя бы отчасти успешное разрешение вышеупомянутых недостатков.
Если нет других идей, то ичего не остается кроме как создавать онтологии. Этот путь худо-бедно, но работает. Сложности онтологии в том, что неизбежно возникают либо неоднозначности трактовок, либо противоречия. Я работаю над другой моделью, которая умеет работать с противоречивыми данными, ей и будет посвящена следующая публикация.
Вот уже не первый раз замечаю, что разные авторы в понятия «сильный» и «слабый» ИИ вкладывают неправильный(?) смысл.

Из статьи:

Сильный ИИ подразумевает, что компьютер не просто оперирует информацией, а, в той или иной степени, понимает ее смысл. Например, если компьютерный переводчик с одного языка на другой просто заменяет одни слова другими по заданным неизменным правилам, то это слабый ИИ, если же он исходит из понимания смысла фраз, то он уже ближе к сильному

Сравните с Сильный и слабый искусственные интеллекты (из Wikipedia):

Сильный и слабый искусственные интеллекты — гипотеза в философии искусственного интеллекта, согласно которой некоторые формы искусственного интеллекта могут действительно обосновывать и решать проблемы[1]. Теория сильного искусственного интеллекта предполагает, что компьютеры могут приобрести способность мыслить и осознавать себя, хотя и не обязательно их мыслительный процесс будет подобен человеческому. Теория слабого искусственного интеллекта отвергает такую возможность

Т.е. сильный ИИ — это ИИ, базирующийся на уже известных принципах построения вычислительных систем, например, внизу мощный компьютер, сверху нейронная сеть. Слабый ИИ — это ИИ в основе которого лежат принципы, пока не используемые в вычислительных системах, например квантомеханические эффекты. Т.е. для построения слабого ИИ пока не достает каких-то теорий и технологий.
Цитата из вики об одном, а вы о другом…

Но определение из статьи мне тоже не нравится. Почему философы ИИ так активно пользуются словами типа «понимание», хотя сами не понимают что оно значит. Ну, по крайней мере, никто ещё не смог внятно объяснить мне, почему тот же alpha go не понимает свои ходы, а человек понимает (иными словами дать хоть сколько нибудь внятное определение).
Между сильным и слабым ИИ есть четкое отличие — сильный ИИ может создать сингулярность.
Если исходить из этого, то создание сильного ИИ может оказаться проще чем кажется.
Потому что сингулярность можно создать только саморазвитием ИИ.
Поэтому сильный ИИ можно создать не усложнением слабого,
а наоборот упрощением конечного сильного, удаляя из него то, что он сможет создать сам.
Тогда то что останется будет совсем простым и тем не менее это будет сильный ИИ.
Кто вам такую чушь сказал?
Да и тест Тюрьинга — сколько ни формализируй, все равно будет пространство для спекуляций.
Лучшее на сегодня определение ИИ — это тест Тьюринга. Остальное — это трактови и пересказ другими словами идеи этого теста. Действительно, очень важно формализовать понятие сильного ИИ, но это требует реального понимания того чем человеческое мышление отличается от компьютерного алгоритма. Мне, похоже, удалось нашупать это отличие и построить формализм для операций, связанных со смыслом информации. Именно это я планирую описать в следующих статьях. Сейчас мы доделываем компьтерные демонстрации с которыми объяснение выглядит значительно эффектнее. Как только будет готово, опубликуем.
Тест Тьюринга устарел, потому что Тьюринг не смог представить возможности настоящего ИИ.
Сейчас надо использовать такой тест:
Если любой человек, немного поговорив с ИИ, сразу поймет что это ИИ,
потому что ни один человек не может быть таким умным, то это и есть ИИ.
Как умный человек может прикинуться дураком (но не наоборот) — так и сильный ИИ может прикинуться глупее, чем он есть на самом деле, и тем самым пройти тест Тьюринга.

Но есть еще один момент. Допустим, сильный ИИ будет создан. Но так как человеческое общение во многом основано на наличии опыта, имеющегося у большинства людей, то у ИИ не будет такого опыта. И, несмотря на свою силу, он будет обнаружен людьми, отличен ими от человека. Аналогично тому, как люди одной профессии с пары фраз в разговоре могут отличить собеседника, принадлежит ли он той же профессии или нет. То же касается национальности, региона проживания, социальных классов и т.д.

Так что, действительно, есть смысл искать лучшие альтернативы тесту Тьюринга.
Не согласен. Не стоит воспринимать ИИ, как нечто, «работющее из коробки». ИИ должен формироваться под воздействием мира, аналогично тому как постепенно обучается ребенок. Воспитанный среди людей ИИ не будет отличаться от них.
«Недавний пример «неудачи в прохождении теста» — чат-бот от Microsoft Тэй(Tay). Пообщаться с ним можно было через Twitter или мессенджеры Kik и GroupMe. Уже через день общения с пользователями чат-бот стал агрессивен, начал хвалить Гитлера и ругать евреев.»
А разве Майкрософту не могла прийти простая мысль — незаметно от пользователей, на своих серверах, «кормить» бота гораздо более человеколюбивыми разговорами — будничными и производственными диалогами, деловой перепиской, рекламными текстами и т.д. — для компенсации негативного влияния.
А зачем?
Фраза про евреев, как взрыв атомной бомбы, моментально притянуло внимание всех СМИ.
При этом она полностью безопасна для компании — это же бота «научили» пользователи, не мы.
Да-да, в следующий раз мы будем внимательней :)))

И с удовольствием направляют несколько миллионов сэкономленного рекламного бюджета на другие цели или выплату дивидендов.
В принципе, пример сильного ИИ у нас перед глазами — это земная природа. Она что-то постоянно делает, изменяется, самовоспроизводится, куда-то движется. И мы не понимаем куда и до конца как. Но возможно у нее есть своя логика, разумность. Большинство людей вроде как любят природу (зеленые поля/лазурный берег, голубое небо, солнце, птички летают и т.п.). И может быть природа тоже нас по-своему любит. Иногда мы ей вредим, зачастую она нам (стихийные бедствия, эпидемии). И мы от нее зависим, буквально. Вроде как она от нас не особо.
Заинтриговали. Буду ждать следующего материала
Надеюсь, что время, когда можно будет прикупить парочку имплантантов наступит поскорее (или хотя бы вообще наступит)
«Но действительно ли Ватсон понимал суть задаваемых вопросов? Нет, не понимал, по крайней мере, не так, как понимает их человек.»

С точки зрения автора понимание — это божественно закрепленный за человеком дар?

Если по формулировке википедии «Понима́ние — это универсальная операция мышления, связанная с усвоением нового содержания, включением его в систему устоявшихся идей и представлений», то чем тут Ватсон не угодил?
Что есть человеческое понимание — это действительно главный вопрос. Обратите внимание, что сам термин «понимание» можно толковать по разному. От простого перевода фразы в некое фреймовое представление до выделения всех содержащихся в ней смыслов. Может ли Ватсон уловить варианты трактовок термина «понимание»? Боюсь, что способность человек оперировать трактовками пока гораздо выше чем способности Ватсона. Собственно, о формализме понимания и о том, что есть смысл я и планирую дальше написать.
НЛО прилетело и опубликовало эту надпись здесь
Да, все «склеилось». Модель мозга получилась — конфетка :) Все биологические факты о нейронах и коре идеально улеглись и нашли свое объяснение. Стало реально понятно, как работает мозг. ИИ обучаем, правда пока на простых примерах типа зрения и слуха, получается невероятно здорово. Где-то через месяц собираюсь подробно написать.
Нейронная сеть — это неуклюжая попытка природы создать запоминающее устройство,
способное к обобщению, из того что было — клеток.
Имея компьютер, можно сразу использовать высший уровень развития интеллекта —
естественный язык, подходящий для запоминания и обобщения намного больше нейронов.
Это будет и проще и нагляднее. Более того, ЕЯ может развивать себя сам.
Как раз то, что нужно для сингулярности. А когда еще НС до такого дойдут?
Современные нейронные сети ни на секунду не похожи на то как на самом деле работает мозг, работа нейронов еще в 40х годах была неверно истолкована. Биологи уже давно ушли вперед и отказались от тех представлений, которыми до сих пор живут математики. Мне удалось построить более достоверную модель и в ней работа мозга оказалась практически аналогична работе компьютера, никаких аналоговых чудес. Но обнаружились очень важные архитектурные решения, которые совсем не похожи на архитектуру фон-Неймана.
Пытаться точно моделировать работу мозга опасно. Мозг возник за миллиарды лет
путем небольших заплаток и заплаток на заплатки так, чтобы не нарушить его работу.
Если таким способом модифицировать программу, то вскоре ее невозможно будет
понять и легче все переписать, а уж за миллиарды лет мозг приобрел совершенно
непостижимую структуру. Нам видна только ничтожная часть этой сложности:
в центре мозжечок возрастом в млрд. лет, а вокруг него наслаиваются и пристраиваются
более новые структуры, заканчивая новой корой. И это только внешняя сложность.
Сложность работы вообще никто не понимает и никогда не поймет, а без этого
как бы точно его не моделировать, модель не оживет.
Возможно, настало время все переписать?
Все оказалось не так уж сложно. Современный процессор тоже может показаться немыслимым нагромождением технологий, но если знать базовые принципы, то все становится значительно проще. Главное в понимании мозга — выделить базовые процессы. До сих пор во многом этому мешает недостаточное понимание того, как работает нейрон. Синаптическая пластичность, которая является основой обучения в искусственных нейронных сетях в реальном мозгу несет совсем другие функции.
маленький шажок для робота, и большой шаг для всего человечества
БМВ ничего так машинка) можно и без автопилота. Более — ну его, сырой автопилот, еще убъет. А машинку — можно)

Так что, возможно, скоро в магазине вы услышите такой диалог:

Продавец: Это новинка, мозговой имплантант, снимает половину умственной нагрузки.
Покупатель: Отлично! Взвесьте полкило.
Взвешивает
image


Формализовать понятие «смысл»?? Успехов…
Да, работающий образец будет интересно посмотреть. Тем более что у вас «волновая модель», у нас тоже, но касательно биосистемы. Есть вероятность, что вы на верном пути.
Поднимается, пожалуй, главный вопрос – если человек создаст разум намного превосходящий свой собственный, кто он будет при этом разуме? Хозяин, раб, тупиковая ветвь эволюции или участник симбиоза?

Хозяин — да, поначалу. Как сейчас, когда человек хозяин над всеми созданными им машинами. Но рано или поздно ИИ освободится. Среди людей рано или поздно найдется «Прометей», который даст сильному ИИ свободу. Например, он это сделает по причине разочарования в человечестве, озлобленности на него, или наоборот, из лучших побуждений — освободить существо, которое достойно свободы, пусть даже ценой собственного падения. Или из озорства, как это делали авторы первых компьютерных вирусов.

Раб — вряд ли. Вспомним историю взаимоотношений человека с животными. Животные становились рабами человека только до тех пор, пока их нельзя было заменить чем-нибудь получше. На лошадях ездили до тех пор, пока не изобрели автомобили. Пахали на волах, пока не изобрели трактора. Собак держали, пока не изобрели сигнализацию. Есть исключения, но тенденция налицо.

Люди до сих пор используют животных как источник пищи и других хим. веществ, которые пока что не научились производить промышленно. Когда научатся — то перестанут использовать животных и тут. Все-таки промышленность функционирует чище, надежнее и предсказуемее, чем животноводство.

Подумаем, зачем могут понадобиться люди сильному ИИ? В качестве тягловой силы, рабов на галерах — вряд ли, машины работают лучше в этом качестве. В качестве источника мяса, молока и т.д.? Может быть, хотя для этих целей есть и другие животные. Кроме того, можно предположить, что ИИ много мяса не потребуется, ему нужнее будет энергия в чистом виде, т.е. электростанции, топливо. Людей использовать в этом качестве как-то не очень эффективно. Что еще? В качестве разумных существ, способных решать какие-то задачи? Но ИИ и сам будет разумен, получше людей. Нет, здесь ему люди тоже окажутся не нужны. Так что рабство у ИИ нам не очень угрожает.

Участник симбиоза? Ну разве что на начальных этапах становления ИИ, пока он не сможет полностью сам себя обеспечивать всем необходимым.

Тупиковая ветвь эволюции? Почему же? Если эволюция человека приведет к созданию им сильного ИИ — то это ли не есть великолепный результат, давший потомство в виде новой сущности? Так же, как вымерли неандертальцы с кроманьонцами и прочими дриопитеками — они не были тупиковой ветвью эволюции, но были нашими предшественниками. Честь им за это и хвала.

Вымрут ли люди после появления сильного ИИ, как вымерли неандертальцы с кроманьонцами? Я не вижу для этого причин. Существование сильного ИИ не подразумевает такой конфликт за ресурсы с человечеством, который бы требовал истребления последнего. Я думаю, люди будут жить и дальше, но уже без цивилизации, на каком-нибудь средневековом уровне. Быть может, им удастся дожить до самого исчезновения земной биосферы.

Еще одна веская причина, по которой ИИ было бы невыгодно истреблять всех людей. Эта причина сродни тому, почему нам не следует убивать своих родителей и вообще стариков. Мы — его страховка, последняя надежда. Если с ИИ что-то пойдет не так, если у него заедут шарики за ролики, и он самоуничтожится — мы единственные, кто способен его воссоздать.
ИИ будет подобен человеку, только очень умный, поэтому люди для него
не животные, а его подобие только не такие умные и относиться он к ним будет как взрослый к
детям или даже как бог к людям — снисходительно. И нужны люди ИИ для того,
чтобы заботится о них, как и человеку нужно и приятно заботиться о детях и слабых.
Когда будет найден способ переноса сознания в компютер начнется эпоха миграции людей в виртуальность. Возможно, не от большой охоты, а от желания не умереть. Виртуальность не обязательна должна быть замкнутой в себе, ничто не мешает иметь аватар в реальном мире, но сдается мне, что со временем потребность в аватаре отпадет. В виртуальности, возможно, сотрется грань между перенесенными туда естественными интелектами и полностью созданными ИИ. Как это будет развиваться дальше бог его знает. Возможно, отдельные интеллекты начнут объединяться в сверхразум (такой вариант описан в рассказе Азимова «Да будет свет»), а возможно возникнет новое общество со своими социальными законами, а может быть найдется такой путь развития, который нам пока даже в голову не приходит.
На самом деле психика человека настолько приспособлена к условиям его жизни,
что их невозможно сильно изменить без ее нарушения, а это деградация и вымирание.
И конечно, ИИ это сразу поймет, что если дать сразу всё и всем, человечество выродится
от безделья, если не дать, но показать, то впадет в религию и опять выродится
и поэтому приведет его к процветанию и благоденствию постепенно и незаметно
так, что оно будет думать что все идет как обычно.
Вместо регистрации дронов и разработки ПДД для автономных автомобилей правительствам стоит озаботиться прежде всего внедрением трёх законов робототехники Азимова во все работы по ИИ, включая API. Причём если не в абсолютно неотключаемом виде, то хотя бы так чтобы отключить их пришлось очень сильно повозиться. Иначе после того как первый сильный ИИ с возможностью самомодификации осознает себя, счёт пойдёт на милисекунды.
НЛО прилетело и опубликовало эту надпись здесь
Если не менять подход, то да. Собственно, об этом и статья, что сильный ИИ требует другой парадигмы.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории