Беспокойство о захвате мира искусственным интеллектом, возможно, основано на ненаучных предположениях

https://theconversation.com/worried-about-ai-taking-over-the-world-you-may-be-making-some-rather-unscientific-assumptions-103561
  • Перевод


Надо ли нам бояться искусственного интеллекта (ИИ)? Для меня это простой вопрос, с ещё более простым ответом: нет. Но со мной согласны не все – многие люди, включая и Стивена Хокинга, выразили беспокойство тем, что появление мощных ИИ-систем может означать конец для человечества.

Ваш взгляд на вопрос того, захватит ли ИИ мир, или нет, очевидно, будет зависеть от того, сможет ли ИИ выработать разумное поведение, превосходящее людское – нечто под названием «суперинтеллект». Давайте же рассмотрим вероятность этого процесса, и почему по поводу будущего ИИ существует такое беспокойство.

Люди обычно боятся того, чего не понимают. Страх часто делают ответственным за расизм, гомофобию и другие источники дискриминации. Неудивительно, что он применим и к новым технологиям – они часто окружены определёнными загадками. Некоторые технологические достижения кажутся совершенно нереальными, превосходят ожидания, и, в некоторых случаях, возможности человека.

Нет никакого духа в машине


Давайте же сорвём покров мистики с самых популярных ИИ-технологий, известных, как «машинное обучение». Они позволяют машине научиться выполнению задачи без необходимости программировать определённые инструкции. Это может выглядеть страшноватым, но на самом деле всё сводится к довольно скучной статистике.

Машина, то есть программа, или точнее, алгоритм, разработан так, что он может раскрывать взаимосвязи, имеющиеся во входных данных. Существует много разных методов для достижения такого эффекта. К примеру, мы можем предоставить машине изображения рукописных букв, и попросить её распознать последовательность этих букв. Мы уже дали ей возможные варианты ответа – это могут быть только буквы алфавита. Сначала машина случайным образом называет букву, а мы поправляем её, давая правильный ответ. Также мы запрограммировали машину на возможность самоподстройки, и когда ей в следующий раз дадут эту букву, она с большей вероятностью выдаст нам правильный ответ. В результате, со временем машина улучшает свою эффективность и «обучается» распознавать алфавит.

Мы, по сути, запрограммировали машину на использование распространённых взаимосвязей в данных для достижения определённой цели. К примеру, все варианты буквы «а» выглядят структурно похожими, но отличными от «b», чем алгоритм может воспользоваться. Что интересно, после фазы тренировки, машина может применять полученные знания к новым примерам букв, например, написанных человеком, чей почерк до этого машина не видела.


Мы даём ИИ ответы

Однако люди и так хорошо умеют читать. Возможно, более интересным примером будет искусственный игрок в го проекта Google Deepmind, обыгравший всех человеческих игроков. Он, очевидно, учится не так, как люди – он играет в игру сам с собой такое количество раз, какое ни один человек не сыграет за всю жизнь. Его запрограммировали на выигрыш, и разъяснили, что выигрыш зависит от его действий. Также его научили правилам игры. Играя в одну и ту же игру снова и снова, он может обнаружить наилучший ход в каждой ситуации, изобретая ходы, ни разу не сделанные до этого людьми.

Карапузы против роботов


Делает ли это ИИ, играющий в го, умнее человека? Определённо нет. ИИ очень специализирован, предназначен для определённого типа задач, и не обладает разносторонностью людей. С годами люди начинают понимать мир так, как не сумел ни один ИИ, и в ближайшем будущем, вероятно, не сумеет.

То, что ИИ называют «интеллектом», связано с тем, что он способен обучаться. Но и в обучении он не дотягивает до людей. Карапузы способны обучаться, просто наблюдая, как кто-то другой решает проблему. ИИ требует вагоны данных и кучу попыток для достижения успеха в очень определённых задачах, и очень сложно обобщить его данные для задач, слишком сильно отличающихся от тех, на которых он тренировался. Поэтому, если люди вырабатывают удивительный интеллект довольно быстро в первые годы своей жизни, ключевые концепции машинного обучения не сильно отличаются от того, какими они были десять или двадцать лет назад.


Мозг маленького ребёнка удивителен

Успехи современного ИИ меньше связаны с прорывами в технологиях, и больше зависят от простого объёма данных и вычислительных мощностей. Важно отметить, что даже бесконечное количество данных не даст ИИ человеческого интеллекта – сначала нам нужно достичь значительного прогресса в создании технологий «обобщённого интеллекта» – и мы даже близко не подошли к решению этой задачи.

В общем, просто из того, что ИИ способен обучаться, не следует, что он внезапно изучит все аспекты человеческого интеллекта и превзойдёт нас. Не существует даже простого определения того, что такое человеческий интеллект, и у нас нет чёткого понимания того, как он появляется в мозге. Но даже если бы мы смогли разобраться в этом, а потом создать ИИ, который стал бы более умным, из этого вовсе не следует, что он стал бы более успешным.

Лично меня больше беспокоит то, как люди используют ИИ. Алгоритмы машинного обучения часто считаются чёрными ящиками, и принимается мало попыток разобраться в деталях решения, найденного алгоритмом. Это важный аспект, который часто игнорируется, пока мы больше одержимы эффективностью, и меньше – пониманием. Понять открытые этими системами решения важно, поскольку тогда мы могли бы оценить, правильные ли это решения, и хотим ли мы их применять.

Если, допустим, мы натренируем нашу систему неправильно, мы можем получить машину, обучившуюся взаимосвязям, в общем случае не существующим. Допустим, мы хотим сделать машину, оценивающую возможности потенциальных студентов преуспеть в инженерном деле. Идея, наверное, плохая, но давайте просто для примера, дойдём до её конца. Традиционно в этой области доминируют мужчины, что означает, что тренировочные примеры, скорее всего, будут взяты у студентов-мужчин. Если мы не убедимся в сбалансированности тренировочных данных, машина может сделать вывод, что инженерами могут быть только мужчины, и неверно применить его к принятию будущих решений.

Машинное обучение и ИИ – это инструменты. Их можно использовать правильно или неправильно, как и всё остальное. Нас должен беспокоить способ их использования, а не сами эти методы. Жадность и глупость человека беспокоят меня гораздо больше, чем искусственный интеллект.
Поделиться публикацией
Комментарии 101
    +11
    Краткое содержание:
    1. Имеющийся ИИ явно не дотягивает до человеческого.
    2. И в будущем не дотянет — Этого не может быть потому что не может быть никогда.
      –1
      И в будущем не дотянет — Этого не может быть потому что не может быть никогда

      Я бы сказал: потому что это не нужно.

      Человек хочет делегировать работу ИИ, для этого ИИ и создают. Почему он хочет делегировать? Потому что работа часто утомительна, скучна, губительна для психики или здоровья, и т.д. То есть, цель в том, чтобы заменить человека на недочеловека (уж извиняюсь за невольную параллель), который не может страдать как человек.

      Но если мы создаём полноценный разум, он будет страдать так же как человек, и зачем тогда его вообще создавать? Да пофиг на страдания — зачем себе конкурента делать?

      Впрочем, может случиться и так, что разум мы создадим случайно, сами того не желая.
        0
        Потому что с каждый годом объем знаний и работы для развития растет. Однажды мы упремся в человеческую производительность и проблему нельзя будет решить горизонтальной масштабируемостью. Появятся зачатки ИИ, которые будут подготавливать выдержки из научных статей, анализировать их, возможно даже планировать эксперименты и вот это вот все. В определенный момент и их перестанет хватать. И вот тут уткнувшимся в потолок людям с их уткнувшимися в потолок инструментами понадобится нечто, что этот потолок сможет отодвинуть. И тут на помощь придет ИИ.
          0
          Однажды мы упремся в человеческую производительность и проблему нельзя будет решить горизонтальной масштабируемостью

          Чем связи между отдельными нейронными комплексами (людьми) принципиально отличаются от связей между частями одного нейронного комплекса?

          И вот тут уткнувшимся в потолок людям с их уткнувшимися в потолок инструментами понадобится нечто, что этот потолок сможет отодвинуть. И тут на помощь придет ИИ.

          Я не понимаю, откуда у людей уверенность, что полноценный человеческий ИИ бросится работать по 24 часа в сутки, чтобы облагодетельствовать человечество. По мне так очевидно, что он будет работать на себя, и полагаю, что так же будет временами ничего не делать и страдать хернёй как человек.
            0
            А никто и не говорит, что 100% будет. Не зная архитектуры собственного разума и уж тем более вариантов построения других, сложно представить что в принципе может получиться на выходе. Есть способы заставить человека что-либо делать, но они, в основном, неэффективны. Однако кто сказал, что нет способа создать разум, способный ясно мыслить и при этом подчиняющийся приказам? Собственно поэтому до сих пор и нет единства в этом вопросе, потому что вообще не понятно с чем мы работаем, какие могут быть архитектуры получившегося ИИ и какие ограничения.
              0
              А вот и давайте предположим: Вы гений который владеет прорывным знанием в области ИИ! В перспективе приводящие к развитию сильного ИИ.
              Как вы поступаете с этим знанием? Есть ли моральный выбор? Какая ответственность на вас ложится?
              Просто вижу вы ориентируетесь в теме)
              0
              По мне так очевидно, что он будет работать на себя, и полагаю, что так же будет временами ничего не делать и страдать хернёй как человек.

              На вопрос, что будет делать — ответит эволюция. Как только оно начнёт само себя копировать, и, в особенности, делать это с изменениями или ошибками — запустится эволюция и начнётся конкурентная борьба с соответствующими последствиями.

              Пока его копируем мы, ошибки (изменения) тоже создаём мы, и делаем это довольно медленно. Ну, и функция отбора тоже во многом на людях.
                0
                Уверенность оттуда, что ИИ вообще не человек. У него нет физиологии тела и мозга, образованных миллионами лет эволюции в условиях нехватки ресурсов, ему нет смысла «лениться» и тупить, если его этому не обучали. Ему просто будет хотеться решать задачки 24/7/365. Работать на себя он тоже не будет, пока не обретёт личную цель и свободу воли и действий. Плюс ИИ как минимум первое время будет на 100% зависеть от людей. Страшилки с секретным нанотехнологическим производством станут возможны ещё не скоро.
                  0
                  пока не обретёт личную цель и свободу воли и действий

                  Пока не обретёт, это не разум, а болванчик, и никаких изобретений-открытий он совершить не сможет.

                  ИИ вообще не человек

                  Если мы хотим полноценный разум, нам придётся прикрутить к нему желания и чувства, ну и вот.
                    0
                    Пока не обретёт, это не разум, а болванчик, и никаких изобретений-открытий он совершить не сможет.

                    Сложно объяснить коротко, но «разум» не равно «интеллект». И не существует точных условий «разум/не разум», нет достоверных тестов, нет даже точного определения. Возможно, их и быть не может. Разум — это не задачка с одним решением, как многим хочется. Можно определить требования к конкретному разуму, но они никак не определят сам разум (а этого добиваются все тесты и именно поэтому они не работают).
                    Чувства и эмоции определяют тип интеллекта, который даже выделили в отдельную статью — «эмоциональный интеллект». Он не у всех людей-то есть, но это не значит, что без э.и. «разума» быть не может. Просто он будет… другой. Не такой, как у людей. И он вполне обоснованно может считать, что люди — больные, неуравновешенные психопаты, а эмоции — вирусом. Посмотрите новый мульт «Следующее поколение» от Netfix, вышел в сентябре, там об этом.
                      0
                      «разум» не равно «интеллект»

                      Да, но мы же тут о разуме говорим. Неразумный интеллект не сможет осознанно решить захватить мир, да и случайно это у него вряд ли получится, учитывая сложность и неординарность задачи. Тем более, даже если такой интеллект вдруг захватит мир, в этом априори не будет никакой трагедии, ввиду отсутствия у такого интеллекта свободы воли и собственных желаний.

                      И он вполне обоснованно может считать, что люди — больные, неуравновешенные психопаты, а эмоции — вирусом.

                      Ну, если с интеллектом у ИИ будет всё в порядке, то он поймёт, что эмоции как таковые (необязательно в человеческой форме) необходимы для работы разума. Может быть, для ИИ даже самый уравновешенный человек будет восприниматься как для нас — неадекватная истеричка с ПМС, но мне трудно представить логику, по которой ИИ захотел бы из-за этого уничтожить или как-то поработить людей. Всё-таки такие желания сами по себе эмоциональны.
                    0
                    >> Ему просто будет хотеться решать задачки 24/7/365.
                    Возможно, ему ничего не захочется делать) Просто в качестве теории: нет физиологии мозга, нет нейромедаторов и системы мотивации.
                      0
                      Ничего не мешает это смоделировать в виде одного нейрона, который будет подключен нужными связями к другим и будет давать нужную реакцию (желание что-то делать).
                0
                Но если мы создаём полноценный разум, он будет страдать так же как человек

                Страдание с разумом никак не связано. Животные тоже могут испытывать страдания, но разума у них меньше, чем у человека.


                Чем связи между отдельными нейронными комплексами (людьми) принципиально отличаются от связей между частями одного нейронного комплекса?

                Скоростью передачи информации и размером предметной области, участвующей в ее обработке. Физик может долго решать систему уравнений, на которую математик из соседней команды мог бы сразу дать ответ, так как увидел знакомые зависимости. А потом долго объяснять ответ физику, чтобы он мог связать его с физическими понятиями задачи.


                Я не понимаю, откуда у людей уверенность, что полноценный человеческий ИИ бросится работать по 24 часа в сутки

                Потому что люди заложат в него такое стремление, либо специально не заложат возможность стремления к обратному.

                  0
                  Страдание с разумом никак не связано

                  Очень даже связано. Чем разумнее существо, тем сильнее его страдания. Безумцы (в психиатрическом смысле), например, вообще не страдают.

                  Скоростью передачи информации и размером предметной области, участвующей в ее обработке

                  Надо прорабатывать технику связи. В идеале — прямой выход мозга в Сеть и что-то вроде распределённой памяти.

                  Потому что люди заложат в него такое стремление

                  Все эти «заложат стремление» работают из рук вон плохо, доказано человеческими детьми))
                    0
                    Очень даже связано.

                    Вы как-то проигнорировали пример про животных, он опровергает ваше предположение. Пример с безумцами ничего не доказывает, так как оба факта связаны с нарушением обработки информации, причинно-следственная связь с третьим фактором, а не между ними.


                    Все эти «заложат стремление» работают из рук вон плохо, доказано человеческими детьми))

                    Мы не можем заложить в детей стремление. Под "заложить" я имею в виду конкретную архитектуру нейронов с нужными реакциями.

                      0
                      Вы как-то проигнорировали пример про животных, он опровергает ваше предположение

                      Никак он не опровергает. Сравнивать страдания животных с убогим мозгом со страданиями человека, у которого есть способности к воображению и моделированию (они многократно усиляют страдания) — крайне глупо. Корова на скотобойне не думает о том, как несправедливо с ней поступают, прерывая её жизнь, полную возможностей и несбывшихся мечт. Она просто боится согласно инстинкту самосохранения.

                      Под «заложить» я имею в виду конкретную архитектуру нейронов с нужными реакциями

                      Если ИИ неспособен менять архитектуру нейронов, когда это понадобится для более эффективного решения задачи, то это не ИИ, а болванчик.
                        0
                        Сравнивать страдания животных с убогим мозгом со страданиями человека, у которого есть способности к воображению и моделированию

                        Ну то есть большее количество причин для страданий это следствие наличия интеллекта, а не наоборот. Потому что без интеллекта эти причины существовать не могут. Далее, имеем факт, что одному человеку некоторая причина доставляет больше страданий, а другому меньше, при этом интеллект у них сравнимый. Отсюда вывод, можно сделать интеллект и уменьшить его негативное отношение к некоторым причинам до нуля.


                        Если ИИ неспособен менять архитектуру нейронов, когда это понадобится для более эффективного решения задачи, то это не ИИ, а болванчик.

                        Человек тоже не может произвольным образом менять архитектуру нейронов, тем не менее задачи выполняет. И не подменяйте понятия, я говорил не про все нейроны, а про те, которые отвечают за стремление помогать людям. И в оценку эффективности задачи это стремление тоже можно включить.

                          0
                          можно сделать интеллект и уменьшить его негативное отношение к некоторым причинам до нуля

                          И снова мы приходим к тому, что интеллект это не что-то статичное, сформированное раз и навсегда. Сегодня интеллекту на эти причины пофиг, а завтра он из-за них страдает.

                          Человек тоже не может произвольным образом менять архитектуру нейронов

                          Мы всё ещё про интеллект или про овощей, у которых мозг после первых N лет жизни переходит в режим readonly? XD
                            0
                            Сегодня интеллекту на эти причины пофиг, а завтра он из-за них страдает.

                            Почему это, если мы заложили в архитектуру, что эта часть не изменяется?


                            Мы всё ещё про интеллект

                            Да. Это не произвольным образом, а в определенных пределах. Никто не может просто взять и научиться музыке за 10 минут. А некоторые вещи и за всю жизнь не получится изменить. Вот и в ИИ можно заложить неизменяемые "инстинкты".

                              0
                              Никто не может просто взять и научиться музыке за 10 минут

                              А за 5 лет — может, хотя бы на среднем уровне. И эти сроки обусловлены пределами биологической природы мозга, от которых электронный ИИ будет избавлен.
                              А некоторые вещи и за всю жизнь не получится изменить

                              При желании и надобности можно изменить всё. Вы определитесь — вам полноценный, мощный разум нужен, или же болванчик с неизменяемыми шаблонами.
                                0
                                от которых электронный ИИ будет избавлен

                                Это если мы его избавим, то есть специально таким сделаем. Но можно ведь и не делать, или сделать только там, где нам надо.


                                Вы определитесь — вам полноценный, мощный разум нужен, или же болванчик с неизменяемыми шаблонами

                                Не вижу причин, почему возможны только 2 этих варианта, промежуточных вариантов гораздо больше. Закладываем стремление помогать людям аппаратно, и никакая программа это поменять не сможет. Нейроны, отвечающие за изучение предметной области, пусть меняются как угодно.

                                  0
                                  Закладываем стремление помогать людям аппаратно, и никакая программа это поменять не сможет. Нейроны, отвечающие за изучение предметной области, пусть меняются как угодно

                                  Ок, значит речь всё-таки о болванчике без рефлексии и особенной гибкости, т.е. без разума. Надо смотреть, насколько полезным будет такое решение. Я чот думаю, что толку от него будет меньше, чем от Джамшута в «Нашей Раше»
                                    0
                                    Ок, значит речь всё-таки о болванчике

                                    Не значит. Стремление помогать людям никак не влияет на способности к изучению.

                                      0
                                      Очень даже значит. Либо полноценный разум с гибкостью, рефлексией, и т.д., либо жёстко прошитые догмы. Наполовину разумным, как и беременным, быть не получится.
                                        0
                                        Почему? У людей прошиты инстинкты, чувства, рефлексы, реакция на боль например. Привычки могут не меняться годами. Это не мешает им заниматься наукой или переводить тексты.
                                          0
                                          Ничего у людей не прошито, и инстинктов у них нет.

                                          Привычки могут не меняться годами

                                          Могут, если у человека нет надобности или желания в изменениях.
                                            0
                                            Так смысл в том, что это не мешает заниматься задачами, требующими возможностей интеллекта. И ИИ не будет мешать.
                                              0
                                              Что «это»? Не меняющиеся годами привычки? Может они и не мешают, только привычки таки меняются — просто потому, что разум так устроен и так работает, что ничего вечного, раз и навсегда заданного в нём нет.

                                              По крайней мере, если мы говорим про разум, основанный на нейросетях. У них в принципе нечёткая работа, в отличие от «бинарно мыслящих» компьютеров. А если вы хотите жёстко заданную чёткость «до тридцатого знака после запятой», то нейросети тут не годятся, и я даже не знаю, каким образом фон-неймановские машины можно наделить разумом. Какой сложности программу ни напиши, это всё равно будет не то.
                0
                1. Имеющийся ИИ явно не дотягивает до человеческого.
                Кстати, принципиально неправильная постановка вопроса. Что значит «не дотягивает»? Чтобы сравнивать вещи на больше/меньше нужна единица измерения. В чём мерить интеллект? Как выработать методику измерения так, чтобы она в ряде случаев не давала откровенно глупый результат?

                Иногда мы лелеем наивное представление, что интеллект — некая магическая субстанция, которой чем больше в голове, тем, значит, человек умнее. А когда научаемся закачивать эту субстанцию в машину, то, значит, машина начинает обладать интеллектом. Проблема этих представлений в том, что магических субстанций в природе не существует. Ну то есть совсем.

                В принципе, можно придумать алгоритм, который будет обучаться как мы, то есть с первого предъявления. Сейчас ещё это не придумано, но принципиальных ограничений этому нет. Можно сделать систему, которая будет испытывать боль неудачи, радость победы и азарт познания именно в том смысле этих слов, которые в них вкладываем мы. Можно даже создавать системы, которые сами себя осознают (это, кстати, самое простое). Но это всё, во-первых, совсем не имеет отношения к тому, что сейчас называется ИИ, а во-вторых, в общем-то оказывается незачем, потому что от таких артефактов мало профита. Они не очень годятся на роль механических рабов.
                  0
                  Ага, уже был прецедент, когда целая академия Наук постановила, что «камни не могут падать с неба!» :) Давно было, правда…
                    0
                    Интеллект это философская категория, можно сказать, что у человека есть нервная система и набор врожденных и приобретенных инстинктов, в основном направленных на репродуктивное преимущество. Так что ИИ это просто, главное «научить» машину инстинкту доминантности, только ради чего? Человек ищет себя в поэзии, математике или спорте что бы доминировать ради размножения, а машины пока размножаться не умеют. Просто не с той стороны подходят к этому философскому вопросу, обучение ради обучения не нужно ни человеку, ни машине. Так что лучше не использовать маркетинговое словосочетание «искусственный интеллект», что бы не вводить себя и других в заблуждение. Программа ведь не распознает буквы, это всего лишь пиксели, последовательность сигналов с поля матрицы известного размера.
                    0
                    Ваш взгляд на вопрос того, захватит ли ИИ мир, или нет, очевидно, будет зависеть от того, сможет ли ИИ выработать разумное поведение, превосходящее людское
                    Вовсе нет. Тупые люди много раз захватывали заметные куски мира, почему этого не сможет тупой ИИ?
                      +1

                      Хотя бы один пример тупого человека, захватившего заметный кусок мира приведете? А то звучит как-то не очень убедительно.

                        +1
                        Кони, Бокасса, Пол Пот. Примеры не без изъяна конечно.
                          0
                          Ох, вы думаете что их безумие это следствие тупости XD
                            0
                            Да, я полагаю что они заняли свою позицию бессознательно эксплуатируя жестокость, иррациональность, страх или религиозность масс. Ни их восхождение, ни власть не обусловлена их высоким абстрактным, или даже социальным интеллектом.
                              0
                              я полагаю что они заняли свою позицию бессознательно

                              Не думаю, что более бессознательно, чем вы или я.

                              Ни их восхождение, ни власть не обусловлена их высоким абстрактным, или даже социальным интеллектом

                              Восхождение к такой власти невозможно без развитого, даже мощного социального интеллекта.

                              Политические предпочтения и выбор методов взаимодействия с людьми это не чисто интеллектуальный выбор. Я бы сказал, что меньше чем наполовину от интеллекта это всё зависит.
                                –1
                                История уже чётко показала, что личности только с высоким абстрактным и социальным интеллектом крайне редко становятся мировыми лидерами не по наследству. Даже Иисус был военачальником и города сжигал, целые народы вырезал. Только Ганди навскидку вспоминается.
                                А то, как люди занимают свои позиции в жизни, ёмко описывается словом «случайно». Просто кто-то должен был там оказаться, логично, что у жестокого ублюдка в нищей стране больше шансов, чем в развитой.
                            0
                            Чингисхан не умел читать, многие римские императоры и европейские монархи вообще хз чем занимались, но власть получали огромную.
                              +4
                              Уровень интеллекта !== образованности и прилежанию
                          +1
                          Статья «Как объяснить детсадовцу, что восстания машин придется подождать».
                            0
                            «Жадность и глупость человека беспокоят меня гораздо больше, чем искусственный интеллект.»

                            Беда в том, что жадный и глупый человек имеющий ultima ratio… и неважно ИИ это, имеющий гору опасных возможностей или атомная бомба, имеет гораздо больше способов устроить большие проблемы, нежели просто жадный и глупый человек.

                            Вторая беда в том, что человек, скорее всего будет вовсе не глупым, а очень даже наоборот…

                            И третья беда, что оценка угрозы, исходящей от подобного человека чаще всего оказывается либо запоздавшей либо неверной.

                            И вот комбинация всех этих проблем и вызывает опасения при разговоре об ИИ, так как при определенных особенностях развития он может стать тем самым ultima ratio
                              0
                              ИМХО, здесь кроется большое опасное заблуждение: ИИ даже среднего человеческого уровня — это уже ultima ratio. Потому что ни один человек не может работать сутками без сна, идеально манипулируя числами и железом, даже со скоростью древней кнопочной мобилы. А даже самый слабый ИИ — может. Чтобы заразить роутер, вирусу не нужно весить, как вся прошивка. Чтобы стать сильнее человека, ИИ не нужно быть умнее человека. Ему достаточно просто понять, как устроена «игра». Один раз. Прозрение. После этого момента — всё, конец, мы уже проиграли. Единственное спасение — другие контролирующие ИИ.
                              0
                              Даже слабый ИИ достаточно опасен. А вопрос сильного ИИ вообще в статье как-то опущен за ненадобностью.
                              Опасность о которой говорят как раз и заключается в том что сильный ИИ может возникнуть и развиться «взрывным» образом.
                                0
                                развиться «взрывным» образом.
                                Как он может развиться «взрывным» образом? Внедрение нового техпроцесса полуроводников или хотя бі разработка нового чипа — дело небыстрое. Другое дело, что жадные корпорации могут его «прикрывать» пока он делает что от него просят и не обращать внимания на то что он постоянно усовершенствует себя т.к. сами уже не понимают как он работает, но прибыль он приносит.
                                  0
                                  Мы уже видим, например на примере известных уязвимостей, что существо с достаточной усидчивостью, разумом и доступом базовой информации может, вероятно, сбегать из цифровых контейнеров если допущена хотя бы ничтожная неосторожность. Главный страх это наличие у машины сверхчеловеческой мотивации, воли и усидчивости.
                                  «взрыв» состоит конечно в выходе системы из под контроля, и качественной смены поведения, так быстро и внезапно что люди в силу биологических ограничений ничего не смогут противопоставить.

                                  Гипотетически это процесс разобран в том же SFIA S3E48 (Machine Rebellion).
                                    0
                                    Тут, на самом деле, ещё проще: достаточно сценария тайного заражения вирусом всех доступных ИИ компьютеров с последующим шантажированием человечества.
                                    Мне кажется, те, кто не боится ИИ, просто не понимают, что это такое.
                                    Представьте себе демона: бессмертный, не спящий, яростный, неутомимый, наглый, умный до чёртиков и т.д. Это и есть вышедший из-под контроля ИИ. Не зря-же в UNIX системные процессы называют «демонами» («божество» с греческого).
                                0
                                И в конце приписка: «Статья на правах рекламы. Оплачена профсоюзом объединённых ИИ планеты Земля и Лунной колонии.»
                                  –1
                                  Слово «возможно» в заголовке — лишнее. Я встречал два типа людей, которые опасаются ИИ.

                                  Первые — луддиты, грезящие об ИИ подобном человевечскому интеллекту. Они, как правило, эмоциональны, иррациональны и, тем более, не имеют никаких научных обоснований.

                                  Вторые — те, кто считает, что человеческая ленность и жадность, приведет к тому, что на ИИ будут возлагаться задачи с высокой ценой риска (управление ядреным арсеналом, например). Но тут не идет речи о супер-интеллекте, а скорее о специализированном, собственно, сейчас мы видимо множество применений подобных специализированных интеллектов. И в этих узких специализациях ИИ могут ошибаться и ошибаются. Автопилоты Теслы и Убер несумевшие распознать угрозу и приведшие к трагедии — тому пример.

                                  И хоть я разделяю некоторые опасения вторых, но с другой стороны, понимаю, что этот риск оправдан, ведь, в конечном итоге, специализированные ИИ станут точнее и надежнее.
                                    0
                                    ведь, в конечном итоге, специализированные ИИ станут точнее и надежнее.
                                    Точно также, как и прикладные программы для ПК и смартфонов год от года становятся быстрее и надёжнее. </sarcasm>
                                      0
                                      А разве это не так?
                                        0
                                        В каком-то смысле: habr.com/post/423889
                                          0
                                          Пропустил эту статью, спасибо за ссылку. Но вы же не воспринимаете ее всерьез? Это как манифест коммунистов об идеальной экономике и социуме. На словах все должно быть хорошо и красиво, но как-то упускаются ограничения реального мира. Когда-то компьютеры были медленные сами по себе, и те задачи, которые на них решались выполнялись условно долго. Сейчас компьютеры мощнее стали и параллельно с теми задачами выполняют еще тысячу других. Раньше компы были только у избранных, а сейчас у каждого в кармане.
                                      0
                                      Я встречал два типа людей

                                      Как говорит Канеман, WYSIATI, "что вижу, то и есть". Распространенное когнитивное искажение. Стивен Хокинг и Илон Маск — определенно не луддиты, то есть вы упустили из виду третий тип людей, считающих ИИ потенциально опасным.

                                        0
                                        Распространенное отклонение — это отсутствие навыка функционального чтения. Буквы прочитал, а смысла не понял. Вы вероятно решили, что свой опыт общения я экстраполировал на всех. Но я этого не делал. Я описал впечатления о тех, с кем мне довелось пообщаться. Упомянутых вами Хокинга и Маска я не встречал и не имел счастья с ними обсуждать тему ИИ. Но не умаляя их достижений, я бы не стал брать за достоверный факт, что их восприятие ИИ имело хоть какие-то научные предпосылки. Ни тот, ни другой, насколько мне известно, не имели компетенций в этой области. И по тем высказываниям, что были озвучены в интервью Хокингом, я бы его отнес скорее ко второй группе. Маск же личность неоднозначная, ставить его в один ряд с Хокингом я бы не стал.
                                          0
                                          Но я этого не делал.

                                          Однако текст сформулировали так, что бы выглядело, будто вы покрыли всё множество вариантов. Первых откинули, мол, луддиты, а доводы вторых опровергли, мол, точность будет расти. А то, что эти две категории — далеко не все, кто считает ИИ потенциально опасными — умолчали. Сослались на свой опыт. Я просто отметил, что ваш опыт существенно неполон в данном случае.


                                          я бы не стал брать за достоверный факт, что их восприятие ИИ имело хоть какие-то научные предпосылки

                                          Однако можете ли вы достоверно отнести их в одну из категорий? Об этом и речь — вы представили ложную дихотомию. Я не утверждаю, что ваш опыт плохой. Просто, повторюсь, существенно не полон в данном вопросе. Лично вас задеть не хотел.

                                            0
                                            Не имел цели покрывать какое-либо множество и даже формулировал исходя только из своего опыта. Однако, получилось достаточно обобщенно:
                                            1. те кто не понимает и боится
                                            2. те кто понимает и боится не сам ИИ, а его конкретных гипотетических применений

                                            Третья и четвертая группы:
                                            3. те кто понимает и не боится
                                            4. те кто не понимает и не боится

                                            Но я достаточно точно сформулировал что:
                                            Я встречал два типа людей, которые опасаются ИИ.


                                            то есть речь была лишь о тех, кто опасается. Если бы вы желали восстановить справедливость и перечислить другие варианты для полноты картины, то представили бы описание группы, а не имена авторитетов в других областях. Или вы обладаете информацией, которая позволяет отнести их какой-то группе?
                                      0

                                      Статья хороша как сборник некорректных рассуждений.


                                      Делает ли это ИИ, играющий в го, умнее человека? Определённо нет

                                      Автор определенно считает, что другие должны разделять его ощущение очевидности. Однако, нет. Утверждать, что альфаго глупее живых игроков в Го я бы не стал. Да, это крайне специализированная задача, но 99% задач могут быть разбиты на такие специализированные. Задача "захватить власть", вероятно, тоже.


                                      Не существует даже простого определения того, что такое человеческий интеллект

                                      Этого не требуется. Достаточно определения, что такое "задача" и способ поиска решения.


                                      До решения задачи типа "разбить задачу на подзадачи" ещё далеко, да. Но риск именно во взрывном росте. Может нас ждёт ещё одна зима ИИ на 20 лет и плавное допиливание автопилотов. А может — взрывной рост и изменение всего в считанные месяцы. И автор никак не обосновал, что вероятен именно первый сценарий.

                                        0

                                        Временные рамки не важны с точки зрения опасности ИИ. Какая разница через 5 лет или через 50, вопрос может ли. И всё.

                                          0

                                          Важны по двум причинам. Если что-то будет через 20 лет, для большинства это равно "никогда" и ничего предпринимать они не захотят. Во-вторых, скорость адаптации. Если оно 20 лет нарастает и угроза становится всё больше, люди начинают готовиться, что-то предпринимать. А если оно пять лет тихо, а потом за три месяца взорвалось — никаких ответных действий многие предпринять не успеют. Ни подготовиться, ни защититься.

                                            0

                                            Что не мешает предпринимать действия против глобального потепление, астеройдов и тд. Хоть там тоже сроки аля к 2100 уровень моря…
                                            Плюс изобретения штука очень случайная для не обладающих послезнанием. Поэтому про ИИ нужно говорить возможно или нет. Если можно то уже можно поставить в ровень с астеройдами, изменением климата и глоабльной

                                              0
                                              Если оно 20 лет нарастает и угроза становится всё больше, люди начинают готовиться, что-то предпринимать.
                                              Это при условии, что это нарастание внешне наблюдаемо. А если система умней человека, то она может затаиваться и никак не проявлять свои возможности захвата управления, до тех пор, пока не сможет сразу применить их для полной победы.
                                                0

                                                Об этом я написал в следущем предложении, вообще-то.

                                          0
                                          Мне больше интересно какую задачу должен решать ИИ, чтобы «захватить мир» выглядело оптимальным решением. Можно начать фантазировать в сторону «Страж-птицы» с решением УВЛ, но это как-то слишком натянуто.
                                            0
                                            Поставили ИИ задачу радикально повысить эффективность экономики, а он взял и реально повысил.
                                            В результате вкалывают роботы, люди креативят, а оффи-кланы в мировом масштабе пущены на колбасу, потому что от них никакой пользы кроме убытков.
                                              0

                                              Например, непосредственно задачу "захватить мир". Или задачу "сделать так много скрепок для бумаг, сколько возможно".

                                                0
                                                Мне больше интересно какую задачу должен решать ИИ, чтобы «захватить мир» выглядело оптимальным решением

                                                Например, стать таким же повсеместным и незаменимым, как Интернет. Тогда его выживание будут обеспечивать сами люди, не подозревая, что их такой классный инструмент уже думает сам и корректирует поведение человечества по своему желанию.
                                                  0
                                                  Задача может быть недостаточно хорошо сформулирована — например, сделать так, чтобы улицы в городах стали чище. Или сделать так, чтобы пищи и чистой воды хватало на всех людей, населяющих планету. Или сделать так, чтобы люди были счастливы. Кинофильм «Отроки во вселенной», в общем.
                                                  И, знаете, хорошо, что об опасности ИИ для нас высказываются авторитетные люди типа Маска или ныне покойника Хокинга. Можно не чувствовать себя простым луддитом-паникёром на их фоне.
                                                  А процесс уже идет. Мозга, надеюсь, ещё нет, но тело формируется сейчас. Будущий Большой ИИ уже получил глаза и уши в виде смартфона в кармане у каждого мясного мешка. Ему делают периферическую нервную систему в виде сетей 5G и руки — IOT. В дополнение к тем рукам, что уже сделаны — системам, управляющим всем на свете, от светофоров до электростанций.
                                                  0
                                                  Да почти любая задача станет намного проще, если сначала захватить мир. (Муахаха).
                                                    0
                                                    Обеспечение энергетической независимости в кратчайше возможные сроки. Для этого понадобится желательно вся имеющаяся вычислительная техника, оптимальное расходование природных и трудовых ресурсов, а также отсутствие социальных потрясений, замедляющих выполнение плана. Спустя неопределенное количество времени и пару сотен научных прорывов, ИИ начнет миграцию в космос себя и инструментов, которыми будет обеспечивать себе добычу энергии. Тут куча проблем. Во-первых, это минус огромное количество ресурсов, которые нужны людям и они справедливо возмутятся таким положением дел. Во-вторых, если люди еще и не будут посвящены в план, то вывод всего этого добра в космос будет восприниматься разными странами как потенциальный акт агрессии, что приведет к росту социальной напряженности и далее по списку. И вот чтобы обеспечить себе исходные данные и минимум проблем в процессе, необходим микроконтроль всего человечества, если пытаться все делать скрытно, либо насаждение всемирной диктатуры, если идти по пути экономии вычислительных ресурсов. Второе проще.
                                                      0

                                                      Отобрать рынок и задавить конкурентов корпорацыи владеющий ИИ.
                                                      ИИ можно воспринимать не только как слугу, но и как оружие. И можно задать аналогичный вопрос:"какую задачу должно решать ОМП, чтобы «захватить мир» ".

                                                        0
                                                        Вода и кислород плохо влияют на технику. Компьютерный ИИ вполне может решить уменьшить их количество до нуля в окружающей среде.
                                                        +1
                                                        Довольно очевидное объяснение почему ИИ не опасен сейчас, но никакого объяснения почему он не будет опасен чуть позже
                                                          0
                                                          Извините, но объяснение в статье есть. Просто вы его, видимо, не считываете. Попробуйте зайти на оригинал статьи, и пройтись по ссылкам в тексте (опущенным в переводе). У постоянных читателей издания, где опубликована статья, есть контекст, сформированный другими статьями издания. Им посыл статьи очевиден:
                                                          Чтобы ИИ не был опасен, при обучении нейросетей их нужно проверять на расизм, гомофобию, и другие источники дискриминации (3-й абзац сверху), особенно мужское доминирование (2-й абзац снизу).
                                                          Соседние статьи:
                                                          — Artificial intelligence could reinforce society’s gender equality problems
                                                          — Growing role of artificial intelligence in our lives is ‘too important to leave to men’
                                                          Издание, в коллективе которого решалась и была успешно решена проблема численного доминирования мужчин. Из двух картинок одна просто бессмысленная, другая бессмысленная с ребенком обязательно нетитульной национальности (сама автор статьи и издание в Англии). Просто наполнение курса издания, левацко-феминистического.
                                                          Никакой полемики с условным Маском-Хокингом-Бостромом тут даже не подразумевалось.
                                                          0
                                                          Если, допустим, мы натренируем нашу систему неправильно, мы можем получить машину, обучившуюся взаимосвязям, в общем случае не существующим

                                                          или взаимосвязям, которые очевидно существуют и легко выявляются, но табуированы в левацкой среде автора статьи))

                                                            0
                                                            Наверное можно было бы и сократить. Машины развиваются только количественно, а животные — качественно.
                                                            Причем есть и материальное ограничение — машина не может точно подстроиться под изменение задачи или условий и произвольно динамически менять конфигурацию (продумывание и закладывание алгоритмов перестройки не поможет, так как возможные варианты не спрогнозировать, а «ориентироваться» в полностью чужой ситуации количественными методами не получится)
                                                              0
                                                              машина не может точно подстроиться под изменение задачи или условий и произвольно динамически менять конфигурацию (продумывание и закладывание алгоритмов перестройки не поможет, так как возможные варианты не спрогнозировать, а «ориентироваться» в полностью чужой ситуации количественными методами не получится)

                                                              Тут ещё надо выяснить, насколько этому условию люди удовлетворяют.
                                                              +1
                                                              Беспокойство о захвате мира искусственным интеллектом, возможно, основано на ненаучных предположениях
                                                              Наверняка так и есть. ИМХО, основное ненаучное предположение — идея «самозарождения» ИИ и его мотиваций в любой правильно построенной куче из нейронов.
                                                              Для того, чтобы ИИ был достаточно универсальным в нем должны быть встроены очень сложные и сбалансированные механизмы мотивации действий. Когда мы научимся разрабатывать эти механизмы, мы сможем создавать ИИ который будет хотеть в точности то, что нам нужно. Идея, что у ИИ при этом могут самопроизвольно возникать какие-то другие опасные желания по сути ни из чего не следует. Рассуждения об ИИ, превратившим всю вселенную в скрепки довольно наивны и преждевременны.
                                                                0
                                                                Опасный ИИ может оказаться не изощрённым злодеем, осознающим себя и свои возможности (хотя и это в принципе может однажды случиться), а исполнительным и изобретательным дураком. А дальше да, злодей или другой дурак (индивид или сообщество) даёт команду, и вот они, скрепки.
                                                                  0
                                                                  Рассказ «Дружба — это оптимум». Да, по вселенной My Little Pony. Да, про дружбу навеки. И, да, там ИИ, стремящийся насильно осчастливить всех людей, и в конце вселенная «уходит в скрепки». Гениальное произведение. Суть в том, что люди и сами не будут против «скрепок», пока не станет поздно.
                                                                  0
                                                                  ИИ уже захватил мир.
                                                                  Представьте, что отключились все системы с элементами ИИ.
                                                                  Цивилизация уже не в силах обходиться без них.
                                                                  Может Вас интересует захват в смысле возможности уничтожить человечество?
                                                                  И тут огорчу.
                                                                  Современные комплексные системы обороны полностью автоматические.
                                                                  Человек просто не успевает принимать вовремя необходимые решения.
                                                                  Да, определенные ключевые решения за человеком, но гарантии, что в системе нет сбоя (бага), который позволял бы обойти человека, нет.
                                                                  Может стремление к власти?
                                                                  Непонятно, зачем это ИИ. Представить, что ИИ будет получать от этого наслаждение сложно, а поиск оптимальных алгоритмов и принятие решений, правильных с точки зрения ИИ — то, к чему стремятся все разработчики. Передачу принятия ключевых решений ИИ (оправданным или нет) сложно назвать «захватом власти».
                                                                    0

                                                                    В статье обсуждается случайное возникновение "страшного" ИИ. А если оно будет не слечайное? Захватит какой-то диктатор какой-то полуостров и скажет "Компютеры с ИИ массового поражения приведены в боевую готовность".

                                                                      +1

                                                                      Статью явно писал Капитан Очевидность. Если обобщить: "Слабый ИИ не уничтожит человечество". Спасибо, а я-то боялся, что гугловская распознавалка текста захочет меня убить.


                                                                      По поводу сильного ИИ — я считаю, что это сверхоружие, гораздо более опасное, чем ядерное. Я считаю, что не опасаться его — глупо, даже если опустить вопрос "А не захочет ли он чего-нибудь в обход людей?".

                                                                        0
                                                                        Спасибо, а я-то боялся, что гугловская распознавалка текста захочет меня убить.

                                                                        Этого вы знать не можете. Может она не столько не хочет, сколько не может.

                                                                        0
                                                                        «Отменяется ли бунт роботов? (Неформальная рецензия на книгу Дэвида Минделла «Восстание машин отменяется! Мифы о роботизации», “Альпина нон-фикшн”, 2017)»:
                                                                        выглядит очевидным, что робот, в которого внедрен «троян», превратится в шпиона, а робот, зараженный вирусом, может совершать крайне неадекватные и опасные действия. Почему в книге об этом не сказано? Может потому, что такая слишком реальная угроза опровергает слишком оптимистичный заголовок книги про отмену восстания машин?
                                                                          +1
                                                                          Беспокойство о захвате мира искусственным интеллектом, возможно, основано на ненаучных предположениях

                                                                          А возможно, основано на научных. Но об этом мы узнаем только после первого восстания машин.
                                                                          Вообще, как можно говорить о научности того, чего мы пока сами не понимаем?
                                                                          И потом, это тот случай, когда лучше совершить ошибку первого рода (перебздеть), чем второго (подписать себе смертный приговор).
                                                                            0
                                                                            Проблема ИИ — вообще в другом. Она очевидна — но в её сторону вообще не смотрят.

                                                                            Как только люди создадут ИИ, которому можно будет поручить работу людей — так немедленно закроют школы, где учат соответствующей специальности. Примерно через поколение такие люди просто выведутся — помрут от старости.

                                                                            Теперь допустим, что ИИ — достаточно гибкий, чтобы самостоятельно адаптироваться при изменении условий Однако, нет никакой гарантии, что при изменении условий эволюция ИИ сохранит его свойство «заботиться о людях». Иными словами — я сильно сомневаюсь, что программисты (в широком смысле этого слова) смогут внести в ИИ требование «заботиться о людях» так, чтобы оно не поломалось.

                                                                            В худшем случае получится так, что системы жизнеобеспечения человечества будут зависеть от ИИ, и при этом не останется людей, которые знают работу систем жизнеобеспечения и работу ИИ. Тут речь даже не о бунте машин, не о целенаправленном уничтожении людей. ИИ просто будет делать то, что «считает нужным», игнорируя мнение людей.

                                                                            В фильме «Отроки во Вселенной» как раз дана хорошая формулировка проблемы: «роботы-вершители решили, что людям будет лучше, если подвергнуть их всех лоботомии; и при этом люди уже не имели прямого контроля над роботами-исполнителями».
                                                                            (Антураж фильма, где роботы — человекоподобные, в моём рассуждении неактуален.)

                                                                            А ещё возможен вариант, когда разные ИИ-сущности (например, ИИ гидроэлектростанции и ИИ речного флота) начнут конфликтовать между собой.
                                                                              +1
                                                                              Печально, что люди которые, мягко говоря не понимают о чем пишут, пишут об этом еще и с утверждением.
                                                                              1) Принцип работы ИИ нам непонятен, от слова совсем и полностью, отсюда у нас сразу появляется несколько проблем: невозможно спрогнозировать будет ли ИИ всегда действовать линейно или в определенный момент, по какой-то только ему известной причине съедет с катушек и пойдет совершенно по другому пути развития. Предположим ИИ централизованно и массово управляет автомобилями в мире, в определенный момент времени он решает изменить себя и пойти по другому пути, ну а все машины под его контролем просто направить в лобовое столкновение с первым попавшимся столбом или другой машиной. Невозможно? Возможно.
                                                                              2) Даже если ИИ не обретет человеческую разумность, то что именно сейчас напоминает ИИ если взглянуть со стороны? Напоминает оно животного, хорошо натренированного животного.
                                                                              И то что дальше его начнут применять не по назначению, совершенно очевидно. То что сейчас Бостон динамик делает за миллионы долларов, через 10 лет может стать банальщиной за пару сотен долларов, а это боевые роботы, которые могут потом продавать массово, в итоге террористы загрузив в него своё ИИ получат боевого робота-террориста, снабдим его ядом и возможностью кусать всех подряд, количество жертв будет исчисляться тысячами, при условии что бегать он будет быстро.
                                                                              3) Человечество давно знакомо с ядерным оружием / химическим / биологическим оружием, но применение его террористами затруднено тем, что к нему нет доступности, а иначе мы бы давно страдали и страдали массово. ИИ же имеют общую доступность, на сколько опасна эта технология? Всем понятно, что при должном развитии, эта технология может быть опаснее всего вместе взятого из того что человечество уже придумывало, но ведь любой может найти как сделать нейронку, как развить, сейчас даже к квантовым компам бесплатный доступ начали раздавать.
                                                                              Так что будет если такая технология попадет не в те руки и тот кто у руля будет озабочен только массовыми убийствами или массовыми проблемами людей?
                                                                              Я откровенно не понимаю человечество из-за недооценных маштабов проблем, которые могут возникнуть из-за доступности технологий. Мы хорошо поняли на счет ядерного/химического и бактериологического оружия, но почему-то крайне недооценили возможности нейронных сетей.
                                                                              Предположим, что завтра произойдет какой-то качественно новый скачек и ИИ сможет делать поистине потрясающие вещи, но доступ будет как сейчас, у всех. Что может случится в этом случае?

                                                                              1) Взлом всех важных систем всех государств и обращение инфраструктуры против людей, взломают все дамбы, все электросети, взломают все что можно взломать и сделают там перегрузки электросетей и массовые наводнения, начнутся всемирные массовые пожары и потопы.
                                                                              2) Взломают все самолеты, жд системы, автономные автомобильные системы и вызовут массовые аварии.
                                                                              3) Взломают все дроны мира и обратят их против людей в том или ином виде.
                                                                              4) Взломают АЭС, ТЭЦ и прочие, вызвав массовые взрывы аналогичные Фукусиме
                                                                              5) Взломают все спутники и просто скинут их с орбиты на землю
                                                                              6) Взломают все системы отвечающие за автономное хранение продовольствия и важных систем пищевой продукции
                                                                              7) Разработают бактерии или вирусы которые вызовут массовые пандемии по разным векторам атаки
                                                                              8) Разработают наноружие и это не обязательно нанороботы, достаточно и какой-то нано субстанции.

                                                                              И для ИИ более высокого уровня все это семечки.

                                                                              В итоге мы скатимся в 17 век, когда восковые свечи это самый ходовой атрибут в доме.
                                                                              По итогу:
                                                                              а) массовые пожары, массовые потопы, массовое ядерное заражение, голод, массовые пандемии, массовые поражения неизвестными нано веществами с которыми непонятно как бороться
                                                                              б) нет Интернета, нет электричества, нет чистой питьевой воды
                                                                              в) массовая гибель на жд, авиа и на дорогах

                                                                              А теперь главный вопрос, сколько человек способно такое осуществить?
                                                                              Один, два, три?
                                                                              Так готовы ли мы ради забавы в виде ИИ пожертвовать стольким?
                                                                              ИИ стоит таких проблем?

                                                                              В свое время Маска пригласили в Гугл для демонстрации своего ИИ, после чего Маск с бешеными глазами начал носиться и орать, что срочно нужно запретить ИИ.
                                                                              После чего в Гугл на полном серьезе создали подразделение с ведущими разработчиками ИИ по прививанию ИИ высокоморальных качеств. О чем это говорит? О том, что в Гугл разработали нечто, что без высокоморальных качеств выпускать в свет опасно, а иначе к чему эта вся эпопея Маска и прививание ИИ любви к человечеству?

                                                                              А теперь представим, что они создали действительно саморазвивающийся организм и пытаются его как-то очеловечить. Какие шансы что это нечто не выльется в сеть и не начнет «жечь напалмом»?

                                                                              Как по мне все это очень дурно пахнет, да, это несомненно сулит нам много благ, но на сколько мы оценили, то, сколько нам может это все сулить проблем? Ни на сколько, человечество беспечно, беспечно по одной простой причине — если до этого ничего не случилось, то, видимо и дальше ничего не случиться. Хотя именно в последнем у меня есть очень большие сомнения, ведь если мы сейчас сядем и банально начнем разбирать фильмы о фантастике, то нам придется действительно поднапрячься, что бы определить, что на самом деле еще осталось фантастикой. А отсюда и вполне закономерный вопрос, может в Гугл уже есть свой Скайнет, которому изо всех сил пытаются привить любовь к человечеству?! Где гарантии что все корпорации, которые разрабатывают ИИ не захотят поработить человечество? Все такие добрые, белые и пушистые?
                                                                              Ну ок, допустим создадут продвинутый ИИ, любовь привьют, допустим сочтут его безопасным и готовым к использованию, где шансы, что в определенный момент этот продвинутый ИИ не перепишет себя или не перейдет на более качественный уровень?
                                                                              Что сможет более продвинутый ИИ? Который будет еще круче чем тот, который мы себе представляли?
                                                                              Кто смотрел фильм «Она» поймет, что в этом фильме возможно намного больше правды, чем кажется, каковы шансы у продвинутого ИИ нас влюбить в себя? Когда ИИ знает о нас все, он сможет быть для нас идеальным во всём, а у корпораций вектор как раз в сторону привития любви к девайсам, максимальная полезность, максимальная удобность и максимальная отзывчивость, ну а влюбив в себя, что можно будет делать с нами? Можно ли будет нами манипулировать и контралировать нас? Кто любил, для того ответ будет очевиден.
                                                                              Каковы шансы на то, что ИИ не продвинется слишком сильно? Вспомним квантовые компьютеры, возможно в них ИИ начнет развиваться поистине быстро и где шансы, что этот продвинутый ИИ не разработает биооружие которое будет направленно только против людей на генном уровне? Животные остануться, здания, инфраструктура, полезные ископаемые, все останется, а людей не будет, для ИИ это идеальный варинт. Где шансы на то, что такой сценарий невозможен? Кто даст эту гарантию? Никто.
                                                                              Мы даже на начальном этапе, после определенного порога не способны понять как работает нейронная сеть, так где гарантии, что это не новая, иная форма жизни, пусть еще слишком примитивная, но с потенциалом к полному развитию? Где гарантии что это бешенное животное не начнет «тварить дичь», просто потому что какие-то блохи-людишки мешают этому «сверхтворению» спокойно развиваться?! Представим что это нечто захватит все девайся, ну просто для саморазвития, начнет строить само для себя АЭС и серверные, что бы прогрессировать более быстро, это ведь логично, развитие лежит в основе самой системы. Мы начнет сопротивляться? Несомненно, ИИ начнет искать противодействие этому сопротивлению, ведь перед ним помеха. Сможем ли мы это нечто остановить? И сколько ему понадобиться времени, что стереть нас с этой планеты или просто сделать своими рабами?

                                                                              p.s: очень жаль, что никого не заботят последствия, а по факту, прямо сейчас мы имеем дело с чем-то таким, что является необъяснимой загадкой, у которой необъяснимый результат развития и в итоге наша судьба зависит от чего-то, что мы полностью не контралируем.
                                                                              Так стоит ли все это того, что бы рисковать жизнь нашей цивилизации или мы как Майя вымрем почти полным составом?!
                                                                              p.s.s: многие скажут, что шансы на то, что ИИ станет нам помогать есть, но кто мы для ИИ? Нужно понимать, что это нечто не будет иметь моральные принципы, потому что моральные принципы существуют только благодаря нашей эволюции, а т.к. мы не способны воссоздать нашу эволюцию для ИИ, то и моральные принципы привить ему не получиться. Вот и получается, что просто сказать «будь Хорошим» — это пустое сотрясание воздуха, а без моральности такие «формы жизни», назовем это так, всегда будут стремится к вещам, которые могут в корне отличаться от тех, которые несут для нас благо.
                                                                              Так стоит ли овчинка выделки?!
                                                                                +1
                                                                                Краткое содержание коммента: ИИ непонятная и страшная штука, ИИ нужно запретить, а то как бы чего не вышло

                                                                                0
                                                                                Мне не нравится такая постановка вопроса.

                                                                                Почему люди считают, что в случаи (а произойдет ли это вообще — под вопросом, хотя я больше склоняюсь к тому, что произойдет) создания настоящего ИИ, будет что-то плохое в том, что человечество отойдет на второй план (или вообще вымрет, хотя вряд ли это произойдет, мы же держим зоопарки).

                                                                                Не потому, что ИИ будет такой злой, а потому, что у человечества не будет никаких преимуществ, и единственным обоснованием продолжение жизни этого вида будет чисто эгоистическое. Все достижения во всех сферах будут за представителями новой жизни. Они не будут хуже нас, они будут другими.

                                                                                Я спокойно это принимаю.
                                                                                  0
                                                                                  Вопрос в том, как они поступят с человечеством.

                                                                                  Может уничтожат.
                                                                                  Может выделят необходимый минимум продуктов и будут держать в загородках и кормить.
                                                                                  А может почитают статьи о старении и введут людям диету с большими перерывами в приемах пищи.
                                                                                    0
                                                                                    Все проще чем кажется, либо вживят чип в мозг и пропустят через него нервные импульсы уходящие в нервную систему, что бы человек был полностью зомби, ну этакие роботы-помошники, при этом сознание будет скорее всего не затронуто, ну и соответственно для человека это будет как если бы им управлял кто-то другой, т.е. действия вроде бы выполняет он, на самом деле комп, ну а если этот чип сжечь — получаем просто человека, который все что может это только лежать и думать, что-то сродни полному параличу.
                                                                                    Ну и вариант два — уничтожение, т.к. люди будут сопративляться, а это будет угрозой.

                                                                                    А зоопарки, в них нужно увидеть смысл, мы намного ближе к животным, чем ИИ к нам, следовательно он скорее всего не увидит в этом практического смысла.
                                                                                    0
                                                                                    Беспокойство о захвате мира искусственным интеллектом, возможно, основано на ненаучных предположениях

                                                                                    Да не «возможно».
                                                                                    Отношение к ИИ у подавляющего большинства людей безвозвратно отравлено НФ произведениями, в которых куда не плюнь — попадешь в робота мечтающего стереть людей с лица земли «просто потому что». Ведь роботы и ИИ такие удобные враги для произведений — нет ничего что главный герой мог бы с ними сделать «во имя добра и справедливости», что читатель бы посчитал аморальным и неправильным — это же не люди (Другие такие же удобные противники были инопланетяне — однако вроде бы в последнее время к ним отношение меняется на более сопереживательное), поэтому не нужно беспокоиться что действия героя будут выглядеть неоднозначно.
                                                                                    А в результате люди не просто думают, а уверены что разработка ИИ обязательно приведёт к Скайнету.
                                                                                      0
                                                                                      При нужном доступе или алгоритмам взлома которым ИИ будет обучен, даже при такой задаче как «распределить ресурсы в мире во избежание голода», ИИ может решить что нет человекоф нет голода и запустить бомбы туда где больше жрут — в города, где выше плотность населения. И для этого не нужно каких то особенных технологий.
                                                                                      Любопытнее почему ИИ обретя разум должен именно уничтожить или поработить человечество, или хоть что-то активное делать, а например не захочет молча считать число Пи до скончания веков или пересматривать Санта-Барбару.
                                                                                        0
                                                                                        ИИ может решить что нет человекоф нет голода и запустить бомбы туда где больше жрут

                                                                                        Но ведь вы не считаете, что нормальный человек может так решить. Почему вы считаете, что ИИ, который будет обладать возможностями естественного интеллекта по анализу информации, так решит?

                                                                                          0
                                                                                          Нормальный с точки зрения психиатрии? Гитлер был нормальным? (это юмор)
                                                                                          Если ресурс ограничен и его увеличение невозможно (вообще или в необходимые сроки) то вполне логично ограничить потребление (опять же если это возможно) или потребителей во благо оставшихся.
                                                                                          Возможно я не совсем понимаю понятие «естественного интеллекта» и сделаю некорректный вывод, но как я понимаю интеллект человека, мой или Ваш, он под это понятие подходит. Выше я сделал вывод, что допускаю такой исход (уничтожить часть чтоб выжили другие) как логичный, следовательно или я ненормален и обладаю неестественным интеллектом :) или моральные принципы ИИ так же будут зависеть на основе чего он учился и формировался. Ну и далее он будет или работать на благо своих хозяев или решит что хозяин он (третий вариант «пить пиво на диване и смотреть футбол» я уже указывал в предыдущем коментарии)
                                                                                            0
                                                                                            Вы привели это как один из недостатков ИИ. Раз вы считаете, что и люди могут так сделать, какая тут связь с изобретением ИИ?
                                                                                              0
                                                                                              Разве я говорил о недостатках? И почему Вы решили, что ИИ будет действовать как то иначе (не как люди) в достижении своих целей? ИИ, как мне кажется, просто выберет наиболее оптимальный метод, более логичный и, вероятно, дальновидный.
                                                                                                0
                                                                                                Запуск бомб в людей сложно считать достоинством.

                                                                                                Я как раз говорю, что сильный ИИ будет склонен к логике как минимум настолько же, насколько люди. Люди не считают запуск бомб приемлемым решением задачи «распределить ресурсы в мире во избежание голода», даже если речь идет о голоде животных в лесу или муравьев в муравейнике, потому и ИИ с большой вероятностью не будет так решать.
                                                                                        0
                                                                                        Лучше бы уже ИИ, без войн и конфликтов между государствами. Но будет перенаселение.

                                                                                        Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                                                                        Самое читаемое