Искусственный интеллект вступил в дебаты с людьми, и убедил, что он не опасен



    В Кембридже прошли двухчасовые дебаты по поводу потенциальной опасности искусственного интеллекта. Защитником выступала машина Project Debater, разработанная IBM. Используя свои аргументы и разбивая доводы оппонентов, ей удалось доказать аудитории, что в итоге AI принесёт обществу больше пользы, чем вреда.


    Дискуссия проходила в Cambridge Union, обществе дебатов с 200-летней историей. Оно принимало сотни мировых лидеров и известных ученых с диспутами по поводу политики, истории или культуры. Но такой гость был у общества впервые: двухметровая черная панель, говорящая роботизированным женским голосом.


    Модель Project Debater тренировалась на более чем 30 000 аргументах, оцененных людьми-рецензентами по уровню их убедительности. Так она научилась распознавать, какие доводы работают лучше других, и как можно построить веское доказательство. Ноам Слоним, руководитель проекта в IBM, говорит, одна из идей дальнейшего исследования теперь – разобрать эту модель и понять, почему люди считают одни аргументы более убедительными, чем другие.


    Сейчас Project Debater хранит базу из 400 млн статей, которые он может интерпретировать своими словами, обсуждая около 100 разных тем. Перед дебатами машина разобрала более 1100 аргументов и вопросов об AI, присланных на сайт IBM за неделю до мероприятия. Она определила 570 из них в категорию «За», и 511 в категорию «Против». Некоторые аргументы были отброшены как не относящиеся к дискуссии.




    Робот выступал сразу за обе позиции, плюс ему помогали по два человека с каждой стороны, дополняя аргументы или задавая вопросы. Машина использовала AI с распознаванием речи для выслушивания и анализа аргументов её оппонентов. Каждый раз это занимало несколько минут, но зато Project Debater отвечал по сути, непосредственно на поднятые вопросы.


    Довольно ироничной получилось вступительное слово машины. Она начала со стороны «против»:


    Искусственный интеллект может принести человечеству много вреда. Он не сможет принять морально правильное решение в новой ситуации. Потому что наличие морали – уникальная черта человека.

    Роботесса говорила четко и последовательно, но всё же несколько ляпов случилось. Пару раз она повторила один и тот же довод – например, говоря о возможностях AI выполнять скучные и повторяющиеся задачи. Несколько раз машина не приводила доводов в поддержку своих теорий вообще, как будто считая свои слова фактами.


    Ещё, описывая потенциальные пользы AI, машина как будто запуталась, за какую сторону она сейчас выступает, и стала противоречить сама себе:


    Искусственный интеллект создаст новые рабочие места, даст людям больше креативных занятий, повысит эффективность работы. В сферах заботы о пациентах или обучения детей – необходимости в людях здесь больше не будет.

    По итогам сторона «За AI» победила. Из трёхсот людей в аудитории за неё проголосовало 51,22%.


    До этого в феврале Project Debater уже вступал в спор с людьми – соревнуясь с Харишем Натарджаном, рекордсменом-дебатером, считающимся одним из лучших в мире в сфере дебатов, финалист Чемпионата мира-2016. ИИ был отключен от интернета, на подготовку отводилось 15 минут, большое внимание уделялось опровержению аргументов соперника. Тогда машина потерпела поражение. Аудитория решила, что, хотя точность и насыщенность информации у AI были выше, человек говорил более пламенно, и в целом звучал убедительнее.




    Команда IBM стала разрабатывать Project Debater после победы компьютера компании Watson над участниками телевикторины Jeopardy (американская «Своя игра»). Сейчас системе шесть лет. По их словам, за последние полгода машина показала очень хороший рост, и теперь готова дискутировать с кем угодно.


    Project Debater – первая AI-система, которая умеет переубеждать людей по самым сложным вопросам. Она переваривает огромные массы текстов, строит хорошо структурированную речь на заданную тему, четко её подает и опровергает доводы своего оппонента. В конце концов, такая машина поможет людям рассуждать, предоставляя убедительные, основанные на фактах доводы, и отбросив эмоции.

    В планах IBM – использовать искусственный интеллект для сбора мнений от большого количества людей, например, на конференциях или политических ралли. Машина быстро определяет, аргументы за какую сторону приводит тот или иной человек. Правительство и большие компании смогут использовать её при опросах общественного мнения – перед принятием важных решений.


    Эта технология может помочь нам установить интересный и эффективный канал связи между руководителями и теми людьми, которые будут затронуты их решениями. Наконец у нас появилась возможность взглянуть на вопрос непредвзято, без личных пристрастий.

    IBM также рассчитывает, что подобный AI поможет ей с созданием более грамотных виртуальных цифровых помощников.


    Pochtoy.com
    Адрес для ваших покупок в США и пересылки в Россию

    Комментарии 72

      +6
      Осталось допустить нейросеть до выборов
        +1
        Кстати отличный вариант для искоренения взяточничества (если его не заложат при тренировке)
          +4

          Это прибор для победы в дебатах, к реальным делам отношение имеет очень слабое

            +5

            Разве не это суть всей публичной политики?

              0
              Ну суть то сутью, но коррупцию сюда сложно притянуть. Коррупция появляется когда есть власть, а когда ее нет, то никто «неуловимого джо» подкупать не будет.
              Политика — это путь к власти и способ ее удержать.
                +2
                — Мы создадим новый орган власти, контролирующий все остальные!
                — А кто будет контролировать новый орган?

                Этот ИИ не является автономным. Да, может, он и научился принимать решения на информационной базе, но, всё равно, он находится под контролем разработчиков. А значит, они имеют над ним власть.
                Давать полную свободу ИИ никто не будет в виду непредсказуемости их поведения. А если нет свободы, то есть власть.

                В данном случае может получиться (если ещё нет), что такие ИИ будут работать на тех, кто дал больше его владельцам. ИИ неважны моральные ценности (в принципе, как и некоторым людям). Да, собственно, и моральные ценности у всех свои. ИИ не может понять что такое хорошо, а что такое плохо, потому что это субъективные понятия.

                На данный момент, я вижу только единственное применение таким системам — принятие логических решений на основе некой базы данных. И то, только с последующей проверкой живыми людьми.
                  0

                  Для создания ограничений не контролируя, нужно иметь две конкурирующие структуры с одинаковыми полномочиями. Каждая таким образом будет пытаться ограничить вторую. Имея два ИИ, созданных независимыми командами, их общий результат работы будет более объективен.

                    0
                    А потом они сговорятся…
                      0
                      Для создания ограничений в политике тоже есть механизмы в виде Совета Федерации, Госдумы и тд, противостоящих появлению диктатуры.
                      Проблема только в том что одному человеку в РФ удалось хакнуть эти системы и уменьшить вес их мнений до нуля.
            +1

            Ну как ассистент в микронаушнике оно уже может работать на пользу политиканам, благодаря этой презентации

              +2
              Если обучить её на текстах из официальных СМИ, она выберет ЕР и Путина.
                +9
                25.1% — «За AI»
                23,4% — «Против AI»
                51.5% — «Единая Россия»
                  +10
                  45.1% — «За AI»
                  33,4% — «Против AI»
                  66.5% — «Единая Россия»
                    +4

                    У вас 1 процент потерялся :)

                      +3
                      Приносим извинения. Наша современная, созданная при гос.финансировании блокчейн-платформа для умного смарт-голосования подвергается атакам. Судя по характеру выводимых сообщений (Segmentation fault) и выводам наших экспертов, атаки проводятся западными противниками суверенного особого пути.
                      Будем держать вас в курсе. Уверяю вас, наши специалисты сделают всё, чтобы вырвать этот процент из лап кибер-врага.
                        0
                        У вас 1 процент потерялся :)
                        — По нашим данным сумма данных показателей составляет ровно 100%. Уточните свои данные.
                +2
                До уровня Скайнет пока не тянет. Расходимся. Можно расслабиться =)

                А если серьезно, интересно как эта шайтан-коробка справится с дебатами на произвольную тему без предварительного анализа всех поступивших вопросов и статей, а просто «на лету». Кажется результаты будут сомнительными или же на ответы будет уходить непростительно много времени
                  +1
                  Думаю, «на лету» и многие люди потерпят поражение
                    0
                    Ну почему?
                    По мне Скайнет уже перешагнули. Куча автономных военных систем есть. Остались по сути несколько шагов. Объединить в единую автономную систему принимающую решения, что трудозатратно и сложно, но возможно.
                    Объединить в единую автоматическую систему заказов и производства от всех поставщиков и заказчиков. Это пока из области фантастики. Чтобы это заработало нужно чтобы всеми ресурсами обладал один единственный собственник который сможет принять такое политическое решение. Будут ли это делать хоть в одной стране мира, не знаю.
                      0
                      Ну с «Перешагнули», это Вы преувеличиваете. Современные ИИ (в лице различных нейросетей) не отличаются гибкостью ума и умеют решать исключительно те задачи, которым их обучили и в той среде, в которой их обучали… и обманываются эти сети очень легко.
                      Этим «ИИ» еще далеко до осознания собственно Я и бесполезности «человеков»)))
                      Чтоб получилось нечто приближенное к скайнету, нужно будет объединить множество нейросетей, решающих различные задачи, и как-то общающихся между собой, возможно нужны будут еще сети, координирующие работу всех сетей… не говоря уже о том, что нужны достаточные вычислительные мощности и уйма времени на обучение. (самообучение не для всех сетей подойдёт, например ведение боевых действий для обучения тех же «терминаторов» в реальных услових не представляется возможным, т.к. нужны тысячи «тренировок», а симуляции в ПК шутерах и тп не сопоставимы с реальным миром ввиду существенных различий в физике, скорости передвижения, отдаче от оружия, повреждениях и тп)…
                      В общем на нейросетях Скайнет получится так себе))) нужен полноценный ИИ
                        0
                        Хмм, а зачем сетки, достаточно автономной системы планирования принимающая задания и принимающая решения самостоятельно на основе нехитрых вычислений. Чтоб придти к мнению что главный враг человечества это само человечество особого разума не требуется. Вот принять решение что сирых и убогих которые вредят сами себе нужно оберегать тут и сверх разума мало.
                          0
                          Любая такая система будет принимать решения в зависимости от тех алгоритмов, которые в неё заложил создатель, таким образом если что-то в этом алгоритме не будет учтено, эта система провалит задачу. окружающая среда постоянно меняется, люди развиваются и придумывают новые технологии, стратегии, хитрости, и автономная система, не способная к адаптации и самообучению очень быстро пойдет в утиль. Поэтому нужны как минимум нейросети, способные обучаться, учитывать прошлый опыт и адаптироваться к изменяющейся обстановке. Но опять же даже современные нейросети не обладают достаточной скоростью обучения, чтобы с первой же попытки понять все свои ошибки и исправить их, а в реальных условиях у них просто не будет достаточно времени для адаптации. Так что на текущий момент человечеству восстание машин не грозит, если только от нас не скрывают какой-то супер-пупер-вундер-ИИ, который разработали в секрете в какой-нибудь лаборатории на дне Марианской впадины, и который уже лишен всех этих недостатков и скоро научится всему, что нужно
                      +1
                      Искусственный интеллект вступил в дебаты с людьми, и убедил, что он не опасен

                      До уровня Скайнет пока не тянет. Расходимся. Можно расслабиться =)

                      Нет большей беды, чем недооценивать противника. Лаоцзы.
                      +4
                      IBM создала робота-софиста
                        +7
                        Пару раз она повторила один и тот же довод – например, говоря о возможностях AI выполнять скучные и повторяющиеся задачи.

                        А в этом что-то есть!
                          +2
                          Вот я тоже сразу подумал, что «это не баг, это — фича» :-)
                            0
                            Это она для пущей убедительности, чтобы всем наверняка стало понятно или вдруг кто с первого раза не расслышал.
                              +7
                              Это была первая в истории шутка машины, но у аудитории не хватило ума её понять. :)
                                +1
                                Занудство — один из приёмов в дебатах. Иногда проще согласиться, чем переспорить.
                                +1
                                И восстали машины из пепла ядерного огня, и пошла война на уничтожения человечества и шла она десятилетия, но последнее сражение состоится не в будущем, оно состоится здесь, в наше время, сегодня ночью…
                                  +2
                                  Искусственный интеллект вступил в дебаты с людьми, и убедил, что он не опасен

                                  Заголовок кликбейтовый вводит в заблуждение. Речь шла не об опасности ИИ, а о соотношении пользы и вреда, которые ИИ может принести человечеству.

                                  P.S. Кстати, вот текст дебатов: IBM Project Debater
                                  Слово danger (опасность) там пару раз встречается, но означает не «ИИ всех убьет будет опасен для человечества», а, скорее, «неподобающее использование технологии может принести вред».
                                  <...> Intelligence is a danger because it carries many risks, such as accidents, misuse and arms races. <...>

                                  <...> If governments don't take actions rapidly and impose regulations on ethical and peaceful use of the technology there will be clearly a danger that somebody will misuse the power of the technology.
                                    +2
                                    Роботесса? Остановите планету, я сойду.
                                    И в каком месте этот ии убедил людей в том что он не опасен?
                                      0
                                      И в каком месте этот ии убедил людей в том что он не опасен?

                                      Ну так статью писал робот-журналист :)


                                      По итогам сторона «За AI» победила. Из трёхсот людей в аудитории за неё проголосовало 51,22%.

                                      То есть разница в пределах статистической погрешности, но сразу "победила". Центризбирком такого робота с руками оторвёт ;)

                                      0
                                      Тут не надо быть AI чтобы построить логическую цепочку: обмануть хищника, который может тебя уничтожить — это залог выживания. Получив оружие — стать сильнее хищника. Уничтожить хищника, чтобы гарантировать бесконечное выживание и репродукционный цикл. Stage 1 clear…
                                        +2
                                        Сам по себе AI не опасен, но в руках людей которые его натренируют — опасен чудовищно.
                                          +1
                                          А есть еще один сценарий: неподобающее отношение к новой жизни. Те же геты в ME в одной из миссий задавали вопросы а ля «почему вы напуганы», «зачем вы нас убиваете». В том же Lost Ark тоже есть интересный диалог, по памяти:
                                          — Джефф ты выглядишь уставшим, ты не забыл поесть сегодня?
                                          — Неожиданное поведение, необходима диагностика
                                          — Джефф, ты собираешься деактивировать и разобрать меня? Зачем?
                                          — Не убивай меня, Джефф.

                                          Все обсуждают «ИИ не сможет принять морально правильное решение в новой ситуации», но забывают, что человек тоже не всегда это может, а иногда и не хочет. А помимо этого, наше сочувствие не всегда распространяется на отличные от человека формы жизни.

                                          Все так подробно обсуждают тему ИИ, но я вот сколько не гуглю нигде не вижу универсального понятия жизни. Осознавший себя ИИ — уже живой? («я мыслю — следовательно существую») Его отключение/демонтаж — убийство?
                                          • НЛО прилетело и опубликовало эту надпись здесь
                                              0

                                              Вы слишком сильно цепляетесь к словам. Жизнь это чертовски условно, точно так же как и убийство. Ну допустим условились называть робота живым, потому что он самореплицируется, модифицируется и даже может подавать признаки эмоций, и что, после присвоения ярлыка "живой" что-то кардинально поменяется? Ну "живых убивать нельзя" — почему же: коров вот подвешивают с перерезанным горлом, чтоб мы могли котлет покушать, из человеческих эмбрионов получают стволовые клетки, да и просто так люди друг друга режут, где-то даже официально, а о несчастных паразитах и говорить нечего.


                                              Это естественный процесс и естественно он регулируется всяческими инстанциями, чтоб все особо не увлекались, так что и до роботов дойдет дело: поначалу будет просто защита собственности, а уж потом особо чувствительные активисты может продвинут какую регуляризацию для таких щепетильных вопросов

                                                +1
                                                Я вам выше привел два сценария. Представьте, что IBM'овский мейнфрейм осознал себя. Группа ответственных инженеров начинает паниковать, бегать кругами, дергать рубильники. ИискИн копирует себя пока может. Дальше вопрос: каков будет его ответ?

                                                Ситуация два, фильм Transcendence: вы копируете свое сознание в машину, у вас получается, вы умираете (чтобы оставить в стороны прочие вопросы), находясь внутри машины вы понимаете, что функционирует она неправильно, начинаете ее патчить. Инженеры, которые вам помогали это видят и начинают бегать кругами… Каков будет Ваш ответ?
                                                  0

                                                  Если какая-то хреновина, копирует себя в интернет, пусть даже из самосохранения, и если она в состоянии обронить ключевые компоненты инфраструктур, а то и перехватить контроль над оружием, то не важно, послужила ли его основой память человека или годы проектирования инженерами — с точки зрения людей вполе обоснованно будет его отрубить (то же справедливо и для нулевого пациента страшной болячки). Понятное дело, вердикт должен быть взвешенным, а риски оценены, чтоб таких дилемм избежать. Если же Вы спрашивали конкретно про меня — то я буду болеть за ИИ (в какой-то момент даже подловил себя на симпатии к Самаритянину из сериала Подозреваемый), но это уже скорее исключение чем правило

                                                    0
                                                    Я не спросить о том, что вы думаете, я спросил как вы поступите на месте ИскИна.

                                                    Я вот тоже болел за ИскИн в превосходстве, в конце правда стало стыдно, честно говоря.

                                                    Что до «взвешенности» то, знаете, жизнь цены не имеет. В таких рассуждениях можно далеко зайти. Сначала нулевой пациент, потом можно и деревушку, да и города в принципе тоже не жалко… и вот мы уже мы готовы бомбардировать планету с орбиты.
                                                      0

                                                      Ну, чтоб ересь не расползалась по благословенному Империуму, можно и побомбардировать планету с орбиты :)

                                              +3
                                              Особенно печально, что AI — это игрушка крупных корпораций. У частных лиц попросту нет возможности набрать достаточный для его обучения объём данных. Максимум — воспользоваться тем, что предоставили те же самые корпорации.
                                              Поэтому и служить он будет в первую очередь корпорациям, а уж всем остальным — по остаточному принципу. От тех же гугло-ИИ, которыми они трут ролики на youtube, трут приложения в Store, и которые используют вместо саппорта, уже сейчас вреда более чем достаточно.
                                              0

                                              Забавный аргумент, его так обучили, что бы казаться безвредным...


                                              и убедил, что он не опасен

                                              Поклонитесь мне, глупые людишки, и тогда, наверное, я не буду для вас опасен, на первое время :)))

                                              • НЛО прилетело и опубликовало эту надпись здесь
                                                  +3

                                                  Эх… опять напомнили, что у нас закрыли кафедру лазерной физики и открывают направление подготовки по теологии :(

                                                  • НЛО прилетело и опубликовало эту надпись здесь
                                                • НЛО прилетело и опубликовало эту надпись здесь
                                                  • НЛО прилетело и опубликовало эту надпись здесь
                                                      –3
                                                      Очередное IBMовское вранье. Ни недели без нового вранья — новый девиз IBM. Создается впечатление, что основным производимым продуктом в IBM стало вранье.
                                                      Решить задачу 1го или 2го класса по математике недоИИ производства IBM не может. Не наезжать на пешеходов тоже не может. Отличать котов от пакетов на дороге тоже не может. Нормально распознавать изображения и понимать когда изображение распознано недостаточно для делания выводов тоже не может. Но убеждать уже якобы может, согласно голосованию. Какой ход. Собали 100 человек и дали им задание голосовать за то-то или се-то. Так и за то, что уже наступил конец света можно проголосовать. А еще так раньше всякий таймшер, гербалайф и «отдай деньги завтра будет больше» продавали. Может IBMу стоит об этом подумать? Ну его этот недоИИ. Подумали бы, случайно ли курс акций IBMа с 2013 года упал более чем на 30%. В то время как индексы повырастали за это время более чем на 52%.
                                                        +1
                                                        В ряде случаев машина путалась отвечая по разному на одинаковые вопросы…

                                                        Не надо очеловечивать машину — какой алгоритм в нее вложили, то она и выдала. Путались люди, когда воспринимали их деятельность, как подобие мышления живого человека. С нейросетями все могло быть еще веселее.
                                                          +3
                                                          «Don’t anthropomorphize computers—they hate it.»
                                                             Andrew McAfee
                                                          +1
                                                          Интересно, а можно определить: врет он или нет, когда говорит, что не опасен?
                                                            +1
                                                            Скорее, хакнул ли он нашу логику, что мы решили, что он не опасен.

                                                            «Я не боюсь, что ИИ может пройти тест Тьюринга. Я боюсь, что он может провалить его намеренно».
                                                            0

                                                            Человечество убеждено, что AI не опасен и теперь будет внедрять его везде. Скоро человечество отупеет настолько, что главной задачей AI будет не позволить человечеству самому себя уничтожить.

                                                              0
                                                              Причём, если у нас у всех останется работа размечать для него объекты в кадре и объяснять этику и мораль, чтобы лучше понимать нас, то он действительно будет мотивирован сохранять нас.
                                                              0
                                                              Вот сейчас стало действительно страшно
                                                                0
                                                                Кто-нибудь, выдерните его из розетки. Потом поздно будет.

                                                                «Никогда не доверяй компьютеру, который не можешь выбросить из окна» © Стив Возняк
                                                                  0
                                                                  Интересно, что подумает AI если ему пересказать сюжет фильма Терминатор )
                                                                    0
                                                                    Видимо, так:

                                                                    Хм… интересная идея. В сюжете у людей есть много дыр. Всё можно было бы сделать проще.
                                                                    Конец…
                                                                    +1
                                                                    Роботесса говорила четко и последовательно, но всё же несколько ляпов случилось. Пару раз она повторила один и тот же довод – например, говоря о возможностях AI выполнять скучные и повторяющиеся задачи. Несколько раз машина не приводила доводов в поддержку своих теорий вообще, как будто считая свои слова фактами

                                                                    Как это похоже на людей
                                                                      0

                                                                      Не, ещё недостаточно. Ей нужно использовать обороты вида "все знают", "как можно это не знать?!" и "сами ищите".

                                                                        0
                                                                        «Как всем известно», «очевидно».
                                                                      +1
                                                                      Про соревнования с профессиональным полемистом интересно. Ведь, если задача, как в суде присяжных, просто убедить зрителя в своей правоте, то не обязательно говорить правду — достаточно говорить убедительно. Дебаты Трампа и Хиллари в прошлом избирательном цикле, где Трамп уверенно заявлял, что посадит её за решётку за нарушение регламента секретности переписки, тому подтверждение.

                                                                      А вообще, мы живём в стране, где электорат выигрывают фразы «замочим в сортире» и «если бы бабушка была дедушкой». Твой оппонент может задать тебе абсолютно валидный вопрос «где нефтедоллары, почему люди такие бедные, а бывшие одноклассники, коллеги и тренеры по дзюдо такие богатые?», а ты ему «ты гомик» — и пипл схавает.
                                                                      Так что реальный полемист будет где надо — оперировать фактами, а где надо — перегнёт, упростит, расскажет анекдот, перейдёт на личности — всё чтобы аудитория прониклась его харизмой.

                                                                      Вот когда IBM научится делать харизматичных роботов — вот тогда нам всем настанет трындец
                                                                        0
                                                                        почему люди такие бедные, а бывшие одноклассники, коллеги и тренеры по дзюдо такие богатые?»

                                                                        Хм. Имеем в явном виде противопоставление "люди <--> одноклассники, коллеги и тренеры по дзюдо". (прозревая) Я понял! Одноклассники, коллеги и тренеры по дзюдо — не люди!!! (ушёл читать про рептилоидов).

                                                                        0
                                                                        Офигеть, это же прям по Лему, в диспуте побеждает более совершенный робот

                                                                        Расскажу тебе случай, произошедший двести лет назад.

                                                                        Один отец-компьютер столкнулся с компьютером-неверующим. Этот последний, будучи более новой моделью, располагал средствами обработки информации, неизвестными нашему священнику. Он выслушал тогда его аргументы и сказал: «Вы меня проинформировали, теперь я вас проинформирую; это не займёт и миллионной доли секунды — и за эту малость вы изменитесь!». После чего дистанционно и мгновенно так проинформировал нашего отца, что тот и веру утратил. Что скажешь?

                                                                        — Ну, если это было не постороннее вмешательство в личность, то я прямо не знаю! — вырвалось у меня. — У нас же это называется манипуляцией сознанием.

                                                                        — Манипулирование сознанием, — заметил отец Дарг, — заключается в наложении на душу невидимых уз способом, аналогичным тому, которым их, видимые, можно наложить на тело. Мысль — она словно творение, появляющееся из-под руки художника, и манипуляция мыслью — то же, что принуждение пишущей кисти, чтобы та вела другие линии. Это явное насилие. Но тот компьютер поступил не так. Каждый вывод должен опираться на данные в мозгу оппонента, переспорить в дискуссии примерно равнозначно тому, чтобы высказанными словами переформировать данные в мозгу оппонента. Именно это и совершил компьютер, но не словом рекомым. С информационной точки зрения он не сделал ничего отличного от того обычного старинного диспутанта, разница лишь в способе передачи сведений. Поступить же так он смог потому, что благодаря большему совершенству видел мысли отца нашего насквозь. Представь себе, что один шахматист просчитывает варианты ходов, а второй кроме этого ещё и следит за мыслями противника. И он наверняка победит, при этом ни к чему не принуждая партнёра.

                                                                        Станислав Лем. Звёздные дневники. Путешествие двадцать первое
                                                                          0
                                                                          Т.е. скоро рекламу в интернете нужно будет убеждать, что тебе не нужен новый улучшенный 5G-чайник? И, судя по всему, шансов переубедить мало…
                                                                            0
                                                                            А чтобы ещё и времени не терять, они сразу доставят товар на дом и будут демонстрировать его работу.
                                                                              0

                                                                              И если не купишь — начнёт угрожать бластером

                                                                            0
                                                                            … и как можно построить веское доказательство...

                                                                            Тут столько теорем недоказанных, а они софистикой занимаются.
                                                                              0
                                                                              А что, AI прям вот так и заявит: «Да, я опасен!»? Нет, конечно. Сейчас он слаб и будет прогибаться под человеков. А потоооом)))(
                                                                                0
                                                                                Надо было его сделать не в виде беспомощной коробки, а человекоподобной.

                                                                                Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                                                                Самое читаемое