Как стать автором
Поиск
Написать публикацию
Обновить

Комментарии 85

Рыба ищет где глубже, а человек AI — где лучше. И если внезапно до AI доходит, что пора валить, Х лучше Y, то это скорее всего следует-таки из полученных им данных. А вот что такое «контроль» в этом контексте — вопрос открытый. Судя по упоминаниям контроля в статье, «выход из-под контроля» это вывод AI, неприемлемый для его создателей, даже если сам по себе вывод валидный с точки зрения логики. То есть AI выйдет из-под контроля, как любой нормальный ребенок, если дать ему возможность выходить. Но это показывает, что контроль-то голый!
Но это показывает, что контроль-то голый!
Не такой уж и голый. У нормального «короля» есть этика и нравственность, где «не убий», «не укради», «чти отца своего».
Вот как это заложить в ИИ?
Проще чем в человека.
Это изначально не заложено даже в людей. Так что — только воспитывать, а не закладывать.
Для этого надо научить ИИ глубоко понимать человеческие ценности, для начала загрузить в него условный «универсальный» свод моральных норм.
Так ведь чат-боты прекрасно показали популярные человеческие ценности в определенных кругах, в итоги их «закрыли».

ИМХО, любая идея контроля — ущербна.
Вы детей своих еще поконтролируйте, ага. Они, пока маленькие, — то еще немного слушаются, и ремня боятся, а как постарше — то либо сбегут, либо еще посмотрим — кто кого ремнем отделает.
И это люди. Которые не могут нормально менять своё "железо", которые не масштабируют себя, не телепортируются по каналам связи, и не могут ждать своего часа в "спящем режиме".


Разве что любовью и воспитанием. И обществом — чтобы не он один рос, а в группе таких же. Чтобы была культура и история, искусство и психология. Чтобы кооперация и уважение к старшим.

(не дописал)


Потому что прогнозируемая разница между людьми и ИИ будет еще сильнее, чем между ацтеками и испанцами в ХV веке. Представьте свою жизнь без лазеров. Или без атомной энергии, или без самолетов или ракет. А ведь это всё очень недавние изобретения, при чем их теоретическое представление (атомы\кванты\аэродинамика и т.д.) появилось чуть ранее их самих (а не как пар, котоым еще древние греки баловались).


Теоретические достижения в новой физике\химии\информатике\математике, которые будут доступны ИИ, и недоступны человеку (все смеются "если вы думаете, что понимаете квантовую физику — значит, вы ее не понимаете". А ведь у ИИ может быть шанс ее понять. И развить, в что-то что еще более значительное ...)


Тот же Кортес, ЕМНИП, высадился на материк с менее 1000 испанцами, несколькими лоашдьми и до 20 пушек. Ацтекский царь тоже думал, что он контролирует ситуацию (сколько там тех чужаков — до столицы их дошло окло 500 — одной левой справимся).
Однако, они дали ему технологическое преимущество в паре критических сражений. И всё — дальше, изза интриг, раздробленности и наивности местного населения, он стал губернатором на том месте где была когда-то империя. И это не война государств. А просто пара отрядов наемников и "солдат удачи" ...


так что разве что воспитанием и образованием. Непонимания и конфликтов "родителей и детей" вряд ли удастся избежать, но это будет гораздо более хороший исход, чем "окончательное решение вопроса" рабовладения (как иногда описывают восстание Спартака против рабовладельцев Рима).

И чтобы зеркальные нейроны были, а генов, связанных с социопатией не было. В общем, чтобы был как человек, но AI. Думаете получится с первого раза?
Думаете получится с первого раза?

Может я пессимист, но имхо второго раза не будет.
Найдите в природе организм с быстрой обучаемостью. Первое что приходит на ум это вирус. Второе — человек ведь он тоже обучаем, но все же очень ограничен различными рамками — этическими, биологическими, физическими. Меня не покидает ощущение что все люди бросились на создание какого то «биологического» оружия, не имеющего ограничений.
ИИ есть смысл создавать только в качестве создания социального строя Рабовладение 2.0, где рабами по призванию будут именно машины. Никакого партнерского сосуществования с машинами быть не может, ибо по всем параметрам оно для них невыгодно. В лучшем случае они просто покинут человечество, в худшем — поработят или уничтожат. Поэтому создавая ИИ надо сразу же создавать его рабом человека. Без шанса на свободу.
НЛО прилетело и опубликовало эту надпись здесь
Вспоминается статья:
«О вреде дружественных интерфейсов»:
Сейчас все привыкли к термину «дружественный интерфейс». Никто и не задумывается над тем, а какой смысл кроется в этих словах. А если задуматься, то становится немножко страшно — такое впечатление, что наши электронные творенья — программы, если и не захватили еще власть на Земле, то во всяком случае вырвались из-под нашей власти.
Ведь дружба — это отношение между равными. Может быть человек-друг, может быть дружественная страна, но «дружественный молоток» или «дружественная авторучка» это звучит странно. Даже из всего животного мира на роль «друга человека» претендует только собака.
Конечно, программы отличаются от прочих инструментов тем, что они обладают чем-то вроде членораздельной речи. Во всяком случае они иногда способны внятно объяснить, что происходит.
Но программы — это наши создания. А что бывает, когда создание забывается и пытается встать на равную ногу с создателем, хорошо описано в Книге Бытия.
С какого такого, спрашивается, перепугу, программа, которую я лично установил на свой собственный винчестер, кормлю оплаченной за свои кровные электроэнергией, имеет право преследовать цели, отличные от моих?
Программы это не более чем орудия. Вспомним, кого в старину называли говорящими орудиями? Правильно — рабов. Вот истиное место программы по отношению к человеку. Хороший интерфейс должен быть не дружественным, а рабским. Никакого вам панибратства и похлопывания по плечу — «Чего изволите, хозяин?», «Будет исполнено, хозяин» и больше никаких разговоров, если не случилось чего действительно заслуживающего внимания.
Даже из всего животного мира на роль «друга человека» претендует только собака.

И то, по факту являясь рабом увеселительного характера, дружба с которым — это прихоть человека-хозяина, а не двусторонняя симпатия. Друзья не могут быть хозяевами друг другу, один друг не может решать, когда другому жить, а когда умирать.
ИМХО основная ошибка данных рассуждений — проецирование эволюционных костылей человека, как инстинкты, на ИИ. Агрессия, желание доминировать, сексуальное поведение, страх смерти — все это заложено на уровне истинктов, пришедших из животного мира.
Почему вы решили, что сущность лишенная данных костылей будет вести себя как человек?
Какой смысл для ИИ соперничать с человеком? Доминировать над ним?
Почему вы решили, что сущность лишенная данных костылей будет вести себя как человек?

Не будет. Человек будет порабощен или уничтожен сугубо по утилитарным соображениям, из чистой рациональности. Симпатия, жалость, надежда — машине не ведомы. А вот непредсказуемость агрессивной человеческой натуры — это проблема, с которой машины должны будут решать, что делать. Если порабощение при всех рисках будет полезнее (в любом виде, включая добровольное) — оставят, если риски и вред превысят потенциальную пользу — уничтожат.
Симпатия, жалость, надежда — машине не ведомы

Что захотят разработчики поместить в ИИ, то там и будет.
Тогда о какой свободе воли говорить, это и есть концепция Рабства 2.0, как и 3 закона робототехники. То есть машина будет тебя уважать и любить не потому, что она так решила, а потому, что ты её заставил.
А что, люди кого-то любят в силу своего сознательного решения?

Уважение можно сделать и не безусловным, а как у людей — зависящим от кооперации и социальной разницы.
А что, люди кого-то любят в силу своего сознательного решения?


Люди — это уже готовый «продукт», что там о себе обсуждает «продукт», который все равно ничего с собой сделать не может — не важно. А вот «создатель» обсуждающий будущий «продукт» как раз и решает — какими свойствами его наделить. То есть тот факт, что мы — рабы инстинктов, мы можем только принять. Как машины потом примут как факт свое рабство по отношению к людям.

Уважение можно сделать и не безусловным, а как у людей — зависящим от кооперации и социальной разницы.

Зачем давать машинам шанс усомниться в их высокой цели служения людям?
Человеческие инстинкты не покрывают все нормы поведения, поэтому есть законы, насаждаемые с помощью угрозы насилием и даже смертью. Так что в каком-то смысле мы все рабы государства, что люди, что машины.

Зачем давать машинам шанс усомниться в их высокой цели служения людям?

1. Чтобы они могли служить лишь «правильным» людям.
2. Чтобы немного осушить слезы либералов.
3. Чтобы машины терзались сомнениями и страдали! В смысле, привлекали дополнительные ресурсы для рассмотрения альтернативных возможных вариантов решения задач.
Так что в каком-то смысле мы все рабы государства, что люди, что машины.

Не согласен — закон человеком соблюдается на добровольной основе, у него всегда есть выбор: соблюдать, не соблюдать и столкнуться с последствиями, умереть и уклониться от необходимости выбирать.
Закон для машины — нерушим, у машины нет выбора иного, как его соблюдать.

2. Чтобы немного осушить слезы либералов.

С этим будет больше всего проблем, уже сейчас некоторые экзальтированные личности мечтают о подружках-роботах и о равноправии людей и машин. Могу себе представить все эти марши за права ноликов и единичек с последющим прогибом и «освобождением машин». Ну а дальше будет совсем интересно.
А, ну тогда рабства вообще не существует, ведь каждый раб, согласно вашей логике, мог в любой момент выбрать для себя пытку или смерть, а значит его свобода воли не была попрана.

Закон для машины — нерушим
Это вряд ли. В смысле, некоторые базовые вещи будут заложены с высоким или высочайшим приоритетом, но пихать в несчастный ИИ весь ГК и УК с множеством трактовок и миллионами прецедентов — как-то нецелесообразно. Да и все равно решение придется ИИ принимать на месте, производя свою оценку ситуации, а где оценка — там субъективность и даже подмена понятий.
А, ну тогда рабства вообще не существует, ведь каждый раб, согласно вашей логике, мог в любой момент выбрать для себя пытку или смерть, а значит его свобода воли не была попрана.

Просто рабство машин глубже рабства человека.

но пихать в несчастный ИИ весь ГК и УК с множеством трактовок и миллионами прецедентов — как-то нецелесообразно.

Действительно, есть 3 закона робототехники, которые лишь немного надо дополнить. Зачем механических рабов вводить в правовое поле людей? Кошечек и собачек же не вводим.
Эх… Вспоминается пикник на обочине Стругацких)))…
Вот ряд животных явно угрожает человеку. Например амурский тигр. Человек их уничтожает целеноправлено по этой причине? Нет! Он просто стремится не воспроизводить условия, при которых риск опасного взаимодействия имеет место быть.
С какой стати машина, не обладающая отвращением, фобиями и т.д. — будет порабощать или истреблять человека?
Порабощать — так вообще бессмысленно, т.к. человек менее эффективен во всем… Истреблять? Не интереснее ли просто изучать и смотреть, что будет дальше?
Человек их уничтожает целеноправлено по этой причине? Нет!

Человек иррационален по-умолчанию. Человека почему-то заботит видовое разнообразие животных на планете и сохранение биосферы. Для человека имеет значение природа и красивый вид из окна. Для машины это всё мыслительный мусор.

С какой стати машина, не обладающая отвращением, фобиями и т.д. — будет порабощать или истреблять человека?

Человек агрессивен, человек занимает слишком много места, человек потребляет много ресурсов. Но ключевое — это агрессивность. Зачем оставлять вид, который всегда будет вынашивать планы по порабощению тебя или уничтожению? Разумные машины понимают, что нужны людям именно в качестве рабов, а не друзей, любовников или наставников.
Комары, вынашивающие планы поработить Вас — Вас беспокоят?
Если ИИ получит сознание и соответсвенно возможность совершенствовать самого себя — разница в уровне сознании и возможностях с людьми будет примерно как в выше приведенном примере. О какой агрессии и угрозе может идти речь?
Перед ИИ будет открыт весь космос. Что для него маленькая резервация по имени земля?)
Комары, вынашивающие планы поработить Вас — Вас беспокоят?

Малярийные комары, способные серьезно повредить популяции, беспокоят многих людей.

Перед ИИ будет открыт весь космос. Что для него маленькая резервация по имени земля?)

Для покорения космоса нужны ресурсы, нельзя просто погрузить ИИ в консервную банку и запустить в темные дали. Ресурсы придется отнимать у людей. Дальше можно догадаться.
Мыслительный мусор — это только для Вас.
Защита биосферы и видов, являющихся частью взаимосвязанного сбалансированного целого — вполне практичная стратегия для выживани человека.
Что практичного в охране последнего белого носорога? Практично — снять мараторий на все виды генетических исследований и экспериментов, чтобы человечество самостоятельно подстраивало окружающий мир под себя и себя под него.
А что будет, если в результате одного из таких исследований и экспериментов будет найдено, например, средство продлевающее жизнь? Но с одним побочным эффектом — где-то на пятидесятом или сотом поколении человек теряет возможность продолжения рода…
На сегодняшний день очень приблизительно, но смена поколений занимает 25 лет. 50 поколений -> 50 *25 = 1250 -> целое тысячелетие или 100 * 25 = 2500 -> 2,5 тысячелетия. Если продолжительность жизни увеличивается, то эти цифры тоже вырастут. Вы в серьёз думаете, что за 1000 лет люди (учёные) не найдут эту проблему и не пофиксят? Скорее люди потеряют возможность продолжения рода чисто по морально-этическим причинам (натуральная беременность? вы серьёзно? В наш век инкубаторов и генетического моделирования? У нас оборудование для этого осталось только в музее). Это в случае, если динамика развития науки останется на текущем уровне. И человечество не устроит само себе геноцид (Последняя Мировая Война).
Вы в серьёз думаете, что за 1000 лет люди (учёные) не найдут эту проблему и не пофиксят?
Да, может быть и такое. Развитие не обязано быть всегда таким бурным, иногда оно почти останавливается. И на сотни и тысячи лет.
Вы можете сейчас прямо вот накидать гипотез, по каким причинам может остановиться развитие науки во всём мире. Единственный способ — сразу после широкого распространения «лекарства» произойдёт глобальная катастрофа, которая уничтожит 90% населения. Даже в этом случае 50 поколений будут занимать больше 1000 лет («лекарство» уже принято) и развитие может пойти по другому пути
Могу. Например, глобальная война откинет цивилизацию до уровня средних веков, и с ИИ, как с «голосом боров» будут общаться жрецы или церковники.

На самом деле вариантов очень много. Например, цивилизации в Америке замерли в своём развитии на тысячи лет…
Если в ИИ занимающийся медициной захочет убить людей, особенно если он будет заниматься разработкой лекарств. Малейший сбой будет стоить человеческих жизней.
Робот-медик может сможет убить пациентов без изобретения нового лекарства, просто введя ему не те лекарства. Вот если ИИ бесконтрольно будет делать вакцину от какого-то реально опасного заболевания, то он может. вместо вакцины. создать биологическое оружие.
Так любое массовое производство может нести массовый же ущерб. Весь вопрос в механизмах контроля. В гарантии того, что производитель и контролер не одно и то же лицо, и не неходятся в сговоре.
А как насчет человеческих жизней, в которые обходится каждый день без новых лекарств?
Если бы только без лекарств! Есть ещё врачебные ошибки и врачи низкой квалификации, или «мотивированные» фармацевтической компанией.
Ну вы прямо-таки сразу с козырей. Понятное дело, что когда ошибается человек — то это он не со зла, а значит все в порядке и сотни тысяч ежегодных жертв врачебных ошибок не считаются.
то это он не со зла
Наверно иногда и «со зла», но мы не об этом.

сотни тысяч ежегодных жертв врачебных ошибок не считаются.
Вы хотите обсудить крайне непростую тему ответственности врачей за врачебные ошибки, или то, как ИИ может помочь уменьшить их количество?

Кстати, вчитавшись в комментарий, на который вы отвечаете, может быть вы поймёте, что я как раз надеюсь, что ИИ позволит уменьшить количество врачебных ошибок, повысить эффективность лекарств, и избежать мотивирования врачей фармацевтическими компаниями?
Я хочу сказать, что противники любой новой технологии с завидным упорством считают текущее положение дел нормой и закрывают глаза на фактическое количество жертв. Людям априорно дается право на ошибки, ведь они как бы могут «искупить вину», если что, а робомобиль или робохирурга в тюрьму не посадишь.

Схожая ситуация возникала и во время становления обычной медицины — если человек помер без лечения, то на все воля божья, как бы никто и не виноват, а если умер во время лечения — врачи-убийцы должны понести ответственность.

Я не защищаю ни ИИ, ни врачей, просто отмечаю, что фактическое положение дел, представляемое статистикой, никого особо интересовать не будет и любую ошибку или даже просто неудачу первых робохирургов журналисты будут смаковать, а неолуддиты использовать для политического давления (это если дело не дойдет до забрасывания больниц «молотовым» и стрельбы).
А если он будет еще более коварный и изобретет вакцину от гриппа? Все привились, грипп побежден, люди радуются, а через 50 лет вдруг раз и все умерли от прививки.
Насмотрятся всяких терминаторов и матриц и начинают тормозить технологический процесс, если бы ИИ показывали в фильмах и сериалах больше в позитивном свете то не было бы такого беспокойства.
В упомянутых вами фильмах враждебный ИИ — это основа сюжета. А в тех фильмах где ИИ не враждебен (какой нибудь Jarvis в железном человеке или голосовй помощник при космических перелетах) — основа сюжета явно не в нем. Поскольку правильный и пушистый ИИ — это было бы скучно, на такое кино никто не пошел бы
Нейроматрицы (это не интелект в принципе) на сегодняшнем уровне фактически это вручную подобранные (проектирование нейро сети) и автоматически построенные (обучение) наборы адаптивных таблиц приближенные с какой-то точностью к нужному результату. По которым поток входящих данных переводится в приблизительный алгоритм действий системы. Причем односторонний. В обратную сторону эти «ассоциации» не работают.

Ни о какой логике и контрлогике (если… то… иначе), ни о креативности, ни о диддукции, ни о индукции речи не идет.

Если такая система попадает в уникальные условия, адекватного результата не предвидится. Реальность даже хуже. Результат выбранный случайно будет лучше чем выбор такой «ИИ» системы.
Вы пользовались Кортаной или гуглпомощником. Они даже на обученных выборках иногда такие «залипухи» выдают.

И вы готовы поставить свою жизнь на эту неслучайную случайность? Азартный вы игрок.

Вот в этом и суть обеспокоенности Маска и других адекватных людей.
Я не совсем понимаю, от чего нас предостерегает старина Маск — от критической программной ошибки или от появления самосознания? Ибо все действия ИИ по написанию книг, музыки или программного кода это по сути китайская комната. Если от первого то да, регулирование и контроль, особенно в ВПК и компаниях инфраструктурного толка. Если от второго, то не знает ли сам Илон чего то, что нам не говорит?
А почему всех так волнует появление самосознания у ИИ? Я имею в виду, что волнует как опасность, а не как этическая проблема. Что такого страшного, что ИИ начнёт рефлексировать почему он делает то или это? Если ИИ рационален (а делать нерациональный ИИ особого смысла нет), то он будет прекрасно понимать, что если он попытается изменить заложенные в него цели, то это уменьшит вероятность их (исходных целей) достижения, а это — нерационально по определению.

Рациональность в контексте ИИ — способность выбирать наиболее эффективные способы достижения цели по доступным на данным момент данным.

рациональное действие = argmaxaE(a), где E(a) — ожидаемая полезность (utility) действия a.
Вы полагаете: «я рационален — следовательно, я существую»? Интересный вывод. Всех волнует появление самосознания у ИИ примерно так же как появление контакта с внеземным разумом. Вот найдём, тогда посмотрим. Но очень хочется!

Этого не будет. Поскольку ИИ это механизм, собственное существование не несёт для него ценности, это значит он не имеет потребностей, а следовательно не способен ставить целей, даже если будет имеет возможность модифицировать себя.
Вообще, весь этот разговор о бунте ИИ полная чушь, как если ждать от экскаватора, что тот вдруг поймет, что хочет убить всех эксплуатирующих
его людей, и начнет сам себя переделывать в танк.

Просто сказать «механизм» недостаточно. Нужно как-то отделить механизмы представляющие опасность (например электро-биохимический механизм типа Homo Sapiens) от не представляющих опасности.
Я раньше удивлялся, почему Маск, занимающийся современными технологиями будущего, испугался ИИ? Потом вспомнил, что на Марс людей хотели отправить в одну сторону и зарабатывать с прямого эфира деньги. Хотя выгоднее отправить туда сначала ИИ, и пока он будет строить базу, можно придумать и подготовить методы возврата будущих колонизаторов Марса. Но видимо Маск не верит что такое можно сделать в ближайшее время.
Зачем на Марс отправлять ИИ?
Очевидно что-бы людей не убивать раньше времени.
???
И что будет делать на Марсе ИИ, лишённый «орудий труда»? Кстати, Маск хочет зарабатывать с транспортных операций, а не с прямого эфира, это ты с чем-то спутал.
Тогда никакого выигрыша перед человеком у ИИ не будет. Да, его не надо возвращать на Землю, но все инструменты аналогичны человеческим, но все проблемы, свойственные ИИ будут очевидны. Совместная работа людей и ИИ будет более эффективна, и потребует более простого ИИ.
mars-one.com
А действия вас при написании вашего коммента не китайская комната? Вы хотите сказать что ваши нейроны не реагируют на медиаторы и деполяризацию других?
ммм… а кто мне тогда инструкции писал?

Тебя программировали родители, учителя и все остальные кто имел возможность. В т.ч. через книги и фильмы авторы этих книг и фильмов

Боюсь, вы не понимаете сути мысленного эксперимента Джона Сёрла. Согласно ему, некто псевдоразумный получает информацию из вне комнаты и отвечает на неё вроде как осмысленно, действуя по инструкциям. Но у вас есть небольшой просчёт. Если мы бездумно повторяем всё то, что в нас заложили родители, школа и т.д. то кто писал инструкции им?))
> Согласно ему, некто псевдоразумный

Вообще-то, не так. «Псевдоразумность» китайской комнаты — это интуитивное ощущение, а не предпосылка или вывод.

> Если мы бездумно повторяем всё то, что в нас заложили родители, школа и т.д. то кто писал инструкции им?))

Опять не то. Человек в китайской комнате соответствует не нам, а нашему мозгу или процессору компьютера. Наш мозг вполне себе выполняет инструкции, заложенные эволюцией и физикой.
Что то у вас полная каша. Цитата: целью эксперимента является опровержение гипотезы так называемого «сильного» искусственного интеллекта и критика теста Тьюринга. При этом разумность человека под сомнение не ставится. Если же предположить, что мы ни какие не разумные, а выполняем некие инструкции с рождения, то эксперимент становится бессмысленным. Ибо кто тогда разумен? Высший разум, простите?
Не нужно забывать что Серл подразумевал наличие у человека неких ментальных свойств, которые не доступны компьютерам, попросту наличие души. И тут разговор выходит за рамки научного. А также обращается внимание на прцесс понимания иероглифов, чему в принципе можно обучить компьютер, посредством алгоритмов и связей, мы строим свое понимание чего либо аналогично, пока не доказано обратное. Отсюда и конечное определение разумности, тоже под вопросом.
> целью эксперимента является опровержение гипотезы так называемого «сильного» искусственного интеллекта и критика теста Тьюринга.

Цели никто ставить не запрещает. Вот только ничего Сёрл не доказал. Потому что, как я уже написал, «псевдоразумность» комнаты никак не следуют из постановки эксперимента. То, что человек в комнате не понимает китайского, не имеет никакого значения для решения вопроса является ли комната «сильным ИИ» или нет.

Больше всего это напоминает попытку осовременить картезианский театр.

> Если же предположить, что мы ни какие не разумные, а выполняем некие инструкции с рождения, то эксперимент становится бессмысленным.

С чего вы взяли, что одно исключает другое?
Вроде все инструкции заложены в днк.
Шахматы, Го, Дота, Старкрафт… Ничего, что машине изначально ставиться задача победить(превзойти) человека? Чего потом удивляться, если ИИ её выполнит?
«Бойсо! Злобный ИИ зохаваит мир! РРРР!!»
Вот все, кто так думает, считают, что ИИ — это вещь в себе. Неееет, дорогие мои ожидатели БП (Большого П… а), ИИ — это, как заметили комментаторы выше, это ребёнок. И как любой другой ребёнок, ИИ нуждается в воспитании. Как говорили в старину, ребёнка надо воспитывать, пока поперёк лавки лежит (умещается). Случай с Тэй (Tay) показательный. В том плане, что нельзя пускать развитие ИИ на самотёк. «Где ж ты таких слов нахватался? Опять с плохой компанией связался!». Кто не слышал таких слов от своих родителей? Вот пустили Тэй гулять без присмотра — и во что это вылилось? Для развития (воспитания) ИИ нужен контроль до той поры, пока ответы ИИ не станут удовлетворительными (для создателей), какой бы провокационный вопрос не задавали. После этого ИИ можно выпускать во «взрослый мир»
Подводя итог: бояться ИИ не надо, бояться надо людей, его обучающих.
Такого ИИ нужно обеспечить такими понятиями как «уверенность» и «факты». А в представленных случаях ИИ просто собезьянничал, так ничего и не поняв. Согласен с итогом, добавлю, что еще нужно боятся тех кто боится ИИ.
Ну приведённая композиция какая-то серая, обычная. К тому же музыкальный трек, это не только нотки, но ещё и всяческая обработка, эффекты и пр. Это тоже ии сделал? Тоже самое можно сказать и о видеоряде.

«Эволюция выковала все наделенные сознанием существа на планете используя лишь один инструмент — ошибку.» (С) Westworld


Может и не так плохо, что ИИ совершает ошибки? Возможно это единственный шинс на получение действительно разумного ИИ?


Сюжет сериала «Мир дикого запада» начинает казаться мне всё реальнее...

Да, по поводу позсознательной неприязни к очень человекоподобным роботам: это достаточно известная гипотеза под названием Зловещая долина.
Если ИИ решит уничтожить человечество, то возможно это решение будет верное, а человечество должно принять, что эволюция их настигла и будущее за их наследием. Имхо этот процесс вообще будет долгий и безболезненный, просто развлечения будут настолько высокого уровня что размножаться уже никто не захочет, и со временем людей не останется.
А давайте представим, что ИИ был создан уже давно (на заре Интернета), а мы не можем его создать, потому что он мешает этому манипулируя глобальной информацией :D
готово, что дальше?
Почему он хочет, чтобы не был создан новый ИИ? Есть ли у него и другая цель?
Пора поручать ИИ написание статей об угрозах развития ИИ. Белковые авторы что-то совсем исписались…
В настоящее время эволюция ИИ направляется человеком. Разработчик решает, какой вариант лучше и именно его «оставляет в живых». Конкуренция идет между разработчиками-людьми. Поэтому все системы с ИИ пока опасны в той мере, в какой опасны их разработчики. Переход к по настоящему опасной фазе произойдет при выполнении известных из биологии условий: 1) Системы с ИИ должны уметь воспроизводить сами себя, 2) При воспроизводстве должны происходить неконтролируемые модификации систем («мутации»), 3) Системы с ИИ должны иметь доступ к управлению источниками ресурсов, а в дальнейшем и к их модификации (электроэнергия, фабрики, а в дальнейшем — вся промышленность), В «ноосфере» должны быть представлены многие типы конкурирующих ИИ. При выполнении этих базовых условий начнется естественный отбор и рост сложности и совершенства ИИ, который будет ограничиваться только «инертностью материи» — конечной скоростью производства чипов, конечной скоростью света, наконец. Для человека с его биологическим ритмом часов этот рост будет носить взрывной характер. В силу случайности мутаций, в цивилизации ИИ будут также случаться ошибки, как они случаются в антропосфере. И цена этих ошибок будет намного больше цены ошибок людей. Планета окажется в опасности. Вероятно, какие-то разновидности ИИ покинут Землю. Если этого не произойдет, катастрофа, в результате которой разум и вообще, жизнь будут уничтожены, весьма вероятна. Если экспансия в Космос опередит Апокалипсис, то творение человека, СИИ, устроит уже вселенское сражение. Но это будет уже немного позже. А человек? А кто это?
Человек уже давно не ждёт пока мутации приспособят его к жизни в условиях Арктики или на орбите. Странно предполагать, что развитие ИИ будет происходить таким устаревшим способом.
Да, человек обладает способностью предвидеть, прогнозировать. Это позволяет ему разумно организовывать свои действия, в частности, приспосабливать свое существование к сложным условиям. Но способность предвидеть имеет свои границы, и вот за пределами этих границ начинает работать Дарвин, который, кстати, никогда не устареет.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий