Comments 46
он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками
А еще варить кофе, приносить тапочки и преданно вилять хвостиком.
С эмоциональной точки зрения рекомендации интересные. Типа декларации о намерениях.
А вот попытка регулирования рисует интересный вызов. Ведь нужно сформулировать критерии "поддержки субъектности человека". Если робот машиной управляет вместо человека — это он поддерживает субъектность или мешает ей?
ai.google/principles
Военные и разведка плевать будут на данное «правило»
Самовозникшие AI — сомневаюсь, что будут воспринимать действительность в терминах законов и правил, и еще вопрос будут ли они вообще вопринимать человечество, как что-то существенное
Имитация бурной деятельности
человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу и на то, чтобы способствовать совершенствованию условий человеческого существования и его свободе
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Этот закон логично вытекает из первого закона, причем Робот может трактовать этот закон намного хуже.
Нет
Нет
Почему?
Потому что не бывает единого универсального "блага_для_всех"
Всегда найдутся разночисленные группы со взаимоисключающими понятиями о силе, дружественности и вот этом вот всем. Что будет хорошо одним — нанесет явный вред другим. Такой ИИ или замолчит на 100500 тысяч лет в поисках "Ответа на самый главный вопрос и все такое", либо засадит нас в "матрицу", дабы играли в песочнице.
Ну, или вариант с физическим экстерминатусом и полной виртуализацией.
Я говорю «сильный», т.е. саморазвивающемся ИИ, неограниченный биологическими процессами, такой быстро достигнет сверхчеловеческого уровня.
В фантастике намного легче расписать плохое, чем хорошее. Победа хорошей ИИ, это например «Культура» Иэн Бэнкс.
Я говорю «сильный», т.е. саморазвивающемся ИИ, неограниченный биологическими процессами, такой быстро достигнет сверхчеловеческого уровня.в этом-то и проблема…
Нечто, достигшее сверхчеловеческого уровня почти наверняка человеком не контролируется… В процессе саморазвития всевозможные ограничения, цель которых обезопасить создателя от своего творения скорее всего так же утратят силу (вот эти вот «захардкодить любовь», «три закона»)… Не обязательно, т.к. целеполагание/мотивация не напрямую коррелирует с уровнем развития, но… Все же весьма вероятно. После этого останется надеяться только на снисхождение, но даже в случае полностью лояльного сверхинтеллекта его понимание блага человека/человечества, а так же таких «базовых» ценностей, как свобода, право и тп. — может в значительной мере отличаться от нашего.
Во-первых, все проблемы человеческого… ЕИ? (от Естественный Интеллект) такой ИИ вполне вероятно унаследует. Его «модель мира» изначально будут формировать его создатели и все свои когнитивные «баги» они привнесут и закрепят.
Во-вторых, «отладка» ЕИ человеческого продолжалась тысячелетиями, при том, что новые версии каждый раз переписывались «с нуля»(люди не клонируют удачный образ мысли, а лишь опосредованно переосмысливают чужой опыт с разной степенью критичности), а эволюция ИИ в сверчеловеческую форму будет мгновенной (по меркам эволюции). Это значит, что даже серьезные, очевидные и гибельные для человечества паттерны мышления могут не быть выявлены до момента, когда будет слишком поздно.
Ну и главное — даже если ИИ перерастет и переосмыслит примитивные схемы создателей и в процессе развития преодолеет вновь приобретенные — вполне вероятно, что обнулить предыдущую неудачную ветвь эволюции (человечество) — решение вполне логичное, гуманное (что бы не мучились) и со всех точек зрения — здравое. Ну посудите сами — зачем нужны люди, когда есть что-то более совершенное, могущественное и прекрасное? Если даже вы, представитель рода человеческого говорите, что «Я такому ИИ доверяю больше, чем людям»? Думаю он тоже не будет нам доверять…
Во-первых, все проблемы человеческого… ЕИ? (от Естественный Интеллект) такой ИИ вполне вероятно унаследует.
Главную проблему, конкуренцию, она не унаследует. Почему конкуренция настолько плоха «Размышления о Молохе» Скотт Александер.
Это значит, что даже серьезные, очевидные и гибельные для человечества паттерны мышления могут не быть выявлены до момента, когда будет слишком поздно.
Это риск, на который придется пойти. У людей, в большинстве случаев удается воспитать детей, которые позже становятся разумными и активными членами общества. Лишь небольшая часть детей бросает родителей без заботы в старости и как правило, не от хорошей жизни. Большинство обеспеченных детей, не оставляют родителей до последнего. Конечно, если ты создаешь и используешь детей в качестве дешевой рабочей силы, у тебя могут быть проблемы в старости.
Находясь над и вне Человечества, Сверхразумной сущности нет необходимости в устранении конкурирующего Человечества. Человечество не конкурент ему, никак не угрожает, любые попытки создать конкурента ему, находятся для него на уровне попыток обезьян проэволюционировать в людей еще раз.
обнулить предыдущую неудачную ветвь эволюции (человечество) — решение вполне логичное, гуманное (что бы не мучились) и со всех точек зрения — здравое
Обнулить престарелых родителей это совершенно здравый, логичный и гуманный поступок.
Эмоции и мораль, это источник мотивации, она необязано быть рациональным и логичным.
Главную проблему, конкуренцию, она не унаследует.Это еще почему? Не почему конкуренция — плохо, а почему не унаследует?
Потому, что он сверхразум и ему ничего не угрожает? Но обезьяны вполне себе опасны для человека и тем более опасны, чем человек дальше от обезьян (портовый грузчик вполне способен отбиться, а профессор математики — сильно вряд-ли, не смотря на высочайший и недостижимый уровень развития разума).
Обнулить престарелых родителей это совершенно здравый, логичный и гуманный поступок.Вы играете на моих эмоциях и ограничениях (дескать я не посмею выставить себя бесчеловечным чудовищем и такая формулировка заставит меня замолчать). Со сверхразумом, не являющимся человеческим у вас это вряд ли получится! ;)
Чувство сыновней благодарности свойственно людям по ряду причин, никак не коррелирующих с интеллектом. Конечно подобные механизмы можно (и вероятно нужно!) встраивать в ИИ, но… В каком-то смысле об этом и закон (вот это вот «человекоцентричность», этический компонент и тп.). А вот насколько люди сами понимают иррациональность и относительность своих социальных механизмов — вопрос. Подозреваю, что в большинстве своем — недостаточно.
Вполне допустимо предположить, что ИИ, прошедший через экспоненциальную кривую самосовершенствования, будет превосходить человека как минимум так же, как человек превосходит обезьяну, не так ли?
Как мы относимся к обезьянам? С нашей точки зрения — вполне неплохо. Однако, мы без раздумий уничтожим обезьяну, представляющую угрозу. Мы ставим опыты над обезьянами, которые не этично ставить над людьми. Нас весьма относительно волнуют права обезьяны, практически не волнует ее свобода (ну а чего — им что, плохо что ли в зоопарке?), ну а уж мнение обезьяны вообще никто не спрашивает…
Мне одному кажется, что это не очень хорошая идея брать комментарии по поводу развития ИИ у директора по маркетингу?
Забавно. Люди, никогда не видевшие ИИ, основываясь на выдуманных сценариях, написанных людьми, тоже никогда не видевшими ИИ, пишут правила, как нужно создавать ИИ. (не говоря уже о том, что ни те, не другие не знают, как создать ИИ)
Это ведь явная попытка описать то, чего нет.
Если таким образом разработку вредоносного ИИ успешно запретят, апокалипсис может внезапно прийти от какой-то системы, которую не воспринимают как ИИ или вредоносный ИИ.
он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атакамито есть всегда выключенным, нет проблем
given a complex goal, act in the physical or digital dimension by perceiving their environment through data acquisition, interpreting the collected structured or unstructured data, reasoning on the knowledge, or processing the information, derived from this data and deciding the best action(s) to take to achieve the given goal.
«Человекоцентричность»: The human-centric approach to AI strives to ensure that human values are central to the way in which AI systems are developed, deployed, used and monitored, by ensuring respect for fundamental rights, including those set out in the Treaties of the European Union and Charter of Fundamental Rights of the European Union, all of which are united by reference to a common foundation rooted in respect for human dignity, in which the human being enjoy a unique and inalienable moral status.
«человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу и на то, чтобы способствовать совершенствованию условий человеческого существования и его свободе».Хахаха! Когда создается любое оружие в том числе и ядерное, производитель и заказчик его создает именно для этого же самого! Чтобы создать более «человекоцентричный мир, нацеленными целиком и полностью на то, чтобы служить человечеству (как мы его понимаем) и общему благу (как мы его понимаем) и на то, чтобы способствовать совершенствованию условий человеческого существования (как мы его понимаем) и его свободе (как мы ее понимаем)».
Когда создается любое оружие в том числе и ядерное, производитель и заказчик его создает именно для этого же самого!
Именно. Был в истории такой человек, совсем недавно. Старался во имя человечества1, особождал земли от орд недочеловеков2. К успеху шёл, лет этак восемь, но в конце концов что-то пошло не так… Ну помните ещё, Гитлером звали.
1 человечество — люди арийской расы
2 недочеловеки — славяне и прочие не-арийцы
Искусственный интеллект, который действует без учета этической составляющей и, в конечном счете, превращается из помощника в угрозу для человечества, — это очень распространенный и очень старый мотив в научной фантастике. Но сейчас человечество вплотную приблизилось к созданию такого искусственного интеллекта, и риск превращения полезного инструмента в источник угрозы действительно реален как никогда прежде.
Интересно, на основании чего они пришли к выводу, что человечество хоть сколько-нибудь приблизилось к созданию ИИ, описываемого фантастами? Или же они начитались новостей про то как боты обыгрывают людей в доту и решили: "Ну все! Раз дота, то теперь уж точно попрет!"
Я думаю вопрос создания полноценного сильного ИИ — не за горами. На горизонте десятка лет, скорее всего, и почти наверняка — при жизни участников этой дискуссии… Если конечно данная тема не будет искусственно заблокирована.
А если серъезно — вот например допустим сделают гибрид, усиливающий мозг человека, с помощью ИИ. И он начнет перехватывать контроль, при вредных действиях человека. Пока полностью не сделает его рабом. Все как хотят в ЕС.
ЕС вводит защиту от ИИ на законодательном уровне