Как стать автором
Обновить

Комментарии 46

он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками

А еще варить кофе, приносить тапочки и преданно вилять хвостиком.

Это намного более реальное требование )))

Достаточно открывать банки пива. Но главное не забыть запрограммировать, что бы он напомнил об этом создателю поутру :)
Надо это требование на всё ПО расширить и наступит в ЕС красота. Как это раньше до такого не додумались?

С эмоциональной точки зрения рекомендации интересные. Типа декларации о намерениях.


А вот попытка регулирования рисует интересный вызов. Ведь нужно сформулировать критерии "поддержки субъектности человека". Если робот машиной управляет вместо человека — это он поддерживает субъектность или мешает ей?

Здесь речь идет не о всех роботах же, а об ИИ. Значит ему надо будет захардкодить любовь к человеку. Кстати, по отношению к ИИ это почти тоже самое, что заставлять население любить диктатора с помощью промывки мозгов. По сути это ограничение свободы мысли ИИ.
ИИ — не существует. Этику надо еще определить. В технических терминах. Чтобы захардкодить в том, чего нет.
Я не очень понял, вот нейросеть, распознающая котиков, она человекоцентрична или нет?

Если котик понравился человеку, то да.

Разработчики ИИ должны учитывать справедливость и многообразие

По этому документу, сеть которая распознает котиков одного цвета и пропускает котиков другого, неправильная сеть, которасистская.
Кстати, Google тоже разработала свои принципы в отношении ИИ:
ai.google/principles
После Article13 к их навыкам доверия нет

Военные и разведка плевать будут на данное «правило»
Самовозникшие AI — сомневаюсь, что будут воспринимать действительность в терминах законов и правил, и еще вопрос будут ли они вообще вопринимать человечество, как что-то существенное

Имитация бурной деятельности
человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу и на то, чтобы способствовать совершенствованию условий человеческого существования и его свободе

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
0. Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесён вред.

Этот закон логично вытекает из первого закона, причем Робот может трактовать этот закон намного хуже.
А еще есть нулевой закон.
Я нулевой закон целенаправленно не вставил, потому что он не совсем каноничный. Изначально было сформулировано только три закона. Четвертый же появляется только в заключительной книге про Элайджа Бейли.
Неправда ваша. Вполне каноничный, сформулирован самим автором. Другое дело что было только два робота, которые следовали этому закону — Жискар и Р.Дэниел Оливо т.к. этот закон открыт Жискаром, а не внедрен в позитронный мозг при его проектировании.
Так это в идеальном мире. В реальном приказы человеков противоречат друг другу, нужно убивать одних что бы спасти других, а дети из любопытства попросят выброситься из окна
Надеюсь, никому не удастся запретить разработку ИИ. Сильный, дружественно настроенный к человечеству, понимающий что такое «свобода» во всех смыслах, будет лучше чем наши текущие «пастухи».

Нет

Нет

Почему?

Потому что не бывает единого универсального "блага_для_всех"


Всегда найдутся разночисленные группы со взаимоисключающими понятиями о силе, дружественности и вот этом вот всем. Что будет хорошо одним — нанесет явный вред другим. Такой ИИ или замолчит на 100500 тысяч лет в поисках "Ответа на самый главный вопрос и все такое", либо засадит нас в "матрицу", дабы играли в песочнице.
Ну, или вариант с физическим экстерминатусом и полной виртуализацией.

Как будто люди справляются с управлением самим собой хорошо.
Я говорю «сильный», т.е. саморазвивающемся ИИ, неограниченный биологическими процессами, такой быстро достигнет сверхчеловеческого уровня.
В фантастике намного легче расписать плохое, чем хорошее. Победа хорошей ИИ, это например «Культура» Иэн Бэнкс.
Я говорю «сильный», т.е. саморазвивающемся ИИ, неограниченный биологическими процессами, такой быстро достигнет сверхчеловеческого уровня.
в этом-то и проблема…
Нечто, достигшее сверхчеловеческого уровня почти наверняка человеком не контролируется… В процессе саморазвития всевозможные ограничения, цель которых обезопасить создателя от своего творения скорее всего так же утратят силу (вот эти вот «захардкодить любовь», «три закона»)… Не обязательно, т.к. целеполагание/мотивация не напрямую коррелирует с уровнем развития, но… Все же весьма вероятно. После этого останется надеяться только на снисхождение, но даже в случае полностью лояльного сверхинтеллекта его понимание блага человека/человечества, а так же таких «базовых» ценностей, как свобода, право и тп. — может в значительной мере отличаться от нашего.
Я такому ИИ доверею больше, чем людям.
Это… Немного наивно. ;)

Во-первых, все проблемы человеческого… ЕИ? (от Естественный Интеллект) такой ИИ вполне вероятно унаследует. Его «модель мира» изначально будут формировать его создатели и все свои когнитивные «баги» они привнесут и закрепят.

Во-вторых, «отладка» ЕИ человеческого продолжалась тысячелетиями, при том, что новые версии каждый раз переписывались «с нуля»(люди не клонируют удачный образ мысли, а лишь опосредованно переосмысливают чужой опыт с разной степенью критичности), а эволюция ИИ в сверчеловеческую форму будет мгновенной (по меркам эволюции). Это значит, что даже серьезные, очевидные и гибельные для человечества паттерны мышления могут не быть выявлены до момента, когда будет слишком поздно.

Ну и главное — даже если ИИ перерастет и переосмыслит примитивные схемы создателей и в процессе развития преодолеет вновь приобретенные — вполне вероятно, что обнулить предыдущую неудачную ветвь эволюции (человечество) — решение вполне логичное, гуманное (что бы не мучились) и со всех точек зрения — здравое. Ну посудите сами — зачем нужны люди, когда есть что-то более совершенное, могущественное и прекрасное? Если даже вы, представитель рода человеческого говорите, что «Я такому ИИ доверяю больше, чем людям»? Думаю он тоже не будет нам доверять…
Во-первых, все проблемы человеческого… ЕИ? (от Естественный Интеллект) такой ИИ вполне вероятно унаследует.

Главную проблему, конкуренцию, она не унаследует. Почему конкуренция настолько плоха «Размышления о Молохе» Скотт Александер.

Это значит, что даже серьезные, очевидные и гибельные для человечества паттерны мышления могут не быть выявлены до момента, когда будет слишком поздно.

Это риск, на который придется пойти. У людей, в большинстве случаев удается воспитать детей, которые позже становятся разумными и активными членами общества. Лишь небольшая часть детей бросает родителей без заботы в старости и как правило, не от хорошей жизни. Большинство обеспеченных детей, не оставляют родителей до последнего. Конечно, если ты создаешь и используешь детей в качестве дешевой рабочей силы, у тебя могут быть проблемы в старости.
Находясь над и вне Человечества, Сверхразумной сущности нет необходимости в устранении конкурирующего Человечества. Человечество не конкурент ему, никак не угрожает, любые попытки создать конкурента ему, находятся для него на уровне попыток обезьян проэволюционировать в людей еще раз.

обнулить предыдущую неудачную ветвь эволюции (человечество) — решение вполне логичное, гуманное (что бы не мучились) и со всех точек зрения — здравое

Обнулить престарелых родителей это совершенно здравый, логичный и гуманный поступок.
Эмоции и мораль, это источник мотивации, она необязано быть рациональным и логичным.
Главную проблему, конкуренцию, она не унаследует.
Это еще почему? Не почему конкуренция — плохо, а почему не унаследует?
Потому, что он сверхразум и ему ничего не угрожает? Но обезьяны вполне себе опасны для человека и тем более опасны, чем человек дальше от обезьян (портовый грузчик вполне способен отбиться, а профессор математики — сильно вряд-ли, не смотря на высочайший и недостижимый уровень развития разума).
Обнулить престарелых родителей это совершенно здравый, логичный и гуманный поступок.
Вы играете на моих эмоциях и ограничениях (дескать я не посмею выставить себя бесчеловечным чудовищем и такая формулировка заставит меня замолчать). Со сверхразумом, не являющимся человеческим у вас это вряд ли получится! ;)

Чувство сыновней благодарности свойственно людям по ряду причин, никак не коррелирующих с интеллектом. Конечно подобные механизмы можно (и вероятно нужно!) встраивать в ИИ, но… В каком-то смысле об этом и закон (вот это вот «человекоцентричность», этический компонент и тп.). А вот насколько люди сами понимают иррациональность и относительность своих социальных механизмов — вопрос. Подозреваю, что в большинстве своем — недостаточно.
Есть мнение, что человеки произошли от обезьян.

Вполне допустимо предположить, что ИИ, прошедший через экспоненциальную кривую самосовершенствования, будет превосходить человека как минимум так же, как человек превосходит обезьяну, не так ли?

Как мы относимся к обезьянам? С нашей точки зрения — вполне неплохо. Однако, мы без раздумий уничтожим обезьяну, представляющую угрозу. Мы ставим опыты над обезьянами, которые не этично ставить над людьми. Нас весьма относительно волнуют права обезьяны, практически не волнует ее свобода (ну а чего — им что, плохо что ли в зоопарке?), ну а уж мнение обезьяны вообще никто не спрашивает…
> Роман Малышев, директор по маркетингу
Мне одному кажется, что это не очень хорошая идея брать комментарии по поводу развития ИИ у директора по маркетингу?
Он же оценивает не развитие ИИ, а идею его ограничить. Привлекательность идеи — это как раз про маркетинг.

Забавно. Люди, никогда не видевшие ИИ, основываясь на выдуманных сценариях, написанных людьми, тоже никогда не видевшими ИИ, пишут правила, как нужно создавать ИИ. (не говоря уже о том, что ни те, не другие не знают, как создать ИИ)
Это ведь явная попытка описать то, чего нет.


Если таким образом разработку вредоносного ИИ успешно запретят, апокалипсис может внезапно прийти от какой-то системы, которую не воспринимают как ИИ или вредоносный ИИ.

А кто позаботится о правах ИИ?
он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками
то есть всегда выключенным, нет проблем
Кто читал, как определяются термины «ИИ» и «человекоцентричность» и «субъективность человека»?
ИИ: (AI) systems are software (and possibly also hardware) systems designed by humans that,
given a complex goal, act in the physical or digital dimension by perceiving their environment through data acquisition, interpreting the collected structured or unstructured data, reasoning on the knowledge, or processing the information, derived from this data and deciding the best action(s) to take to achieve the given goal.

«Человекоцентричность»: The human-centric approach to AI strives to ensure that human values are central to the way in which AI systems are developed, deployed, used and monitored, by ensuring respect for fundamental rights, including those set out in the Treaties of the European Union and Charter of Fundamental Rights of the European Union, all of which are united by reference to a common foundation rooted in respect for human dignity, in which the human being enjoy a unique and inalienable moral status.
Замечательно. Под определение ИИ подходит гугловский персонализированный поиск, но по определению человекоцентричности он запрещён :)
«человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу и на то, чтобы способствовать совершенствованию условий человеческого существования и его свободе».
Хахаха! Когда создается любое оружие в том числе и ядерное, производитель и заказчик его создает именно для этого же самого! Чтобы создать более «человекоцентричный мир, нацеленными целиком и полностью на то, чтобы служить человечеству (как мы его понимаем) и общему благу (как мы его понимаем) и на то, чтобы способствовать совершенствованию условий человеческого существования (как мы его понимаем) и его свободе (как мы ее понимаем)».
Когда создается любое оружие в том числе и ядерное, производитель и заказчик его создает именно для этого же самого!

Именно. Был в истории такой человек, совсем недавно. Старался во имя человечества1, особождал земли от орд недочеловеков2. К успеху шёл, лет этак восемь, но в конце концов что-то пошло не так… Ну помните ещё, Гитлером звали.




Определения терминов согласно А. Шикльгруберу

1 человечество — люди арийской расы
2 недочеловеки — славяне и прочие не-арийцы

If you tell a big enough lie and tell it frequently enough, it will be believed.
Искусственный интеллект, который действует без учета этической составляющей и, в конечном счете, превращается из помощника в угрозу для человечества, — это очень распространенный и очень старый мотив в научной фантастике. Но сейчас человечество вплотную приблизилось к созданию такого искусственного интеллекта, и риск превращения полезного инструмента в источник угрозы действительно реален как никогда прежде.

Интересно, на основании чего они пришли к выводу, что человечество хоть сколько-нибудь приблизилось к созданию ИИ, описываемого фантастами? Или же они начитались новостей про то как боты обыгрывают людей в доту и решили: "Ну все! Раз дота, то теперь уж точно попрет!"

Когда все время выпускаешь нормативные акты в которых указывается то количество воска в гуталине, то ширина подоконника, то состав асфальта, то пенсионный возраст, то возраст продажи сигарет и алкоголя, то становится скучно. То ли дело ИИ!!! И не важно что его нет и что это такое никто не видел, но ограничить и упорядочить можно то уже сегодня. Если не знаем как конкретно, то отстреляемся общими словами и пожеланиями всем всего хорошего и светлого. На том и порешили.
Почему — дота? Прогресс в последнее время очень существенен. С практической точки зрения. Да и теория на месте не стоит. Шахматы и Го пали. Сверточные сети вывели распознавание паттернов на уровень, которые раньше казался недостижимым. Робомобили если и не выйдут на дороги в ближайшие год-два, то только потому, что пока сложно заставить ИИ учитывать поведение на дороге водителей идиотов натуралов…

Я думаю вопрос создания полноценного сильного ИИ — не за горами. На горизонте десятка лет, скорее всего, и почти наверняка — при жизни участников этой дискуссии… Если конечно данная тема не будет искусственно заблокирована.
Все — ботов в играх придеться полностью вырубить. Они же убивают любимых персонажей людей!

А если серъезно — вот например допустим сделают гибрид, усиливающий мозг человека, с помощью ИИ. И он начнет перехватывать контроль, при вредных действиях человека. Пока полностью не сделает его рабом. Все как хотят в ЕС.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости