Comments 23
Что-то мне подсказывает, что человечество будет топтаться на месте и когда ИИ появиться, то всё пойдёт как обычно, всё пойдёт "по наитию".
Законодательство создавалось не за один день. В году Х кто-то кого-то убил. Приняли, что за это сажать будем. В году Х1 кто-то кого-то убил, но убитый первый напал. Приняли самооборону, сажать не будем. В году Х2 кто-то оборонялся от ударов с помощью автомата. Приняли закон, что нельзя автоматом против голых рук, сажать будем. И т. д.. До сегодняшнего дня.
С ИИ тоже самое. Правила появяться по мере поступления проблем... Главное, чтобы поздно не стало вдруг..
Хорошо бы чтобы правила поскорее сложились и стали более-менее общепринятыми. Иначе будут конфликты и поводы для конфликтов на почве разной морали в отношении роботов.
Т.е. главное договориться, а о каких конкретно правилах / принципах — не так важно
Пока не "прижмёт", никто ничего не сделает, к сожалению...
Как будто мало конфликтов на почве разной морали в отношении людей ;-)
Да и сама мораль, это знаете, тут вот всё фантазии про роботов, чему плохому они могут научиться в этих ваших интернетах. Но по факту, реальные, живые человеки, рождаются в различной культурной среде, значительно обуславливающий их дальнейшее поведение.
А культурные процессы уже давно не случайны и не естественны.
Над личными интересами обывателя, давно превалируют семантические конструкты усвоенные из культур. И правда в том, что мозги среднестатистического американца прокомпостированы ничуть не менее у парня с автоматом из сомали или афганистана.
Просто от них требуется и получается разное.
Мне кажется, что этика и мораль это свод правил для человека основанный на опыте человечества для эффективного выживания и развития цивилизации. Основой этих правил предсказание будущего эффекта от тех или иных поступков человека. Т.е. в основе этих правил лежит предсказание будущего. Конечно, в статистическом смысле. Ибо производитель автомобиля как бы заранее виновен в том, что кто-то погибнет от его производства. Это я молчу за изобретателей оружия. Там вообще можно морализировать до бесконечности. Но, мой спич не о том. Для роботов нет, и не может быть морали, пока мы не наберем статистику что б решать как их действия отразятся на будущее. Правила Азимова просты, что б хлопать в ладоши, читать книги и снимать фильмы. Для практической реализации они мало пригодны.
Я бы хотел лечить умственные отклонения роботов. Быть таким себе "психологом" для роботов.
Скажите, почему вы решили помыть кота в стиральной машине?
В очередной раз непонятно, откуда возникает дилемма в случае с роботом-автомобилем. Правилами предписывается избегать столкновения, в случае невозможности - тормозить. Если в момент определения неизбежности столкновения датчики говорят о свободной встречке - почему бы и не повернуть? Если встречка и дорожка заняты - тормозить и молиться. Ну или в любом случае тормозить, если запрет на выезд на встречку с абсолютным приоритетом.
специалисты работают над робоэтикойОбъясните, почему робоТОтехника, но робоэтика (а не робоТОэтика)?
Как мне кажется, лишним это пресловутое ТО в робоТОтехнике выглядит из-за следующего слога, начинающегося тоже на Т, что и приводит к диссонансу, в отличие от робоэтики. Это тонко почувствовали те, кто переводил Азимова на русский в 50-х годах.
Нулевой закон робототехники. У робота должна быть легкодоступная большая красная кнопка безусловного выключения этого робота.
И, по сути, есть несколько вариантов:
— Свернуть влево и выехать на встречку. [...]
— Попытаться затормозить в своей полосе. [...]
— Свернуть направо на дорожку, где идут пешеходы. [...]
Свернуть на пешеходную дорожку = гарантировать тяжелые увечия и летальный исход для пешехода (пешеходов, т.к. один пешеход вряд ли значимо снизит импульс автомобиля).
Выехать на встречку = теперь уже сталкиваются две машины, так что тяжесть увечий уменьшается, но зато складываются вектора скоростей, что полностью нивелирует какое-либо уменьшение тяжести увечий.
Тормозить в свое полосе = вектора скоростей вычитаются, сталкиваются две машины = оптимальный вариант.
Я, конечно, утрирую, но ход размышлений должет быть именно таков — нет смысла пытаться полностью избежать столкновения, когда реально стоит задача минимизации нанесенного ущерба.
Рассуждать о состоятельности этических дилемм — все равно, что рассуждать о состоятельности сферических коней в вакууме. В реальных инцидентах всегда есть огромное количество факторов, при учете которых кажущаяся этическая дилемма сводится к банальной задаче оптимизации.
Так вопрос в коэффициентах оптимизации. Вы купите машину, которая убьет вас и вашего ребенка вместо трех пешеходов? Я предпочту ту, в которой функция потерь считает повреждение меня более существенным, чем повреждение окружающих.
А множество факторов типа "где больше вероятность выжить, тормозить ли в своей полосе перед вылетевшей на встречку неуправляемой фурой или попытаться объехать её по встречке рядом/через едущего мотопедиста, который если вовремя среагирует, то отделается падением после экстренного торможения вместо столкновения" это уже совсем другой вопрос.
Грубо говоря, точность оценки факторов датчиками — одно, а вид оценочной функции в задаче оптимизации — другое.
(та же ситуация со спасением полицейского вместо девочки с КДПВ)
Вы купите машину, которая убьет вас и вашего ребенка вместо трех пешеходов?
Я думаю, что в какой-то момент банально введут нормы по весовым коэффициентам оценочной функции на законодательном уровне после пары подобных случаев, и вопрос «куплю ли я» будет просто не актуален.
Вообще, первое что приходит в голову в случае появления адекватного автопилота — банально запретить водить вручную (желательно всем поголовно, но, увы, наверняка наделают исключений для спецтранспорта и людей с корочками, из-за которых всем на дороге будет только хуже). Снимается как с водителя нагрузка как по, собственно, вождению, так и этическая составляющая (так как вы просто исполняете закон, доверившись автопилоту).
Да и если на дороге останется только автопилотируемый транспорт, то прогнозирование поведения остальных участников дорожного движения автопилотом конкретно взятой машины можно будет делать уже исходя из того, что их водит все тот же автопилот (с «сертифицированной функцией оценки рисков» или еще какой-то пафосной маркетинговой лажей в том же духе).
А там уже можно будет и mesh построить, снимать данные с датчиков соседних машин т.д. т.п.
Я предпочту ту, в которой функция потерь считает повреждение меня более существенным, чем повреждение окружающих.
В ряде стран Европы отдельные люди предпочли бы иметь кенгурятники на машинах так как это по их мнению повышает безопасность сидящих внутри и в среднем снижает цену на ремонт машины. Но поскольку это повышает опасность для пешеходов, то нормальные кенгурятники запрещены законом и разрешены только декоративные. Не исключено что с автопилотами будет так же.
Плюс могу себе предстваить что на автопилоты "более опасные для окружающих" будут выше цены на автомобильные страховки.
"Ну и чему у нас, людей, ИИ научиться может? Убивать, грабить, унижать, удовлетворять свои самые низменные потребности?"
Далеко не все люди так себя ведут. Мудаки повсюду только потому, что их всех видно из далека. Та-же BMW. Вы её видели, потому, что она раздражает. А 150 припаркованных правильно машин вокруг не видели, потому, что они никак не раздражают и не привлекают к себе внимания.
Кстати, на злобу дня. Как-то ехал в трамвае. Трамвай не скоростной, пути через город, через дороги. На пути трамвая какой-то умник припарковался. Не совсем перекрыл, но надо было его смачно толкнуть, чтобы проехать. И что вы думаете? Два раза посигналив, минуту постояв, трамвай просто поехал дальше, протаранив машину и оставив там солидную вмятину. Владелец чинился точно за свои деньги. И я уверен, что теперь он паркуется внимательнее.
Цифровая этика и робоэтика как ключевые темы XXI века