Как стать автором
Обновить

Министерство обороны США: Этика для ИИ и беспилотных автомобилей

Время на прочтение12 мин
Количество просмотров2.7K
Всего голосов 5: ↑3 и ↓2+6
Комментарии11

Комментарии 11

Собственно, на фразе «должны соблюдать уже существующие этические нормы» можно закончить.
Как поступит человек-водитель(который и является изобретателем понятия «этика» и его же и пропагандирующий)? Правильно, он вывернет руль, пытаясь не подставить под удар себя. Ну в любом случае, любой человек будет действовать, чаще всего неосознанно в рамках программы «минимизировать вред для себя».
Все, вопрос закрыт. Не вижу никаких предпосылок для того, чтобы созданное людьми и для людей работало не по тем эе принципам, по которым живут его создатели

НЛО прилетело и опубликовало эту надпись здесь
Вы с понятием «непреодолимой силы» знакомы? Никто никуда не сядет.
Если, конечно, он не был пьяный, не нарушал скоростной режим и т.д.(чего никто из ИИ-водителей априори делать не будет)
чего никто из ИИ-водителей априори делать не будет

Я бы не был в этом так уверен. Конечно, вряд ли ИИ будет топить соточку по городу там, где ограничение 60. Но, например, есть такое понятие как "выбор скоростного режима, отвечающего дорожным условиям". Грубо говоря, если на улице адовый гололед, а машина еще и на летней резине (или на фиговой всесезонке), то разумный водитель либо вообще откажется от поездки, либо будет ехать очень медленно и осторожно. А вот будет ли предусмотрено такое в ИИ? Если нет, и он будет топить разрешенные 60 по гололеду на лысых покрышках, в итоге машина потеряет управление на льду и кого-нибудь задавит — кто будет виноват? По идее это однозначный косяк и ответственность либо тех, кто сделал этот ИИ и не снабдил его системой оценки дорожных условий, либо тех, кто его эксплуатирует в неподходящих условиях.

А вот будет ли предусмотрено такое в ИИ?

Похоже, вы считаете гипотетических создателей автопилота не слишком умными.
Но ситуация сходна с текущей, когда водитель может оказаться недостаточно опытным.

Мне вот интересно, когда ИИ придется сделать выбор между чужими жизнями, как его разработчик будет объяснять родственникам погибшего, почему выбор был сделан именно так, а не иначе? Особенно в случае, если погибший выжил бы, не предпринимай ИИ вообще никаких действий.

image

Ну а как это объясняют сейчас виновники ДТП? Да никак. И с ИИ так же будет. Тем более что ИИ — это скорее всего не явно кем-то запрограммированный блок ифов в духе "если потеряли управление — сворачивай в ближайшего негра", а какая-нибудь нейросеть, которая фиг знает как и почему выдает свои ответы.

мне вот интересно: если исследования покажут, что автопилот на основе видеокамер в темноте лучше видит более светлых пешеходов, а ярким солнечным днем — более темных пешеходов, то это расизм разработчиков или физические ограничения видеокамеры ??
В статье же явно дан ответ:
когда система ИИ совершает нечто вроде проявления расовых предрассудков, некоторые делают логическую ошибку, говоря, что это сделал ИИ, при этом не возлагая ответственности на тех, кто создал и внедрил эту систему.


Сядут все — и разработчик ИИ, и производитель камеры.
Если это все же ограничения видеокамеры и не решается тогда какое правильное решение? Добавить учет освещенности и в темноте снижать уровень распознавания светлых пешеходов до уровня распознавания темных?
А теперь самый главный вопрос. Как прореагирует общество если начать снижать распознавание темных пешеходов до уровня светлых днем.

И кажется мне что проблема расизма ИИ в том что он беспристрастно и объективно оценивает всех. А это не принято в цивилизованном обществе.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий