Pull to refresh

Почему не стоит ждать проявлений морали от робомобилей

Reading time4 min
Views7.4K
Original author: John McDermid


С тех пор, как компании начали разработку робомобилей, люди стали задавать вопросы о том, как дизайнеры собираются решать моральные вопросы, типа кого должен убить робомобиль в случае, когда авария неизбежна. Недавнее исследование говорят о том, что на этот вопрос, возможно, ответить будет ещё сложнее, чем считалось ранее, поскольку в разных странах моральные предпочтения людей разнятся.

Исследователи из Гарвардского университета и MIT разработали онлайн-игру, симулирующую ситуации, в которых ДТП с жертвами было неизбежно. Они опросили 40 млн человек из 200 стран мира, предлагая выбрать различные варианты того, как должны заканчиваться такие инциденты, к примеру, должны ли погибать пассажиры авто или пешеходы.

В результате было обнаружено три культурных скопления со значительно различающимися этическими предпочтениями. К примеру, в южном скоплении (куда входит большая часть Латинской Америки и бывшие французские колонии), большинство предпочитало щадить женщин в ущерб мужчинам. В восточном скоплении (куда вошли многие исламские страны, Китай, Япония и Корея) люди реже голосовали за то, чтобы спасать молодых в ущерб старикам.

Исследователи в заключении сказали, что эта информация должна влиять на решения разработчиков робомобилей. Но должна ли? Эта работа, освещая интересное открытие глобальных различий в моральных предпочтениях, также демонстрирует стойкое непонимание, касающееся ИИ и его возможностей. Учитывая текущий уровень технологий ИИ, используемых в робомобилях, ясно, что машина неспособна принимать моральные решения.

Фантазия о «моральных машинах»


Робомобили обучаются принимать решения о том, когда рулить и когда тормозить, используя ИИ особого рода, также известный, как "слабый (узкий) ИИ" – он концентрируется на выполнении одной узкоспециализированной задачи. Их разрабатывают с использованием различных датчиков, камер и дальномерных лазеров (лидаров), выдающих информацию центральному компьютеру. Компьютер использует ИИ для анализа входных данных и принятия решения.

И хотя сегодня эта технология относительно проста, в итоге машины смогут превзойти человека в простейших задачах, связанных с вождением автомобиля. Но нереалистично было бы считать, что робомобили должны уметь принимать этические решения, на которые даже у самых высокоморальных людей не было бы времени в случае аварии. Если мы хотим такого от автомобиля, в нём нужно будет запрограммировать искусственный интеллект общего назначения (ИИОН).

ИИОН эквивалентен тому, что делает нас людьми. Это возможность беседовать, наслаждаться музыкой, смеяться над чем-то или судить о морали. Сейчас сделать ИИОН невозможно из-за сложности человеческой мысли и эмоций. Если мы потребуем создать автономные автомобили, обладающие моралью, нам придётся ждать их несколько десятилетий, даже если это вообще возможно.

Ещё одна проблема с новым исследованием состоит в нереалистичности многих ситуаций, оцененных участниками. В одном сценарии обыгрывалась известная "проблема вагонетки", и участников спрашивали, кого должна переехать машина при отказе тормозов: трёх пассажиров (мужчину, женщину и ребёнка) или трёх пожилых пешеходов (двух старичков и одну старушку).

Люди могут тщательно поразмыслить над подобными проблемами, заполняя анкету. Но в большинстве реальных происшествий у водителя не будет времени на принятия такого решения за те доли секунды, за которые оно произойдёт. А значит, сравнение некорректно. Учитывая текущий уровень технологий ИИ, использующихся в робомобилях, эти средства передвижения тоже не смогут принять подобные решения.


Узкий ИИ позволяет робомобилям делать простейшие суждения по поводу окружающих объектов

В современных робомобилях заложены сложные возможности восприятия мира, и они могут отличать пешеходов от других объектов, например, фонарей или дорожных знаков. Однако авторы исследования считают, что робомобили могут, и, возможно, даже должны проводить более глубокие различия. К примеру, они могли бы высоко оценить степень полезности определённых людей для общества, к примеру, докторов или спортсменов, и решить спасти их в случае ДТП.

Реальность заключается в том, что для проведения таких сложных рассуждений потребуется создать ИИОН, что на сегодня невозможно. Кроме того, неясно, нужно ли вообще это делать. Если даже в программу машины можно будет внести возможность решать, чью жизнь сохранить, я считаю, что мы не должны позволить делать это. Мы не должны позволять предпочтениям, определённым в результате исследования, насколько бы велика ни была его выборка, определять ценность человеческой жизни.

В основе своей робомобили разрабатываются так, чтобы по возможности избежать ДТП или минимизировать скорость удара. Хотя, как и люди, они не смогут принимать решений на основе морали в случае неизбежного столкновения. Однако робомобили будут безопаснее, чем машины, управляемые людьми, более внимательны, скорость их реакции будет выше, и они смогут использовать весь потенциал системы торможения.

Пока что крупнейшим этическим вопросом в области робомобилей остаётся то, набрано ли в симуляциях достаточно свидетельств безопасного их поведения для того, чтобы можно было выпускать робомобили на улицы. Но это не значит, что они будут «моральными», или смогут стать таковыми в ближайшее время. Утверждать обратное – значит, путать узкий ИИ, занимающийся вождением, с ИИОН, который, вероятно, не появится при нашей с вами жизни.

В конечном счёте, робомобили будут безопаснее людей. Этого мы достигнем благодаря их дизайну и возможности избегать происшествий всеми силами, или уменьшать урон в случае неизбежности. Однако машины не смогут принимать моральные решения там, где даже мы этого не можем. Эта идея остаётся выдумкой, и не стоит на неё надеяться. Вместо этого сконцентрируемся на безопасности: вера в неё будет оправдана.
Tags:
Hubs:
If this publication inspired you and you want to support the author, do not hesitate to click on the button
+12
Comments177

Articles

Change theme settings