Pull to refresh

Кодекс чести для боевых роботов

Reading time1 min
Views1.5K
Профессор компьютерных наук Рональд Аркин из Georgia Tech создал первый в мире программный пакет с набором этических правил для боевых роботов. Программа поможет принять решение, когда убивать этично, а когда — нет. То есть в идеале роботы должны поступать как бойцы-люди, которые руководствуются кодексом воинской чести.

Боевые роботы сейчас берутся на вооружение многими армиями мира. В том же Ираке работают сотни подобных машин. В основном, это дроны (беспилотные летательные аппараты). Ими управляют операторы, но в перспективе необходимо перевести дронов на автоматическую работу, это гораздо повысит их эффективность.

Программа Аркина позволит более грамотно выбирать вид оружия, из которого осуществляется поражение (например, если есть риск повреждения соседствующих сооружений, имеющих культурную ценность), а также позволяет объективно оценивать окружающую обстановку, на что не всегда способны солдаты-люди в горячке боя.

Результаты своей работы профессор Аркин опубликовал в документе «Governing Lethal Behavior in Autonomous Robots» (PDF).

Вообще-то, первый набор этических правил для роботов сформулировал ещё Айзек Азимов в своих знаменитых законах роботехники. Первый закон звучал так: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред». Как видим, Азимов и представить не мог, что боевые роботы получат такое распространение в будущем. То есть его законы совершенно неприемлемы для современных беспилотников с ракетами или гусеничных роботов с пулемётами, у которых убийство — это основная задача.
Tags:
Hubs:
Total votes 28: ↑23 and ↓5+18
Comments54

Articles