Министерство обороны США подготовило список руководящих принципов для подрядчиков, которые будут работать над ИИ для военных. Требования не зависят от того, для какой цели они разрабатываются, будь это системы управления персоналом или распознавания целей для нанесения ударов. Все это произошло на фоне недавнего скандала вокруг Google и проекта Maven. Тысячи сотрудников IT-гиганта в 2019 году выступили против сотрудничества с военными организациями и несколько десятков уволились. Сам проект не закрыли, но Google отказалась от своей части в нем, теперь ее место заняли Amazon и Microsoft.
Документ включает в себя пошаговый процесс, которого должны придерживаться компании-подрядчики при планировании, разработке и развертывание систем. Он включает в себя процедуры для определения того, кто может пользоваться технологией, кому она может причинить вред и как этого можно избежать. Примечательно, что вред рассматривается как на этапе создания системы, так и после ее запуска.
Специалисты не исключают того факта, что если требования будут приняты в Министерстве обороны США, то это в целом может повлиять на общую концепцию разработки ИИ для правительственных органов. Копии разработанных гайдлайнов уже отправлены на рассмотрение в Министерство транспорта, Министерство юстиции и Налоговое управление.
Представитель Отдела инноваций обороны Брайс Гудман (Bryce Goodman) отметил, что цель проекта — убедиться в том, что компании-подрядчики придерживаются этических принципов Министерства обороны в отношении искусственного интеллекта. Сами принципы были представлены в прошлом году после двухлетнего исследования, проведенного по заказу Совета по оборонным инновациям.