Данный материал основан на выпуске Democracy Now! от 2 апреля 2026 года.

Контекст: война США и Ирана на 32-й день

Представьте себе: военный конфликт, где за 24 часа наносится удар по тысяче целей. Это не фантастика и не отчеты Пентагона из далекого будущего. Это, по заявлениям администрации Трампа, реальность 32-го дня войны с Ираном. Всего за месяц армия США поразила 11 000 объектов. Но за этими цифрами скрывается нечто более тревожное, чем просто мощь американской военной машины. За ними стоят алгоритмы.

Проект под кодовым названием Maven — это «Google Earth для войны». Карта, усеянная белыми точками, где каждая содержит координаты, высоту, тип объекта и пометку «свой» или «чужой». Именно эта система, под управлением ИИ, сегодня берет на себя работу, на которую раньше уходили месяцы. Как хвастается технический директор Palantir Шьям Санкар: «То, что требовало усилий 50–100 человек за полгода, сегодня делает один человек за две недели».

Они называют это «костюмом Железного человека», делающим солдат в 50 раз эффективнее. Но что происходит, если «костюм» дает сбой?

Трагедия в школе для девочек

Пентагон сейчас расследует инцидент, который может стать первым крупным скандалом эпохи алгоритмических войн. Удар по иранской школе для девочек унес жизни более 170 человек. В основном — детей.

Была ли это ошибка пилота? Нет. Следователи проверяют, не ошибся ли Project Maven. Тот самый ИИ, который должен был сделать войну «точной» и «гуманной». Это возвращает нас к фундаментальному парадоксу, с которого всё начиналось.

«Мы не хотим быть в бизнесе войны»

История Maven — это не только история технологий, но и история бунта. В 2017 году Пентагон, напуганный успехами Китая в ИИ, обратился в Кремниевую долину. Google согласился помочь. Но когда 3000 сотрудников узнали, что их работа над распознаванием изображений (кто-то из них до этого учил алгоритмы находить концентрические круги на свадебных тортах!) теперь убивает людей, они отказались.

«Google не должен быть в бизнесе войны», — заявили они. Компания вышла из проекта.

Эстафету принял Palantir — компания, построенная на больших данных, которая превратила Maven в главный командный дашборд, с которым американские военные работают каждый день.

Проблема трех пикселей

Журналистка Bloomberg Катрина Мэнсон, изучившая проект изнутри, описывает пугающую деталь. В ранних версиях алгоритмы Microsoft не могли отличить оружие на плече человека от корзины для продуктов. Разница иногда заключалась в трех пикселях на изображении.

Сначала Microsoft сдалась и упростила задачу до двух категорий: «люди» и «транспорт». Но проблема в том, что международное гуманитарное право требует от солдата различать мужчин, женщин и детей. Алгоритм, который видит просто «человека», бесполезен для соблюдения законов войны.

Да, технологии эволюционировали. В Украине Maven уже помогал наводить ракеты на российские мобильные установки за 18 минут. Но эволюция не отменяет вопроса: а что, если алгоритм ошибется? Иранская школа — возможно, именно такой случай.

Цена «честной войны»

Самая пронзительная деталь расследования Мэнсон — это не строки кода и не доктрины Пентагона. Это семья. Жена полковника Корпуса морской пехоты, который руководил внедрением ИИ, была против войны. Она хотела, чтобы мир был справедливым. Единственное, что помогало ей спать спокойно, — вера в то, что муж пытается сделать войну точнее, а значит, честнее.

Но может ли алгоритм быть «честным»? Полковник, прошедший Афганистан и Ирак, в конце концов признает: в этой технологии есть темные стороны. ИИ ускоряет принятие решений, но он же снимает с человека тяжесть выбора. А вместе с ней — и чувство вины.