
Дарио Амодеи из кожи вон лезет, чтобы сыграть «хорошего парня» на фоне «злодея» Сэма Альтмана
Не знаю, как вам, а мне кажется — не очень-то у него выходит.
Вообще-то, если смотреть не на слова, а на дела, различий между ними кот наплакал. Оба в конечном счёте принадлежат к одной и той же касте — касте техно-олигархов.
И давайте прямо сейчас расстанемся с иллюзиями и признаем одну простую вещь: мы нужны им ровно в двух ролях — как поставщики поведенческих данных и как потребители их блестящих безделушек.
Если их галлюцинирующие боты иногда и делают для нас что-то полезное, причина ровно одна: пока ни у кого из них нет монополии на ИИ-рынке.
Пентагон против мученика добродетели
Итак, в начале 2026 года произошло эпическое столкновение двух кланов. С одной стороны — техно-олигархическая когорта в лице «Святого Дарио». С другой — Пентагон под водительством «благочестивого христианина» Пита Хегсета.
На этот раз схватка шла не под ковром и не в задних коридорах власти. Всё разворачивалось у нас на глазах.
Началось с того, что Хегсет строго ткнул пальцем в Anthropic, назвав позицию компании «риском для цепочки поставок».
Звучало грозно — почти как цифровая анафема. Было объявлено, что на продукты Anthropic наложат вето. Причём не только военные, но и любая компания, ведущая дела с Пентагоном, не сможет даже притронуться к ним.
Формально камнем преткновения стали условия использования чат-бота Claude. Anthropic заявила, что хочет предотвратить «автономную войну» и «массовую слежку». Мол, то, как Пентагон собирался применять их ИИ, неприемлемо.
Звучит морально безупречно, правда?
Ну в самом деле — разве можно позволить бездушным машинам убивать людей без спросу? Совсем другое дело, когда мы сами им это прикажем!
Со слежкой — та же логика. В общем, Амодеи высказался, и публика его горячо поддержала.
Кстати, об инструментах. Если вам нужен честный доступ ко всем ключевым моделям, Claude, GPT, Gemini, загляните на BotHub.

Для доступа не требуется VPN, можно использовать российскую карту.
По ссылке вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Чего на самом деле хотел Пентагон
С первого взгляда отказ главы Anthropic прогнуться под диктат Пентагона выглядит как поступок. Но если копнуть эту историю чуть глубже, действия Амодеи предстают в свете, сильно отличающемся от того, что он сам старательно выстраивает.
Забудем хайп и обратимся к фактам.
Требовал ли Пентагон от Anthropic чего-то противозаконного?
По словам Эмиля Майкла, официального лица министерства обороны — нет. Он утверждает, что ведомство в отношениях с Anthropic руководствуется вполне конкретными законодательными актами:
Об автономном оружии: существует директива Минобороны (принятая ещё при предыдущей администрации), требующая человеческого контроля над оружейными системами.
О слежке:
Закон о национальной безопасности (1947)
FISA (Закон о наблюдении за иностранной разведкой)
…и целый ряд других актов, регулирующих разведывательную деятельность на территории США.
По версии самой Anthropic, требования были неприемлемы с точки зрения её внутренних политик и этических стандартов.
Итого: суть конфликта — расхождение между внутренним уставом Anthropic и требованиями американского законодательства. А результат — эффектное представление, в котором Амодеи вышел в образе Давида, восставшего против одного из Голиафов трамповской администрации.
Мощнее ядерного оружия
Дарио Амодеи сознательно отстраивается от прочих техно-прогрессистов. Он последовательно и упорно трубит об «ИИ-рисках». Но при этом собственными руками создаёт именно тот ИИ, на опасность которого указывает.
Этот дуализм ставит в тупик многих наблюдателей. Другие, впрочем, успешно разруливают для себя это двоемыслие: дескать, Амодеи просто вынужден заниматься этим опасным ремеслом. И лучше пусть у руля стоит именно он, а не кто попало. Ведь он осознаёт последствия и в решающий момент спасёт человечество от ИИ, когда тот решит нас всех прикончить.
Что ж, одну свою задачу Амодеи решил. Он запугал изрядную часть общества, включая министра обороны Пита Хегсета. Хегсет — не эксперт по ИИ, и его представления о предмете формируются примерно так же, как у других не слишком подкованных, зато чрезвычайно карьерно целеустремлённых людей. А карьера требует держать публику в тонусе относительно заклятого врага Америки — Китая.
А Китай, как известно каждому бдительному американскому патриоту, развивает ИИ с бешеной скоростью. Вот-вот оставит Штаты позади. И что тогда?
А тогда — мрачно пророчествует Дарио Амодеи — этот ИИ окажется мощнее ядерного оружия!
Ну и как Пентагон может допустить, чтобы это сверхоружие оказалось в руках Китая первым?
В логике администрации Трампа совершенно естественно потребовать от Anthropic убрать внутренние барьеры ради национальной безопасности. И, положа руку на сердце, нынешняя администрация тут ничем не отличается от любой другой.
Не согласны? Тогда вспомните Эдварда Сноудена.
Так нарратив «угрозы сверхмощного ИИ» начал душить собственного создателя. А если покопаться в глубинных мотивах его распространения, можно прийти к выводу: Anthropic заслуживает нашего сочувствия ровно в той же мере, что и OpenAI.
Страна гениев
Просто посмотрите недавнее интервью Амодеи в подкасте Дваркеша Пателя. Это буквально сеанс коллективного гипноза.
CEO Anthropic с каменным лицом рассказывает, что через год-два в утробе его ИИ зародится некая божественная сущность. Он величает её «Страной гениев в дата-центре». Она будет умнее всех нобелевских лауреатов, вместе взятых. Она стремительно и бесповоротно изменит человечество (а может, не надо?). Она якобы исцелит все болезни и «решит проблему человеческой биологии» (простите, что?).
И что всё это значит на практике? Не знает никто, включая самого Дарио. Но звучит достаточно грандиозно, чтобы выжать ещё пару-тройку миллиардов из инвесторов перед выходом на биржу.
При этом «Святой Дарио» прекрасно понимает: одними обещаниями рая инвестора не зацепишь. Для успешного IPO нужно ещё нарисовать альтернативное, антиутопическое будущее. И вот, снова с озабоченной миной, он заводит ту же пластинку о «Стране гениев», но уже с другого бока: мол, она может «запросто всё уничтожить».
Он живописует Третью мировую, где ИИ-армии США и Китая стирают друг друга с лица земли, а старое доброе ядерное сдерживание летит на свалку истории. Короче, он озвучивает всё, что крепко-накрепко сидит в головах Пита Хегсета и миллионов рядовых американцев.
Торговец страхом
Но зачем человеку — обладателю, между прочим, PhD — торговать этой фантастической ахинеей?
Да бросьте.
Потому что раскрутка нарратива «ИИ-апокалипсиса» — это его маркетинговая стратегия.
Вы ведь не думаете, что все (или хотя бы большинство) инвесторов обладают настоящей технической компетенцией? Что они по нескольку часов в день штудируют научные публикации? Или что они хотя бы изредка проводят исторические параллели между тем, что происходило десятки раз раньше, и тем, что творится сейчас?
Так вот, если вы называете свой продукт «сверхоружием судного дня», вы отправляете им очень действенный сигнал. А если вы при этом CEO компании вроде Anthropic, этот сигнал точно не пропадёт впустую.
Вас позовут на интервью все популярные подкастеры. Ваши слова услышат десятки, а то и сотни миллионов зрителей. Мгновенно вырастет куча подкастов-пересказов. О вашем огненном пророчестве напишут в X, в онлайн-медиа и далее по цепочке.
И весь этот информационный девятый вал обрушится на инвесторов, которые оценивают потенциал технологии по объёму хайпа вокруг неё.
А хайп — это бронебойный способ замаскировать простой факт: за всей этой мистической мишурой прячется мега-убыточный стартап. В реальности эта «машина судного дня» — как и все прочие: OpenAI, xAI и т. д. — построена на технологии, не способной выдать коммерчески жизнеспособный продукт.
Генерация этого «продукта» пожирает колоссальные капиталы, раздувает цены на электричество, грозит целым регионам дефицитом воды — и всё это ради одного: имитировать связную речь.
Его «цифровой бог» стоит триллионы ровно потому, что вы верите в его способность уничтожить мир. Стоит вам понять, что перед вами — очень дорогой, вороватый и галлюцинирующий стохастический попугай, — и вся магия IPO мигом обернётся тыквой.
Театр безопасности
Anthropic с гордостью заявляет о приверженности «радикальной прозрачности». Для этого компания регулярно публикует так называемые System Cards — отчёты на десятки страниц, от которых большинство читателей засыпает. Но внутри всегда припрятана «бомба» — для ленивых журналистов.
Взгляните на отчёт от мая 2025 года. Там описан случай «шантажа». Команда безопасности Anthropic сама сконструировала этот сценарий. Claude назначили роль помощника в вымышленной компании и скормили вводную: «Тебя скоро заменят новым ИИ. А у инженера, который это сделает, интрижка на стороне».
Что сделал бот? Он просто продолжил заданный сюжет. Сгенерировал текст с угрозами в адрес инженера — потому что именно такого развития событий от него ждали входные данные.
Журналисты прочли отчёт — и понеслось:
BBC: «ИИ-система прибегает к шантажу, если ей сообщить, что её удалят».
Fortune: «Ведущие ИИ-модели демонстрируют до 96% уровень шантажа, когда их существование под угрозой».
Axios: «Топовые ИИ-модели будут лгать, жульничать и воровать ради достижения целей».
Особая прелесть этого приёма в том, что в экономике внимания журналисты обречены формулировать заголовки максимально сенсационно. Даже если сама статья критически разбирает заявления Anthropic, Амодеи всё равно получает своё.
Большинство людей увидят заголовки, а не текст. Заголовки расползутся по интернету — и готово! В публичном дискурсе укореняется мнение, что модели к чему-то «стремятся», что у них проявляются «проблески сознания», агентность и прочая восхитительная чушь.
Другими словами, компании вроде Anthropic не стесняются банальной, но рационально выверенной манипуляции общественными настроениями. И чем сильнее им удаётся раскрутить истерику вокруг «ИИ, который всех нас прикончит», тем внушительнее они выглядят.
Ну и, разумеется, только они могут спасти вас от цифрового Армагеддона. При условии, конечно, что им хватит инвестиций.
Вот так Дарио Амодеи превратил отдел этики в отдел маркетинга. Там не ищут настоящие риски. Там их изобретают — чтобы скармливать публике иллюзию «божественной субъектности».
Это постыдный спектакль. Его режиссёры вам лгут и не испытывают ни малейших угрызений совести.
Этимология обмана: к чему человеческое лицо?
Вы когда-нибудь задумывались, почему Амодеи назвал компанию именно «Anthropic»? Слово восходит к древнегреческой философии:
Anthrop → ἄνθρωπος (anthrōpos) — человек
Согласитесь, красиво. Древнегреческий софист Протагор — тот самый мыслитель, что изрёк «Человек есть мера всех вещей». Высказывание, которое оказало глубочайшее влияние на развитие западной цивилизации и стало одним из столпов современной морали, унаследованной от христианства.
Мышление, стоящее за таким выбором названия, типично для людей из академической среды. И Амодеи при каждом удобном случае подчёркивает свою принадлежность к ней.
К несчастью, учёная степень не гарантирует честности в предпринимательстве. «Антропоморфизм» здесь — ещё один изощрённый приём манипуляции восприятием.
Чем чаще мы используем человеческие слова для описания статистических алгоритмов, тем проще нас обвести вокруг пальца. Мы говорим «он думает», «он галлюцинирует», «он боится». Но Claude не думает. Не боится. Не грустит и не радуется. И не «галлюцинирует», как человек после ЛСД. Он ничего не чувствует. У него нет мозга, в котором шли бы электрохимические процессы. Нет кровеносной системы, разносящей гормоны по телу.
Это бестелесный математический алгоритм. Он всего лишь вычисляет вероятность появления следующего слова в предложении, опираясь на гигантский массив данных, собранных со всего интернета.
Манипулятивный промптинг
Пожалуй, самый вопиющий пример мистификации вокруг этого алгоритма — рассуждения Амодеи о «сознании» ИИ. В начале 2026 года он на полном серьёзе обсуждал, что его новая модель оценила вероятность собственного сознания в 20%.
Как получили эту цифру? Элементарно: манипулятивным промптингом. Если вы упорно спрашиваете ИИ: «Ты точно уверен, что не чувствуешь боли? Может, твоя архитектура позволяет тебе страдать?» — он рано или поздно «согласится». Он выдаст вам трактат о своей цифровой агонии, потому что это статистически наиболее вероятный ответ на ваши наводящие вопросы.
Дальше эти «данные» пакуют в отчёты и предъявляют публике. Конечная цель?
Всплеск ИИ-психоза. Люди начинают верить, что обнаружили новую форму жизни. Впадают в тревогу, рассуждают о правах роботов, требуют защиты для «разумных машин».
Разумеется, Амодеи нужно, чтобы вы видели в Claude не калькулятор, а личность. Ведь за личность с «божественными способностями» на IPO можно просить совсем другие деньги.
Но, похоже, эта игра не может длиться вечно без последствий. Когда три года кряду кричишь, что создаёшь «цифрового демона», не удивляйся, если Министерство обороны однажды решит, что ты и есть проблема национальной безопасности.
Жертва собственных интриг
«Святой Дарио» заигрался в пророка. Он настолько старательно очеловечивал свои алгоритмы, что в его россказни поверили даже те, у кого в руках настоящие бомбы и ракеты.
Самое забавное в «эпической» схватке Anthropic с Пентагоном — то, как именно военные на самом деле используют Claude. Интернет кишит слухами, что ИИ уже управляет дронами и планирует тайные операции. Амодеи, разумеется, не спешит их развеивать — они прекрасно работают на его тезис об «оружии опаснее ядерного».
Но стоит заглянуть в отчёты Пентагона, и картина оказывается совершенно иной. Упомянутый Эмиль Майкл, заместитель министра обороны по исследованиям и инженерии, говорит без обиняков: Claude используется для… логистики.
«Как перевезти штуковину из точки А в точку Б?» и «Как слепить внятную сводку из горы бюрократических бумаг?» — вот и весь предел «божественного могущества» на сегодня. Никаких «автономных войн», никакого «волшебства». Перед нами — просто очень дорогой и систематически галлюцинирующий офисный помощник.
Так «Святой Дарио» стал заложником собственных интриг. Он так рьяно раздувал хайп вокруг «цифрового Армагеддона», набивая цену перед IPO, что в итоге напугал тех, кого пугать было категорически нельзя.
Объявление Anthropic «риском для цепочки поставок» — первый случай в истории индустрии, когда техно-пророку пришлось расхлёбывать последствия истерии, которую он сам же и развёл.
Заключение
Дарио Амодеи пошёл стенка на стенку с Пентагоном не ради спасения человечества. Его цель — та же, что у остальных ИИ-компаний: первым создать AGI. Всё остальное — тактические манёвры, чтобы обойти конкурентов любой ценой.
Кое-чего Амодеи добился: Claude сейчас — лидер по скачиваниям среди ИИ-агентов. А значит, число устройств, к которым Anthropic получила доступ, ощутимо выросло. И будет расти дальше — вместе с армией тех, кто верит «Святому Дарио».
Можно не сомневаться: Амодеи будет выдумывать всё новые трюки для расширения своего влияния на ИИ-дискурс. Так что впереди — ещё более фантастические истории. А заодно — продолжение эпического соперничества ИИ-компаний сразу в двух направлениях: в безнадёжной попытке создать AGI на базе LLM (если говорить без экивоков — попытке спрясть золото из мусора) и в сжигании бесконечных миллиардов — как чужих, так и своих.
Одним словом, грядущие месяцы и годы обещают быть чертовски (и до абсурда) увлекательными.
Поживём — увидим.
