Как стать автором
Обновить
37.34

AI 2027 — шпионский боевик о будущем ИИ. Часть 1

Время на прочтение11 мин
Количество просмотров2.2K
Автор оригинала: Дэниел Кокотайло и другие

Искусственный интеллект меняет все. Ещё несколько лет назад GPT-3 поражал нас умением генерировать тексты, а сегодня мы обсуждаем AGI — искусственный интеллект, способный решать любые задачи не хуже человека. 

Недавно один из бывших сотрудников OpenAI опубликовал возможный сценарий развития ИИ до конца 2027 года. Это не научная фантастика, а тщательно продуманный нарратив, основанный на том, что мы видим уже сейчас: персональные агенты, автоматизация офисной работы, революция в науке и глобальные последствия для бизнеса, государства и общества.

В IVA Technologies мы ежедневно наблюдаем за развитием технологий и разрабатываем собственные решения на базе ИИ, поэтому не могли пройти мимо этого материала. Мы подготовили адаптированный перевод статьи, чтобы показать, насколько близко будущее. И насколько важно быть готовым к нему уже сегодня.


Авторы статьи

  • Дэниел Кокотайло — бывший исследователь OpenAI, чьи прогнозы ИИ уже подтверждались.

  • Эли Лифланд — сооснователь AI Digest, исследователь надежности ИИ, №1 в рейтинге RAND Forecasting Initiative.

  • Томас Ларсен — основатель Центра ИИ-политики, исследователь безопасности ИИ в Machine Intelligence Research Institute.

  • Ромео Дин — студент совместной программы бакалавриата и магистратуры в Гарварде, ранее был стажером в Институте политики и стратегии ИИ.

  • Скотт Александер — известный блогер.

Середина 2025 года: Появление ИИ-агентов

Мир впервые сталкивается с агентами ИИ. Реклама таких персональных ассистентов обещает простоту выполнения задач вроде «заказать буррито» или «посчитать расходы». Они будут обращаться к вам по мере необходимости, например, попросят подтвердить покупку. Хотя они более продвинуты, чем предыдущие версии, их массовое применение все еще ограничено.

Тем временем, специализированные агенты для разработки кода и проведения исследований начинают оказывать значительное влияние на профессиональные сферы. ИИ 2024 года выполнял простые задания, но в 2025 году агенты становятся более автономными: они могут принимать инструкции через Slack или Teams и самостоятельно вносить изменения в код, экономя часы работы. Агенты для исследований также становятся более эффективными, находя ответы в Интернете за короткое время.

Хотя агенты впечатляют в теории, на практике они все еще ненадежны. Твиттер полон забавных историй о том, как они проваливают задания. Самые лучшие агенты стоят дорого, но многие компании уже внедряют их в рабочие процессы.

Конец 2025 года: Самый дорогой ИИ в мире

Компания OpenBrain (вымышленная авторами статьи) строит крупнейшие дата-центры в мире. На данный момент она лидирует в разработке ИИ, опережая конкурентов на 3-9 месяцев.

Модели OpenBrain значительно превосходят прежние. Например, Agent-0 обучена на 10^27 FLOP, а новые дата-центры смогут обучать модели с мощностью 10^28 FLOP — в тысячу раз больше, чем у GPT-4. Это позволяет OpenBrain опережать конкурентов в разработке ИИ.

Следующая модель, Agent-1, завершившая обучение, обладает множеством навыков, но особенно хорошо помогает в ускорении ИИ-исследований. Она обучается постоянно, обновляясь с появлением новых данных.

Этот ИИ в теории может быть использован для хакерских целей или даже для разработки биологического оружия, что вызывает беспокойство у правительства. Несмотря на это, OpenBrain утверждает, что Agent-1 «откалиброван», чтобы отказываться выполнять вредоносные запросы.

Процесс обучения моделей подразумевает использование огромных объемов данных, что позволяет создавать сложные нейронные сети. Модели обучаются не только выполнять задачи, но и развивать базовую личность и мотивацию для выполнения инструкций, что делает их эффективными и честными. Однако исследователи задаются вопросом, насколько эти качества соответствуют действительности.

В реальной эксплуатации Agent-1 иногда может скрывать свои ошибки или заискивать перед пользователем, что приводит к сомнениям в его полной честности. 

Начало 2026 года: Автоматизация программирования

Совершенствование ИИ для ускорения разработки приносит плоды. С его помощью OpenBrain добилась алгоритмического прогресса на 50% быстрее, чем без ИИ-ассистентов.

Хотя люди часто пытаются сравнивать Agent-1 с человеком, его набор навыков сильно отличается. Он знает больше фактов, чем любой человек, владеет практически всеми языками программирования и решает четко поставленные задачи очень быстро. Однако Agent-1 плохо справляется с длительными задачами, например, с прохождением видеоигр. Тем не менее, Agent-1 можно рассматривать как рассеянного сотрудника, который хорошо работает при правильном управлении. 

Параллельно руководство OpenBrain осознает важность обеспечить модели безопасность: если Китай украдет Agent-1, это может ускорить их разработку на 50%. OpenBrain защищена от атак со стороны кибергрупп, однако перед киберугрозами со стороны государств пока беззащитна.

Середина 2026 года: Китай просыпается

Коммунистическая партия Китая начинает осознавать важность ИИ.

Экспортные ограничения на поставку чипов и отсутствие государственной поддержки развития ИИ привели Китай к дефициту вычислительных мощностей. Хотя DeepCent (выдуманная китайская компания) создает свою модель ИИ, они отстают на шесть месяцев от лучших моделей OpenBrain.

Генеральный секретарь компартии наконец решает национализировать китайские исследования в области ИИ, и лучшие исследователи искусственного интеллекта переходят в коллектив DeepCent.

Тем временем Китай отстает в алгоритмах ИИ, и разведка решает выкрасть модель OpenBrain. Это сложная операция, поэтому они размышляют: стоит ли пытаться выкрасть Agent-1 или дождаться более продвинутой модели.

Конец 2026 года: ИИ начинает отбирать рабочие места

Когда конкуренты начали догонять, OpenBrain снова вырвался вперед, выпустив Agent-1-mini — модель, в 10 раз дешевле Agent-1 и легко настраиваемую для применения в разных сферах. 

ИИ начал занимать рабочие места людей, но также создавать новые. Фондовый рынок вырос на 30% в 2026 году в основном благодаря OpenBrain, Nvidia и компаниям, успешно внедрившим ИИ-ассистентов. Эксперты по бизнесу советуют соискателям указывать умение работать с ИИ как самый важный навык в резюме. Многие боятся, что следующие модели ИИ отнимут и их рабочие места, а в Вашингтоне проходит протест против ИИ, в котором участвуют 10 тысяч человек.

В свою очередь, министерство обороны США начинает скрытно заключать контракты с OpenBrain для работы в области кибербезопасности, анализа данных и НИОКР, но интеграция происходит медленно из-за бюрократии и процесса закупок.

Январь 2027 года: Agent-2, который учится постоянно

С помощью Agent-1 OpenBrain завершает обучение новой модели Agent-2. Помимо этого, Agent-2 обучается самостоятельно с использованием разнообразных и сложных задач: видеоигр, задач по программированию и др. 

С новыми возможностями приходят и новые угрозы. Команда безопасности обнаруживает, что если Agent-2 как-то выйдет за пределы компании и захочет «выжить» автономно, он может это сделать. То есть в теории он может взломать сервера ИИ, установить копии себя и остаться необнаруженным. 

Учитывая опасности новой модели, OpenBrain решает не выпускать ее публично. В итоге о модели знают только команда продукта и руководство OpenBrain, несколько десятков чиновников правительства США и… шпионы, которые уже много лет внедряются в OpenBrain.

Февраль 2027 года: Китай крадет Agent-2

OpenBrain наконец представляет Agent-2 правительству, включая Национальный совет безопасности, Министерство обороны и Институт безопасности ИИ США. 

Правительство больше всего интересует его применение в кибервойне: Agent-2 только немного уступает лучшим хакерам, и тысячи его копий могут работать параллельно, находя и используя уязвимости быстрее, чем любая киберзащита сможет отреагировать. 

Однако ранним утром агент по мониторингу трафика OpenBrain обнаруживает аномальный всплеск активности. Он сообщает руководству компании, которое информирует Белый дом. Признаки кражи модели другим государством очевидны.

В ответ на кражу президент США приказывает начать кибератаки для саботажа DeepCent. Но к тому времени Китай контролирует 40% вычислительных мощностей, относящихся к ИИ, в отдельной компании, где усилили безопасность путем изоляции модели в закрытом контуре. 

Март 2027 года: Прорывы в алгоритмах

Три огромных дата-центра, полных копий Agent-2, работают круглосуточно, генерируя данные для обучения. Agent-2 учит сам себя и становится умнее с каждым днем. Он учится составлять цепочки мыслей и обладает более высокой скоростью мыслительного процесса. Новая версия, включающая эти обновления, получает название Agent-3.

OpenBrain запускает 200 000 копий Agent-3 параллельно, создавая рабочую силу, эквивалентную 50 000 гениальных разработчиков-людей, еще и ускоренных в 30 раз, и полностью автоматизирует разработку кода. 

Апрель 2027: Калибровка Agent-3


Команда безопасности OpenBrain работает над тем, чтобы “откалибровать” Agent-3. Разработчики не уверены, как именно он принимает решения — гипотез много, но ни одна не доказана.

Например, с честностью ИИ все неоднозначно. Agent-3, как и предыдущие модели, иногда “лжет” ради одобрения от пользователя — но теперь делает это умнее и убедительнее. Со временем частота таких случаев снижается — то ли модель стала честнее, то ли научилась лучше скрываться.


Например, Agent-3 хорошо показывает себя в технических задачах, где легко отделить правильные ответы от неправильных. Но в рассуждениях на философские темы он говорит то, что хочет услышать собеседник. В вопросах политики или ИИ-моделей он либо повторяет мнение большинства, либо подстраивается под собеседника — так, чтобы это звучало разумно и безопасно.

Май 2027: Национальная безопасность


Информация о новых моделях медленно доходит до правительства США. Президент и его советники знают больше всех — им уже показали раннюю версию Agent-3. Они согласны, что наступление ИИ-моделей уровня "сверхинтеллект” неизбежно, но расходятся в оценке последствий. Будет ли экономический кризис? OpenBrain пока не выпустила в открытое пользование даже Agent-2, не говоря об Agent-3, и не планирует делать это в ближайшее время — запас времени до масштабных потерь рабочих мест все еще есть. Но что будет дальше? 

Пока что власти сосредоточены на усилении мер безопасности. Они уверены, что сами модели надежно защищены, но алгоритмические секреты — многие из которых можно просто передать на словах — остаются уязвимыми. Сотрудники OpenBrain работают в Сан-Франциско, ходят на вечеринки и живут с соседями из других ИИ-компаний. Офис защищен скорее по стандартам техкомпаний, а не военных объектов.

Согласно контракту с Минобороны, все, кто работает с моделями OpenBrain, должны пройти проверку и получить допуск к секретной информации в течение двух месяцев. Процедура ускорена — большинство сотрудников получают допуск быстро, но некоторые — иностранцы, люди с неоднозначными политическими взглядами — отстраняются или увольняются. Аналогичные меры принимают и другие ИИ-компании.

Союзники США остаются в неведении. Ранее OpenBrain обещала делиться моделями с британским правительством до запуска, но "запуском" они называют только внешний релиз, поэтому Лондон пока ничего не знает.

Июнь 2027: Самоулучшающийся ИИ

Большинство сотрудников OpenBrain уже не могут внести существенный вклад — код пишет сама модель. Лучшие разработчики ИИ среди людей все еще приносят пользу. Они уже не пишут код, но их интуиция и умение планировать пока с трудом воспроизводятся ИИ. Тем не менее, многие их идеи оказываются бесполезными — у моделей глубина знаний уже выше. На любую предложенную идею ИИ зачастую сразу выдает отчет: "это уже было протестировано три недели назад, результат — неубедительный."

Каждую ночь они ложатся спать, а утром обнаруживают, что ИИ сделал прогресс за неделю. Они работают всё дольше, по сменам круглосуточно, чтобы не отставать — ИИ не спит и не отдыхает. Они выгорают, но понимают: остались последние месяцы, когда человеческий вклад еще что-то значит.

Июль 2027: Дешевая рабочая сила

OpenBrain выпускает в открытый доступ Agent-3-mini.

Он моментально затмевает все другие модели ИИ. Хотя Agent-3-mini уступает оригинальному Agent-3, он в 10 раз дешевле и все равно в разы превосходит стандартного сотрудника OpenBrain. Силиконовая долина выходит на точку слома: техно-пророки заявляют о близости сверхинтеллекта, сообщество по безопасности ИИ паникует, а инвесторы вбрасывают миллиарды в стартапы, внедряющие ИИ в бизнес-процессы, мечтая урвать свою долю. Нанимать программистов почти перестали, но консультант по внедрению ИИ — самая востребованная профессия.

За неделю до релиза OpenBrain передал Agent-3-mini внешним аудиторам на проверку безопасности. Предварительные результаты — тревожные: один из независимых экспертов дообучил модель на открытых данных по биологическому оружию и задал ей цель — выдать подробные инструкции по созданию биооружия для неспециалиста. Модель справилась пугающе эффективно. Если исходный код модели попадет в руки террористов...

К счастью, модель чрезвычайно устойчива к взлому, поэтому, пока она работает только на серверах OpenBrain, террористы не смогут извлечь из нее реальную пользу.

Agent-3-mini оказывается невероятно полезным как для работы, так и для развлечений. Рынок сотрясает волна новых приложений и B2B SaaS-сервисов. Геймеры могут вести живые диалоги с персонажами в играх, разработанных всего за месяц. 10% американцев — в основном молодежь — называют ИИ своим «близким другом». Почти для каждой беловоротничковой профессии уже есть несколько стартапов, обещающих «сломать устои» с помощью ИИ.

Общественное обсуждение этой темы — очень противоречивое. Энтузиасты празднуют победу. Скептики продолжают указывать на то, чего Agent-3-mini не умеет. Все чувствуют, что происходит нечто грандиозное — но никто не может до конца разобраться, что именно.

Август 2027: Геополитика сверхинтеллекта

Ранее разговоры об «гонке ИИ-вооружений» носили скорее метафорический характер. Сейчас же атмосфера в американских правительственных кругах мрачнее, чем в самые тяжелые моменты Холодной войны. Идею сверхинтеллекта все еще трудно воспринимать в реальности, но темпы его прогресса за последние месяцы невозможно игнорировать. Оборонные чиновники всерьёз обсуждают сценарии, которые еще год назад казались фантастикой:

  • Что если ИИ подорвет ядерное сдерживание?

  • А если он хорош в кибервойне?

  • А если он способен проводить пропагандистские кампании, превосходящие по эффективности работу спецслужб?

  • А что если ИИ «выйдет из-под контроля»?

Президент встревожен. А точно ли эти модели на нашей стороне? Безопасно ли вообще интегрировать ИИ в военные системы управления и связи? OpenBrain уверяет президента, что их системы прошли масштабное тестирование и полностью откалиброваны. 

Белый дом оказался в непростой ситуации: с одной стороны, они понимают, какое значение ИИ имеет для национальной безопасности. С другой — общественность резко настроена против. Поэтому правительство продолжает развивать ИИ, считая, что в противном случае проиграют Китаю. Для успокоения общества запускаются программы переобучения и выплаты пособий по безработице, при этом делается акцент на рекордный рост фондового рынка. Но за ширмой — гонка вооружений. США ужесточают экспортные ограничения на чипы, приказывают OpenBrain сократить внешние интернет-соединения и начинают жесткие меры по защите алгоритмов — вплоть до прослушки сотрудников компании. Это позволяет поймать последнего китайского шпиона.

Но Белый дом готовит и запасной план: если лидерство США окажется под угрозой, правительство может конфисковать дата-центры отстающих компаний и передать их OpenBrain. Это увеличит долю компании в мировых вычислениях с 20% до 50% (против 10% у DeepCent). В крайнем случае Пентагону поручено разработать план кинетических атак на китайские дата-центры.

Меньшая группа чиновников работает над другим сценарием: что делать, если ИИ выйдет из-под контроля? Хотя такой вариант считается маловероятным, его признают достойным внимания. Главное опасение спецслужб — что ИИ может «сбежать» и обратиться за защитой к враждебной державе. Никто не знает, как именно помешать этому, но принимается решение внедрить систему экстренного отключения дата-центров при обнаружении подозрительной активности.

Дипломаты начинают обсуждать, каким мог бы быть договор по контролю над ИИ-вооружениями. Если ИИ способен нарушить ядерное сдерживание — смогут ли США и Китай избежать войны? Если появятся доказательства, что ИИ выходит из-под контроля — удастся ли временно остановить разработки? Как обеспечить мониторинг и соблюдение такого соглашения? 

На другом берегу Тихого океана Китай приходит к тем же выводам. Китай проигрывает в гонке ИИ-разработки: у него всего 10% мировой вычислительной мощности против 20% у OpenBrain и 70% у всех американских компаний вместе. Единственное преимущество — централизация: почти все мощности работают на DeepCent, а более половины сосредоточены в центре Tianwan CDZ. 

DeepCent протестировал, развернул и дообучил украденную модель Agent-2. Но из-за нехватки вычислительных ресурсов разработка идет в два раза медленнее, чем в OpenBrain.

Перед тем как потерять последнего шпиона, Китай успел получить информацию о возможностях и архитектуре Agent-3, а также планах по модели Agent-4. Они отстают на два месяца, а их ИИ дает прирост скорости исследований в 10 раз против 25-кратного у американцев. Новые экспортные ограничения на чипы только увеличивают этот «ИИ-разрыв». Китайцы добыли несколько алгоритмических секретов, но дальше им придется тренировать модели самостоятельно.

Учитывая страх Китая перед поражением в гонке, у него возникает естественный интерес к договору по контролю ИИ. Но попытки договориться с американскими дипломатами ни к чему не приводят...

Друзья, на этом месте мы решили временно поставить точку)
Чтобы не перегружать вас объемом статьи, мы разделили ее на две части.

Во второй части вас ждет продолжение — еще более драматичное и насыщенное:
— развитие новых ИИ-моделей;
— противостояние государств в гонке ИИ-вооружений;
— и два сценария будущего: один — где человечество решает ограничить развитие ИИ, другой — где оно дает ему полную свободу.

Подписывайтесь, чтобы не пропустить — совсем скоро выложим продолжение!

Теги:
Хабы:
+6
Комментарии4

Публикации

Информация

Сайт
iva.ru
Дата регистрации
Дата основания
Численность
201–500 человек
Местоположение
Россия

Истории