Я до сих пор помню тот день, почти два десятилетия назад, когда впервые вскрыла свой системный блок — он начал издавать какой‑то странный шум. Той ночью я сидела, скрестив ноги, на полу своей спальни перед открытым корпусом компьютера и смотрела на крошечные небоскребы, на это подобие города, красиво выстроенное на зеленой плате... Казалось, я наблюдаю за миром, �� которого есть свое собственное существование.

Позже я узнала, что этот миниатюрный мир называется материнской платой — главным местом, где всё соединяется и «разговаривает» друг с другом. В то время я не особо понимала, что делают все эти детали, но любопытство брало верх. Я прикасалась к ним с осторожностью, боясь сломать что‑то важное. Шум вентилятора оказался следствием банальной пыли, застрявшей внутри, — вещь простая, но для меня это было настоящим открытием.

В ту ночь я закрыла корпус с чувством гордости, словно разгадала маленькую тайну. Наверное, это был первый раз, когда я почувствовала себя комфортно рядом с машинами, перестала их бояться... Это чувство собственной малости посещает меня и сейчас, особенно когда я нахожусь среди огромных механизмов, вроде турбин, или когда смотрю на сплетение электрических компонентов. Их точность и тихая мощь напоминают мне о том, насколько я мала, и в то же время — как глубоко мы переплетены с вещами, которые сами же и создаем.

Оглядываясь назад, я понимаю, что тот тихий момент на полу спальни стал началом гораздо более длинного путешествия. Путешествия, в котором любопытство медленно перерастало в знакомство, а знакомство — в изумление от того, как далеко могут зайти эти машины.

Сегодня, глядя на развитие искусственного интеллекта, я вижу, что мы приблизились к той самой «зеленой плате» гораздо ближе, чем нам кажется.

Теперь ChatGPT пишет наши письма, Midjourney рисует наши сны, AlphaFold решает проблему сворачивания белков, которая десятилетиями ставила человечество в тупик, а системы автопилота учатся ориентироваться на наших дорогах.

Но я задаюсь вопросом: что именно совершает мыслительный процесс?

На время давайте отложим программное обеспечение в сторону. С моей точки зрения, то, что определит, получим ли мы в итоге сценарий фильма «Она» или «Терминатора», сейчас записывается на специализированные микрочипы, спрятанные в дата‑центрах с климат‑контролем и потребляющие столько электричества, сколько хватило бы для питания небольших стран.

И цифры трудно игнорировать. Ожидается, что рынок чипов для ИИ вырастет почти на 900 миллиардов долларов в период с 2024 по 2029 год. Это не нормальный рост, это среднегодовой темп роста в 81,2%, что означает настоящий взрыв. Этот рынок растет быстрее, чем росли смартфоны, и даже быстрее, чем распространялся интернет в 1990-х.

Вам не кажется, что кто‑то участвует в гонке по созданию «железного» мозга для искусственного интеллекта?


Невоспетые архитекторы ИИ

Чтобы понять, куда движется искусственный интеллект, нужно начинать не с софта или алгоритмов. Всё, с чего вам нужно начать — это чипы. Они тихо определяют, чем могут стать машины, и, делая это, отражают выбор и ценности, над которыми мы редко задумываемся.

Когда у графических процессоров (GPU) вырос мозг

Помните времена, когда видеокарты были нужны только для того, чтобы видеоигры выглядели лучше? Я помню. Я сидела ря��ом со своим старшим кузеном, пока он играл в гонки. Он играл, а я просто смотрела. Я не могла играть, была слишком мала, и он говорил, что игра для меня слишком сложная.

На моем первом игровом ПК стояла старая видеокарта, которая едва тянула небольшое подводное приключение, которое я обожала. Там нужно было плавать среди коралловых рифов, собирая монетки и избегая хищников и опасных течений.

Тогда GPU были простыми: они лишь заставляли фигуры двигаться быстро, а взрывы — выглядеть круто.

Позже GPU перешли на следующий уровень: их спроектировали для параллельных вычислений. Они берут тысячи простых расчетов и выполняют их одновременно — словно армия узкоспециализированных рабочих, долбящих одну и ту же проблему с разных углов. И знаете, чему еще требуется именно такой тип параллельной обработки? Обучению нейронных сетей.

Внезапно NVIDIA, компания, делавшая чипы ради того, чтобы геймеры могли видеть более красивые взрывы, осознала, что держит в руках двигатель бума ИИ. И с тех пор они не отпускают руль. Сегодня NVIDIA контролирует большую часть этой «недвижимости» — от 80% до 94% рынка ИИ‑чипов.

И вот что интересно: доминирование NVIDIA связано не только с тем, что у них самое быстрое «железо». Всё дело в CUDA.


CUDA: Дорога, по которой едут все

CUDA — это собственная система программирования NVIDIA, и это одна из самых умных ловушек в мире технологий. Представьте, например, что Ford не просто делал бы машины, но и строил бы все дороги, обучал всех механиков и писал вс�� учебники по вождению. В итоге 98% всех водителей учились бы ездить только по системе Ford. Это и есть CUDA.

В мире, где корпорации строят высокие стены вокруг своих технологий, мне всегда хочется иметь черный ход — собственную независимую лабораторию.

Именно такой свободной зоной стала платформа BotHub.

Здесь вы можете экспериментировать с разными моделями и сравнивать их стили. Всё это — без VPN и с удобной оплатой российскими картами.

По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе прямо сейчас!


Это универсальный переводчик между исследователями ИИ и оборудованием NVIDIA. И как только вы построили всю свою ИИ‑инфраструктуру на CUDA:

  • потратили месяцы на оптимизацию моделей,

  • обучили своих инженеров работе на платформе,

  • интегрировали её в свой рабочий процесс,

..переход на что‑то другое становится геркулесовой задачей.
Цена перехода — не просто финансовая, она экзистенциальная.

Если говорить лишь о поверхности, CUDA — это огромная многоуровневая платформа, смесь технологий, программных библиотек и оптимизаций, которые вместе создают мощную систему для параллельных вычислений. Она включает в себя:

  • Низкоуровневую модель параллельного программирования, позволяющую разработчикам использовать сырую мощь GPU с синтаксисом, похожим на C++.

  • Сложный набор библиотек и фреймворков — связующее ПО, обеспечивающее работу критически важных для ИИ кейсов (например, cuDNN для PyTorch и TensorFlow).

  • Набор высокоуровневых решений, таких как TensorRT‑LLM и Triton, которые позволяют запускать рабочие нагрузки ИИ (например, обслуживание больших языковых моделей) без необходимости глубоких знаний CUDA.

Бизнес‑стратегия NVIDIA одновременно впечатляет и немного пугает, прямо как в «Дюне». В «Дюне» «спайс» (пряность) чрезвычайно ценен, и от него зависят все. Точно так же NVIDIA не просто продает компьютерные чипы — они построили целую систему (софт, инструменты, библиотеки), от которой зависит каждый в сфере ИИ. Это делает их невероятно могущественными, а другие компании — зависимыми от того, что они предоставляют.


Когда монополии бросают вызов

Но монополии порождают недовольство, а где есть недовольство — там появляется возможность.

Intel, компания, которая когда‑то сама была монополистом в мире чипов, готовит возвращение со своими ускорителями Gaudi. Они знают, что не могут победить CUDA в зрелости программного обеспечения, поэтому они делают ставку на соотношение цены и производительности.

Хотя H100 от Nvidia немного быстрее, чем Gaudi 3 от Intel, Gaudi 3 предлагает гораздо лучшую ценность за свои деньги. Если учитывать стоимость, Gaudi 3 работает эффективнее во многих задачах инференса (выполнения) ИИ.

Это напоминает мне корабль Хана Соло, «Тысячелетний сокол», из «Звездных войн». Это не самый продвинутый или тяжело вооруженный корабль в галактике. Но он быстр, маневренен, и Хан знает, как выжать из него максимум. Intel позиционирует Gaudi как «Тысячелетнего сокола» среди ИИ‑чипов: функциональный и достаточно хороший, чтобы выполнить работу без ценника Империи.

AMD, тем временем, похожа на того трагического персонажа из любой научно‑фантастической истории, у которого есть огромный потенциал, но которого постоянно побеждают его собственные демоны. Их «железо» MI300X действительно впечатляет — это чистая лошадиная сила, способная конкурировать с новейшими предложениями NVIDIA. Но их софт, ROCm, вызывает массу технических головных болей. Пользователи часто сталкиваются с багами, сложностями в настройке и борьбой за стабильную работу.


Кремний учится преломлять свет

А еще есть по‑настоящему причудливые инновации — TPU от Google!

Эти тензорные процессоры (Tensor Processing Units) — специализированные интегральные схемы, чипы, созданные для выполнения ровно одной задачи (машинного обучения) с беспощадной эффективностью. Они не запускают игры и не просматривают веб‑страницы. Они просто... думают.

Но что мне показалось супер‑интересным, так это оптические переключатели цепей. Эти штуки используют 3D‑микроэлектромеханические системы (MEMS) — что есть не что иное, как микроскопические зеркала, чтобы физически перестраивать сетевые соединения между 4096 чипами TPU за миллисекунды.

Представьте суперкомпьютер размером со склад. А теперь представьте, что внутри этого склада тысячи крошечных роботизированных рук с зеркалами постоянно перенаправляют лучи света, чтобы изменить то, как все чипы общаются друг с другом. Это как разумная телефонистка‑коммутатор из 1950-х, только она механическая, работает со скоростью света и может переконфигурировать топологию всей сети на лету.

Это инженерия в её лучшем проявлении!

Эта феноменальная система роботизированного преломления света стоит менее 5% от общего бюджета суперкомпьютера и потребляет менее 3% его энергии.

Всякий раз, когда я читаю о подобной механике, я задаюсь вопросом: мы строим инструменты или мы случайно собираем субстрат для чего‑то, что в конечном итоге построит нас?

Компания Cerebras, тем временем, пошла совершенно другим путем. Пока все остальные пытаются объединить тысячи маленьких чипов в сеть, в Cerebras сказали:

«А что, если мы просто сделаем один чип размером с обеденную тарелку?»

Wafer Scale Engine 3 — это буквально самый большой чип, когда‑либо произведенный, единый кусок кремния с 900 000 ядер ИИ.

Для справки: обучение массивной языковой модели на традиционном кластере GPU может потребовать 20 000 строк кода для распределенных вычислений. На Cerebras это будет 565 строк — работа всего на один день!

Это Монолит из «Косм��ческой одиссеи 2001 года». Один единственный, непостижимый артефакт, который делает то, чего с трудом добивается целая цивилизация более мелких инструментов.


Масштабирование обнажает раскол экосистемы

Я знаю, это звучит нелогично, но я всегда чувствовала: чем больше я узнаю или исследую эту тему, тем больше кажется, что создавать ИИ на бумаге проще простого, но на деле всё становится только сложнее.

Формально мы живем в золотой век железа. GPU абсурдно мощные, специализированные ускорители появляются один за другим, сами модели захватывают дух, а просмотр демо‑версий похож на наблюдение за будущим, которое наступило досрочно, почти без усилий. Словно проблема интеллекта наконец решена, и всё, что осталось — это масштабировать его.

Но погодите!

Как только вы начнете читать исследования и заглядывать под капот, вы поймете, что экосистема раскалывается.

  1. У NVIDIA есть CUDA.

  2. У Intel есть oneAPI.

  3. У AMD есть ROCm.

  4. У Google есть TPU со своими собственными стеками.

И это еще до того, как мы доберемся до моделей.
Llama, GPT, Claude, плюс векторные базы данных, фреймворки промптов, слои оркестрации... Это лабиринт.

Я не строю эти системы изо дня в день и у меня нет технического бэкграунда, я в основном живу в научных статьях, но этот паттерн проявляется и там.

В каждой статье есть эта схема:

  • конкретная конфигурация оборудования,

  • конкретный фреймворк,

  • конкретная экосистема.

Результаты действительно впечатляют, но часто они хрупки. Когда пытаешься воспроизвести их вне этой точной настройки, результаты начинают рассыпаться.

Проблема в когнитивной перегрузке: область движется быстро, но в дюжине направлений одновременно.

Вот почему такие инициативы, как OPEA (Открытая платформа для корпоративного ИИ), интересны. Цель состоит в том, чтобы создать общие стандарты, единый набор правил для ИИ, подобно тому, как протокол TCP/IP обеспечивает работу интернета. Эти стандарты позволили бы различным моделям ИИ, инструментам и оборудованию работать вместе, не запирая всех в системе одной компании.

Но, очевидно, у этого есть и обратная сторона. Открытые стандарты сглаживают преимущества. Доминирование NVIDIA, например, связано не только с отличным оборудованием, но и с CUDA как защитным рвом. Просить компании полностью принять открытость — это немного похоже на просьбу к корпорации Tyrell из «Бегущего по лезвию» опубликовать чертежи репликантов. Это идет вразрез с их стимулами.

Так что настоящая борьба здесь не техническая, а философская.

Превратится ли инфраструктура ИИ во что‑то, принадлежащее и управляемое несколькими могущественными сущностями?

или

Станет ли она общим субстратом, на котором смогут строить наука, промышленность, общество и правительства?


Вычисления на грани экологического коллапса

А еще в этой истории есть часть, где все эти вычисления:

  • модели с триллионами параметров,

  • GPU, ревущие в дата‑центрах,

  • массивные циклы обучения

..имеют свою цену — энергопотребление!

Обучение одной большой языковой модели потребляет огромное количество энергии, измеряемое в мегаваттах. Электричества может уйти столько, сколько хватило бы для питания тысяч домов в течение нескольких недель — и всё это только для того, чтобы научить компьютер писать лучше.

Исследование Google по TPU v4 показывает, что использование эффективных, специализированных чипов в хорошо спроектированных дата‑центрах с низким уровнем выбросов углерода может снизить углеродный след обучения ИИ‑модели примерно до 5% от того, что было бы на стандартном оборудовании в типичном дата‑центре.

Однако есть нюанс. Этот уровень эффективности требует огромных первоначальных инвестиций и доступа к чистой энергии. Google может себе это позволить. Небольшие компании и исследователи — нет. Большинство из них обучают модели на том оборудовании, которое могут арендовать, используя ту электроэнергию, которая доступна.

Всё это заставляет меня вспомнить «Элизиум» — будущее, где небольшая богатая группа достигает технологического превосходства, в то время как остальной мир вынужден дышать выхлопными газами и нести экологическое бремя.


Размышления с кремниевого фронтира

Итак, где это оставляет нас?

Сидя здесь, в конце 2025 года, читая и говоря об этой многомиллиардной гонке ИИ, в которой доминирует горстка компаний с ресурсами, позволяющими формировать будущее, я думаю, что мы находимся на пороге сдвига. Чипы ИИ перестают быть просто более быстрыми версиями того, что у нас есть, и становятся чем‑то фундаментально иным.

Первое, что приходит мне в голову — это ров NVIDIA.
Конкуренты сдаются в попытках создать альтернативные экосистемы и вместо этого фокусируются на создании оборудования, совместимого с CUDA. При таком раскладе мы можем оказаться в мире, где одна компания контролирует субстрат искусственного интеллекта, и эта централизация становится одновременно стратегической уязвимостью и монополистическим кошмаром.
Разве это не напоминает эпоху Microsoft в 90-х?

Вторая возможность — продолжение фрагментации.
Каждая крупная технологическая компания создает свой собственный проприетарный кремний и программный стек. Из‑за этого развитие ИИ оказывается запертым в несовместимых платформах. Вместо того чтобы двигаться вперед вместе, разработчики тратят время и энергию на слои‑трансляторы и хаки совместимости — работу, которая на самом деле не толкает инновации вперед.

Третья вероятность — успех движения за открытые стандарты.
OPEA и подобные усилия стремятся заставить различные системы ИИ работать вместе гладко. Оборудование, например, начинает восприниматься как стандартные серверы: вы выбираете его, основываясь на стоимости и эффективности, а не потому, что вы заперты в софте одной компании. Это позволяет исследователям экспериментировать более свободно на разных платформах, тем самым ускоряя прогресс. Это, я полагаю, оптимистичный путь.

Четвертый вариант, возможно, я здесь слишком амбициозна — квантовые чипы наконец созреют и сделают сегодняшний кремний устаревшим.
Давайте пойдем еще дальше: нейроморфные вычисления — чипы, которые фактически имитируют биологические нейроны — докажут свое превосходство для задач ИИ.

Я не знаю, к какому будущему мы движемся. Это всего лишь предположения, которые я собрала в ходе исследований и с которыми отчасти согласилась. Но ясно одно: решения, которые мы принимаем сегодня относительно компьютерных чипов, программного обеспечения, дата‑центров и энергии, которая их питает, повлияют не только на то, кто победит в гонке ИИ, но и на то, в каком мире мы все в итоге будем жить.

Глядя на траекторию, можно быть уверенной в одном: мы строим искусственные умы, которые могут в конечном итоге превзойти человеческий интеллект. И мы строим их на субстратах — этих специализированных чипах, — которые контролируются горсткой компаний, требуют колоссальных затрат энергии и настолько сложны, что даже эксперты с трудом могут предсказать их поведение.

В «Матрице» падение человечества произошло потому, что мы создали ИИ, не задумываясь о последствиях. Но настоящее предостережение не о злобном ИИ. Оно о централизованном контроле, о том, кто получает право создавать богов, а кому просто приходится жить с ними.

Каждый чип, выходящий из литейных цехов TSMC на Тайване, каждый петафлопс вычислений, добавленный в дата‑центр в Оклахоме, каждая строка кода CUDA, закоммиченная на GitHub, каждый датасет, размеченный и выложенный в сеть, каждая обученная и донастроенная модель — это строительные блоки того, что наступит следом.

И в отличие от программного обеспечения, которое можно переписать, «железо» физично. Оно постоянно. Выбор, который мы делаем относительно кремниевой архитектуры сегодня, будет отзываться эхом на десятилетия вперед.

Я всё еще оглядываюсь на ту ночь на полу моей спальни, когда я смотрела на материнскую плату, чувствуя себя маленькой, но полной любопытства. Сегодня машины быстрее и умнее, но чувство осталось тем же. Каждый чип, который мы создаем, каждая строка кода формирует не только ИИ, но и мир, в котором мы будем жить. И сейчас я думаю:

Любопытство привело нас сюда, но лишь мудрость определит, куда мы пойдем дальше.