Несмотря на проблемы, вызванные санкциями и уходом ведущих зарубежных производителей рынка, российским компаниям, развивающим искусственный интеллект (ИИ), пока удаётся закупать необходимое оборудование. В первую очередь это видеокарты Nvidia, пригодные для объединения в высокопроизводительные кластеры, пишет «Ъ».
Российские технологические компании, работающие над проектами в области машинного обучения, в 2023–2024 годах вслед за мировым рынком стали активнее коммерциализировать. «Яндекс» и Сбербанк не только интегрировали большие языковые модели (LLM) YandexGPT и GigaChat в свои ассистенты, но и позволили компаниям обращаться к ним за обработкой или генерацией контента. Продукты и функции на базе генеративного ИИ, использующие собственные LLM, также представили VK и МТС.
Создание LLM требует значительных вычислительных мощностей. Чем больше у модели параметров, тем выше её способности и число операций, предпринимаемых для её тренировки. Само по себе обращение к нейросетям, прошедшим тренировку, также расходует ресурсы. По словам директора бизнес‑группы поиска и рекламных технологий «Яндекса» Дмитрия Масюка, стоимость ответов на основе YandexGPT в пересчёте на пользователя в семь раз выше, чем при использовании классических технологий.
В работе с ИИ важную роль играют графические ускорители. Исходно они использовались только для задач, связанных с компьютерной графикой: видеоигр, 3D‑моделирования и рендеринга и т. п. Однако в 2006 году американский производитель Nvidia дал разработчикам возможность применять видеокарты для вычислений общего характера. Устройства одновременно производят множество алгебраических вычислений, что важно для ИИ‑задач. По итогам 2023 года на серверные графические ускорители Nvidia приходится 97% всей выручки, которую приносит сегмент во всем мире, следует из исследования Dell’Oro Group.
В VK число связанных друг с другом высокопроизводительных серверов (HPC-кластеры), оснащённых графическими ускорителями, растёт «примерно в полтора раза быстрее "обычных"», рассказал “Ъ” вице-президент компании по ИИ, контентным и рекомендательным сервисам Антон Фролов. Часть кластеров используют для выполнения ИИ-задач, часть — для обучения моделей.
Рост спроса на ресурсы подтвердили в Beeline Cloud: «Мы увеличили объём закупок серверов, оснащённых графическими процессорами, преимущественно видеокартами серии Nvidia A100».
Российские игроки покупают и более новые, производительные ускорители на архитектурах Ada и Hopper. Selectel, по словам менеджера ML-продуктов компании Антона Чунаева, стала покупать больше видеокарт Nvidia RTX A6000 (для рабочих станций) и Tesla H100 (для серверов).
Между тем Nvidia, как и большинство других поставщиков, с 2022 года в РФ формально не работает, не поставляет продукцию и не поддерживает её. Отгрузки в адрес подсанкционных компаний чреваты уже вторичными санкциями. Наиболее высокопроизводительные компоненты подпадают под экспортный контроль и при поставках в ряд других стран, в частности в КНР.
Санкции усложняют закупки и поставки серверов «с адекватными конфигурациями и ценами» и приводят к разрыву в доступности мощностей между странами, признают в Beeline Cloud. Это, подчёркивает источник «Ъ» среди производителей электроники, сдерживает рост рынка ЦОДов: «В России есть компании, готовые много инвестировать в ИИ‑дата‑центры, но нет тех, кто способен поставить оборудование в нужном объёме». По словам собеседника «Ъ», один из крупнейших российских операторов ЦОДов «несколько раз открывал тендеры на поставку на миллиарды рублей, но её никто не смог обеспечить».
Уход поставщиков из РФ затруднил масштабирование вычислительных ресурсов для задач, связанных с ИИ, подтверждает Антон Чунаев: «Привезти и собрать средние по производительности серверы ещё можно, но использование высокопроизводительных вендорских платформ стало сопровождаться большим риском». Малейшая поломка, объясняет он, в отсутствие официальной поддержки может привести к необходимости полностью менять платформу, «обеспечение непрерывной работы потребует закупки резервных платформ, которые будут простаивать, или принятия рисков потери какого‑то их количества».
В будущем, по мнению директора по продажам «Инферита» Олега Епишина, сформируется спрос на оптимизированные для ИИ рабочие станции, в частности, за счет тех, кто хочет развертывать нейросетевые модели в конфиденциальном режиме. «Это не уникальные суперкомпьютеры, как у Nvidia, а более доступные решения»,‑ отмечает он. Но руководитель «Лаборатории инноваций Норбит» (входит в «Ланит») Дмитрий Демидов считает, что эксперименты с локальным запуском LLM что на мощных рабочих станциях, что на обычных ПК выглядят скорее «неэффективными».