Как стать автором
Поиск
Написать публикацию
Обновить

ИИ хочет больше данных. Больше чипов. Больше недвижимости. Больше электроэнергии. Больше воды. Больше всего

Время на прочтение12 мин
Количество просмотров860
Автор оригинала: Lynn Doan

Бизнес, инвесторы и общество готовятся к шоку спроса, вызванному развитием искусственного интеллекта (ИИ). Кажется, все просто: задайте ChatGPT вопрос, и он ответит. Но если присмотреться, выясняется, что каждый запрос к ChatGPT или задача Microsoft Copilot потребляют огромные ресурсы. Миллионы человек занимаются созданием, корректировкой и обучением моделей. Используется такое количество тераватт-часов электроэнергии, которого хватило бы для обеспечения целых стран. По всему миру строятся огромные кампусы дата-центров. Создаются сети линий электропередач и интернет-кабели. Тратятся вода, земля, металлы и минералы. Искусственному интеллекту нужно все это, и в будущем потребуется еще больше.

Исследователи подсчитали, что один запрос ChatGPT требует почти в десять раз больше электроэнергии, чем традиционный поиск Google. Обычный поисковик сканирует Интернет в поисках контента и сохраняет его в массивном индексе. Последние продукты ИИ основаны на так называемых больших языковых моделях (Large Language Models, LLM), которые обучаются на миллиардах слов текста — от полных собраний сочинений Уильяма Шекспира до самых свежих прогнозов Федеральной резервной системы. Эти модели обнаруживают закономерности и связи и генерируют миллиарды так называемых параметров, которые помогают им имитировать человеческое поведение. С помощью этих моделей системы вроде ChatGPT создают новый контент — отсюда и термин «генеративный ИИ».

Ресурсоемкая природа ИИ создает победителей и проигравших. У тех, у кого больше ресурсов, будут самые продвинутые системы ИИ. Это ведет к столкновениям за все более дефицитные товары, а также за доступ к чипам. Также это побуждает технологические компании искать более эффективные способы разработки ИИ. Они вкладывают миллиарды долларов в альтернативные энергетические решения, такие как ядерный синтез, которые годами, если не десятилетиями, буксовали без серьезных инвестиций и технологических прорывов. В то же время спрос со стороны ИИ усиливает давление на дальнейшее сжигание ископаемого топлива для питания электросети, даже несмотря на то, что мир идет к тому, чтобы провалить ключевые целевые показатели по выбросам в борьбе с изменением климата.

Хотя наращивание инфраструктуры для ИИ представляет собой огромную возможность для инвесторов, бизнеса и общества, в этом процессе есть и опасности. Многие подняли вопрос о потенциальном вреде и предвзятости таких систем. Тем временем Уолл-стрит устала ждать, когда эта технология превратится в значимые прибыли. Даже ориентация на эффективность может обернуться черной тучей для тех, кто реинвестирует в инфраструктуру. Ниже — более подробный взгляд на все, что индустрии ИИ нужно, чтобы поддерживать работу своих моделей.

Дополнительные 1 000 ТВт·ч электроэнергии

ИИ работает и функционирует преимущественно в огромных дата-центрах, набитых материнскими платами, чипами и накопителями. Сейчас потребность этих дата-центров в электроэнергии уже превышает имеющиеся возможности во многих регионах мира. По прогнозам Goldman Sachs, к 2030 году доля потребляемой электроэнергии дата-центрами США достигнет 8 % от общего объема потребления в стране — почти в три раза больше, чем в 2022 году, когда разгорелся бум ИИ. Эксперты Goldman Sachs называют это «беспрецедентным ростом потребления электроэнергии за поколение». Аналогичный скачок ожидается и в Швеции и Великобритании. По прогнозам, к 2034 году годовое потребление электроэнергии дата-центрами превысит 1580 ТВт·ч, а сейчас оно составляет около 500 ТВт·ч — это примерно столько же, сколько потребляет вся Индия в год.

Дата-центры, которыми управляет Alphabet Inc. (Google), потребили более 24 тераватт-часов электроэнергии в 2023 финансовом году — рост более чем на 31% по сравнению с 2021 годом. Общие затраты Microsoft Corp. были примерно на том же уровне, что при этом означало рост на 70% по сравнению с показателями двухлетней давности. Крупнейшие технологические компании мира все острее осознают, что электричество может стать самым разрушительным узким местом в цепочке поставок ИИ, и они спешат зафиксировать долгосрочные поставки. В мае Microsoft и подразделение Brookfield Asset Management, занимающееся зеленой энергетикой, подписали крупнейшее корпоративное соглашение по покупке чистой энергии.

В октябре крупнейший в мире производитель солнечной и ветровой энергии NextEra Energy Inc. сообщил, что заключил сделки о потенциальной разработке 10,5 гигаватта возобновляемой энергии и систем хранения к 2030 году — причем только для двух компаний из списка Fortune 50. Знак грядущих столкновений они даже не являются технологическими компаниями. «Бум еще больше повысил ценность для других отраслей, не связанных с дата-центрами, в попытке закрепить за собой недорогую возобновляемую генерацию», — сказал инвесторам генеральный директор NextEra Джон Кечум. «Здесь прилив поднимает все корабли».

Все ископаемое топливо, которое можно добыть, и даже больше

Уголь остается одним из самых углеродоемких источников энергии и по-прежнему обеспечивает около трети мирового производства электроэнергии. На долю газа приходится еще примерно 20 %. В последние годы число ветряных и солнечных электростанций растет, но их переменный характер и отсутствие массивных хранилищ затрудняют равномерную подачу энергии для дата-центров, которые зависят от непрерывного электроснабжения.

Google разработал технологию, которая ищет избыток солнечной или ветровой энергии в сети и перенаправляет его на работу дата-центров в этом регионе. Однако на сегодняшний день единственным надежным круглосуточно источником без выбросов остается ядерная энергия. Именно поэтому Microsoft в сентябре подписала контракт на перезапуск реактора на АЭС «Три-Майл-Айленд» в Пенсильвании, где в 1979 году произошел печально известный частичный распад активной зоны. Примерно через месяц Amazon объявила о трех контрактах на строительство малых реакторов, а Google инвестировала в компанию по созданию модульных реакторов и согласилась закупать у нее энергию. «Что вы серьезно? Ядерная электростанция? Неужели это не шутка?»

В сентябре поинтересовался Ларри Эллисон, глава Oracle, на ежегодной встрече с аналитиками. «Звучит как что-то фантастическое… Такое вообще когда-нибудь было?», — добавил он с заметной долей скепсиса.

Электросетям потребуется в 100 раз больше мощности

Линии электропередач и трансформаторные подстанции — самая недооцененная часть цепочки ИИ. Новые дата-центры подключаются к устаревшим и перегруженным сетям, которые уже сейчас работают на пределе и уязвимы к стихии (вспомним ураган «Хелен»). На конференции Bloomberg Intelligence сооснователь компании CoreWeave Брайан Вентуро отметил: такие как его компании строят гигантские кампусы дата-центров, которые существенно нагружают сеть. Представьте районную подстанцию, рассчитанную на 30 МВт: около 5 МВт из них потребляет локальный дата-центр, а остальное — офисы и заводы. 

Сегодня CoreWeave требует: «я хочу 500 МВт». «Нужно строить новые ЛЭП. Нужны новые подстанции», — говорит Вентуро. Такие подстанции нуждаются в трансформаторах, которые надо заказывать за несколько лет до установки. И все это чтобы обеспечить 500 МВт нагрузки. OpenAI считает, что для одного дата-центра может потребоваться до 5 000 МВт. По словам Джо Домингеса из Constellation Energy (владельца Три-Майл-Айленда), построить за короткий срок такую энергосистему «фактически невозможно».

Домингес подчеркивает, что при выборе площадки разработчикам стоит изначально находиться рядом с крупными источниками энергии, например, АЭС. Возьмем кампус рядом с несколькими реакторами, окруженный солнечными и ветровыми электростанциями и батареями, с новыми ЛЭП и системой переключения нагрузки — это по сути изолированная автономная сеть.

Миллиарды литров воды в день

Вся электроэнергия, поступающая на серверы, превращается в тепло. Избыточное тепло может повредить оборудование и снизить производительность системы. Наиболее энергоэффективные и дешевые методы охлаждения дата-центров зависят от использования воды. По оценкам Bluefield Research, с учетом воды, используемой при производстве электроэнергии, дата-центры в совокупности потребляют более миллиарда литров воды в день — достаточно, чтобы обеспечить водой 3,3 миллиона человек на сутки. Одно исследование 2023 года показало для того, чтобы провести обычную переписку из примерно 10-50 вопросов и ответов с ChatGPT, требуется около 0,5 литра воды (как в стандартной бутылке). 

Обучение одной из ранних версий ChatGPT, по оценкам, потребовало около 750 000 литров воды. И усугубляет ситуацию то, что для охлаждения обычно используют пригодную для питья воду, чтобы избежать коррозии оборудования и экологических рисков.

В Уэст-Де-Мойнс, штат Айова, сеть дата-центров Microsoft, которыми пользовалась OpenAI, по данным водного округа сделала технологического гиганта крупнейшим потребителем воды в районе — он расходует больше воды, чем сам город. (Округ сообщает, что компания также расследовала утечку, которая существенно увеличила ее потребление.) В Талавера-де-ла-Рейна, небольшом городе, спрятанном среди ячменных и пшеничных полей Испании, Meta Platforms Inc. вступила в конфликт с местными жителями из-за плана строительства центра, который будет использовать около 665 миллионов литров воды в год (примерно 176 миллионов галлонов).

Вдвое больше пропускной способности сети

Масштабные языковые модели, лежащие в основе генеративного ИИ, обучаются на огромных объемах данных через Интернет, и потребности пользователей в ИИ-инструментах будут только увеличивать нагрузку на сеть. Глава AT&T Джон Стэнки рассказал в мае, что трафик беспроводных данных растет примерно на 30 % в год, и с ростом использования ИИ этот тренд усилится. «Если темпы роста продолжат быть на уровне 30-35 % в год, придется строить более широкие магистрали (сети) для передачи данных», — сказал он.

За последние пять лет трафик в сетях Verizon более чем удвоился из-за роста видеотрафика, отмечает глава подразделения Verizon по работе с потребителями Сомьянараян Сампат. Он ожидает, что за следующие пять лет трафик снова удвоится благодаря запросам к ИИ-моделям и связанным данным: «ИИ станет следующим драйвером роста». Технологические компании активно инвестируют в инфраструктуру передачи данных: так  в августе Lumen Technologies привлекла 5 млрд долларов для развития новых сетей, ориентированных на ИИ, и ведет переговоры о дополнительных контрактах на 7 млрд $.

Недвижимость для тысяч дата-центров

По всему миру насчитывается более 7 000 дата-центров, построенных или находящихся в разработке — вдвое больше, чем в 2015 году. И даже это, возможно, не покрывает растущего спроса. Еще до появления ChatGPT спрос на мощные дата-центры стремительно рос, поскольку компании переводили вычисления в облачные сервисы. А сейчас крупные страны стремятся создать собственные AI-хабы, ускоряя глобальную инфраструктурную гонку.

Дата-центры требуют огромных участков земли. Например, крупный оператор Equinix приобрел под мегакомпус (несколько сотен мегаватт мощности) 200 акров (≈80 га) земли. Другая компания арендовала 2 000 акров (≈800 га) земли для строительства центра мощностью гигаватт. Найти площадку с достаточной электромощностью крайне сложно, что порождает настоящие битвы за участки.

Строительство таких крупных комплексов требует и материалов, и рабочей силы. Сейчас многие поставки материалов задерживаются, а квалифицированных специалистов не хватает. Брайан Вентуро из CoreWeave рассказывает, что некоторые заказчики требуют выдать им целые кампусы под собственные проекты. «Рынок движется намного быстрее, чем цепочки поставок, которые исторически поддерживали физический бизнес», — говорит он.

Неугасаемый спрос на чипы

Графические процессоры (GPU) — ключевое оборудование для обучения моделей ИИ. Они разработаны для параллельной обработки тысяч задач одновременно. Дата-центры используют сотни и тысячи таких процессоров, каждый из которых стоит больше семейного автомобиля. Когда начался бум генеративного ИИ, почти все крупнейшие технологические компании столкнулись с дефицитом этих чипов. Microsoft и Google даже упоминали в отчетах, что нехватка GPU стала одной из главных проблем.

Nvidia ежегодно выпускает новые архитектуры, делая конкуренцию на рынке еще жестче и усиливая нагрузку на итак напряженные цепочки поставок. Компания сообщила в ноябре, что производство ее новых чипов Blackwell идет быстрее, чем ожидалось, но полная ликвидация дефицита займет еще несколько месяцев.

Кремний, сталь, кварц и медь

Многие из упомянутых выше компонентов зависят от металлов и минералов. Возьмем, к примеру, кремний — основу чипов, плат и процессоров. Китай является крупнейшим производителем и сырого кремния, и очищенного силикона, что вызывает обеспокоенность на фоне обострившегося технологического противостояния с США и их союзниками. Недавний кризис поставок случился и с кварцем: в октябре ураган «Хелен» нарушил работу двух шахт в Северной Каролине, где добывается кварц высочайшего качества. Эти шахты обеспечивают около 80 % мирового производства лучшего кварца — критического материала для тиглей, в которых кремний плавят и выращивают из него монокристаллы для полупроводников.

Среди прочих металлов, задействованных в производстве чипов, есть золото, серебро, алюминий, олово — их пока достаточно для текущих нужд. Но наибольшую настороженность вызывают два редких элемента: галлий и германий. В декабре Китай объявил об экспортном эмбарго на эти металлы в рамках обострения технологической войны.

Медь используется практически везде: в чипах, дата-центрах, электрооборудовании, системах охлаждения, и потребности в ней со стороны ИИ, возобновляемой энергетики и транспортного сектора могут спровоцировать серьезную конкуренцию. Понадобится также огромное количество стали — для строительства дата-центров и прокладки кабелей.

Больше людей, чем вы думаете

Много говорится о рабочих местах, которые ИИ может ликвидировать. В феврале шведская финтех-компания Klarna Bank AB произвела фурор, заявив, что ее ИИ-ассистент выполняет работу, эквивалентную 700 штатным сотрудникам службы поддержки. Глобальные исследовательские и аналитические компании предупреждают, что занятость в таких секторах, как финансы, юриспруденция и служба поддержки клиентов, окажется под сильным ударом. Международный валютный фонд оценил, что ИИ может заменить или дополнить почти 40% занятости во всем мире.

Но сами компании, работающие в сфере ИИ, сейчас напрямую нанимают миллионы людей. Среди сотрудников ИИ — компьютерные ученые, архитекторы данных, исследователи, математики, разработчики программного обеспечения, проектировщики чипов, менеджеры по продукту и программам и юристы по комплаенсу. Не говоря уже о целых армиях внутренних аналитиков, маркетологов и торговых представителей. В начале ноября Salesforce Inc. объявила о планах нанять более 1 000 сотрудников для продаж своего нового продукта на базе генеративного ИИ.

В условиях гонки за специалистами возникли кадровые узкие места почти во всех этих профессиях. Инвесторы в технологии и стартапы в области ИИ жалуются на нехватку должным образом образованных и опытных кандидатов. В Силиконовой долине появилось выражение «AI-vies» — игра слов с «Ivy League» — чтобы обозначать несколько компаний (среди них Alphabet, Microsoft и OpenAI), которые воспитывают кадры, которых все прочие стремятся переманить. Еще больше специалистов рекрутируют за рубежом, в таких странах, как Индия, для создания и очистки высококачественных наборов данных, необходимых для обучения систем ИИ.

Больше данных, чем существует в мире

Генеративные модели требуют качественных данных, как человечеству нужна еда. Большие языковые модели обучаются на текстах, разбитых на так называемые «токены», анализируя повторяющиеся закономерности и предсказывая, какие токены идут друг за другом. Самые передовые модели обучаются на триллионах токенов. По оценкам, суммарное количество токенов во всем накопленном тексте мира может исчисляться десятками и даже сотнями триллионов.

Опубликовано в выпуске Bloomberg Markets за декабрь/январь. Иллюстрация: Каролина Москосо для Bloomberg Markets
Опубликовано в выпуске Bloomberg Markets за декабрь/январь. Иллюстрация: Каролина Москосо для Bloomberg Markets

Удивительно, но даже такого колоссального объема может не хватить. Крупнейшие разработчики, включая OpenAI, все чаще сталкиваются с проблемой поиска новых качественных данных. Данных на языках, отличных от английского, мало, а информации, не относящейся к западной культуре, еще меньше. Дефицит разнообразия может привести к тому, что ИИ будет проявлять предвзятость по отношению к меньшинствам, женщинам и другим недостаточно представленным группам. Например, анализ Bloomberg показал, что базовая модель ChatGPT может давать расово предвзятые результаты при оценке резюме по именам. OpenAI заявляет, что эти результаты могут не отражать реального использования модели пользователями и продолжает работу по выявлению потенциальных проблем.

«Большая языковая модель хороша ровно настолько, насколько хороши качество и количество данных, на которых она обучена»

Между тем организации, создающие контент — СМИ, финансовые и другие институты — осознают: их данные становятся все более ценным ресурсом для разработчиков ИИ. В 2023 году голливудские актеры и сценаристы вступили в забастовку, требуя защитить свои произведения, а New York Times и другие крупные издательские компании подали в суд на ИИ-компании за использование авторского контента в обучении. ИИ-разработчики в ответ утверждают, что используют только общедоступные материалы в рамках концепции «добросовестного использования» (fair use).

«Мощь больших языковых моделей определяется качеством и количеством данных, и у нас их очень много», — резюмировала Мартина Чанг, глава S&P Global, в недавнем разговоре с инвесторами. За последний год OpenAI заключила соглашения с такими компаниями, как News Corp., Condé Nast, Hearst, Reddit, Dotdash Meredith и Axel Springer, чтобы легально использовать их контент в обучении моделей.

Технологические компании экспериментируют с обучением моделей на «синтетических» наборах данных — контенте, созданном самим ИИ. В теории это помогает разработчикам ИИ удовлетворить их бездонную потребность в данных и при этом избегать юридических, этических и проблем с конфиденциальностью, связанных со сбором информации из интернета. Но некоторые исследователи предупреждают, что модели ИИ могут «коллапсировать», если их обучать на контенте, сгенерированном ИИ, а не людьми. Одно исследование 2023 года о так называемом «коллапсе модели» показало, что изображения людей, созданные ИИ, становились все более и искаженными после того, как модель переобучалась на «даже небольших объемах собственных творений».

Возможно, меньше, чем мы боялись

Инвесторы, операторы дата-центров, энергетические и другие компании вкладывают сотни миллиардов долларов в цепочку поставок ИИ. Крупные банки и фонды оценивают объемы расходов на AI-инфраструктуру в триллион долларов и стараются занять свою долю. Капитальные затраты Alphabet, Amazon, Meta и Microsoft в 2024 году превысят 200 млрд $. Индекс утилит S&P 500 вырос на 22% за последний год, а капитализация специализирующейся на дата-центрах компании Equinix почти удвоилась с конца 2022-го. Акции Nvidia за два года взлетели примерно на 700%, сделав ее одной из самых дорогих компаний мира.

Однако никто не знает, продолжит ли ИИ свой взлет. Часть аналитиков Уолл-стрит уже предсказывает конец нынешнего ажиотажа. Инвесторы задаются вопросом, оправдаются ли такие огромные траты компаний Big Tech доходами, на которые они рассчитывали. А главной угрозой для ИИ может оказаться то, что ведущие разработчики и их поставщики одержимы повышением эффективности. 

Глава Applied Materials Гэри Дикерсон в ноябре сообщил инвесторам: некоторые компании хотят увеличить вычислительную эффективность в 100 раз за пять лет, а другие — в 10 000 раз за 15 лет. «Эффективность становится объединяющим фактором отрасли», — подчеркнул он.

Теги:
Хабы:
0
Комментарии8

Публикации

Ближайшие события