Генеральный директор британской компании ARM Рене Хаас заявил про необходимость решения проблемы с высоким энергопотреблением систем искусственного интеллекта.
Такие модели ИИ, как ChatGPT, «просто ненасытны» в том, что касается электроэнергии, цитирует СМИ Хааса. По его словам, чем больше информации собирают такие модели, тем умнее они становятся. Но «чем больше информации они собирают, чтобы стать умнее, тем больше энергии на это затрачивается».
Хаас пояснил, что, пока эта проблема не решена, ожидать прорывов в сфере не следует. «Будет сложно ускорить наступление каких-то прорывных событий, если энергетические требования к большим дата-центрам, в которых люди занимались бы исследованиями, продолжают расти и расти», — уточнил глава ARM.
По словам Хааса, без достижения более эффективного использования электроэнергии «к концу десятилетия дата-центры для ИИ могут потреблять от 20% до 25% всех потребностей США в электроэнергии. Если быть честным, то это вряд ли можно назвать устойчивым (развитием) ИИ».
В начале года Международное энергетическое агентство отмечало, что один запрос к ChatGPT потребляет 2,9 кВт•ч электроэнергии. Это примерно столько же, сколько потребляет трёхминутная работа 60-ваттовой лампы накаливания. И это в десять раз больше, чем требуется для выполнения запроса в Google. По данным экспертов агентства, спрос на электричество со стороны ИИ-индустрии за три года, с 2023 года по 2026 год, вырастет как минимум в десять раз.