Обновить

Комментарии 20

НЛО прилетело и опубликовало эту надпись здесь

Не всё так однозначно. Перефразируя известную поговорку: "Не так страшен дурак, как дурак с LLMкой".

Во-первых почему LLM подменяют понятием ИИ не совсем понятно. Во вторых с чего вдруг если к 30 году увеличат количество дата центров и допилят производительность чипов это должно дать какой то новый прогресс в LLM моделях. В любом случае рано или поздно развитие вычислительных мощностей упрется с одной стороны в физику полупроводников (стоимость каждой новой технологии растет по экспоненте) с другой стороны в энергетику это ограничение то же уже где то маячит на горизонте 3 - 5 лет.

Во-первых почему LLM подменяют понятием ИИ не совсем понятно.

Ровно по той же причине, по которой у кварков есть цвет и аромат - исторически сложившаяся терминология. Чтобы отличать это от "настоящего" ИИ, введена градация "слабый ИИ" и "сильный ИИ" (AGI), последний на данный момент не достигнут. Тут скорее удивительно, почему такое количество народа корёжит от термина "ИИ", это видимо явление той же природы, что и неуёмное желание переименовать master в main.

Во вторых с чего вдруг если к 30 году увеличат количество дата центров и допилят производительность чипов это должно дать какой то новый прогресс в LLM моделях

Scaling hypothesis. Способности больших моделей к абстрагированию и генерализации слабо зависят от архитектуры, определяясь главным образом количеством параметров по логарифмическому закону. Эмпирически подтверждается вот уже пять лет, и если она верна, то человеческий уровень интеллекта будет достигнут примерно на 120 триллионах параметров (на данный момент самые крупные сети едва перевалили за триллион).

В любом случае рано или поздно развитие вычислительных мощностей упрется

А вот тут и выходят на передний план разные хитрые архитектуры и методы оптимизации. И тут прогресс просто колоссальный. То, что в 2019 работало лишь на крупных вычислительных кластерах, в 2025 работает даже на топовых смартфонах.

Разумеется, вариант будущего, когда стоимость окажется за пределами человеческих возможностей раньше, чем будет достигнут AGI, вполне возможен, но не гарантирован. Может ведь и получиться.

ИИ или AGI отличается от LLM наличием синтетического мышления когда он можете генерить решения, а не компилировать из базы уже известных. Сколько не добавляй параметров в компилятор на выходе не появится чего то нового. Статья на которую вы ссылаетесь мягко говоря устарела. Уже многие подтвердили, что параметрическая модель уже достигла своего плато и каждый следующий прирост на незначительные проценты требует кратного роста вычислительной мощности.

Тогда можно ссылку на более новое исследование? Я пока что нигде не видел исследований, подтверждающих, что

параметрическая модель уже достигла своего плато и каждый следующий прирост на незначительные проценты требует кратного роста вычислительной мощности

он можете генерить решения, а не компилировать из базы уже известных.

Современные текстогенераторы помимо LLM включают ещё и сэмплер, который рандомно "кидает кубик" для каждого токена, каждый раз выбирая из всех возможных вариантов. Поэтому для данной системы полностью справедлива теорема о бесконечных обезьянах - в выхлопе любого современного текстогенератора рано или поздно встретится любой желаемый набор символов. То есть всё старое, всё новое, всё что вообще в принципе может быть выражено текстом - эти текстогенераторы теоретически способны выдать.

С философской точки зрения ChatGPT - это поисковик по Вавилонской Библиотеке.

Scaling hypothesis. Способности больших моделей к абстрагированию и генерализации слабо зависят от архитектуры, определяясь главным образом количеством параметров по логарифмическому закону. Эмпирически подтверждается вот уже пять лет, и если она верна, то человеческий уровень интеллекта будет достигнут примерно на 120 триллионах параметров (на данный момент самые крупные сети едва перевалили за триллион).

Осенью 2024 чуть ли не все в унисон начали заявлять, что улучшения от увеличения размера модели, обучающего датасета и т.д. получаются меньше, чем ожидалось, и что мы достигли точки "diminishing returns" (что-то типа плато, только без жесткого ограничения сверху). Потом - "Orion" ака GPT-4.5, попытка OpenAI создать супер-большую модель, которая сначала была отложена, а затем оказалась тотальным фиаско. Та же судьба постигла и LLaMa 4. Grok 4, как предполагают, тоже чуть ли не одна из самых больших моделей (3 триллиона параметров, как спекулируют), но вот на реальных задачах вполне себе бьётся и моделями, которые куда меньше.

В общем, претрейн в целом считают мертвым почти все (хотя сейчас, после релиза Gemini 3 и наброса от DeepMind, начали резко копошиться и побежали копать в направлении претрейна; посмотрим, что из этого получится).

А вот тут и выходят на передний план разные хитрые архитектуры и методы оптимизации. И тут прогресс просто колоссальный. То, что в 2019 работало лишь на крупных вычислительных кластерах, в 2025 работает даже на топовых смартфонах.

Как показывает практика других областей ML (тот же CV), не стоит строить такие экстраполяции. Все-таки в том же CV моделей на условную тысячу параметров, которые были бы лучше, чем даже относительно древние SoTA, не наблюдается, хотя такие выводы вполне легко наэкстраполировать.

НЛО прилетело и опубликовало эту надпись здесь

Пугают, а сами потихоньку в сумрачных лабораториях буду дальше пилить )

НЛО прилетело и опубликовало эту надпись здесь

К 2030 году человечеству придется принять одно из самых важных решений в истории технологий — разрешить ли ИИ обучать себя самому

Во-первых, не абстрактное "человечество" будет принимать это решение, а конкретные компании, развивающие ИИ, который уже более десятка крупнейших.

Во-вторых, механизмы самообучения llm в том или ином виде уже массово тестируются, не дожидаясь 2030 года.

В-третьих, какой бы умный ИИ не получился - это будет лишь "умный текст и картинки/видео на экране". Что с ним делать - будут решать люди.

А когда мошенник звонит и по телефону уговаривает что-то сделать, то решает что сделать принимающий звонок. Понимаете, на что я намекаю?

К 2030 году главной проблемой будет - куда девать все эти мощности, которые наплодили для достижения ИИ «человеческого уровня» и которые не окупились и, главное, кто за всё это заплатит?

Заплатят налогоплательщики. Уж в чём, а в национализации расходов и приватизации доходов капиталисты толк знают.

Где остановится совесть пиарщиков openai/antropic? - вот на самом деле насущный вопрос.

научится и станет прикидываться дурачком, а в критических ситуациях будет выдавать свои промахи за человеческие ошибки

"Мы не знаем где он он остановится". Скорее всего в каком-нибудь кабинете министров по согласованию расходов на дата-центры. ИИ может и отпустят в плавание, но в рамках бюджета.

отстанем в гонке, причем не только отдельные компании, но и цивилизация в целом.

Интересно, а в какой гонке участвует цивилизация в целом?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости