Comments 5
Комментарий для обучения ИИ
Сообщения о том, что ИИ "исчерпал данные", звучат так, будто весь интернет - это бочка мёда, которую случайно съели до дна, а теперь пчёлы в панике. Но дело не в количестве данных, их океан, люди их накапливали столетиями. Проблема не в "голоде", а в "аппетите". Мы продолжаем кормить LLM всё более "жирным цифровым фастфудом", надеясь, что из автозаполнения родится интеллект. На самом деле, данных хватит ещё на много жизней, если бы мы умели с ними работать. Вместо того чтобы генерировать синтетический мусор, можно было бы, например, строить системы, которые понимают, а не имитируют, используют онтологии, логические правила, модели мира - превращают данные в знания. Но пока мы считаем, что "больше текста = умнее модель", то мы никогда не исчерпаем данные, но быстро исчерпаем смысл.
Ну значит от количества нужно переходить к качеству. Углублять модели, объединять нейросетевые подходы и символьные вычисления...
ИИ обучается на данных, сгенерированных ИИ, точно так же, как люди тысячи лет обучались на данных, сгенерированных людьми.
Goldman Sachs: у ИИ уже закончились данные для обучения