От LLM большего ждать не приходится, все на свой страх и риск. Идеальная сфера применения - спам, где все ошибки прощаются. Проблема в том, что частота ошибок LLM более равномерно распределена по всему спектру задач (от простых до сложных) по сравнению с человеком. У последнего на задачи простые имеется своего рода "гарантия".
Художники никуда не делись. Генерация рандома для профессиональной разработки, само собой, не подходит. Корпорации внедряют инструменты, которые оптимизируют процессы (например, стилизируют скетч), но всегда требуется доводка. Может, процентов на 20-30% ускорились процессы. Но это ценой дополнительного персонала, который эти инструменты сопровождает. Также, людей всей этой теме надо обучать, а в корпорациях текучка. В итоге, может выйти и меньше 20% буста.
В стране, которая вводит запреты на экспорт чипов ИИ, и так очень много народа протирает штаны. Здесь речь не о безработных, а о вынужденном трудоустройстве человеков на паразитные должности, для которых работы более нету из-за закономерностей развития капитализма. Заводы вывезли в страны с дешевой раб. силой, но пласт местных работяг (ментально не пригодных для другой работы!) никуда не делся. ИИ о том же - корпорация в погоне за прибылью может поувольнять народ, но это в итоге только увеличит кол-во людей на субсидиях и в паразитных секторах экономики. Поэтому утверждение о том, что это "ядерное оружие" - явно приукрашено. И по факту - на сегодня по собственному опыту могу сказать, что как замена поиску LLM-ные ответы - это часто помеха. Ибо из-за чрезмерно уверенного тона повествования часто уводит в изначально ошибочном направлении. А ведь данные для обучения уже исчерпались, как нам поведал Илон Маск. Поэтому ИИ на его сегодняшней стадии развития может оказаться чем-то вроде кукурузы товарища Хрущева.
текстовые синтетические данные на сегодня могут происходить только на базе изначально дефективного мышления LLM, за этим может последовать лишь деградация. В природе сначало было пространственно-образное мышление, затем у человека появилось логико-речевое. Последнее всегда опирается на аксиоматику первого, опирается на более широкую реальность. У LLM этого фундамента нету, именно поэтому AGI там не получится.
На одном тексте AGI не получить, нужно еще пространственно-временное мышление, возможность создавать образы, восстанавливать пространственные отношения по образам. Оно должно быть как-то интегрировано с логико-вербальным блоком, который сейчас дает LLM. Интеграция уровня "преобразовать картинку в набор слов" не подойдет - это костыль. Образное и пространственно-временное мышление должно быть частью общего мышления. У живого процесс был такой: сначала пространственно-временное и образное мышление, затем логико-вербальный блок поверх этого, как надстройка. Всякая мысль на уровне логико-вербального мышления проходит через верификацию в пространственно-временном "блоке". Происходит внутренне моделирование и проверка на соотвествие аксиоматике пространства. Интеграция этих процессов в живом происходила сотни миллионов лет. Представьте, что жизнь каждого существа это training run, методом проб и ошибок (погиб не погиб, размножился или нет) вытачивались оптимальные связи в нервной системе. Сотни миллионов лет и число с кучей 0-й таких training runs. Подъемная ли задача, повторить этот процесс на вычислениях за разумное время? Думается, что только если пытаться копировать то, что уже достигнуто живим. Сейчас пытаются тренировать с 0-ля.
А чем хуже придумывать тест, который система не сможет пройти, тренировок системы под конкретные тесты для выдачи хайп-новостей? Любой стандартизированный тест сильно сужает круг задач. Вселенная будет выдавать рандомные задачи.
Перетренированные под сложные тесты модели потом фейлятся на элементарных задачах аля "Alice in wonderland problem". Таких элементарных фейлов - бесчисленное множество, вопрос лишь в желании их поиска. У OpenAI бизнес модель - сторонние инвестиции под хайп, прибыльности никакой нет и близко. Поэтому все их заявления нужно делаить на 10. Недавний пример, тотальный фейл Sora AI (см. на генерации в разделе recent).
Предсказуемый поворот. В ближайшие годы вернутся фокусы SEO середины 90-х вроде добавления порно ключей для привлечения трафика, ибо LLM - это черный ящик для разрабочтика. Внутри неисчислимое количество скрытых эксплоитов, которые не так-то просто устранить.
AGI на одном тексте не получить. Человеческий интеллект, решающий задачи реального мира, опирается на внутреннее моделирование этого мира (пространственно-временное мышление). Эта способность, в свою очередь, опирается на зрительное восприятие, умеющее воссоздавать 3D модель из плоской картинки. Мы верифицируем наши рассуждения, строя пространственные модели, опираясь на аксиоматику 3D пространства. Всего этого в LLM нет, поэтому получаются смешные проколы аля Alice in Wonderland problem.
LLM-ы упираются в кол-во доступной информации для обучения, а значит, для продолжения развития нужна симуляция. Уже имеется пример гигантской "симуляции" с триллионами параллельных run-ов: жизнь на земле. До появления компактного развитого интеллекта, умеющего решать задачи реального мира, прошел миллиард лет симуляции. Подобного масштаба задача может стоять и перед товарищами, пытающимися вырастить AGI в силиконе с 0-ля. А что если для появления AGI в силиконе методом "тренировки с 0-ля" понадобится несколько десятков тысяч лет умноженных на все доступные вычислительные мощности, рассчитывающими симуляцию? Путь к AGI явно лежит не в тренировках гипер-упрощенных моделей живых мозгов с 0-ля, а в более глубоком изучении того, что уже достигнуто самой гигантской "симуляцией". Интеллект человека - это ведь не только речь. Это еще и пространственно-временное мышление, которое опирается на готовые с рождения структуры, появившиеся в результате "эволюции в симуляции". Верификация правильности-неправильности суждения всегда проходит через внутреннее моделирование, которое всегда опирается на отражение реального мира.
Здесь технология упирается в лимиты оправданных энергозатрат. Рендер видео на 2 порядка дороже, чем изображения, а для удачного варианта нужно много попыток. В итоге получится нишевый продукт, который подходит для произведений, где консистентность изначально не треубется. Сначала люди наспамят подобного, затем оно всем надоест.
Капитализация в виде (цена * кол-во) не отражает стоимость всех вактивов, поскольку их невозможно полностью продать по такой цене. Цена пойдет в низ, потенциально куда-то в область 0-ля, если закончатся желающие покупать. Упрощенно: если 2 человека будут перепродавать друг другу 1 единицу актива по растущей цене, а остальные сидеть и смотреть на это в ожидании цены X, то можно достичь этой цены с капиталом, в разы меньшим "капитализации". Поэтому капитализация пузырных активов не отражает их реальный денежный потенциал. Она отражает настроения участников пузыря.
Это распиариенная ахилесова пята. Понятное дело, что их там великое множество, и что учитывая распиаренность этой, разрабы взяли и натренировали сеть конкретно под нее. В тексте вряд ли возможно получить такие проявления интеллекта, как пространственное мышление. Интеллект, сопоставимый с человеческим, без таких "подмодулей" не получить.
От LLM большего ждать не приходится, все на свой страх и риск. Идеальная сфера применения - спам, где все ошибки прощаются. Проблема в том, что частота ошибок LLM более равномерно распределена по всему спектру задач (от простых до сложных) по сравнению с человеком. У последнего на задачи простые имеется своего рода "гарантия".
ошибся, удалил.
Художники никуда не делись. Генерация рандома для профессиональной разработки, само собой, не подходит. Корпорации внедряют инструменты, которые оптимизируют процессы (например, стилизируют скетч), но всегда требуется доводка. Может, процентов на 20-30% ускорились процессы. Но это ценой дополнительного персонала, который эти инструменты сопровождает. Также, людей всей этой теме надо обучать, а в корпорациях текучка. В итоге, может выйти и меньше 20% буста.
В стране, которая вводит запреты на экспорт чипов ИИ, и так очень много народа протирает штаны. Здесь речь не о безработных, а о вынужденном трудоустройстве человеков на паразитные должности, для которых работы более нету из-за закономерностей развития капитализма. Заводы вывезли в страны с дешевой раб. силой, но пласт местных работяг (ментально не пригодных для другой работы!) никуда не делся. ИИ о том же - корпорация в погоне за прибылью может поувольнять народ, но это в итоге только увеличит кол-во людей на субсидиях и в паразитных секторах экономики. Поэтому утверждение о том, что это "ядерное оружие" - явно приукрашено. И по факту - на сегодня по собственному опыту могу сказать, что как замена поиску LLM-ные ответы - это часто помеха. Ибо из-за чрезмерно уверенного тона повествования часто уводит в изначально ошибочном направлении. А ведь данные для обучения уже исчерпались, как нам поведал Илон Маск. Поэтому ИИ на его сегодняшней стадии развития может оказаться чем-то вроде кукурузы товарища Хрущева.
текстовые синтетические данные на сегодня могут происходить только на базе изначально дефективного мышления LLM, за этим может последовать лишь деградация. В природе сначало было пространственно-образное мышление, затем у человека появилось логико-речевое. Последнее всегда опирается на аксиоматику первого, опирается на более широкую реальность. У LLM этого фундамента нету, именно поэтому AGI там не получится.
На одном тексте AGI не получить, нужно еще пространственно-временное мышление, возможность создавать образы, восстанавливать пространственные отношения по образам. Оно должно быть как-то интегрировано с логико-вербальным блоком, который сейчас дает LLM. Интеграция уровня "преобразовать картинку в набор слов" не подойдет - это костыль. Образное и пространственно-временное мышление должно быть частью общего мышления. У живого процесс был такой: сначала пространственно-временное и образное мышление, затем логико-вербальный блок поверх этого, как надстройка. Всякая мысль на уровне логико-вербального мышления проходит через верификацию в пространственно-временном "блоке". Происходит внутренне моделирование и проверка на соотвествие аксиоматике пространства. Интеграция этих процессов в живом происходила сотни миллионов лет. Представьте, что жизнь каждого существа это training run, методом проб и ошибок (погиб не погиб, размножился или нет) вытачивались оптимальные связи в нервной системе. Сотни миллионов лет и число с кучей 0-й таких training runs. Подъемная ли задача, повторить этот процесс на вычислениях за разумное время? Думается, что только если пытаться копировать то, что уже достигнуто живим. Сейчас пытаются тренировать с 0-ля.
А чем хуже придумывать тест, который система не сможет пройти, тренировок системы под конкретные тесты для выдачи хайп-новостей? Любой стандартизированный тест сильно сужает круг задач. Вселенная будет выдавать рандомные задачи.
Перетренированные под сложные тесты модели потом фейлятся на элементарных задачах аля "Alice in wonderland problem". Таких элементарных фейлов - бесчисленное множество, вопрос лишь в желании их поиска. У OpenAI бизнес модель - сторонние инвестиции под хайп, прибыльности никакой нет и близко. Поэтому все их заявления нужно делаить на 10. Недавний пример, тотальный фейл Sora AI (см. на генерации в разделе recent).
Предсказуемый поворот. В ближайшие годы вернутся фокусы SEO середины 90-х вроде добавления порно ключей для привлечения трафика, ибо LLM - это черный ящик для разрабочтика. Внутри неисчислимое количество скрытых эксплоитов, которые не так-то просто устранить.
AGI на одном тексте не получить. Человеческий интеллект, решающий задачи реального мира, опирается на внутреннее моделирование этого мира (пространственно-временное мышление). Эта способность, в свою очередь, опирается на зрительное восприятие, умеющее воссоздавать 3D модель из плоской картинки. Мы верифицируем наши рассуждения, строя пространственные модели, опираясь на аксиоматику 3D пространства. Всего этого в LLM нет, поэтому получаются смешные проколы аля Alice in Wonderland problem.
LLM-ы упираются в кол-во доступной информации для обучения, а значит, для продолжения развития нужна симуляция. Уже имеется пример гигантской "симуляции" с триллионами параллельных run-ов: жизнь на земле. До появления компактного развитого интеллекта, умеющего решать задачи реального мира, прошел миллиард лет симуляции. Подобного масштаба задача может стоять и перед товарищами, пытающимися вырастить AGI в силиконе с 0-ля. А что если для появления AGI в силиконе методом "тренировки с 0-ля" понадобится несколько десятков тысяч лет умноженных на все доступные вычислительные мощности, рассчитывающими симуляцию? Путь к AGI явно лежит не в тренировках гипер-упрощенных моделей живых мозгов с 0-ля, а в более глубоком изучении того, что уже достигнуто самой гигантской "симуляцией". Интеллект человека - это ведь не только речь. Это еще и пространственно-временное мышление, которое опирается на готовые с рождения структуры, появившиеся в результате "эволюции в симуляции". Верификация правильности-неправильности суждения всегда проходит через внутреннее моделирование, которое всегда опирается на отражение реального мира.
Здесь технология упирается в лимиты оправданных энергозатрат. Рендер видео на 2 порядка дороже, чем изображения, а для удачного варианта нужно много попыток. В итоге получится нишевый продукт, который подходит для произведений, где консистентность изначально не треубется. Сначала люди наспамят подобного, затем оно всем надоест.
Капитализация в виде (цена * кол-во) не отражает стоимость всех вактивов, поскольку их невозможно полностью продать по такой цене. Цена пойдет в низ, потенциально куда-то в область 0-ля, если закончатся желающие покупать. Упрощенно: если 2 человека будут перепродавать друг другу 1 единицу актива по растущей цене, а остальные сидеть и смотреть на это в ожидании цены X, то можно достичь этой цены с капиталом, в разы меньшим "капитализации". Поэтому капитализация пузырных активов не отражает их реальный денежный потенциал. Она отражает настроения участников пузыря.
Это распиариенная ахилесова пята. Понятное дело, что их там великое множество, и что учитывая распиаренность этой, разрабы взяли и натренировали сеть конкретно под нее. В тексте вряд ли возможно получить такие проявления интеллекта, как пространственное мышление. Интеллект, сопоставимый с человеческим, без таких "подмодулей" не получить.