видно что вас задевает даже сама мысль сведения человеческого разума к пусть и сложному, но алгоритму
Так мне казалось то, что у вас речь шла про текущие большие языковые модели как флагман современных ИИ. Уверен, @Frankenstine не имел ничего такого, ведь даже в комментариях выше по треду он писал следующее замечание:
ИИ (существующий сейчас) никогда ничему сам не обучится. Нет у него механизмов самостоятельности.
Заметьте, акцент на словах "существующий сейчас". Уверен, рано или поздно сильный ИИ изобретут, но их текущие реализации - это буквально очень умный генератор слов
процесс обучения ИИ совершенствуется человеком И ИИ.
Были исследования, по итогам которых выяснилось то, что обучение ллмок данными сгенерированными другими ллмками лишь способствует их деградации. Может в будущем что-нибудь придумают.
как они определяют что от них ожидается?
По данным из датасета. Можно ещё крутить параметры, чтобы разнообразить ответы. Гуглите латентные пространства
Государство может печатать и раздавать населению недостающие 21 монету. И тогда у граждан появится достаточно денег, чтобы купить все произведенные в стране товары и уважаемые атланты смогут продать все товары, получив прибыль.
А это разве не обесценит монетки страны, вводящей безусловный доход? Ничего же не поменяется
Мне с точки зрении обывателя, это кажется уж слишком амбициозной задачей, эта теория всего. Не зря же науки делятся на области, вроде физики и химии. Люди давно заметили то, что при количественном масштабировании объекты могут образовывать новую систему с новыми свойствами. Эмерджентностью вроде бы называется. Идеальным примером являются сейчас LLMки, которые сейчас развивают в основном за счет увеличения мощностей. Так вот, к чему я это - объекты на микроуровне и макроуровне имеют слишком много различий. Но если у них получится, я буду поклоняться уровню их гениальности
В феврале мир разработки перевернулся с выходом Sonnet 3.7. Потому что вдруг внезапно оказалось, что джуны уже не очень-то и нужны. И нейросетка нормально заменяет мидлов тоже.
Верим, потом эти вайбкодеры в твиттере жалуются насчет постоянных взломов
Было бы полезным указать случаи, при которых O(n) может быть хуже, чем O(n^2), так как значение n в зависимости от алгоритма бывает разным
Звучит если честно криповато, особенно если реальный пользователь попадет в этот "лабиринт"
Понял, спасибо, ждал таких ответов)
Что мешает жизни появится во времена ранней Вселенной, т.е. в те времена, когда общая температура у космоса была комфортна для появления первой?
Познакомился с Firebird 2.5 в позапрошлом году, когда устроился на работу. Зафорсил постгрес и теперь сижу, радуюсь жизни
Так мне казалось то, что у вас речь шла про текущие большие языковые модели как флагман современных ИИ.
Уверен, @Frankenstine не имел ничего такого, ведь даже в комментариях выше по треду он писал следующее замечание:
Заметьте, акцент на словах "существующий сейчас". Уверен, рано или поздно сильный ИИ изобретут, но их текущие реализации - это буквально очень умный генератор слов
Были исследования, по итогам которых выяснилось то, что обучение ллмок данными сгенерированными другими ллмками лишь способствует их деградации. Может в будущем что-нибудь придумают.
По данным из датасета. Можно ещё крутить параметры, чтобы разнообразить ответы. Гуглите латентные пространства
Примите таблетки.
Собачек и котеек от физического труда давно освободили, но что-то среди них Эйнштейнов не наблюдается
Ну... У времени есть только одно направление)
Почему нет поддержки C#? (
Так в стиме выборка гораздо больше, следовательно она более объективная или нет?
А это разве не обесценит монетки страны, вводящей безусловный доход? Ничего же не поменяется
Мне с точки зрении обывателя, это кажется уж слишком амбициозной задачей, эта теория всего. Не зря же науки делятся на области, вроде физики и химии. Люди давно заметили то, что при количественном масштабировании объекты могут образовывать новую систему с новыми свойствами. Эмерджентностью вроде бы называется. Идеальным примером являются сейчас LLMки, которые сейчас развивают в основном за счет увеличения мощностей.
Так вот, к чему я это - объекты на микроуровне и макроуровне имеют слишком много различий. Но если у них получится, я буду поклоняться уровню их гениальности
Верим, потом эти вайбкодеры в твиттере жалуются насчет постоянных взломов
Только вот эта цитата является ярким примером эффекта Манделы