Search
Write a publication
Pull to refresh
0
0
Send message

Судя по ./script/console и хешевому поиску, это Rails 2

традиционный кодинг тоже не вымрет, а уйдёт в свои ниши.

Интересно, как это соотносится с тем, что структура этой модели такая же, как у Llama 3.1 8b и различается только в обучении и токенизаторе. Не будет ли проблем с Llama 3.1 community licence agreement, с учетом того что принадлежность к семейству llama не указана в описании, а код используется?

Есть множество предложений обменять грязные битки на чистый AML за 1-2% от суммы. Для крипто миллионеров это не беда.

Они и не должны лезть, так как существуют RAG и кодмапы. Обратите внимание, как это реализовано в таких приложениях, как Cursor и Windsurf.

Хоть куртка и обманул тут, всё-таки разница между NF4 и FP8 в Flux не такая уж значительная. Реально там будет прирост серьёзный (на 3090 разница между NF4 и FP8 в скорости - 10%). Это же и проявляется в том, что новые тензорные ядра смогут генерировать три кадра вместо одного за небольшой разницей в задержке.

ollama не работает с TPU, как и вообще большинство утилит подобных (на llama.cpp). Никакого ускорения на квалкомах/АМД/Интел/маках тут не получить. Ну и всё упирается скорее в ОЗУ, а не в производительность процессора.

У Яндекса, вероятно, гораздо меньше даты и гораздо меньше ресурсов на обучение моделей, чем у меты. Но да, файнтюненая Llama 3.1 8B будет не хуже YaGPT-4 по качеству ответов, но в 100-200 раз дешевле (буквально, если сравнивать стоимость по апи).

Тут все тесты яндексовские, к тому же. Нельзя перепроверить ни один из результатов тестирования. Нет даже методики тестирования. В своих тестах Яндекс даёт 65 в преведённом MMLU. Это меньше чем у Llama 3.1 8B (72%).

Потому, что они закрытые. Размеры не указывают ни OpenAI, ни Google, ни Anthropic.

В Crackdown 3 это было ещё 5 лет назад, но видимо не так революционно, как в 2024 году.

Карту можно и самому скачать, посмотреть. Она не требует модов или командных блоков, чистая редстоун логика, которая реализует многослойный перцептрон. Для храния весовых коэффициентов используется комбинация из компаратора и бочки, что позволило реализовать ROM, который хранит значения от -5 до 5 в виде силы редстоун сигнала размером всего 2х2. Больше в этом проекте и не понадобилось. ROM всегда был компактнее чем RAM в Майнкрафте. Функция активации - ReLu. На входе нейрона стоит бинарный сумматор.

soymiguel всё же дал модели ссылку на видео, а не фото. GPT-4o не поддерживает видео, только фото, текст, аудио, как указано на сайте. Ну и тем более не поддерживает переход по ссылке и анализ видео по ссылке, такое и Gemini не может (разве что ютуб в планах).

Заслуги модели здесь нет. Более того, OpenAI никакой поддержки ютуба и не заявляли. Модель не может анализировать видео в целом, что указано на сайте.

Если уложиться в 3к цпу и 18к Гб в месяц, то всегда бесплатно. Это соответствует 4 ядра, 24 Гб ОЗУ с небольшим запасом.

На вход идут данные с видеотрансляции, в самой игре нельзя загружать живые матчи.

Information

Rating
7,538-th
Registered
Activity