Pull to refresh
16
0

Разработчик

Send message

Ну gemma-3 сама по себе умнее
phi-4 я тестировал в рамках программирования в основном и то файтюн r1 её версию (он немного лучше исходной модели)

Нормально отвечает, в плане ума даже лучше чем на английском т.к. на английском модель явно переобучена, но русский так не пострадал. Новые резонинг и резонинг-плюс пока не тестил.

Тоже удивился тегом Linux и этому хабу, хаб убрали, а тег остался. Какой-то троллинг тупостью. Зачем браться за перевод материала которого не понимаешь.

Европа не спешит включиться в этот процесс

Mistral

Ну miside хорошо получилась.

Так античит админку требует, а там уже рукой подать до полного доступа.

но т.к. есть официальная, то уже и не особенно интересно

Официальная там всё ещё 2.5 и она не даёт такие результаты как я понял, а "2.5.1" была слита случайно по ошибке, коммит там всё ещё можно найти.

у них не принято, чтобы поглощали крупных конкурентов на рынке

adobe поглотила macromedia

autodesk поглотила softimage

И то, что мы не видим рассуждения, кстати не круто для open source сообщества - не получится эффективно дообучать более слабые сетки на примерах GPT

https://x.com/DrJimFan/status/1834279865933332752

- Large Language Monkeys: Scaling Inference Compute with Repeated Sampling. Brown et al. finds that DeepSeek-Coder increases from 15.9% with one sample to 56% with 250 samples on SWE-Bench, beating Sonnet-3.5.
- Scaling LLM Test-Time Compute Optimally can be More Effective than Scaling Model Parameters. Snell et al. finds that PaLM 2-S beats a 14x larger model on MATH with test-time search.

Как минимум он был другим, ориентир был на аркадные автоматы где своя специфика. К тому же многие игры на старых консолях без адской сложности проходились за 30-40 минут, чего боялись издатели.

Более того раньше обычно не было технической возможности произвольного сохранения.

Но как это бывает, ограничение привносит свои дизайнерские подходы и получает сторонников.

Да, есть эмуляторы которые этот эффект эмулируют. Например Fusion:

Я не понимаю почему даже Сега в переиздании облажалась и эти тени выглядят неправильно. Кстати там не только тени, там ещё полутона так реализуются и в целом более мягкая картинка.

Я сам ограничено пользуюсь, использую как костыль против лени там где какая-то относительно типовая рутина. Но потерять на долбёжке с сетями можно и заметно так больше времени, благо к моменту как надоест уже есть желание написать самому.

т.е система не умеет делать то, чему она не обучалась?

Модели знают про шейдеры, но у них серьёзные проблемы с пониманием и композицией кода.

Вам там выше намекали что ваша задача очень распространена в датасете поэтому легко решается.

думаю, можно дать ей прочитать по этой теме книжку (скопировать текст книги в окно чата), и она сможет писать шейдеры, пусть даже не с первой попытки. если конечно памяти хватит, но это уже ограничение, данное машине людьми

Это не поможет. Например я пытался скармливать документацию того же shadertoy, добавлял свои уточнения, чтобы она не делала совсем глупых ошибок, модель слабо всё это учитывает, всё равно делает глупые ошибки. Без дообучения/finetuning никак.

Не переживайте, если что-то там реально даст преимущество им сразу же воспользуются все кто смогут.

А пока стоит выйти за рамки датасетов и всё ОЧЕНЬ ПЛОХО, банально не умеет шейдеры писать, хотя казалось бы.

Тут скрывается ещё интересная тема: если по его мнению нейросеть лучше программирует чем он, то у него нет квалификации сделать полноценное ревью.

1
23 ...

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Registered
Activity