- Large Language Monkeys: Scaling Inference Compute with Repeated Sampling. Brown et al. finds that DeepSeek-Coder increases from 15.9% with one sample to 56% with 250 samples on SWE-Bench, beating Sonnet-3.5. - Scaling LLM Test-Time Compute Optimally can be More Effective than Scaling Model Parameters. Snell et al. finds that PaLM 2-S beats a 14x larger model on MATH with test-time search.
Как минимум он был другим, ориентир был на аркадные автоматы где своя специфика. К тому же многие игры на старых консолях без адской сложности проходились за 30-40 минут, чего боялись издатели.
Да, есть эмуляторы которые этот эффект эмулируют. Например Fusion:
Я не понимаю почему даже Сега в переиздании облажалась и эти тени выглядят неправильно. Кстати там не только тени, там ещё полутона так реализуются и в целом более мягкая картинка.
Я сам ограничено пользуюсь, использую как костыль против лени там где какая-то относительно типовая рутина. Но потерять на долбёжке с сетями можно и заметно так больше времени, благо к моменту как надоест уже есть желание написать самому.
т.е система не умеет делать то, чему она не обучалась?
Модели знают про шейдеры, но у них серьёзные проблемы с пониманием и композицией кода.
Вам там выше намекали что ваша задача очень распространена в датасете поэтому легко решается.
думаю, можно дать ей прочитать по этой теме книжку (скопировать текст книги в окно чата), и она сможет писать шейдеры, пусть даже не с первой попытки. если конечно памяти хватит, но это уже ограничение, данное машине людьми
Это не поможет. Например я пытался скармливать документацию того же shadertoy, добавлял свои уточнения, чтобы она не делала совсем глупых ошибок, модель слабо всё это учитывает, всё равно делает глупые ошибки. Без дообучения/finetuning никак.
Видел отдельные файтюны для исправления багов (там специальные датасеты используются), но пока не нашёл время попробовать.
Модели на существующих архитектурах и подходах с LLM никогда не будут программировать лучше вас, хотя тут всё сильно зависит от задачи и вашего уровня. Пока вы выше большинства средних людей, практически любая нынешняя нейросеть по умолчанию будет выдавать для вас скорее всего конструкции низкого качества, но вы можете задать определённые правила чтобы нейросеть склонять к нужному результату, можно поизвращаться с RAG, попытаться заставить её не использовать порочные практики и т.п. при условии что в датасетах было всё же достаточно материала, а если вам не повезло, она будет как баран в стену долбиться и ничем ей уже не помочь кроме как собственным файтюном чинящим веса.
Это только говорит о вашем низком уровне программирования (ниже чем у большинства). Каждая статья с такими выводами это опозориться на весь инет.
Дело в том что нейросеть формируется медианой по датасетам, то есть чего больше в датасетах то и будет выдаваться по умолчанию. Учитывая чем полон инет, о качестве говорить особо не приходится.
может переписаться стэк, куча, может загореться комп, может создаться скайнет, комп может трансформироваться в робота и начать уничтожать человечество
Зачем вы транслируете этот форс абуза UB? Да и не только вы.
Если компилятор при UB ломает программу или делает явно нелогичное поведение это баг/ошибка (как было с дебильной ситуацией с циклом у clang который растранслировался в "мем"), а если он при этом ещё и занимается явным вредительством доводя концепцию UB до абсурда это саботаж.
Дополню: UB это далеко не всегда ошибка, как например чтение за границей массива, а вполне возможно законная оптимизация.
Потому что пока на ios во всех браузерах движок используется из сафари. Т.к. apple запрещает. Хотя там вроде есть подвижки к изменению этого, но это ещё не произошло.
adobe поглотила macromedia
autodesk поглотила softimage
https://x.com/DrJimFan/status/1834279865933332752
Как минимум он был другим, ориентир был на аркадные автоматы где своя специфика. К тому же многие игры на старых консолях без адской сложности проходились за 30-40 минут, чего боялись издатели.
Более того раньше обычно не было технической возможности произвольного сохранения.
Но как это бывает, ограничение привносит свои дизайнерские подходы и получает сторонников.
Да, есть эмуляторы которые этот эффект эмулируют. Например Fusion:
Я не понимаю почему даже Сега в переиздании облажалась и эти тени выглядят неправильно. Кстати там не только тени, там ещё полутона так реализуются и в целом более мягкая картинка.
Я сам ограничено пользуюсь, использую как костыль против лени там где какая-то относительно типовая рутина. Но потерять на долбёжке с сетями можно и заметно так больше времени, благо к моменту как надоест уже есть желание написать самому.
Модели знают про шейдеры, но у них серьёзные проблемы с пониманием и композицией кода.
Вам там выше намекали что ваша задача очень распространена в датасете поэтому легко решается.
Это не поможет. Например я пытался скармливать документацию того же shadertoy, добавлял свои уточнения, чтобы она не делала совсем глупых ошибок, модель слабо всё это учитывает, всё равно делает глупые ошибки. Без дообучения/finetuning никак.
Не переживайте, если что-то там реально даст преимущество им сразу же воспользуются все кто смогут.
А пока стоит выйти за рамки датасетов и всё ОЧЕНЬ ПЛОХО, банально не умеет шейдеры писать, хотя казалось бы.
Тут скрывается ещё интересная тема: если по его мнению нейросеть лучше программирует чем он, то у него нет квалификации сделать полноценное ревью.
Видел отдельные файтюны для исправления багов (там специальные датасеты используются), но пока не нашёл время попробовать.
Модели на существующих архитектурах и подходах с LLM никогда не будут программировать лучше вас, хотя тут всё сильно зависит от задачи и вашего уровня. Пока вы выше большинства средних людей, практически любая нынешняя нейросеть по умолчанию будет выдавать для вас скорее всего конструкции низкого качества, но вы можете задать определённые правила чтобы нейросеть склонять к нужному результату, можно поизвращаться с RAG, попытаться заставить её не использовать порочные практики и т.п. при условии что в датасетах было всё же достаточно материала, а если вам не повезло, она будет как баран в стену долбиться и ничем ей уже не помочь кроме как собственным файтюном чинящим веса.
Это только говорит о вашем низком уровне программирования (ниже чем у большинства). Каждая статья с такими выводами это опозориться на весь инет.
Дело в том что нейросеть формируется медианой по датасетам, то есть чего больше в датасетах то и будет выдаваться по умолчанию. Учитывая чем полон инет, о качестве говорить особо не приходится.
Модель любопытная, но я заглянул в ваши датасеты:
https://huggingface.co/datasets/Vikhrmodels/RP_vsratiy_Hogwarts — это конечно весьма своеобразный подход, но да ладно (и как-то маловато).
https://huggingface.co/datasets/Vikhrmodels/habr_qa_sbs — довольно мусорный датасет который без прочистки даёт кучу мусорных ответов
https://huggingface.co/datasets/Vikhrmodels/Flan_translated_300k — тут ещё больше мусора, очень много бессмысленных текстов, много где ответы вообще никак не связаны с вопросами.
Такие (два последних) датасеты не попортят качество итоговой модели?
Есть ещё Box86/Box64, не знаю портировали ли на мак.
Зачем вы транслируете этот форс абуза UB? Да и не только вы.
Если компилятор при UB ломает программу или делает явно нелогичное поведение это баг/ошибка (как было с дебильной ситуацией с циклом у clang который растранслировался в "мем"), а если он при этом ещё и занимается явным вредительством доводя концепцию UB до абсурда это саботаж.
Дополню: UB это далеко не всегда ошибка, как например чтение за границей массива, а вполне возможно законная оптимизация.
С wayland до сих пор не всё хорошо, там какие-то странные люди во главе со странной политикой, пока это выходит шило на мыло.
Мастерски расчищает нишу от конкурентов.
Return trailing type здесь излишне и абуз языка.
То ли дело:
https://github.com/eleijonmarck/do-not-compile-this-code
https://github.com/lucky/bad_actor_poc
https://rust-analyzer.github.io/manual.html#security
Потому что пока на ios во всех браузерах движок используется из сафари. Т.к. apple запрещает. Хотя там вроде есть подвижки к изменению этого, но это ещё не произошло.
text-align: center;