Comments 8
Большинство открытых моделей небольшого размера обучены на одном или нескольких европейских языках.
Китайские Qwen3 последние модели пробовали? У них все отлично с русским языком, если спрашивать на русском, то не только отвечать будут на русском, но и думать на нем-же. Вот, очень маленькая модель, всего 4b параметров, как думает:

Финальный ответ, не полный:

Да, согласен, ситуация в этом плане постепенно меняется. Поэтому "большинство", а не "все". Т.е. если нужен качественный русский язык, сейчас это не непреодолимое препятствие, а лишь существенный ограничитель выбора.
Что касается Qwen3 - тестировали вариант 8B 100+ дневной давности - были некоторые проблемы. Ваш вариант обязательно погоняем. Среди прочих опробованных (в разных вариантах квантизации): llama3 8B, gemma2 9B, llama3.1 в разных вариантах, ministral 8B, qwen2.5, deepseek-r1 (разные дистилляции), t-lite-it-1, yandexGPT5 8b, saiga, phi 3.5, gemma3.
Если будете пробовать, на что стоит обратить внимание: большинство сервисов по умолчанию предлагают использовать модели с 4-м квантом. Если для больших моделей это терпимо, то у моделей на 8b параметров и меньше на таком кванте риск получить галлюцинацию уже выше, так что лучше использовать модели с 8-м квантом, или хотя-бы с 6-м.
Почитал и вспомнил, как сам пытался строить такие автономные системы. Итог один: всё красиво на бумаге, а на деле куча костылей и багов. Но эксперимент интересный, видно, что автор реально покопался.
Сейчас все упирается в то, что не до конца понятно, как корректно использовать творческий потенциал нейросети без вреда. Нейросети очень несистемны, не имеют жесткой логики, но очень гибки. Они действительно неплохо придумывают новый контент или анализируют переданный, но чтобы это работало качественно надо знатно поломать голову.
Это я к чему: зависит от того, что автор хочет сделать. Если нейросеть будет просто персонажей генерировать из определенной выборки "тегов", то это одно, а если она будет описывать полноценное приключение - то это другое.
На мой взгляд в обоих случаях нейросети требуется отличный такой "костяк" игровой логики, к которому она будет обращаться для получения и изменения информации. Потому что держать игровой мир в контексте очень быстро приводит к плачевным последствиям.
Да, именно так и есть: изначальная идея "описываем ИИ ситуацию, запрашиваем данные/решение - вся логика и креатив на ИИ" оказалась нереализуемой и постепенно сместилась до "использование ИИ должно быть минимизировано на столько, на сколько это вообще возможно". Не скрою, это обстоятельство меня сильно разочаровало. Но зато после осознания, как говориться, дело пошло.
Если будет возможность - опишу этот процесс подробно отдельной статьей.
Особенности применения LLM в режиме полной автономности