Обновить
-3
0

Пользователь

Отправить сообщение

Еще бы автоматическое окрашивание

Рекомендации по выбору количества параметров модели даны относительно MOE-моделей или нет?

Люди это те же самые агенты. Мы работаем по тому же принципу. И чем сложнее задача, тем больше людей и уже специализация. Так что у ИИ агентов большое будущее

Есть еще tencent/Hunyuan-MT-7B. Тестировали?

Тащусь от этой проги. Благодарю

rootless docker, podman, firecracker

FSRS не пробовали?

такое умеет только llamacpp? на vLLM такое провернуть не получится?

А можно к нему подключить локальный инференс с llamacpp например?

Через что озвучка сделана?

Почему контекст жрет много токенов, если он должен попадать в KV кэш?

Хорошо бы протестировать небольшие open-source модели. Понять бы насколько падает качество перевода с падением количества параметров модели и с квантизацией.

Если это ИИ-читатель кода, то стерпит

А какая модель/сервис может рисовать спрайты выдерживая единый стиль по образцу?

Хотелось бы понять насколько готовы современные нейросети к генерации спрайтов в едином стиле.

Мозг это очень ассоциативная машина. Для каждого слова или словосочетания нужно подбирать несколько предложений с ними, и не просто читать их, а решать набор заданий, хотя бы как в duolingo.

Где в России делают MACI и сколько это стоит?

это переизобретение RADIUS?

Личное наблюдение. Наблюдение за женскими особенностями особых трудностей не вызывает, они повсюду, сам женат.
На счет психов не понял. Вы хотите сказать, что в IT мало женщин, потому что среди них меньше психов?

Свежая разработка от Guidance https://github.com/guidance-ai/llguidance на rust
Заявлена высокая скорость. Поддержка Lark грамматики и тд
Разработчики OpenAI API недавно добавили в structured outputs. Появилась поддержка параллельного function calling в strict режиме


Информация

В рейтинге
Не участвует
Откуда
Россия
Зарегистрирован
Активность