Pull to refresh
2
Влад@MAT-POC

User

0,5
Rating
Send message

Gemma 4 26B A4B - 3,8 млрд. активных, это значит она на карту с 8 Гб влезет ?

Следующий прорыв по моему будет у продукта который объединит в одном пакете локальную LLM до 6-8 Гб VRAM (с возможностью подключения внешней LLM) + аналог OpenClaw.

от себя добавлю

  1. Локально на машине в 8Гб видеопамяти RTX 2060 Super нормально работает Qwen3.5-9b и Сберовский Гига Чат3.1 Лайт : forzer/GigaChat3-10B-A1.8B. ГигаЧат отвечает заметно быстрее. Если железо

  2. Модели локально оставил для работы OpenClaw. На Qwen3.5-9b - openClaw работоспособен, с ГигаЧат3.1 Лайт завести не удалось из-за того, что он требует не совместимый OpenAI формат запросов. Подробнее здесь.

  3. для openClaw использовать LM Studio не удалось. Пришлось ставить Ollama. У LM Studio есть очень полезная функция - при загрузке модели она автоматически подсказывает версию с оптимальной квантизацией для вашего железа.

  4. Есть очень прикольный российский проект Дока АИ Вот статья на хабре + обсуждения. У него кстати последняя модель Qwen 3.5. обновляется почти каждый день!

по-моему его "Постепенные улучшения при помощи разбиения на компоненты" могло вернуть ситуацию в контролируемое русло. В целом похоже центральный аппарат Майкрософт закостенел. К Биллу Гейтсу, по рассказам, мог подойти любой разраб по любому вопросу. Правда и Б.Г. мог сказать "Ты чё, дурак ?"

Я слышал про сокращение 2-3% самых не эффективных сотрудников в компании в год. И по рассказам очевидца занимались этим все крупные ИТ корпорации США. + в Майкрософт была собственная компания PowerMan - для аутсорсинга персонала, т.е. куча людей работала не в майкрософт, а через их же прокладку-подрядчика с официальными 6 днями отпуска в год (в США работодатель не обязан предоставлять отпуск персоналу - размер отпуска оговаривается в контракте) и объемами работ которые невозможно было сделать за 8 часов поэтому люди постоянно задерживались после работы на 1-2 часа.

>"GigaChat не совместим с OpenAI API из коробки. Используем gpt2giga "

Я правильно понимаю что из-за этого невозможно переключить локальную модель qwen3.5:9b на локальный ГигаЧат forzer/GigaChat3-10B-A1.8B ? У меня хоть всё настроено правильно при попытке сменить модель пишет : Agent failed before reply: Unknown model: forzer/GigaChat3-10B-A1.8B. Logs: openclaw logs --follow

Спасибо за подробную статью!

Насколько сложно сделать:

  • корпоративную базовую станцию 5G AS (железо, ПО, как получать частоты, нужны ли разрешения если БС 5G AS установлена в экранированном ангаре)

  • привязать к ней сотовые телефоны с корпоративным приложением, как прошивать сим карты и т.п.

  • организовать доступ корпоративного приложения через корпоративную базовую станцию в ЛВС и в сеть сотового оператора.

  • существуют ли готовые решения ?

    Если можно напишите статью описывающую хотя бы примерно процесс и расходы по времени и расходы на железо.

хрома у меня нет, есть Яндекс браузер

у меня хрома нет, есть яндекс браузер - работает нормально

1. иногда он долго ищет, пользователь передумал - желательно прерывать это занятие по клавише Esc

Он пишет что не может открыть браузер. EУ вас вроде написано что "открывает браузер заполняет формы" ...

Как Вы считаете локальные модели уровня Qwen 3.5 9b / GigaChat-3.1 Lite 10B могут нормально работать с аналогами openclaw ?

Для технически подкованной есть LM Studio. Эта аскетичная версия как раз для гуманитариев и чайников, где за тебя подумал специалист.

Отличная, работа! Всё сделано руками и очень круто! Ничего лишнего. Я не знаю на сколько тяжело поменять LLM сеть, но если будет возможность добавьте туда qwen 3.5 9b и Гигачат 3,1 Лайт они по качеству примерно одинаковые на карте с 8 Гб в LM Студии работают нормально. Гигачат 3,1 - заметно быстрее Qwen 3.5.

https://habr.com/ru/companies/sberbank/articles/1014146/ - вот обсуждение Гигачата.

Можно добавить к списку загружаемых файлов MD ?

Как вам пришла в голову идея продавать ОС для закрытых сетей защищённых ПК, обычно без доступа в интернет, с частично не переведенными man ?

Как настраивать ОС админу если часть справочной документации на иностранном языке ?

Религия запустить LLM для перевода на русский не позволяет ?

Почему не перевести комментарии в BASH сценариях ?

Астра Линукс для корпоративных пользователей, вообще то стоит приличных денег.

И это за давным давно устаревший Debian 9/10 с Java 11 на борту. Хотя конечно, надо отдать должное, Ваши инженеры обновили там ядро чтобы Астра оставалась более менее актуальная.

у меня всё нормально запустилось, я даже сравнил её с Qwen 3.5-9b. На первый взгляд не хуже.

варнингам в рантайме, в будущих версиях вместо ворнингов 

Я стесняюсь спросить, как всё таки правильно по русски будет: "варининги" или "ворнинги" ?

Кому любопытно на RTX с 8ГБ + LM Studio нормально запускается  GigaChat-3.1-Lightning 10B (gigachat3.1-10b-a1.8b) и при чате примерно соответствует Qwen 3.5 9B. Причём ответы достаточно приличные. Так что Сбер по моему поскромничал ...

уже есть в LM Studio если нужно.

Интересует вопрос, неужели делать лёгкие версии моделей из базовой так затратно?

Почему все разработчики их не делают сразу несколько размерностей, оптимизированных для для видеокарт с 8, 12, 16 и 24 Гб памяти?

По моему внутреннему рейтингу (для кодогенерации из спецификации 200 строк получаю код на 500-900 строк):

  1. Бесплатный Клауди Опус 4,6 Думающий - даже у старых моделей есть ощущение, что понимает спецификацию как человек.

  2. ChatGPT 5.4 - платный, дышит в спину, но нет ощущения "что понимает"

  3. Gemeny 3.1 Про - бесплатный, просто генерирует код.

  4. остальные непригодны для кодогенерации по спецификациями

ну как не регулировались ... пару раз люди получали в бубен за слова на фруме локалки ... времена были такие ... только лихие 90-е кончились

Information

Rating
2,596-th
Registered
Activity