Как стать автором
Поиск
Написать публикацию
Обновить

Комментарии 11

Глянул - спасибо, сеть выглядит очень неплохо, генерации радуют.

Если кому нужна упомянутая 32B сеть по API для Continue или чего-то еще - можете взять на моем сервисе (ссылка в профиле). Скорость по API около 25 токенов/секунду, вероятно, будет повыше чем на локальной машине - все-таки не у всех есть GPU с большим объемом памяти.

Посмотрел на сервис- все , кажется , ясным, кроме того , что с сервисом надо работать на VPN ? Или я что-то не так прочитал ?

Нет, как раз наоборот - все без VPN.

а на каком железе оно крутится ?

А кто-нибудь уже сделал плагины хотя бы для того же VS Code, чтобы подцеплять такие модели а-ля Copilot?

В конце поста ссылка на Continue. Как раз именно то. Для VS code он хорош. Единственный недочёт что я встретил: для автокомплита не учитывает ограничение на количество стоп токенов, из-за чего мой LLM провайдер ошибки возвращает, но до выхода Qwen2.5 я именно для tab completions использовал Qwen2 7B запускаемый локально, и проблема меня не трогала, сейчас грустно.

У них также есть плагин для JetBrains IDE. Там проблем с автокомплитом нет. Но лично у меня как-то криво работает. Не смотрит на DPI, из-за чего сильно мельче всего остального интерфейса, нет почему то кнопок акцепта всех изменений, только поблоково принимать, что боль если сетка рефачила файл на 100+ строк.

Насчёт tab completion в Continue: в последней пререлизной версии, скачанной с гитхаба (в сторе более ранняя) баг с отсутствием ограничения стоп токенов судя по всему был пофикшен.

А вот и та самая "Synthetic data" использовавшаяся для обучения :)

Чето я совсем запутался... Какую версию модели лучше всего скачать для RTX4090 с 24 VRAM? Оперативка 64Гб.

В LM Studio найдите эту модель, там будет подсказка какая версия совместима чтобы полностью в видеопамяти помещаться.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости