Комментарии 46
Спасибо за руководство.
Я рад, что поднял настроение. А что развеселило?
ну мне уже не 16 лет чтобы ржать с клитора (
Боже ?♂ Спасибо вам, добрый человек, я не мог увидеть этого на протяжении нескольких часов и не понимал, в чем проблема.
Ты не один такой :)
Искренне думал, что очередной сноб угарает, что кто то устанавливает кли Тор, ведь она уже в пакете тор. Что со мной сделал интернет...
Только ничего не исправляйте ?
Я несколько раз прилежно перечитывал аббревиатуру и не понимал и только потом долистал комментарии :D
Сначала не понял, а потом кааак понял. Теперь мне тоже настроение на весь день подняло
Ставим Ollama
Ставим плагин Continue для Jetbrains или VSCodium
По инструкции от Continue настраиваем весь пакет, скачиваем модели, запускаем
И оно работает. Локально. Оффлайн. Без учётной записи Microsoft, Tor, интернета, нестабильности, настройки проксика, проблем с блокировкой Tor в России, отправки заявок, справок из школы, турецкой кредитки, криптовалют, ...
Работает похуже — но это всё меньше заметно, локальные модели хорошеют каждый месяц. На Macbook M1 Pro и его скромных 16 ГБ гибридной памяти работает довольно быстро.
Конечно Ваша инструкция очень важна, т.к. каждый юзер какого-то скромного ноута с 8гб памяти(а таких ещё очень много, эпл в том числе решило такой мув сделать недавно) сможет запустить хотя бы самый маленький мистрал или лламу на 7b которые требуют минимум 12 и 14 гигабайт соответственно(если меня не обманула информация с самой первой ссылки в гугле). Спешу так же напомнить что ни ллама, ни мистрал, ни гемма не обучены в режиме code completion как это есть с копилотом или starcode 7b(этот даже бесплатный на fireworks.ai из-за чего локально ничего ставить не нужно), из-за чего они могут выполнять лишь функцию чата в данных средах, в то время как специально обученные сетки способны на лету дополнять код.
Всё верно.
каждый юзер какого-то скромного ноута с 8гб памяти
...сможет прочитать инструкцию по ссылке и найти модель на любой размер и вкус. Например:
If you are running the model locally, we recommend
starcoder2:3b
.
If you find it to be too slow, you should trydeepseek-coder:1.3b-base
.
If you have a bit more compute, or are running a model in the cloud, you can upgrade todeepseek-coder:6.7b-base
.
Думаю, на 1.3b параметров хватит 4 ГБ памяти. Если на вашем ноуте 2 ГБ или меньше, можно запустить модель на соседнем компе, или сервере, или выбрать поставщика compute, который примет оплату в рублях и обслуживает российские IP.
Спешу так же напомнить что ни ллама, ни мистрал, ни гемма не обучены в режиме code completion
..поэтому Continue их и не рекомендуют. Зато рекомендуют специализированные модели, выбирайте на вкус и вычислительный бюджет.
Зачем такие сложности когда есть blacbox?
Лучше расскажите как обойти проблему с рутовым корпоротивным сертом и ошибку при логине из-за него :)
И он действительно весьма помогает. Безо всяких танцев с бубнами.
А мне повезло - я просто установил Copilot из настроек плагинов, нажав install.
полгода назад доставали индусы - приглашали на интервью в крупного финансового брокера (работал там 10 лет назад - поэтому никогда не буду там открывать аккаунт). Пыжились с вопросами - а я их обидел :-( сказал, что они зря тратят время так как все эти ответы отлично напишет Copilot и собственно они (и вопросы и индусы) не особо то и нужны.
Вот кстати интересный вопрос - а нафига теперь собеседования с написанием кода если примерно 90% такого кода Copilot генерирует вполне сносно. (90% в среднем, так как качество немного отличается - для JS код почти всегда верный, для Python чуть хуже, но легко допиливается)
И, кстати, утверждение о том, что в компаниях пользоваться ИИ запрещено не совсем верно. Например в компании где я работаю (я думаю процентов 20-25 хабравчан будут ставить мне минусики (а может и плюсики) будут использовать наши ноуты) Copilot вполне разрешен и успешно юзается для написания кода
Тема для обсуждения действительно интересная.
Про использование в компаниях. Конечно используют, но я лично знаю несколько примеров крупных компаний, где copilot'ом пользоваться нельзя (насчет остальных ИИ не уверен).
Очень хорошо, когда базовые задачи оптимизируются таким способом. Все равно никто не оставляет сгенерированный код неизменным. А некачественный (или небезопасный) код не пропустит review.
[warn] Failed to parse/validate config: Unknown option 'obfs4'. Failing.
[err] Reading config failed--see warnings above.
чяднт?
Service error 1063 : The service process could not connect to the service controller.
Ошибка при старте сервиса на винде
Спасибо за гайд!
В статье (на скрине) используется порт 9081, а в гитхаб конфиге 9080
В новых версиях tor'а вместо obfs4proxy используется lyrebird
Спасибо за статью, но есть пару комментариев к запуску на macos
1) Нужно так же установить obfs4proxy (можно через brew)
2) /opt/homebrew/etc/tor/torrc.sample переименовываем в torrc
3) Берем шаблон, но вместо /usr/local/bin/obfs4proxy указываем оутпут which obfs4proxy
Подскажите, а кто-т опробовал использовать этот метод для Visual Studio 2022? У меня выдает 403 ошибку и пишет, что "At this time, Copilot is not available in your location". Может у кого получилось?
GitHub Copilot в JetBrains IDEs в РФ