Могу поделиться своим решением: утилита называется Proxifier, и позволяет гибко настраивать правила проксирования для приложений в Windows. Само приложение при этом ничего не будет знать про то, что оно работает не напрямую, а через прокси. Популярные штуки типа v2RayN для Xray отдают тебе https/socks proxy эндпоинт. Поэтому я купил виртуалку в американском Амазоне, взгомоздил туда 3x-ui с xray+xhttp, зароутил трафик только нужных приложений через Proxifier, и все американские нейронки теперь работают идеально.
На всякий случай напоминаю, что описанное выше решение - не предназначено для обхода блокировок Роскомнадзора. Оно предназначено для того, чтобы обходить санкции компаний типа Microsoft в отношении России.
Gemini можно и без openrouter бесплатно юзать :) Только через прокси, но и плагин Копайлота работает толькот через прокси. И имхо, лично для меня, Gemini работает лучше, чем GPT-4o, благодаря огромному размеру контекста и огромным бесплатным лимитам.
Достаточно простого прокси. В конце статьи есть. Прокси покупаются за копейки (типа 70 рублей в месяц) и работают стабильней, чем VPN.
Имхо, про это можно писать, это не "обход блокировок". "Блокировки" - это только те блокировки, что устроил Роскомнадзор. А тут, во-первых, поработал Microsoft. Во-вторых, использование прокси никак не поможет в случае настоящих блокировок.
Умеют, конечно. Но тут встает вопрос в совместимости по API с тем интерфейсом, который хочет Copilot и их расширения для tool calling. Вероятно, оно там всё очень специфическое, и любые другие нейронки кроме "обобренных" нужно специально затачивать. Ну или не сами нейронки, а их api gateways и structured output mode. Давай подождем, какая будет реакция у Гигачата и Яндекса на эту новость...
Кстати, попробовал Cline и RooCode. Очень впечатляет - для опенсорсной штуки, которую закодили и она выросла буквально на глазах. Но там большая проблема в ризонинге самого RooCode. Явно нужен тяжелый рисёч, который научит их не зацикливаться. Возможно, Microsoft справится с этим лучше - в конце концов, у них есть куча бабла на покупку лучших в мире специалистов в этой теме. И вот когда они зарисёчат вопрос, это можно будет уже перетащить в опенсорс...
Спокойно, ща разберемся ))) Все эти провайдеры где-то лежат на диске, магии не бывает. Ща нужно накачаться смертельной дозой кофеина и доскрестись до той XML-ки, где все эти провайдеры описаны )))
Точно так же, как Cursor и другие форки VSCode - никак. Мы жестко выпилили всё, что касается проприетарных компонентов Microsoft, телеметрию Microsoft, и в качестве источника используем только экстеншены с чистыми лицензиями с https://open-vsx.org. И да, это приводит к неприятным ограничениям типа невозможности использовать remote SSH и тому подобное. Когда-нибудь перепишем все эти компоненты сами. Не стреляйте в пианиста, он играет как умеет :)
Сто тысяч репозиториев нужно, например, любому дистрибутиву Linux, который хранит описания пакетов в виде отдельных репозиториев.
Например, в Nix сейчас больше 100к репозиториев. Конечно, большинство пакетов пока еще лежат в централизованном репозитории, но он позволяет использовать оверлеи и кастомные локации.
Вероятно, следующее поколение DevOps-ориентированных операционок уже совершенно всё будут хранить в отдельных репозиториях, включая отдельные репозитории под гранулярно выданные окружения.
Представьте, что каждый запуск, каждая виртуалка на Амазоне создает по репозиторию, чтобы хранить слепок пути своего выполнения, бэкап лога, бэкап окружения, и тому подобное. Это сильно больше 100 тысяч. Это сто тысяч в день :)
Также это может быть полезно любой большой компании, которая использует Git-хранилище как базу данных, сохраняя все данные по клиенту в отдельном репозитории. (По живому человеку, бизнес-клиенту, а HTTP API client). Это довольно удобно, потому что позволяет выдавать гранулярные права на работу с клиентами. Виртуальное досье. Мы так делали (но не на Гитхабе, а на локальном защищенном хранилище).
Если у тебя GitOps повсеместно - значит он реально повсеместно. GitHub это сам придумал и популяризировал. Пусть теперь расхлебывает. К великой силе прилагается такая же ответственность :)
"Тренироваться" в практическом смысле этого слова - наверное, нет. Тут, кажется, возникает следующий вопрос: достаточно ли нам текущих популярных методов "тренировки" для того, чтобы получить нечто, что мы можем назвать гордым словом Искусственный Интеллект. Или нужно что-то большее?
(Кажется, тут нужен настоящий специалист по ИИ, а не недоучка с полыхающим пайторчем. Если на Хабре есть таковой, не поленись, напиши свое мнение!)
>По ценам я правильно понимаю что нужен план за 1790 рублей в месяц?
Чтобы попробовать - уже не нужно платной учетки. Как тут самым первым заметил @smarkelov, они вечером выкатили пробную 2.5-experimental на всех.
Если нужна релизная версия для прода - нужно покупать. Экспериментальные бесплатные сетки не дают никаких гарантий. В любой момент у тебя может поменяться все что угодно, начиная с максимальной длины ответа и заканчивая перегрузкой сервера.
А еще, они могут учить нейронку на твоих вопросах и ответах. Все, что ты пишешь, через некоторое время будет доступно всему миру.
использовать текущий аккаунт google не вариант и без карточки нужной страны сменить регион не вариант ?
Оно не работает в регионе Россия, и оплатить можно только через Visa/Mastercard/etc. Да, придется мутить с карточками.
Еще можно положиться на вот таких продавцов. Но они хотят пароль от твоей учетки, так что ни в коем случае нельзя им давать основную свою учетку.
> А можно поподробнее есть статьи курсы как кодить с AI ?
Тут есть два пути. Во-первых, можно просто читать много разного по теме, и через некоторое время сам всё поймешь.
Второй вариант - дождаться, пока я выложу бесплатный курс. У меня есть некая методика, которой мало кто придерживается в интернете. Методика заключается в написании четких, подробных ТЗ и использовании AI/LLM как продвинутого компилятора.
Так редко кто делает, потому что мир одержим идеей "создать приложение с помощью 1 промта". Имхо, это чистой воды популизм, а кто верит в агента Манус/Анус, который сам за тебя все сделает - бредят.
Но там еще непаханое поле, так что я доделаю только к лету. Это если делать не говно, конечно, а нечто на уровне OpenAI.
Конечно нормально. Очень сидеть не хочу в тюрьме, если вдруг какой-нибудь сотрудник Роскомнадзора прочитает этот пост недостаточно внимательно.
Постой, твоя команда делала модель Scout?
Конечно же я собрал несколько новостей из интернета. Других способов получать новости нет, как бы. Читаю китайские форумы, достаю из них инфу.
Аггрегирую инфу, рассказываю на Хабре, чего говорят люди в интернете.
Вся новость строится на новости с китайского форума и недовольства пользователей тем, как работает llama-4.
Из предположения, что новость может быть фейком, написал в заголовок слово предположительно.
Я не знаю. Попробуй!
Могу поделиться своим решением: утилита называется Proxifier, и позволяет гибко настраивать правила проксирования для приложений в Windows. Само приложение при этом ничего не будет знать про то, что оно работает не напрямую, а через прокси. Популярные штуки типа v2RayN для Xray отдают тебе https/socks proxy эндпоинт. Поэтому я купил виртуалку в американском Амазоне, взгомоздил туда 3x-ui с xray+xhttp, зароутил трафик только нужных приложений через Proxifier, и все американские нейронки теперь работают идеально.
На всякий случай напоминаю, что описанное выше решение - не предназначено для обхода блокировок Роскомнадзора. Оно предназначено для того, чтобы обходить санкции компаний типа Microsoft в отношении России.
Gemini можно и без openrouter бесплатно юзать :) Только через прокси, но и плагин Копайлота работает толькот через прокси. И имхо, лично для меня, Gemini работает лучше, чем GPT-4o, благодаря огромному размеру контекста и огромным бесплатным лимитам.
Достаточно простого прокси. В конце статьи есть. Прокси покупаются за копейки (типа 70 рублей в месяц) и работают стабильней, чем VPN.
Имхо, про это можно писать, это не "обход блокировок". "Блокировки" - это только те блокировки, что устроил Роскомнадзор. А тут, во-первых, поработал Microsoft. Во-вторых, использование прокси никак не поможет в случае настоящих блокировок.
Почему эта задача не решается внутри VSCode?
Умеют, конечно. Но тут встает вопрос в совместимости по API с тем интерфейсом, который хочет Copilot и их расширения для tool calling. Вероятно, оно там всё очень специфическое, и любые другие нейронки кроме "обобренных" нужно специально затачивать. Ну или не сами нейронки, а их api gateways и structured output mode. Давай подождем, какая будет реакция у Гигачата и Яндекса на эту новость...
Кстати, попробовал Cline и RooCode. Очень впечатляет - для опенсорсной штуки, которую закодили и она выросла буквально на глазах. Но там большая проблема в ризонинге самого RooCode. Явно нужен тяжелый рисёч, который научит их не зацикливаться. Возможно, Microsoft справится с этим лучше - в конце концов, у них есть куча бабла на покупку лучших в мире специалистов в этой теме. И вот когда они зарисёчат вопрос, это можно будет уже перетащить в опенсорс...
Спокойно, ща разберемся ))) Все эти провайдеры где-то лежат на диске, магии не бывает. Ща нужно накачаться смертельной дозой кофеина и доскрестись до той XML-ки, где все эти провайдеры описаны )))
Точно так же, как Cursor и другие форки VSCode - никак. Мы жестко выпилили всё, что касается проприетарных компонентов Microsoft, телеметрию Microsoft, и в качестве источника используем только экстеншены с чистыми лицензиями с https://open-vsx.org. И да, это приводит к неприятным ограничениям типа невозможности использовать remote SSH и тому подобное. Когда-нибудь перепишем все эти компоненты сами. Не стреляйте в пианиста, он играет как умеет :)
В списке есть ollama. Прямо сейчас пытаюсь разобраться, как прикрутить.
Плюс, надо понять, как расширить список провайдеров, чтобы добавить туда LMStudio, Open Web UI и другие популярные локальные провайдеры.
Сто тысяч репозиториев нужно, например, любому дистрибутиву Linux, который хранит описания пакетов в виде отдельных репозиториев.
Например, в Nix сейчас больше 100к репозиториев. Конечно, большинство пакетов пока еще лежат в централизованном репозитории, но он позволяет использовать оверлеи и кастомные локации.
Вероятно, следующее поколение DevOps-ориентированных операционок уже совершенно всё будут хранить в отдельных репозиториях, включая отдельные репозитории под гранулярно выданные окружения.
Представьте, что каждый запуск, каждая виртуалка на Амазоне создает по репозиторию, чтобы хранить слепок пути своего выполнения, бэкап лога, бэкап окружения, и тому подобное. Это сильно больше 100 тысяч. Это сто тысяч в день :)
Также это может быть полезно любой большой компании, которая использует Git-хранилище как базу данных, сохраняя все данные по клиенту в отдельном репозитории. (По живому человеку, бизнес-клиенту, а HTTP API client). Это довольно удобно, потому что позволяет выдавать гранулярные права на работу с клиентами. Виртуальное досье. Мы так делали (но не на Гитхабе, а на локальном защищенном хранилище).
Если у тебя GitOps повсеместно - значит он реально повсеместно. GitHub это сам придумал и популяризировал. Пусть теперь расхлебывает. К великой силе прилагается такая же ответственность :)
Круто, спасибо!
Сожалею, так не работает. Народу продали эту мысль большие компании, и теперь будут стричь бабки на прогреве фраеров.
"Тренироваться" в практическом смысле этого слова - наверное, нет. Тут, кажется, возникает следующий вопрос: достаточно ли нам текущих популярных методов "тренировки" для того, чтобы получить нечто, что мы можем назвать гордым словом Искусственный Интеллект. Или нужно что-то большее?
(Кажется, тут нужен настоящий специалист по ИИ, а не недоучка с полыхающим пайторчем. Если на Хабре есть таковой, не поленись, напиши свое мнение!)
Сайт еще есть: https://chat.deepseek.com/
Сорян, я не силен в социологических опросах.
Вот эти ребята смогут помочь за скромную сумму: https://www.mckinsey.com/industries/public-sector/how-we-help-clients/digital-and-analytics
>По ценам я правильно понимаю что нужен план за 1790 рублей в месяц?
Чтобы попробовать - уже не нужно платной учетки. Как тут самым первым заметил @smarkelov, они вечером выкатили пробную 2.5-experimental на всех.
Если нужна релизная версия для прода - нужно покупать. Экспериментальные бесплатные сетки не дают никаких гарантий. В любой момент у тебя может поменяться все что угодно, начиная с максимальной длины ответа и заканчивая перегрузкой сервера.
А еще, они могут учить нейронку на твоих вопросах и ответах. Все, что ты пишешь, через некоторое время будет доступно всему миру.
использовать текущий аккаунт google не вариант и без карточки нужной страны сменить регион не вариант ?
Оно не работает в регионе Россия, и оплатить можно только через Visa/Mastercard/etc. Да, придется мутить с карточками.
Еще можно положиться на вот таких продавцов. Но они хотят пароль от твоей учетки, так что ни в коем случае нельзя им давать основную свою учетку.
> А можно поподробнее есть статьи курсы как кодить с AI ?
Тут есть два пути. Во-первых, можно просто читать много разного по теме, и через некоторое время сам всё поймешь.
Второй вариант - дождаться, пока я выложу бесплатный курс. У меня есть некая методика, которой мало кто придерживается в интернете. Методика заключается в написании четких, подробных ТЗ и использовании AI/LLM как продвинутого компилятора.
Так редко кто делает, потому что мир одержим идеей "создать приложение с помощью 1 промта". Имхо, это чистой воды популизм, а кто верит в агента Манус/Анус, который сам за тебя все сделает - бредят.
Но там еще непаханое поле, так что я доделаю только к лету. Это если делать не говно, конечно, а нечто на уровне OpenAI.
Можно подписаться на мою телегу, там будет вся инфа:
Канал: https://t.me/tg_1red2black
Чат: https://t.me/chat_1red2black