Помогалов Владимир@vpomo
Backend разработчик, AI автоматизатор
Информация
- В рейтинге
- 516-й
- Откуда
- Санкт-Петербург, Санкт-Петербург и область, Россия
- Зарегистрирован
- Активность
Специализация
Бэкенд разработчик, Системный инженер
Ведущий
Docker
Linux
CI/CD
MySQL
Golang
Bash
Базы данных
Алгоритмы и структуры данных
Git
REST
Только ленивый не догадался использовать опенсорс-репозиторий как бесплатный CDN. Но проблема тут глубже: 82% трафика с 1% IP — это не «халявщики-корпорации», а метрика того, что мы поломали культуру зависимостей.
В любой приличной компании на production должен стоять локальный прокси-репозиторий (Artifactory, Nexus, даже просто проксированный PyPI через nginx). Но нет — менеджеры давят сроки, а DevOps ленятся. В итоге каждый сборщик (джун на маке и 300 контейнеров CI/CD) дёргают центральный Maven по 500 раз в час.
Реальное решение (кроме модного «дать денег фондам»):
Внедрить HTTP-заголовок вроде X-Upstream-Cache-Control: max-age=3600 для публичных реестров, чтобы даже дурацкие скрипты кешировали.
Всем гигантам (Google, Meta, Netflix) — выставить публичные метрики потребления из каждого реестра. Пусть краснеют.
Периодически отрубать доступ для самых жирных IP на час. Мигом научатся ставить кеш.
А пока – остаётся только разводить руками: open-source держится на энтузиазме и кредитках Брайана Фокса
Это требование создателей инструмента к железу, на котором он будет корректно работать.
Понятное дело, что все ОЗУ не будет постоянно на полную мощь использоваться.
Composer 2 мне тоже очень нравится и я его активно использую последний месяц.
Не понятно, чем вызвано ваше последнее предложение?
Да, разработчик Cursor заявляют, что они используют свою векторную базу для поиска по коду "из коробки". И я не говорю, что Cursor плохой и надо его выкинуть.
Но владельцам Cursor очень выгодно, чтобы пользователи тратили как можно больше токенов.
И каждый пользователь сам определяет, как пользоваться инструментами.
Полностью с вами согласен, что вопросов очень много. Одной статьи не хватит, чтобы на все ответить. Можно много чего рассказать о документации и как запросы правильно составлять и отправлять. Все сейчас проходят этот путь. Куда без этого. Понятное дело, что не правильно настроенные MCP жрут токены. Но все это не относится к теме данной статьи.
Ни в коем случае я не говорю, что предлагаю какой-то универсальный инструмент на все случаи жизни. Более того упор делается на то, что MCP надо использовать, но правильно настроить в каждом конкретном случае. Целью статьи является поделиться методом, полученным опытным путем, который реально работает и позволяет экономить деньги. И у меня не заработало сразу, все как надо. Пришлось несколько раз модифицировать правила, чтобы их оптимизировать. Все настройки взяты с машины на которой во время выполнения запросов видно, как запускаются MCP-инструменты. Запросы реально заработали быстрее. И в результате данные действительно берутся из кэша.
Я опубликовал контракт через Geth, получил его адрес. Ссылка на него сохранилось в локальной переменной.
Каким образом я могу им управлять (вызывать методы) через Geth на другом компьютере?
Какие команды необходимо для этого ввести в консоли Geth?