Обновить
4
0.2
Валерий Реуцкий@benjik

Пользователь

Отправить сообщение

Понаблюдаем.

Есть ещё https://github.com/asterinas/asterinas - чуть более зрелый и с немного другими целями, но тоже somewhat-linux-compatible и на rust.

Супер!

Сам пришел примерно к такой же системе, и тоже после рождения ребенка. Разве что у меня вместо 1.5-часовых супер-фокусов помодоры - 25-минутные мини-супер-фокусы.

Судя по статье, не "Моки - это технический долг", а "Кривые моки и грязный тестовый код - это технический долг".

В первом примере у вас тесты с моками влезли на один экран. Во втором - на два, и это без определения всех зависимостей FakeЧегоТоТам, которые ещё пару экранов займут.

Сколько времени займёт "причёсывание" одного экрана с моками и четырёх экранов с самописными фейками при необходимости? Как быстро самописные фейки превратятся в полу-универсальные и кривые самописные моки, когда тестов прибавится?

Все вот эти

Его можно легко продебажить

Мы просто декларативно указываем, что хотим получить, и оно работает

никакие изменения ... НЕ ВЛИЯЮТ на тест, пока что-то в действительности не сломается

можно достичь теми же моками, с меньшим количеством строк, просто уделяя какое-то время дизайну тестового кода. Безумный копипаст так же точно угробит FakeЧегоТоТам, только будет ещё больше грязи.

Кажется, было бы нагляднее привести просто график вместо текста.
Цифры не выверял - прост попросил llm набросать csv по статье

Transaq / TXmlConnector - windows only (это прост DLL'ки), то есть ни каких уютных докеров, только неуютные виндовые контейнеры, если кто привык.

Плюс придётся писать ручками обвязку вокруг нативных функций, если не на плюсах пишешь. С наскоку на python/go/c#/java/etc бота с ними не написать.

Лямбда-функции в облаках с триггером по таймеру например. Первая тысяча вызовов в месяц - бесплатно.

Ждём нативную поддержку в языке https://github.com/dotnet/csharplang/issues/8928 .

Вроде как в 2025г обсуждений стало больше, надеюсь в .Net 11 завезут preview, а в .Net 12 LTS можно будет нормально пользоваться.

Пока что все эти самодельные штуки создают больше головняка чем пользы по сравнению с DU в F#/Rust/etc

Нет, не пользовался. Я забил почти на все локальные LLM, которые проще использовать из сторонних API. Иногда что-то совсем маленькое и специализированное гоняю, вроде jan от Menlo или ocr какие-то, но уже не для кодинга непосредственно.

Через ccrouter можно непосредственно из Claude Code выбирать особую модель

Да, в longContext в разделе router конфига

А в Claude Code какая-то польза от таких мелких моделей есть?

Для саммари/коммитов/etc мелочевки cc использует haiku. Вот её ccr и заменяет на background модель

Всё из топов программерских бенчмарков работает хорошо. Раньше были косяки с tool usage, но теперь с транформерами ccr они практически исчезли.

Я пользуюсь тут или чем-то с большим контекстом (Gemini/gpt4.1), или чем-то очень дешёвым (qwen/deepseek/kimi), или даже бесплатным на openrouter.

Из ollama пользовался чем-то 7b:q4 в качестве background модели (у меня 8гб vram), но теперь все только из API.

https://github.com/musistudio/claude-code-router

Работает с личным ключём openrouter, с корпоративной litellm, с локальной ollama, да и практически со всем что есть

README так и не появился, судя по гитхабу?

Не, там грамотные ребята продавали свои продукты топам, топы записывали себе в kpi успешное внедрение и назначали ПМ'а это внедрять. Грамотные ПМы, которые "смогли бы" внедрить, от этой чести грамотно уворачивались, а молодые-зеленые были недостаточно грамотными, чтоб увернуться и/или успешно внедрить.

Классика!

Наблюдал когда-то давно в одной и той же компании переезд с почты+экселя на HP Service Desk, с HP SD на самописный таск-трекер, с самописного на что-то опенсорсное, с чего-то опенсорсного на что-то встроенное в SAP в течение примерно 5 лет. Потом я уволился, но коллеги сказали что с SAP'а ещё на что-то переезжали пару раз.

На каждом из "переездов" был новый менеджер, т.к. старый куда-то девался, и каждый новый менеджер совершал одни и те же ошибки. Иногда забегали старые менеджеры и слегка истерично смеялись, радуясь что не придётся опять этим заниматься. Пользовались этими штуками люди, которые сидели на местах по многу лет и все уже давно перестали удивляться этой дичи. Даже ведение задач в двух (иногда в трёх) системах одновременно в середине переезда уже никого не удивляло.

Супер!

Ещё приделать экспорт в джиру в виде сабтасок со связями и оценками - и менеджеры будут в восторге

К тому же, большой минус в том, что текущие инструменты не совсем приспособлены к такому подходу.

Aider такое умеет. Делаешь в его консоли `/run <your-toolchain> tests` , он запускает тесты, и если они не прошли - предлагает отправить вывод в модель и пофиксить. Обычно справляется.

Другое дело что он очень opinionated в плане ui/ux и не многим подойдёт.

Imagine быть "не нормисом" и пропустить все это веселье.

А ведь ещё и жалуются потом на анонимных форумах на отсутствие повышений/бонусов и травлю

Иногда использую Continue.dev . Он конечно сырой и глючный, но работает.

Для autocomplete и embedding использую локальные модели, а вот для чата оказалось удобно использовать более годные модели через openrouter - там и Qwen2.5-72B, и Claude Sonnet, и даже семейство GPT от OpenAi - всё с наценкой в 9%, но зато pay-as-you-use вместо абонплаты и не надо заводить кучу учёток в разных местах.

Информация

В рейтинге
2 798-й
Откуда
Москва, Москва и Московская обл., Россия
Дата рождения
Зарегистрирован
Активность