Pull to refresh

Comments 195

А можно мне на нулевой вопрос ответить: как при этом оставаться анонимным, не светить ни аккаунтов, ни карточек?

В этом случае поможет self-host: покупаете самую дорогую GPU, которую можете себе позволить. Хостите там самую умную опенсорсную LLM из доступных на данный момент. Запускаете опенсорс AI Coding Agent (типа opencode). И при правильной работе с контекстом и навыку работы с AI должно выходить сносно, но я не пробовал.

Ожидаем в этом году опенсорс ллм для кодинга качества почти Opus-4.5, тогда точно получится не хуже. Хотя остальной мир уже дальше по экспоненте улетит -- тут вопрос, насколько вам ок быть в догоняющих из-за мании оставаться полностью анонимным.

Это не мания, это проблемы с юрисдикцией, санкциями и условиями пользования. Не хотелось бы лишиться инструмента только потому, что кому-то не понравилось, что я "из другого политического блока"

В таких случаях я люблю решать проблемы по мере поступления. Если заберут доступ от чего-то важного, значит, уже появилось достаточно альтернатив.

Сейчас AI очень быстро развивается, возможно, через полгода самым переводым инструментом будет уже не Claude Code, а что-то другое -- и это отлично. Увы, нельзя купить что-то одно в надежде пользоваться им до конца (см. Github Copilot и другие умные автокомплиты).

Если заберут доступ от чего-то важного, значит, уже появилось достаточно альтернатив.

Это 5!

Прям просится шутка про макс, да? ))

Чтобы найти решение, надо сначала описать риск.

Проблема:
Допустим, вы готовы использовать Claude Code, как описано в статье. Используете его какое-то время, потом вдруг Antrophic вам блокирует доступ к своей модели (не к софту у вас на компе, вы за него не платили и т.п.)

Решение:
Настраиваете переменные окружения типа
ANTHROPIC_BASE_URL=https://api.z.ai/api/anthropic
И пользуетесь в той же среде тем же Claude Code, но моделькой возможно чуть более ггаллюцинирующей, но при написании спецификаций, а не просьб "сделай мне хорошо" прекрасно работающей.

В случае реализации риска "полная блокировка трафика из РФ зарубеж" конечно, сложнее. Тут либо на "внутриРФ" модель придется переключаться (благо есть проекты CCRouter, позволяющие Claude Code использовать другие API, не только антрофиковые), либо вообще на собственную (домашнюю).

AI MAX+ 395 128gb, Strix Halo - позволяют комфортно работать с gpt-oss-120b. Конечно, это ни разу не Optus 4.5, но при полном запрете коммуницировать с внешним миром и это неплохо (уж для меня точно пропавший доступ к Optus 4.5 станет не главной проблемой).

Можно и что-то понавороченнее использовать.

Если все-таки не столь радикально, и хочется еще больше свободы, при этом используя подход со спецификациями - какой-нибудь опенсоурсный OpenSpec.

Один и тот же подход к составлению спек, тасков и т.п. получите практически в люблм инструменте. Разница практически только в моделях.

А так - можно openspec:proposal выполнить в Claude Code, а openspec:apply в Antigravity. Или в Copilot. Или RooCode...

полная блокировка трафика из РФ зарубеж

При таком раскладе проблемы с доступом к LLM уйдут далеко на второй-третий план.

Для меня да, я так и написал :)

Просто хотел показать, что с точки зрения "продолжить кодить" даже такой безумный риск можно худо-бедно "митигировать".

Я сначала тоже так думал, потом понял что я сам себе так забаню на порядок больше опций, чем злые дяди. Сейчас я использую локальные рисующие модели, потому что они намного лучше облачных, и облачные кодящие, потому что они лучше локальных. Через месяц - будет видно.

Рисовалки требуют куда меньших ресурсов чем LLM, и ситуация сохраняется уже не один год. Так что за месяц вряд ли что-то изменится, за год - возможно, но надежды довольно призрачные. Все - таки слишком разные задачи. Распознавалки вон вообще на МК запускаются без всяких видеокарт уже давно.

Сейчас есть два противоположных крупных политических блока, если не подходит один по каким-то причином берите модели от другого. Разница в качестве не значительная.

Люди уже год работают с Claude Code под VPN из России. Какой картой там и что оплачено, всем плевать. Знаю таких лично под 10 человек.
Некоторые даже оплачивают через МТС (не рекласа).

что кому-то не понравилось, что я "из другого политического блока"

Меняю политический блок на правильный. В принципе, процесс недолгий, максимум 5 лет.

Случилась ирония. Статья начинается с (корректного) посыла, что сейчас (топовые) LLM доросли до нормального программирования:

попробовал AI в начале 2025

попросил написать код, результат был так себе, выбросил

И тут вы советуете слабенькую модель, которая только бесить будет:

самую умную опенсорсную LLM из доступных на данный момент

какой был запрос у человека выше)

я всегда за то, чтобы заплатить за передовые технологии и не тратить время на развертку всего локально ради прайваси.

Вовсе не обязательно самую дорогую GPU. У меня всё прекрасно работает на Macbook Pro M4 Max 36 Gb, модель 2023 года. Поставил LM Studio, качаю всякие Gemma, Qwen, Mistral, GLM, каждая хороша по своему. LLM специально адаптированны под Mac процессоры и их unified memory. Если просто початиться, то в LM Studio есть чатик, ну а для кодинга использую opencode. Решение достойное, но надо привыкать ставить правильно задачи, в Cursor с этим проще. Самый главный плюс LM Studio + opencode это то, что вся эта конструкция работает без интернета и для меня, как заядлого путешественника, это крайне важно. Из минусов то, что аккумулятор садится значительно быстрее

В США активно скупают Mac Mini на Max и максимальной памяти для этих целей.

Можно по цене RTX Pro 6000 просто купить пару Mac Studio на 512Gb объединенной памяти и шнурок Thunderbolt 5, на них спокойно идет DeepSeek V3 671b без квантования или Kimi 1T

 RTX Pro 6000 стоит вроде как $10K Все-таки пару Mac Studio M3 Ultra c 512GB за такие деньги купить проблематично.

Хотя если скорость неважна, а 96GB VRAM достаточно, конечно, и MiniPC AMD Max+ 395 со 128 GB DDR5 вполне хватит. А для 512GB mac вне конкуренции, это правда. Но цена...

Если есть лишний миллион баксов на оборудование под llm, тогда , почему нет, можно и локально установить llm модель.

AI‑агенты не убивают профессию, они обнажают разницу между теми, кто учится формулировать задачу и строить спецификации, и теми, кто по‑прежнему копипастит куски кода без понимания.

Они обнажают проблему, бизнес не хочет системных аналитиков держать, хотят посадить прогера и чтоб творил, а творить быстро он не может когда надо решать две проблемы одновременно (разбираться в мечтах бизнеса и формализовать их, а потом ещё и запрогать, потом им не понравилось и ещё раз по кругу) и тут у нас появился волшебный инструмент

с 100% покрытием unit и e2e тестами.

а можно посмотреть что за тесты там?

как насчет метрики покрытия тестами требований?

Конечно можно -- он пишет код в папке у тебя на компьютере. Всегда можно открыть файлы и посмотреть. А если что-то не так -- сказать как сделать так

Открыл свой компьютер, не увидел там вашего кода Block Blast. Вы уверены, что именно так происходит демонстрация ваших результатов?

Вы хотите на мой код посмотреть? Боюсь, это уже не актуально: я сам на него не смотрел.

Сгенерите свой :)

я сам на него не смотрел

Раз раз разом success stories про vibe coding пишут люди, которые не смотрят что там написано. Мде…

Ради интереса решил проверить на что способен GitHub CoPilot в Agent mode в написании тестов на покрытие кода (IDE: VS 2026 Professional v18.2.1):

https://github.com/DKorablin/NamedPipesProxy/actions/runs/21269659114

Из вводных:

  • Принципиально ни один код теста руками не трогал, исключение:

    • Добавил ко всем тестовым классам атрибут Timeout, дабы не скушать всё серверное время при дедлоке

    • Добавил к 3 тестам атрибут Ignore, они ушли в дедлок в обоих TFM:

      • ListenLoopAsync_ProcessesMessagesAndSendsResponses

      • ReceiveMessageAsync_ReadsMessageFromPipe

      • SendMessageAsync_WritesMessageToPipe

  • Тесты на каждый класс писал через промпт (Стандартный для CoPilot'а):
    @Test Write unit tests for all the methods in #class

Итого:

  • Покрытие кода на 72% (Отчёт в атерфактах и в последнем степе)

  • CoPilot сдулся на дедлоках, на все предложения /fix the code in #file предлагал левые идеи по типу увеличь/уменьш таймаут (Переключение движков - не помогло)

  • Для экономии времни очень неплохо его использовать для первоначальной генерации тестов из коробки, последующие итерации лучше ревьюить, хотя-бы глазами по тестам пробежаться если AI в цикл не ушел во время исполнения.

Ещё пробовал на проекте поменьше писать прям "напиши тесты с полным покрытием кода" и там он всё сделал по шаблону с Moсk'ами и т.п., но там стандартное MVC приложение было. (Пруфов не будет)

в итоге использует максимум AI автокомплит типа Github Copilot

Тем временем в Github Copilot уже завезли полноценный агентский режим. Кто ещё не работал с агентами, я бы рекомендовал именно его, потому что не надо вылезать из своей IDE, время на настройку около одной минуты, и на бесплатном тарифе есть 50 запросов.

Он хорош, сам пользовался долго, но условному Claude Code и Antigravity сильно проигрывает, как по скорости, так и по контексту. Ну, мой опыт такой.

Ну там во-первых можно удобно в контекст включать любые файлы проекта через автокомплит или прямо мышкой туда накидать из дерева. Во-вторых, он уже круто умеет собирать контекст сам. Например, по фразе "посмотри соседние имплементации этого метода" он сам находит родительский класс и всех его детей. Либо просто по имени класса из запроса находит, в какой папке этот класс лежит и читает его файл.

PS: Claude Code пока не пробовал. Пока ещё вижу, что из бесплатного копайлота можно много выжать

У Antigravity есть бесплатный доступ с довольно лояльным лимитом по токенам.

Очень рекомендую попробовать. Не утверждаю, что что-то будет 100% лучше или хуже, но попробовать точно стоит

Я бы очень советовал попробовать именно Claude Code CLI - вся статья именно про то, что "это другое". IDE я использую просто как удобный эксплорер файлов теперь.

Весь мой коммент о том, что агенты в IDE - это тоже другое и по сути то же самое, что Claude Code CLI

Возможно, да. Но я был ярым непонимателем, как это можно с CLI прогать большие проекты, а потом попробовал и как понял.

В теории, ide может более грамотно работать с контекстом. Потому что у нее в индексе есть все связи между фунциями, а cli вероятно этим не заморачивается и пихает в контекст файлы целиком.

Cli обертки в целом делают тоже самое что любые другие, просто им встроили тулы позволяющими вызывать произвольные команды в терминале вашего компудахтера, без лишнего гемора. В целом это просто встроенные mcp.

Ps. Gemini cli может все тоже самое, а gemini 3 pro имеет весьма солидный бесплатный лимит.

Как раз про умную работу с контекстом написан целый параграф в статье -- про создание спецификаций -- много маленьких deeply cross-linked .md файлов. Личная дока, которая по факту занимает гораздо меньше контекста, а из-за линковки ллм читает только нужные файлы для текущей задачи, оставляя больше места в контексте под полезную работу.

да, я видел этот замечательный параграф. Но думаю что код в много маленьких md не запихать. Тут нужен LSP, и вот он как раз позволит сэкономить уйму контекста потому что позволит нормально сращивать где что используется. Распихивание инфы в маленькие md не особо имеет смысл если для выполнения задачи модель все их прочитает.

LSP для всего уже давно есть в ClaudeCode и OpenCode. Требует небольшой настройки иногда, но все связи и инспекции доступны моделям. Все кто зависли в IDE-only использовании просто не понимают чего лишены.

Нет, у cli еще куча обвесов инструментальных и много чего можно делать с контекстом + она запускает нативные ОС команды для разных целей + субагенты из коробки по одному запросу "используй субагентов", субагентов даже настраивать не нужно теперь.

у cli еще куча обвесов инструментальных и много чего можно делать с контекстом + она запускает нативные ОС команды для разных целей + субагенты из коробки по одному запросу "используй субагентов", субагентов даже настраивать не нужно теперь.

Так я и говорю - ничем не отличается от Copilot. Ничем.

Copilot инструменты и команды тоже запускать умеет. Пользуюсь им и радуюсь. Честно скажу что с ним толку больше чем от джунов в нашей команде, пишет временами такую же дичь, но только за пять минут, а не за день. В итоге цикл "разработка-ревью-правки-ревью-готово" занимает минуты и часы, а не дни и недели.

А чем условный Claude Code CLI за $20/мес. отличается от, к примеру, OpenCode CLI с подключенным GitHub Copilot Pro за $100/год? И там, и там есть claude-opus-4.5.

Просто уже несколько раз слышал, мол "да-да, GH Copilot хорошо, но вот Claude Code вообще на голову лучше!".

Не очень понимаю преимущества, помимо того, что у CC ты получаешь ~45 запросов в день, а у GH Copilot Pro - 300 запросов на месяц.

45 запросов в день - откуда эта бредовая информация?
Не моделью единой ценен CLI инструмент, а чтобы понять почему - попробуйте.

Из документации - https://support.claude.com/en/articles/8324991-about-claude-s-pro-plan-usage#h_22b1d5664b.

Только я забыл, что там не в день, а за 5 часов. Давненько туда смотрел.

Вот об этом и был вопрос - есть ли какая-либо практическая разница. Хотелось это выяснить без покупки второй подписки, если честно.

попробуйте) потратьте 1520 рублей на собственное образование -- не пожалеете!

/me жадно дышит

Если бы он мне давал сделать только 45 запросов за 5 часов, он бы давно был в черном списке.

Claude Code в cli режиме делает все вами перечисленное и еще плюс вагон и тележка функционала. А про "он сам находит родительский класс и всех его детей" – то с начала времен есть. Сейчас мало класс найти и родителей, сейчас инструменты еще смотрят что вокруг происходит, где класс задействован, вообще как работает проект и иерархию архитектуры.
Класс и родителя - это 23-й год по возможностям.

Так и в копайлоте агент всё это делает. И вагон, и тележку, и импорты класса по проекту ищет, и контроль стандартов кода запустит именно той командой, которая настроена в проекте, и пофиксит все, а потом повторно запустит проверки. И кастомные инструкции там есть. И MCP-сервера какие хочешь. И всё это не отходя от уютной IDE, да ещё и бесплатно. Более того, он диффы всех правок показывает прямо в редакторе, каждый фрагмент можно принять или отклонить или исправить прямо по месту.

Диффы всех правок показывает прямо в редакторе - идентично клод коду, если вы терминал запустили в своей IDE, он же подключается к ней.
Недавняя проблема решенная только у Claude Code - MCP теперь не забивает контест (не ест токены изначально), буквально на днях апдейт вышел.
Импорты по проекту - это база любого инструмента, это не показатель. Показатель, когда я могу комплексно написать бек с gql + go + kafka + postgres + кубер + упаковать + сделать дев/прод поддомены. И все это без ручного участия. Это я не в тему вайб-кодинга, это в тему возможности инсрумента и его лучших моделей.
Или с нуля написать iOS и WatchOS приложение компаньон, с синхронизацией между ними, у каждого своя sql бд, и все это без ручных движений, он же сделает тест и запуск и напишет тесты, и проверит что там добавилось в бд и правильно ли работает синхронизация и т.п.
Как пользовавшийся Github Copilot с начала его существования в 2023-м на подписке 20$, и полностью перешедний на Claude Code cli за 100$ в апреле 2025-го говорю. На личном опыте.
Github Copilot рядом не стоял по возможностям.

P.S. Пишу код с 2005-го года. То, что может клод код начиная с мая 2025-го поражает. А то, что он может делать с декабря 2025-го просто сносит голову.

Как пользовавшийся Github Copilot с начала его существования в 2023-м на подписке 20$, и полностью перешедний на Claude Code cli за 100$ в апреле 2025-го говорю.

Я в августе 2025 писал тут на Хабре комментарии, что копайлот отстой. Потому что так и было. Использовал его только для самых примитивных задач, потому что в сложных он лажал. Но где-то в середине осени после очередного обновления копайлот в агентском режиме буквально творит чудеса. Я не говорю, что он как агент лучше Клода. Я говорю, что агентский режим у него абсолютно полноценный, и если он в чём-то уступает лидерам рынка, то это отрыв на десятки процентов, а не в разы. И тем, кто делает только первые шаги в агентской разработке, эта разница вообще не будет видна

Попробуйсте Codex/Claude Code, вы уже как опытный в этом направлении оцените, факт. Только на Opus за 20$ вы много не наработаете. Но при этом на Codex за 20$ на 5.2 high (приравнивается к Opus, но медленнее раз в 8) наработаете хорошо, там лимиты выше.

На что мне хватает: на роботе 2 проекта суммарно 300к строк. Личные 9 приложений (фронт, бек, 6 приложений на iOS + watch и 2 на Kotlin + 1 для MacOS). + Работа по серверу.
У меня сейчас комплекс:

  • Chatgpt 5.2 thinking продумаваю систему (системный дизайн) (20$),

  • Claude Code (cli) Opus 4.5 with thinking (100$) - тех. задание по сис. дизайну + планирование + разработка + рефактрониг.

  • Codex 5.2 high (за ранее уплаченные 20$ за чатгпт) - сбор информации и тех. задание для рефакторинга. Он очень хорошо определеяет мелкие проблемы, которые пропускает Opus как "неважные прямо сейчас, но важные для третьей сессии рефакторинга, когда очень важные и важные проблемы будут закрыты". И прекрасно определяет узкие места как в дизайне системы, так и в коде, на будущее в том числе.

Занятный факт: мне большая часть из этого не нужна, т.к. тз продумывает менеджер, а дизайн дизайнер. Но при этом менеджеры в качестве эксперимента уже второй спринт описания задач делают через ИИ)) вероятно, суммарно получится что-то вроде вашего варианта, только распределено на несколько человек.

Более того, все модели в Github Copilot ограничены контекстом в 128K токенов, вместо полных 200K или 400K. Что сразу лимитирует качество решений, плюс ни в одном официальном интерфейсе Github Copilot пока нет субагентов. При этом я использую эту подписку (вместе с многими остальными) внутри OpenCode и там выжимаю из неё максимум. Тоже небо и земля разница.

Для OpenCode ещё есть плагин dynamic-context-pruningсильно увеличивает эффективность использования контекста и позволяет обходиться сократить суммаризации даже на обрезанном контексте в подписке на GitHub Copilot. GitHub Copilot и Antigravity списывают квоту за каждый "новый" запрос, поэтому чем дольше попадаешь в кэш, тем меньше списаний.

Claude тоже в IDE - открываешь в ide еще один таб с консолью и пишешь claude. В итоге тоже самое

Ну это понятно. Я к тому, что если пишешь код руками, то через IDE-шный плагин познакомиться с агентами проще и быстрее. Так как плагин поставить быстрее, чем Claude. А в джетбрейновских IDE вообще по умолчанию уже установлены Junie Agent и Claude Agent. Просто бери и пользуйся. Кроме того, в IDE каждый изменённый фрагмент подсвечивается отдельно, что даёт возможность сделать полное ревью всех правок прямо в редакторе.

Claude Code есть и в виде IDE плагина, с ноября 2025-го.

Даже для Excel есть (крышесносная вещь), и для Chrome.

Я бы рекомендовал выключить его нахрен, поставить Roo Code и продолжать не вылезать из IDE. У Copilot оплачивать из РФ сложнее, условия плохие, и главное - вообще никак не переехать на другого поставщика моделей.

Claude Code идеально работает с Z.AI GLM-4.7 ($36 за первый год с очень жирными лимитами)

Copilot оплачивать из РФ сложнее

Так там бесплатный тариф есть. Не пробный период, а именно тариф, на котором можно сидеть бесконечно. Понятно, что с его квотами особо не разгуляешься, но опять таки для знакомства с агентской разработкой этого вполне достаточно

МТС специальный сервис сделал, чтобы рублями платить за такие подписки могли.

у МТС комиссия под 30%, как-то слишком дохрена. Проще купить аккаунт на маркете

Меня вообще чутка смущает эта ситуация с агентами. Выглядит так, как будто лет через 5 чтобы быть конкурентоспособным программистом нужно тратить нормальные такие деньги на токены. Потому что иначе сильно отстанешь в скорости и проиграешь тем, кто агенты активно юзает.

Возможно, так и будет, да. Дешевле платить зп 1 человеку + $100/месяц на токены, чем N людям.

Дешевле платить зп 1 человеку + $100/месяц на токены, чем N людям

Скорее всего дешевле не только узком смысле ЗП, но быстрее и в каких-то случаях эффективнее, т.к. не нужно: менеджерить команду, иметь рабочие места/технику, париться с наймом, решать межличностные конфликты и тд.
+ ко всему помним древнее правило в ИТ на количество людей. После какого-то значения эффективность команды не растет, а только падает.

Очень надеюсь, что при этом у LLM Operators, после увольнения кадров, зп все-таки повысится, а не останется такой же. Хотя есть у меня в этом сомнения.

"Оперировать LLM" смогут непосредственно аналитики, которые сейчас излагают требования программистам. На моей прошлой работе аналитики умели в sql-запросы, думаю это посложнее чем промты. Да и самих аналитиков ИИ может заменить. И в любом случае будет гораздо больше претендентов на место - не все уволенные программисты уйдут из разработки, плюс вкатятся новые, которые не могли вкатиться из-за неумения программировать. Так что о каком повышении зарплаты можно говорить, непонятно. Постановка задач для ИИ на естественном языки - это не какой-то сложный навык (чем умнее будет ИИ, тем проще это делать).

В общем, перспективы довольно мрачные..

Ну чего сразу мрачные, был разрабом, значит знаешь как делать чтобы было хорошо.
Даже если самому не писать, кто-то должен думать над архитектурой, тем как оно будет работать, где оно будет жить, как масштабироваться, как обеспечиваться отказоустойчивость. Про все эти мелочи кто-то должен думать, роботы хоть и могут все это обеспечить, их как минимум надо носом ткнуть. Короче нормально все будет, просто разрабы становятся менеджерами над роботами. Ну и никто не отменял ревью.

У всего перечисленного есть своя теория, свои наработанные бестпрактисы, устаканившиеся подходы и т.д. То есть в большинстве случаев "ии" сможет потянуть и это, кроме относительно нечастых специфических кейсов. К тому же пока непонятно, где потолок возможностей у нейронок.

О, тред ИИ-оптимистов =)

Я поначалу надеялся, что гпт - это максимум джун по скилам. А оно вон как. И предела пока не видно.

Это уже происходит последние 6 месяцев. Сеньор + подписка за 200$ = 3 сеньора.

буквально нужен 1 CTO и ему подписку выдать за 20$ с кучей агентов, и команда из 20 человек не нужна) Огромная экономия бюджетов..

Мне интересно когда и наступит ли момент когда компаниям чтобы оставаться конкурентными тоже придется что-то выдумывать, когда через условные 5-10 лет какой-нибудь фотошоп сможет "собрать" любой %username%.

Были статьи о том, что новых браузеров (движков) не появляется, т.к. ТЗ к браузеру стало настолько колоссальным и сложным, что просто нецелесообразно даже пытаться создавать свой и конкурировать с существующими. То же самое про ОС - где-то были расчёты, насколько много сейчас надо вложить миллиардов, чтобы создать "ещё один линукс". Очень любопытно посмотреть, как ЛЛМ-щики собираются создавать новые конкурирующие продукты.

Очень любопытно посмотреть, как ЛЛМ-щики собираются создавать новые конкурирующие продукты.

У меня тут есть ощущение что разработка ПО дошла до состояния создания карет в эпоху когда Форд клепает машины на конвеере. Так что все, не собирается "создавать новые конкурирующие продукты", разве что что-то узко-нишевое, хендмейдное, премиального класса.

Мне это хочется видеть в таком ключе:
Раньше люди пололи грядки руками, а теперь появились машины, которые делают это за нас и которыми мы управляем.

Раньше мы прогали руками, а теперь управляем целым паровозом, чьи возможности мы все еще только изучаем.

Ага расскажи это Винтону Серфу и Бобу Кану что они грядки пололи создавая TCP/IP стек на котором держится весь интернет.
Некорректное сравнение, просто многие "юнцы" даже не в курсе что такое настоящее программирование, завайбкодить грядку огурцов и прополоть это одно, а вырастить Мичуринский сад и разбираться в растениях на уровне ученого - это другое. А так да, можно на паровозе пахать и собирать урожай и получать на выходе единую кашу из овощей/сорняков/поганок/камней ..

Кстати, а я, кажется, помню ту статью, однако, сейчас я на ее посмотрел бы иным взглядом. Я помню там было утверждение, что количество всех спецификаций (все протоколы, требования) для браузера уже такого, что ни один человек даже в теории не может успеть их прочитать.

Отсюда первый вывод - браузеры делают некомпетентные люди. Ну нет ни одного человека в команде, которые бы к своим, условным, 50 годам, успел бы 60 лет читать всю документацию (а так же - пробовать ее на практике, разбираться). Каждый может знать только свой уголок задачи, но никто не способен ее даже вообразить в голове и свободно углубиться в любой аспект. Сетевик будет слабо знать вопросы безопасности и совсем не знать что-то про шрифты и юникод.

А второй вывод (фантазия) - возможно нужен какой-то браузер из "микросервисов", который можно было бы собирать на свой вкус, меняя компоненты.

Ну и про LLM - может быть как раз LLMка-то и может все эти спецификации вызубрить, весь Масковский дата-центр погреется с полчасика и все выучит.

Браузер должен работать с кучей разных вещей, которая скоро (если не уже) превысит сложность человеческого организма. А фотошоп читает и отдаёт джипеги, которые не меняются.

Это все лишь чуть-чуть приближает положение к нормальному для большинства профессий. Таксист-то значимо бОльшую долю доходов отдает за бензин и амортизацию.

LLM-ки и агенты прекрасная технология для помощи в разработке. Но в мире корпоративных систем возникает проблема утечки данных насторону, и это проблема. Проект отдаётся куда-то в облако, там парсится и по итогу что-то в нём меняется, и коммерческая тайна становится доступной 3м лицам.

Я думаю, что кодовая база -- это уже не коммерческая тайна. Точнее, уже сейчас умельцы могут по публичным данным о продукте зареверсить и написать спеки. А потом попросить AI это запрогать. Код другой, суть та же. Мне кажется, что именно данные сейчас можно считать moat, так как запрогать с нуля стало сильно проще.

В компаниях США массово используют открытие LLM из КНР (deepseek R1 и Kimi K2). Цены кластеров на 4/8 H100 ~ 15-25-75 млн. руб ~ 100-250 k$ - 1 млн $ что для компаний терпимо, а для стартапа есть аренда AI-кластеров. Есть обнадёживающие данные, что можно приблизится к качеству Опусу 4.5 за счёт проработанных промптов.

Я думаю, самый легкий способ приблизиться к качеству Опуса 4.5 можно просто подождав годик, когда выйдет очередная опенсорс модель, обученная на миллионах логов общения с опусом + самый лучший обвес в виде генерации спеков, планирования и тп.

Но за этот год сама индустрия уже сделает шаг дальше -- и пока что эти шаги все еще большие, а не как обновления последних iPhone или iOS.

Никто из частных разрабов не сможет позволить себе железо, чтобы такое запустить локально. Сейчас для крайне тупой модели, в сравнении с Opus 4.5, нужно железо на 10к$, о чем тут говорить. Мак мини, который сейчас самый популярный для запуска локальных моделей, уже 2.5k$ для простейших моделей.

Никто из частных разрабов не сможет позволить себе железо, чтобы такое запустить локально.

Компьютер дома тоже когда-то казался фантастикой. Чисто даже из-за физических габаритов. А между тем куда все вылилось?

Сертификации SOC, комплайенс GDPR, CCPA, Zero Data Retention не существуют зря

Есть такое. Тут разве что в своих дата-центрах хостить и самим поддерживать такие модели.

"У них" это не проблема потому, что существуют NDA, корпоративные договоры, законы об обработке коммерческой тайне и т.д. У очень немногих фирм еcть такие тайны, что ради их кражи тот же Anthropic рискнёт серьёзным судом. А у кого есть - те и свою серверную могут себе позволить.

"У нас" это решается тем, что у нас есть пиратство и ещё мы никому нахрен не сдались.

у нас есть пиратство и ещё мы никому нахрен не сдались.

При этом ст 146 УК РФ никто не отменял, и за нелицензионный AutoCAD/Windows/Office/whatever else принимают и крепят "домашних компьютерных мастеров" только в путь. Вот такое странное пиратство в РФ.

Фаулер как-то сказал

„Любой дурак может написать программу, которую поймёт компилятор. Хорошие программисты пишут программы, которые смогут понять другие программисты.“

А сейчас надо учиться писать промты так, чтоб их понял ИИ

Уже не нужно, промпт инжиниринг для разработки устарел (не путать с промпт инжинирингом для разработки ИИ приложений)

А так же, хорошо бы "ИИИ-понятный дизайн" (ИИИ = ИИ Интуитивно).
Берем малоизвестную программу (ИИ о ней может иметь базовое представление или вообще только из промпта узнает). Задаем конкретный и глубокий вопрос. ИИ не может знать ответа. Значит, он будет галлюцинировать некоторым "разумным" способом. Например, предположит, что "тихий" режим в CLI программме включается опцией -q. А чтобы отключить фичу FOO надо в .env прописать DISABLE_FOO=1. Так вот ИИИ-понятная программа должна быть так разработана, чтобы ИИ галлюцинации помогли пользователю в самом деле достичь цели.

Уже продолжительное время обдумываю концепцию агента, который за тебя ведет "Obsidian по твоей жизни", записывает и структурирует мысли, планы и события. И при этом тебе даже не нужно прикасаться к клавиатуре. И вот же я не одинок, Дэн уже так делает!)

Интересно, приведет ли нас в скором будущем прогресс к созданию нейроинтерфейсов для моментального общения с LLM без открывания рта и без жестов? Если это случится, то это буквально будет следующий шаг, когда каждый человек по подписке будет таскать с собой второй мозг. И мы уже не будем знать: он такой умный сам по себе, или ему LLM прямо сейчас подсказала?)

Вообще, первый раз наткнулся на канал Даниила лет 5-6 назад когда он парсил всякое и выкладывал интересные датасеты, а я учился в универе и мне как раз нужно было показывать "интересное" преподам.

Спустя время наткнулся на него когда я работал в крипте, и он как оказалось тоже. Подсветил мне несколько интересных ниш.

Буквально вчера прочитал его пост о Claude, и сразу купил подписку - вау-эффект был моментальный.

Автор возникает в рандомные моменты моей жизни и напоминает, что пора расти и двигаться. Спасибо Дэн!

Спасибо большое за теплые слова!

Присылаю список сохраненных ссылок на тему Personal AI / Second Brain. Советую изучить, что делают другие, чтобы потом самому организовать так, как тебе нужно.

https://github.com/heyitsnoah/claudesidian
claude + obsidian template

https://www.youtube.com/watch?v=8V9tZwgjiRs
какой-то умный чел рассказывает, как юзает AI as a thinking partner

https://clawd.bot/
опенсорс AI бот с кучей интеграций и автоматизаций (для вдохновения)

https://github.com/danielmiessler/Personal_AI_Infrastructure
сбор идей по тому, как построить Личный AI

Удачи! <3

Я нашёл решение в разы лучше! Создал язык для LLM. Да, именно язык! LLM на нем думают, я хакнул их мозг, если проще сказать.

Не надо грузить проект, писать файлы, мое решение делает несколько сжатий. Первое создаёт скелет архитектуры вашего проекта. Как итог это на 80-90% меньше кода.

Второе, это решение для правок кода, оно сжато зп счет нового языка LLM до 60% в среднем. Это чисиый концентрат логики.

Третье это сам язык. Вы пишите как писали, llm само дополнин годикой и переведёт на свой язык.

Как итог я решил с помощью 24В модели залачи по Rust, Python, SQL которые не потянули даже Kimi-2 с триллионом параметров.

Тестировал на залачах с codewars уровня 4 и 3kuy. Это сложные алгоритмы! Уровень сеньор.

Теперь дуумаю выкапывать или нет.. Я могу убить ИТ в раз.. Страшно брать такую ответственность на себя.. 😁

Всегда лучше сделать, чем не сделать. Удачи!

Могу посоветовать только поизучать похожие проекты, например: https://github.com/steveyegge/gastown

Если честно, ничего не понятно

Как связь между лид-аналитиком и написанием кода

я аналитик (для маркетинга в основном), я пишу скуль запросы. Если питон - есть юпитер (или кто-то юзает vs code)

Как мне ЛЛМ-ка помогает писать скуль-запросы? Я кидаю в чатик (сделал пространство "для работы" в плепсити, чтобы плепсити было удобнее) и обсуждаю (как большинство - есть задача, решаем). бывает что я знаю как, но мне лень.. прошу, замени мне этот запрос, чтобы не было налл при лефт джойне :)

Но вот эти "claude code".. я не кодер ведь, у меня задачи как будто другие. И "проектов у меня нет". у меня проблемы порядка "как посчитать отток по месяцам" если этот самый "отток" изменчивый (отток это люди без покупок допустим 6-12 месяцев)

Кстати пишут Claude Code теперь можно запускать с локальными open-source моделями

правда вопрос в качестве...

ps. Вообще проект у меня есть, но это сайт личный.. и там свои заморочки.. С одной стороны можно рассматривать как контент, а с другой как CMS (которую надо обновить, переведя на сильно другую версию) - то есть код

Claude Code -- это инструмент работы с файлами на компьютере. Код -- это только частный случай файла. Он отлично читает, например, текстовые файлы, я его использую как second brain (посмотри референсы выше в комментах).

SQL генерится с нуля очень хорошо. Если он где-то ошибся, это значит ты не до конца объяснил, покажи, как надо было, и попроси запомнить. За несколько итераций можно сделать норм писателя SQL.

Анализ данных и генерация гипотез тоже теперь автоматизирована: даешь возможность исполнять эти самые SQL, он читает данные, делает выводы. Попроси сгенерить html страничку с рисерчем и графиками. Если результат не нравится -- это уже skill issue, который решается практикой работы с AI. Это на порядок быстрее, чем самому руками это делать.

С SQL худо-бедно справляются и бывает предлагают интересные решения (я в режиме обычного чата использую).. Хотя дипсик косячит. Доверять нельзя

А вот как "даешь возможность исполнять эти самые SQL"

Есть какой-то такой агент, который может прям к моим БД подключаться?

Я не знаю софта, который можно использовать, но на концептуальном уровне LLM отлично справляется с задачей: "Вот так устроена БД с людями, вот так со жратвой, вот БД заказов, напиши запрос чтобы получить средний возраст тех, кто покупает брокколи". Главное - больше чёткой документации в запросе.

Ну да, так я и делаю, ток это простой чатик.. как в старые добрые времена :)

(проблемы у меня глубже. чем avg применить) :)

Здравствуйте. А можете ответить на несколько совсем ламерских вопросов от того кто вообще не в теме?) Исходим из Российских реалий (всё-таки Хабр Российский ресурс вроде). Все эти американские нейронки в России формально недоступны. Как вы ими пользуетесь? Все через VPN? Это конечно довольно медленно и не всегда удобно... Без VPN даже этот самый Claude Code не скачать. Да я и не знаю где его скачивать. Ссылок в статье конечно же нет. А оплачивать через сервисы-посредники с комиссией только? Ну если нет зарубежной карты...

Второй вопрос: я пытался зарегистрироваться в Claude на сайте через VPN, а он просит номер телефона... Российский конечно же не принимает. И чего делать? 🤔 Пытался воспользоваться сервисами виртуальных номеров, даже платно, но смс не пришли. Без номера зарегистрироваться не даёт.

Третий вопрос: поддерживает ли Claude Code другие нейронки, чтобы подключить какую-то другую?

Четвёртый вопрос: заметил что сейчас многие такие инструменты делают как консольное приложение, даже несмотря на то что он имеет версию с графическим редактором. Это почему так вообще? Типа чтоб пользоваться параллельно с привычной себе IDE? А консольную версию как установить? NPM?

И последний вопрос: можно побольше подробностей про MCP? Что это такое? Это локально надо ставить или есть публичные онлайн MCP? А можно например свою базу PostgreSQL подключить чтоб нейронка сама делала запросы?

Так есть же SourceCraft от Яндекса. Или же как вариант собирать контекст самостоятельно, в смысле совсем не обязательно прямым копипастом, а какой-нибудь утилитой, которая собирает контекст. Эту утилиту можно предварительно написать с помощью LLM. Контекст с вопросом закидывается в чат. Написанную/переписанную функцию(какой-то фрагмент кода или возможно несколько фрагментов) обратно в код прямым копипастом или же в формате git diff. Далее модульные тесты. Повторяем процедуру с другими вопросами и контекстом до достижения видимых результатов. Понятно что claude довольно крут в плане малого количества ошибок/хорошей обученности, но есть немало других моделей которые могут писать код и стоят существенно(в разы) дешевле по апи.

 Хабр Российский ресурс вроде

Хабр не Российский ресурс, Хабр - ресурс для русскоговорящих

https://company.habr.com/ru/corporate-blogs/
Офис, 105082, Москва, Спартаковский переулок, д. 2, стр. 1, секция 3, ООО «Хабр»


https://account.habr.com/ru/info/agreement
7.Заключительные положения

Настоящее Соглашение регулируется и толкуется в соответствии с законодательством Российской Федерации. Вопросы, не урегулированные настоящим Соглашением, подлежат разрешению в соответствии с законодательством Российской Федерации.

Все споры по Соглашению или в связи с ним подлежат рассмотрению, в зависимости от подведомственности: в Арбитражном суде г. Москвы или в Басманном районном суде г. Москвы в соответствии с процессуальным законодательством Российской Федерации.

    У вас же по второй ссылке

    Настоящий документ «Пользовательское соглашение» представляет собой предложение компании «Habr Blockchain Publishing LTD» (далее — «Хабр») заключить договор на изложенных ниже условиях.

    Совсем не смущает? :)

    Это адрес офиса. А в пользовательском соглашении формальный адрес совсем другой:

    Habr Blockchain Publishing LTD (Хабр Блокчейн Паблишинг ЛТД)
    Регистрационный номер: НЕ 289873
    Адрес: Diagorou 4, KERMIA BUILDING, 6th floor, flat / office 601, 1097, Nicosia, Cyprus

    Другие провайдеры моделей поддерживают Claude Code , например GLM 4.7, chutes

    В РФ можно купить аккаунт или пополнить через третьих лиц, Copilot очень дешево продают, можно использовать Qwen Code, там 2000 api запросов в день бесплатно, плюс еще 1000 запросов дает Open Router.
    В консоли удобнее, можно интегрировать куда угодно, можно даже вообще без IDE использовать для других задач. У меня сохранение в Minecraft поломалось, я запустил Qwen в папке, он все починил.
    Для других нейронок есть отдельные клиенты, в том числе, универсальные.

    Без VPN без проблем работает DeepSeek, оплачивается покупкой ключей на сером рынке, совсем недорого.

    MCP это программа с таким интерфейсом, что LLM умеет ей пользоваться. Она может стоять как у вас, так и где угодно в сети, причём LLM может быть в облаке а MCP у вас потому что доступ происходит через ваш клиент LLM. Делать MCP тоже может всё что угодно, включая портить вам postgres. Не рекомендую доверять MCP операции, которые нельзя откатить командой undo. В RooCode в штатных MCP мелькал Postgress.

    Как вы ими пользуетесь? Все через VPN? Это конечно довольно медленно и не всегда удобно...

    Не обязательно VPN - для доступа к нейронкам есть еще всяческие SmartDNS, а ля xbox-dns или comss.one

    Дочитал до "возьмите тариф за 20 баксов". Ты зачем моё время потратил? Нельзя было о том что пост - реклама написать в начале?

    ...и я Analytics Lead в TON Foundation. Пилю свои петпроекты с AI... 

    Дальше можно не читать.

    Но вот написать – обязательно!

    Я начал понимать, что такая разбивка на мелкие задачи это как раз то, что делаешь при программировании самостоятельно и это уже половина сделанного дела. В чём главная помощь агентов - они невероятно быстро разбираются в коде и позволяют находить нужные места намного быстрее. Но по сути, если разбить задачи ещё сильнее, буквально до строчек, то это получается автокомплит, которым мы раньше пользовались, а до этого подсказкой функции или синтаксиса. А готовые части находили в документации или интернете.

    Прикол именно Opus 4.5 в том, что ему все меньше нужно "разбивать до строчек". Он уже прогает лучше, чем мы все. Чтобы убедиться в этом, достаточно попробовать и научиться с ним работать.

    А у меня детектор - если хвалят gemini или claude значит статья рекламный мусор рэндомного говна от непрограммиста. Потому что opus дорогой и беспонтовый (я лично не готов платить по баксу за метод, который ещё и в инопланетянском стиле написан и его по хорошему причесывать надо.

    p.s. а насчёт "наступил перелом навсегда". Как вы уже надоели, вас ещё брить не начали, мушку спилите.

    рекламный мусор рэндомного говна от непрограммиста. Потому что opus дорогой и беспонтовый (я лично не готов платить по баксу за метод

    Либо просто за программиста платит его контора и он вообще не переживает о деньгах.

    А проблемы со стилем довольно легко решаемы (добавляем в copilot-instructions все нужна к требования к тому что и как, и все работает как часы, требуя только совсем минимальных правок)

    Прикол именно Opus 4.5 в том, что ему все меньше нужно "разбивать до строчек". Он уже прогает лучше, чем мы все. Чтобы убедиться в этом, достаточно попробовать и научиться с ним работать.

    Чем вы возможно, но в общем случае шаг влево/вправо от 100500-ного перекладывания жсонов и прогает он так себе - по пять раз носом тыкать в его же косяки приходится, точно так же как и остальные легко зацикливается и гоняет по кругу одни и те же неработающие решения.

    "Гоняет", обычно, от "криво" поставленной изначально задаче.

    На ровно поставленной задаче тоже гоняет. Не, если ему сразу решение разжевать построчно и подробно то гонять может и не будет, но самому сразу код поправить банально быстрее и меньше текста набирать.

    Если AI раз за разом делает что-то не так, значит, его неправильно настроили) посмотрите, что на вход подается в качестве контекста.

    При этом (на январь 2026) если использовать Claude Code с моделью Opus 4.5, то он по умолчанию очень хорошо с этим работает. Если только конечно пользователь не установил кучу ненужных плагинов, MCP, скилов, которые засоряют контекст ненужными для задачи данными. Ну и начинать новый чат всегда нужно не забывать. А остальное -- дело практики :)

    Самый хороший тест - это промпт написать виртуальную машину для абстрактного языка и промоделировать её. В принципе +- все модели делают одно и тоже так как датасеты для претрейна одинаковые. Разница в масштабировании, пока что это удаётся, но там есть предел. Много токенов не равно оптимизация большого проекта. Должны быть уже архитектурные изыскания на предмет понимания состояния контекста. Вывод для Гигачата.

    make a python script that interpret virtual machine with code "a" add "s" substract, "m" for multiply accumulator and "p" to push var to stack and "u" pop from stack for string "a10s3m6p7p2a3usum" without argument use acc by default and vaue from top of stack
    def run_vm(code):
        # Initialize accumulator and stack
        acc = 0
        stack = []
        
        i = 0
        while i < len(code):
            cmd = code[i]
            
            if cmd == 'a':
                num = int(code[i+1])
                acc += num
                i += 2
                
            elif cmd == 's':
                num = int(code[i+1])
                acc -= num
                i += 2
                
            elif cmd == 'm':
                num = int(code[i+1])
                acc *= num
                i += 2
                
            elif cmd == 'p':
                var = int(code[i+1])
                stack.append(var)
                i += 2
                
            elif cmd == 'u':
                popped_value = stack.pop()
                acc = popped_value
                i += 1
                
            else:
                raise ValueError(f'Unknown command {cmd}')
        
        # Calculate sum of remaining values in the stack
        final_sum = sum(stack)
        
        return f'Accumulator: {acc}, Final Sum: {final_sum}'
    
    # Example usage
    result = run_vm("a10s3m6p7p2a3usum")
    print(result)

    После чего необходимо "допилить" согласно обратной связи от ошибок интерпретатора, потребовалось 8 итераций. в ходе чего получается... не рабочйи вариант

    ВайбVM
    def run_vm(code):
        # Initialize accumulator and stack
        acc = 0
        stack = []
        
        i = 0
        while i < len(code):
            cmd = code[i]
            
            if cmd.isalpha():  # Command character
                if cmd == 'a':  # Addition
                    # Attempt to find numeric argument or fallback to stack
                    arg_start = i + 1
                    while arg_start < len(code) and code[arg_start].isdigit():
                        arg_start += 1
                    if arg_start > i + 1:
                        num = int(code[i+1:arg_start])
                        acc += num
                        i = arg_start
                    else:
                        # Fallback to stack-based operation
                        if stack:
                            acc += stack.pop()
                        else:
                            raise ValueError('No numeric argument found for addition command')
                
                elif cmd == 's':  # Subtraction
                    arg_start = i + 1
                    while arg_start < len(code) and code[arg_start].isdigit():
                        arg_start += 1
                    if arg_start > i + 1:
                        num = int(code[i+1:arg_start])
                        acc -= num
                        i = arg_start
                    else:
                        # Fallback to stack-based operation
                        if stack:
                            acc -= stack.pop()
                        else:
                            raise ValueError('No numeric argument found for subtraction command')
                
                elif cmd == 'm':  # Multiplication
                    arg_start = i + 1
                    while arg_start < len(code) and code[arg_start].isdigit():
                        arg_start += 1
                    if arg_start > i + 1:
                        num = int(code[i+1:arg_start])
                        acc *= num
                        i = arg_start
                    else:
                        # Fallback to stack-based operation
                        if stack:
                            acc *= stack.pop()
                        else:
                            raise ValueError('No numeric argument found for multiplication command')
                
                elif cmd == 'p':  # Push to stack
                    arg_start = i + 1
                    while arg_start < len(code) and code[arg_start].isdigit():
                        arg_start += 1
                    if arg_start > i + 1:
                        num = int(code[i+1:arg_start])
                        stack.append(num)
                        i = arg_start
                    else:
                        # Push the current accumulator value
                        stack.append(acc)
                
                elif cmd == 'u':  # Pop from stack
                    if stack:
                        acc = stack.pop()
                    else:
                        raise ValueError('Stack underflow during pop operation')
                    i += 1
                
                elif cmd == 'sum':  # Compute sum of stack contents
                    final_sum = sum(stack)
                    print(f'Stack sum: {final_sum}')
                    i += len(cmd)
                
                else:
                    raise ValueError(f'Unknown command {cmd}')
            else:
                i += 1  # Non-command characters are skipped (digits)
        
        return f'Accumulator: {acc}, Final Sum: {final_sum}' if 'sum' in code else f'Accumulator: {acc}'
    
    # Example usage
    result = run_vm("a10s3m6p7p2a3usum")
    print(result)

    В этом примере есть ключевой момент для ИИ - несмотря на весьма маленький код, имеется генерация кода по описанию и кода по данным (которые необходимо интерпретировать). По всей видимости ИИ-модели крайне неэффективно "представляют" внутри интерпретацию данных, то есть "делай на примере", хотя запрос и сам промпт сформулирован довольно точно чтобы ИИ автоматом определил граничные значения и форматы. Строка-пример, по всей видимости, существенно ломает контекст.

    Эра пишущих код людей закончилась.

    Так можно будет утверждать когда ИИ компании выйдут на прибыль. А пока OpenAI и другие просто проедают деньги инвесторов и свои запасы. Из-за чего в последнее время все чаще говорят о мыльном пузыре в ИИ. Технология безусловно рабочая, но даже подписка в 100 баксов, про 20 и говорить нечего, они даже близко не окупают расходы. Так что рано или поздно, но ценовая политика придет в какой-то баланс, либо расходы на инфраструктуру очень значительно упадут что текущие цены позволят выйти на прибыль, либо подтянут цены до уровня ~1к$ что для корпоратов вполне посильно. Другой вопрос сколько таких клиентов останется, а то при тренде заменять программистов на ЫЫ, программистов которым будут оплачивать этот ЫЫ тоже станет меньше. С другой стороны ИИ создавался и не для написания кода, это лишь одна из возможностей.

    Денег много. Очень много.

    Деньги жгут, чтобы как можно быстрее оторваться от конкурентов и завоевать новый рынок. Об оптимизации никто вообще не задумывается, потому что нужно как можно быстрее делать нейронки лучше, чем у конкурентов. Деньги позволяют все проблемы производительности завалить железом, что все и делают.

    Потом займутся оптимизацией, пока никому до этого дела нет. Тот же дипсик, судя по их заявлениям, уже куда более оптимизирован, чем гранды.

    И опенсорс модели никто не отменял. Когда гранды пройдут большую часть пути, то и опенсорс будет подтягиваться к их результатам. Покупай себе домой мощную видюху и генерируй сколько хочет токенов.

    В добавок могу посоветовать посмотреть сериалы про WeWork или Uber -- там конечно не совсем правдивая история показана, но принцип больших венчурных историй станет понятен. Они жгут инвесторские деньги, а мы, обычные потребители, кайфуем за их счет (пока что).

    Опенсорс модели, асики под ллм трансформеры и тп тоже кайфуют. Все в плюсе. VC гемблят на то, кто станет монополистом. Щепки летят во все стороны -- и это прекрасно.

    Будет как с кризисом 2008года , когда из за спекуляций с ипотечными кредитами рухнула экономика США и обанкротились банки. Решили просто, США "напечатало" сотни миллиардов долларов и раздали крупным банкам для покрытия убытков. "Банкротство" потерпели только миллионы обычных американских граждан и по всему миру прошла волна банкротств инвесторов , у людей национальные вклады обесценились.

    я не знаю как там со скоростями t\s, но macmini*2 за $20к позволяют запустить дома int8 полноценный deepseek у которого 670b параметров.

    но дипсик обо всём на свете. думаю, что кодовый/аналитический агент вполне себе за $10к обойдется, собственно кодовая llm у квина как раз 230b. и выходит, что -$1к из зарплаты в первый год, чтобы окупить железку и энергию. а потом уже будет преимущество перед "без-агентными" конкурентами.

    это сценарий на тот случай, если текущий облачные топы повысят цены или уйдут.


    Думаю в итоге сделают для дома машинки для ллм оптимизированные. Которын будут только модели крутит.

    Либо асики для трансформеров выйдут в массы и микро-ллм будут крутиться прямо на ноутах / телефонах. Для голосового ассистента, например, много не надо.

    -$1к из зарплаты в первый год, чтобы окупить железку и энергию

    А морда у работодателя не треснет за счет сотрудников рабочее железо себе обеспечивать, да еще и электроэнергию для его работы? Пусть в офисе/ДЦ разворачивает за свой счет, если ему надо производительность прогеров повысить

    Ну есть нюанс - уже на паре бытовых видюх кодить можно относительно достойно. Если даже вдруг останется только такой вариант (что в мире маловероятно), я всё равно не скажу, что всё пропало.

    Мне если честно непонятно, почему сейчас все активизировались писать свои ТГ блоги на тему тривиальнейшего экспиренса. Это будто хваставство, что унитазом научились пользоваться.

    Это не стоит ни блога, ни статьи, написанной ИИ, с тегами от маркетолога


    И конечно каждый раз одни и те же советы, настолько заезженные, что вам их ИИ добавил, обучившись на данных из 2022 года.

    Мне если честно непонятно, почему сейчас все активизировались писать свои ТГ блоги

    Т Р А Ф И К
    Р
    А
    Ф
    И
    К

    И да и нет, статьи, блоги. Некоторые умудряются обучение общению с ИИ ой продавать за реальные тысячи денег.

    Мне если честно непонятно, почему сейчас все активизировались писать свои ТГ блоги на тему тривиальнейшего экспиренса.

    Оно уже давно так. Типичное для блога видео - "Я иду в булочную." Просто теперь и программисты тоже "ходят в булочную".

    Тут другой ключевой аспект - стандарты ЯП и вот эти самые данные содержат все предыдущие 50+ лет становления IT в том виде котором оно сейчас есть. Фактически привнесение новых элементов в код или данные это синтаксический сахар уровня дообучения или даже RAG. В некотором смысле подведена черта под дальнейшим развитием языков и будет некий промпт-инженеринг, заключающийся просто в мониторинге синтаксических деревьев и синтетических тестов. То есть задача формализуется поведением и границами чем непосредственной её реализацией.

    А вот не надо было кричать из каждого утюга про личный бренд :)

    Коль скоро вы такой фанат Claude Code, не планируете ли про claude-flow написать?

    Я впечатлился кучей встроенных инструментов для памяти вместо тому, чтобы самому собирать из отдельных "мемори банков". Но сам пока не могу пользоваться. Сначала закидываю свои хотелки в Gemini, чтобы она перформулировала, структурировала и обвешала спефичными инструкциями типа

    **Context:** Use `docs/Development_Patterns/` for standards and `xxx` for API.
    **Intelligence:** Run `hooks_pretrain` first to align with existing project logic.
    **Memory:** Refer to `ReasoningBank` to ensure refactoring doesn't break established project patterns.
    **Swarm:** Let the **Architecture Agent** lead the process and the **Linter Agent** verify the results.
    **Workflow:** Create an execution plan in `docs/AI/[task_name]/plan.md` and wait for approval.

    Зато потом (после проверки плана) действительно исправлять приходится только то, о чем забыл сказать, либо вовсе позже решил иначе сделать.

    Я пока что очень скептически отношусь к библиотекам для агентов, которые выстраивают работу с ним (например, как gastown). Это какой-то умный чел написал свою систему промптов, организацию файлов и спеков и говорит, что она умнее, чем Claude Code из коробки.

    Мне все-таки пока что гораздо интереснее пробовать понимать, какую инновацию они привнесли -- и добавить это в свой проект. Тащить за собой большой обвес чужих промптов, которые многие даже не читают, чтобы уменьшать свободный контекст модели, мне лично не очень хочется.

    Если AI выдал не то, что ты захотел, значит, ты в контекст добавил слишком много лишнего или не добавил нужного. Полезно иногда вбивать /context и ревьюить, что же там происходит на самом деле.

    Здесь все-таки про другое. Это MCP сервер. Скажем, vector memory вместо "шариться по всему коду" выдает нужные куски, база шаблонов... (ну и еще куча всего, с чем я пока не разбирался).

    Скажем, у меня исторически в библиотеке был класс SSEEvent (сдуру так назвал в свое время). И все модели включая Opus, разные системы (CC, Antigravity...) постоянно лажали, вставляли в код SSEvent... Попытки объяснить, что там 2 заглавные E подряд особо не помогали, ибо видели вторую (маленькую) "e" и радостно восклицали "теперь все хорошо, две e".

    Помогла именно инструкция "запомнить"

    CRITICAL STYLING FIX: You are consistently hallucinating the class name as SSEvent. This is WRONG. The correct class name is SSEEvent (Double 'E' for Server-Sent Events + 'Event').

    1. Code Correction: Search and replace all occurrences of SSEvent with SSEEvent in src/plugins/tasks/decom/.

    2. Memory Lock: Use the hooks_intelligence_pattern-store skill to record this naming convention.

    3. Validation: Run uv run python -c "from xxx import SSEEvent; print('Verified')" to confirm.

    Она выдала

    claude-flow - hooks/intelligence/pattern-store(pattern: "SSEvent Naming Convention: The correct class name is SSEvent (double 'E' for Server-Sent Events + Event), NOT SSEvent. Import as 'from xxx import SSEEvent, SSEEventType'. Usage: yield SSEEvent(event_type=SSEEventType.LOG, message='...'). Common pattern for streaming responses in FastAPI endpoints.", type:  "naming-convention", confidence: 1, metadata: {"category":"xxx","import":"from xxx import SSEEvent, SSEEventType","correct_spelling":"SSEvent","wrong_spelling":"SSEvent","reason":"Double E stands for Server-Sent Events + Event"})      

       (MCP) Store pattern in ReasoningBank (HNSW-indexed) 

    запомнила и больше не ошибалась.

    В том же CLAUDE.md или CONVENTIONS.md куча написана и про шаблоны python, и про pytest, и прочее (там же у меня WebUI с React...). Пусть нужные шаблоны в нужное время от MCP получает вместо чтобы все в контексте держать.

    главное -- что это работает в твоем кейсе.

    Если что, много MCP могут тоже выедать контекст модели. Советую периодически чекать /context в CC.

    MCP нужно грамотно подключать к агенту. Для этого есть search tools у клода и MCP gateway для всего остального.

    Очередные паломники в ИИ пришли со своими пет проектами. Пробовал что-то серьезное в коде сделать как например, проект с репой в 10 гигов? Скорее ты там больше времени потратишь на правки своих промтов чем я просто делая фиксы руками.

    Искал этот коммент, он на месте, можно спать спокойно

    Ну.... если репа в 10 гигов и это 10 гигов кода, то 99% программистов можно заменить, ибо у меня участие в самом крупном проекте было - это linux kernel (огромный в общем-то проект), но даже он даже сейчас - всего 200МБ в архиве.

    Даже трактор не совсем заменяет человека, иногда есть условия, когда люди лучше справятся. Мы ж не говорим, что трактора в целом бесполезны, потому что есть случай, когда они в самом деле бесполезны.

    А кто сказал что это git репа?) Это tarball с картинками и бинарниками)

    Пробовал что-то серьезное в коде сделать как например, проект с репой в 10 гигов? 

    git count-objects -vH
    count: 906
    size: 1.24 MiB
    in-pack: 5030904
    packs: 17
    size-pack: 5.56 GiB
    prune-packable: 28
    garbage: 0
    size-garbage: 0 bytes

    И еще примерно в два раза больше с учетом соседних реп, общих внутренних зависимостей и расширений.

    Проект с более чем 20-летней историей. Полет отличный.

    10 ГБ репа из них 99.9% данные, вспомогательный UI и 0.00001% непосредственно математического аппарата (ядра) кода. Так вот ИИ позволит эти микропроценты соптимизировать так, что они будут определять 99% быстродействия и функционала всей системы. Там "коэффициенты усиления" просто колоссальные. А уровень понимания и матаппарата для оптимизации код-данные-память-вычислитель уже практически как PhD Computer Sciense а не джуниор.

    С каких пор Analytics Lead учат программистов программировать? Я не против аналитиков, но как будто бы у них и у программистов разная деятельность и разные компетенции

    Я вот, кстати, заметил, что больше всего восхищаются и делятся успешным опытом работы с нейронками люди не являющиеся разработчиками, из смежных специальностей.

    Это для них серебряная пуля, когда надо решить задачу и не ходить на поклон к прогеру, успешный опыт от разрабов только от тех, кто продает эти лопаты.

    Я бы тоже так думал, если не встречал фулл тайм разработчиков + ярых противников CC, которые рискнули попробовать сами его в конце 2025 и быстро переобулись.

    Дурак твой дед

    ходить на поклон к прогеру

    прогер прогеру рознь, среди которых есть деревянные по пояс и где от прогера только название (был у меня опыт взаимодействия с прогерами в написании python скриптов для сетевого оборудования, теперь LLM покрывает 99,9% задач)

    Нормальные прогеры давно уже всё попробовали где то слили кучу времени, где то наоборот сэкономили. Сделали выводы и используют AI инструменты с оглядкой на опыт использования.

    А для неискушенного в разработке человека нейросети - это нечто наикрутейшее, пусть пользуются, только не надо давать оценки в том в чем не разбираются

    Потому что программисты быстро столкнулись с "эффектом аутсорсинга". Когда ты выводишь в аутсорсинг НЕПРОФИЛЬНЫЕ функции которые нужны раз пятилетку, это хорошо, больше времени на твои обязанности. Как только ты начинаешь выводить свои непосредственные функции, это приводит к потере качества, огромным затратам на контроль качества и самое главное - зависимости от "подрядчика". Собственно поэтому мы и не увидим статью от аналитика в стиле "Claude Code 2026: гайд для тех кто занимается ручной аналитикой".

    А подскажите, какой наилучший способ на данный момент оплачивать подписку? Prepaid card. Кто где берет? Иные методы с наименьшим % переплат

    Для начала можно взглянуть на plati.market

    Разумеется, внимательно. Там можно как просто пополнить баланс "рублями" (как вы и спрашивали), так и "хитрые" предложения а-ля "за небольшую денежку получить триальную подписку на год". Т.е. надо внимательно читать и фильтровать.

    ByBit карту можно оформить, путем некоторых приседаний

    Вот ровно вчера решил попробовать этот клауди код, уж много о нем говорят как о лучшем.
    Предистория, пишу кастомный viewgroup для андройда, есть пара проблем не решенных.
    Закинул в опус, типа братан проведи код ревью, что тут не так и что можно починить. Найди проблемы.
    На выходе список 10+ пунктов с проблемами, из которых реальных проблем 2 остальное я даже не знаю как назвать.
    И вот я опять смотрю и думаю, ну блин люди то используют, что я делаю не так (

    Попробуйте немного другой подход:

    1. Задайте контекст из файлов, которые содержат логику, которую вы хотите починить.

    2. Опишите как сейчас работают те кейсы, которые вы хотите исправить.

    3. Опишите как оно должно работать на самом деле.

    Ну и будьте готовы к тому что, с первого раза корректного фикса не получится и придется совершить несколько итераций, где вы будете описывать что вас не устраивает и как оно должно работать.

    В результате, либо агент забрутфорсит верное решение, либо окончательно доломает существующее.

    Очень важно при этом предоставлять инфу из вывода терминала-логов итд. Мы буквально недавно отладили очевидную ошибку, но скрывшуюся за inlcude. Компилятор не указал что нет прототипа функции и возвращал значение через регистр аккумулятора в DSP, вместо стека или вспомогательного FPU регистра. Скормив ему вывод дизассемблера (с включённой опцией кода), состояние регистров, map-файл размещения в памяти, порядка линковки библиотек удалось выловить комплексную проблему и с памятью, и с тем что инклудить, как вызывать матфункции, какие аргументы double-float итд итп. То есть фактически проблема должна содержать сам тест и результаты теста, а также инлайны от ИИ, которые он предлагает. Желательно инлайны делать не текстом а в виде придуманных для себя идентификаторов тест 0xA,тест 0xB, чтобы сэкономить контекстное окно. Уже не представляю эмбеддед разработку без ИИ. Причём уровень хоть в машинных кодах хоть на ассемблере хоть на питоне для МК. Там могут быть даже чудеса из микса C в контроллере + описание логики на Verilog/VHDL.

    Ну мне кстати нравится, что в отличие от человека ревью не надо ждать, и часть замеченных проблем всё-таки реальные. Я могу упустить какую-нибудь деталь, и смотрю на нейронку как на возможность найти что-то такое.

    Проблема в том, что я например могу понять, что он предложил сделать полную хрень, а ведь есть те кто просто возьмет и использует предложенное.

    Чисто ради интереса, можетет привести ваш промпт, которым вы просили ревью?

    Практически уверен, что результат бы вас не настолько разочаровал, если бы вы использовали агента/команду (к примеру, https://github.com/anthropics/claude-code/blob/main/plugins/code-review/commands/code-review.md), уже с уточнениями типа

    CRITICAL: We only want HIGH SIGNAL issues. Flag issues where:

    • The code will fail to compile or parse (syntax errors, type errors, missing imports, unresolved references)

    • The code will definitely produce wrong results regardless of inputs (clear logic errors)

    • Clear, unambiguous CLAUDE.md violations where you can quote the exact rule being broken

    Do NOT flag:

    • Code style or quality concerns

    • Potential issues that depend on specific inputs or state

    • Subjective suggestions or improvements

    If you are not certain an issue is real, do not flag it. False positives erode trust and waste reviewer time.

    Но да, для разных видов review нужны разные. Для быстрой проверки можно просто положить в ~/.claude/commands какой-нибудь https://github.com/wshobson/commands/blob/main/tools/tech-debt.md . Перезапустить Claude Code и вызвать через / Не обязательно все ставить. Просто оценить, есть ли разница с примитивными промптами или такая же фигня.

    Это на другом пк в истории, но там ничего сверхестественного. Описание человеческим языком, что делаю. И добавленные в контекст все файлы имеющие отношение к компоненту. В файлах удалено все не имеющее отношения к компоненту.
    Естественно промпт простой человеческий, как я бы просил коллегу.

    Когда пересаживаются с велосипеда на автомобильно, не у многих получается сразу кататься.

    Нафиг он нужен - воняет, и педали не крутятся.

    Пока я только читаю тех, кто рассказывает, как они с велосипеда пересели на летающий автомобиль, но показывают они только трёх и четырёхколёсные велосипеды. Летающего автомобиля не видел ни одного. Может у вас есть? Дайте ссылку на любой проект на гитхабе на 100к+ строк кода, написанный ИИ. Лендинги и скрипты, перекладывающие json-ы не инетресны.

    Ну тут нам опять рассказывают и предлагают подписаться на телегу, но не показывают. У меня опыт аналогичный вашему, у моих коллег опыт аналогичный вашему, у моих друзей и знакомых опыт аналогичный вашему. Тут 2 варианта, как по мне. Пишущий любит нам мозг, собирая аудиторию для впаривания рекламы или пишуший джун, который не понимает, что можель пишет лютую дичь очень часто.

    Даааа, прям скоро всё изменится, хотя на дворе 2026, и уже три года как обещали, что ИИ будет писать код, но по-прежнему:
    "Ой да, вы правы, можно написать оптимальнее, так сложность будет O(log(n)), а не O(n^2)" (и выдает некомпилируемый код).
    "Ой да, вы правы, yield нельзя использовать внутри try - вот исправленный вариант" (а там то же самое)
    "Ой да, вы опять правы, это неправильный паттерн обработки сообщений из очереди, вот правильный" (и опять косяк)
    Давайте, аналитики, пишите промпты :D Я пока подожду деградации кодовой базы.

    и выдает некомпилируемый код

    …сразу же сам запускает компиляцию, анализирует ошибки и через пару итераций делает так что все работает как надо.

    Агентов еще дождаться надо, и не факт, что в итоге будет правильное и красивое решение.

    Зависит от того, как им поставить задачу.

    Судя по комментариям ИИ для многих это туповатый автокомплит из 23.

    То что вы написали - нормальная практика для тех, кто осилил развитие в 25-26. С учетом skills, агентов и понимания результата - движение вперед. ИИ заменит тех, кто его иигнорирует.

    Почему стоит попробовать именно Claude Code? Потому что ...
    И дальше идут пункты, которые подходят под буквально каждый второй агент, только они в основном ещё будут open source (в отличие от claude code).
    Я буквально скопировал пункты и спросил у Sonnet 4.5 какие агенты лучше всего подходят под такое описание, он мне выдал:
    1. open interpreter
    2. aider
    3. claude code

    Просто имхо это всё довольно сырые, написанные на коленке проекты. И хотелось бы иметь какую-то реально весомую причину выбирать среди них проприетарную альтернативу

    клод код просто работает без танцев с бубном, с SOTA моделью и полезными тулами для жизни из коробки. Конечно можно все опенсорс локально настроить, но сколько это займет доп часов?

    Интересно, а почему codex заметно менее популярен (судя по опросу)? Тоже ведь неплохой агент, тем более от одного из лидеров рынка

    Я раньше пользовался исключительно ChatGPT Codex - мне нравилось, что он разворачивает мой код у себя на серверах, тестит и запускает, а на выходе кидает PR.

    Но после перехода на Claude Code CLI, который все делает локально, мне стало гораздо удобнее: он работает в разы быстрее.

    Конечно у кодекса тоже есть CLI, но я пока доволен CC.

    Я как раз имел в виду codex cli. Локальная разработка с помощью агента действительно удобнее и надёжнее, чем в облаке.

    А есть подобная статья от разработчика, а не аналитика?

    эйай кодинг эйджент

    меня одного от этой фразы-мутанта которая изнасиловала сразу два языка корёжит? Вы там разберитесь, какой язык использовать, плиз. А то такой факинг бардак в тексте, что май брэйн кипит от индигнашейн. Спасибо.

    Интересно будет посмотреть на програмеров, когда исчезнет понятие "операционная система". А вместо неё будет ИИ-интерфейс. Что и под что программировать будете?🤣

    Кто бы что не говорил но плагины к VSCode от Сбера (GigaCode) и Яндекса (SourceCraft) вполне себе рабочие решения с приличным окном в 128 килотокенов или ~полмегабайта данных. Сильных глюков не обнаруживается даже на 1000 строках. Отличный вариант для уже структурированных вручную проектов. Контекст можно "скармливать" в виде файлов или вывода терминала. Желательно общаться на английском, так как, естественно, датасеты для претрейнинга это гитхабы, стэкэксченджы итд. Скорее всего даже чаты и форумы со всего мира переводятся на английский автоматом а уже потом идут как трейнингсэт, даже в этом случае вполне приемлемый результат по коду. Вообщем не важно какой язык фактически оперирование идёт с неким пока ещё "виртуальным" абстрактным синтаксическим деревом, включающим общую спецификацию всех языков программирования, включая HDL/SQL релейную логику и прочую экзотику.

    Для кодинга лучше Claude opus 4.5 пока ничего не придумали. Пользовался разными моделями от китайских до американских. Для экономии контекстной памяти при работе с MCP нужно использовать либо tools search от Claude, либо MCP gateway. При работе с проектом всегда должен быть банк памяти проекта, тогда каждый раз, начиная с ним работать, Вы избежите галлюцинаций агента и потери им знаний для последующей его разработки.

    А подскажите как намутить подписку в РФ? Мой акк нот суппортит в РФ. Хотел прикупить GitHub Copilot PRO но для подписки исполнители просят логин пароль от учетки гугла, что бы сделать студенческий аккаунт. Либо дают в аренду свои акки, а это считай в любой момент акк могут изять, либо читать тебя что крайне не хочется. Хотел регнуть акк гугла на левый номер сша, так сервис которым периодически пользуюсь sms-activate.ae слился, хотя 10 лет работал. Так как намутить активацию/подписку GitHub Copilot PRO или Google Antigravity из РФ. Подскажите.

    Начал использовать Codex с сентября 2025 - была задача на основе имеющегося узкоспециализированного сервиса с кодовой базой примерно в 20к строк реализовать MVP более универсального решения + фронтенд. Изначально я закладывал примерно месяц-два на это, учитывая, что с кодовой базой исходного сервиса я знаком не был, а все, что я о нем слышал, что его писали 5 поколений разработчиков.
    В итоге получилось реализовать бек+фронт+devops за ОДНУ неделю. Это был абсолютно "вау" эффект, т.к. последние 3 года я использовал только автокомплишн+webchat.
    Агенты кодят уже не в рамках модификации классов / методов, а полноценнно реализуют комплексные задачи, а разработчик за день успевает не пару фич написать, а 10-20+.

    MVP / POC делаются не за 2-3 спринта, а за неделю!
    Раньше: неделя на проработку архитектуры/спеки итп, 2-3 недели на кодинг, 1 неделя на багфикс.
    Сейчас: проработка архитектуры/спеки - 1-2д, кодинг совщеменный с доработкой спеки 3-7д, багфикс 1-2д. Еще и неделю-другую работы фронтендера можно скипнуть, агенты вполне неплохо пишут на реакте :)

    С развитием, рефакторингом и багфиксом уже существующих сервисов с большой кодовой базой агенты тоже справляются отлично. Главное - хорошо описать структуру проекта и все нюансы и подсказки в AGENTS/CLAUDE.md (конечно, с помощью самого агента) и провалидировать.

    Пару недель назад решил попробовать Claude Code - разницы с Codex (Codex вышел позже Claude) особо не заметил, кроме того, что в CC раза в 3-4 быстрее заканчиваются токены. 4h лимит Codex исчерпывается очень редко, практически никогда. В СС per/hour лимита мне хватает на час максимум активного кодинга - 3-5 фичей.
    Так что с уверенностью говорю, что Codex CLI ничуть не хуже СС, а может даже и лучше. На днях еще и интеграцию Codex с JetBrains завезли.

    Еще важно помнить, что 20$ за Codex + 20$ за Claude все еще дешевле MAX подписок за 200$ и 100$ соответственно, поэтому иметь Claude + Codex вполне себе бюджетный вариант для активных пользователей.

    Лимиты на Codex действительно ощутимо выше, но ценность Claude Code cli за 100$ это Opus 4.5 с thinking и очень высокая скорость. Просто сумащедшая вещь. На больших глубоких комплексных задачах, где строк 200-300к на проекте, работает идеально. И это в 10-15 раз быстрее, чем Codex 5.2, имею обе подписки, лично проверяю каждый месяц скорость. В сентябре 2025-го кодекс был медленнее в 22 раза, сейчас получше.
    Лимитов за 100$ на СС хватает и на продумывание, и на код, и на рефакторинг, даже в 5-ти часовой упираешься крайне редко. Еще документацию вести хвататает.

    Еще завезли Claude для Chrome и для Excel. Для хрома использую на модели Haiku 4.5, чтобы тестировать интерфейс и получать рекомендации по улучшению. Прямо говорю ему делать что-то до такого-то результата (как бы обычно делал живой юзер).

    Sign up to leave a comment.

    Articles