Pull to refresh
8K+
-2
Никита Мацко@nikmd1306

AI Engineer

3,6
Rating
6
Subscribers
Send message

Имеешь ввиду инструменты? Я использую Claude Code + подход из статьи, еще AI Code Review от CodeRabbit/cubic.

По поводу того что каждый хвалит свое - оно правда и так и будет тк это уже переросло в вкусовщину) По факту инструменты +- одни и те же, решает маркетинг

Скриньте - сейчас мне опять понизят карму за этот коммент, но мое мнение мне дороже)

Подводные камни определенно есть. В статье описывается долгая непрерывная работа агентов (по ночам в том числе). Это дорого, для OpenAI это намного дешевле, у меня пока так не получалось.

Как выглядит моя работа сейчас - это скорее AI-Assisted кодинг но в плане организации файловой архитектуры (markdown, планы, документация) - все почти то же самое (чуть адаптированное под мои нужды).

Экономит время? Да. Кратно? Да. Сколько стоит? 200$ в месяц. Работают ли за меня агенты по ночам? Нет. Менее ли полезная от этого статья? Нет. Если применять паттерны из статьи и даже без работы агентов в бесконечном цикле - ускорится работа? Да.

А горит у людей потому что сложно перестроится. И я их понимаю. Представляю, ты кодишь 5,10,15,20 лет, а кто-то и больше - а тут приходит какой-то чел и говорит тебе что вот теперь делают по-другому) Но я же в статье без осуждения подошел, а люди в комментариях - с осуждениям. Мне на самом деле больше грустно что так процессы перестраиваются, но это неизбежно.

Могут врать, конечно. Но статья не про то верить ли OpenAI на слово, а про конкретные инженерные практики которые описаны достаточно детально чтобы проверить самому. AGENTS.md как оглавление, линтеры вместо инструкций, документация в репо, слоеная архитектура — это все можно взять и попробовать на своем проекте за выходные. Если не работает, значит врут. У меня работает)

В общем и целом вы говорите правильные вещи, но зачем усложнять? Есть же готовые инструменты - Claude Code, Codex и тд. Если не хочется платить - OpenCode?

Но я конечно больше придерживаюсь позиции платить (мизерные суммы в сравнении с профитом) за топовые модели и ускорять свою разработку)

Это ровно то о чем статья. Вы строите обвязку: мелкие модули, векторный индекс, теги, метки на тяжелых файлах. Это и есть harness engineering, просто вы это сами для себя изобрели на практике. Сплит на 500 строк + индексация это по сути то же что layered architecture у OpenAI, только другими руками. Подход рабочий

Интересная идея но на практике не работает. Комменты и форматирование это часть контекста который помогает модели понять намерение кода а не только синтаксис. Убрать их = убрать подсказки, модель начнет хуже понимать что происходит. Плюс современные модели используют кеширование промптов, повторный код в контексте стоит копейки. Экономия на спичках при потере качества

По ценам если интересно: GPT-5.3 Codex по API это $1.75/$14 за мегатокен вход/выход, Claude Sonnet 4.6 $3/$15, Opus 4.6 $15/$75. На подписке ($200/мес Claude Max или ChatGPT Pro) выходит в разы дешевле чем по API, потому что эквивалент по токенам это $3000+ в месяц

6-часовой run если грубо прикинуть: ~200 токенов/сек на выход, за 6 часов набежит ~4M токенов в час × 6 = 24M. По публичным ценам Codex это ~$336 только на output. OpenAI внутри платят себестоимость инференса, так что для них это копейки.

Ну и агенты параллелятся, 3.5 PR в день на инженера это не один длинный run а несколько параллельных. Пока один думает ты следующего запускаешь

Частично уже происходит. В статье описан агент-садовник который сам находит устаревшую документацию и чинит ее. Это еще не "learning" в полном смысле, но уже self-improvement loop. Направление понятно.

Не знал кстати что такое SMAC, но загуглил. Очень мощная цитата. Удивлен какой ее возраст. Спасибо что открыли это для меня)

Заголовок намеренно категоричный, согласен. Но "не пишет код" не значит "не понимает код". Инженер который строит обвязку для агентов должен понимать архитектуру, границы модулей, принципы тестирования глубже чем тот кто просто пишет CRUD руками. Он не перестает быть инженером, меняется инструмент.

А агентов пишут такие же инженеры, да. Как и компиляторы, IDE, линтеры, CI. Кто-то строит инструменты, кто-то ими пользуется. Это не новая ситуация, просто новый слой абстракции)

Вопрос "у кого знания" ключевой, и статья прямо на него отвечает: ни у кого в голове. Все в репозитории. Архитектура, решения, планы, техдолг. Версионировано, проверяется линтерами, обновляется агентами. Обсуждение в Slack или решение в чьей-то голове для агента не существует, поэтому команда вынуждена все фиксировать. Documentation as source of truth, доведенный до предела.

Про надёжность, басфактор и поддержку (сразу отвечу на комментарий ниже). Это ровно то, что такой подход решает лучше классического. Когда знания размазаны по головам пяти сеньоров, басфактор = 1. Когда все в репо и любой агент или новый инженер может подхватить контекст за минуты, басфактор стремится к нулю. Ирония в том что "нудеть про надежность" это аргумент за подход из статьи, а не против.

Но для этого нужно статью прочитать, а не только заголовок.

Нет, это внутренний продукт OpenAI. Но статья описывает не код, а инженерные практики — их можно проверить на своём проекте, репо для этого не нужен. Суть статьи вообще не в продукте и его никто и не рекламирует. Суть в подходе и продублирую свою мысль из комментария выше — я так уже делаю и у меня это работает.

Баш-скрипт на 15000 пустых коммитов — а смысл?) Там описан цикл: агент воспроизводит баг, пишет фикс, прогоняет тесты, проходит ревью, обрабатывает комменты и мержит. Если есть баш-скрипт который это умеет — серьёзно, покажите, думаю это будет прорыв))

Да, OpenAI действительно не раскрывают что за продукт. Но статья и не про продукт а про процесс. Как устроена архитектура, почему большой AGENTS.md не работает, как линтеры заменяют инструкции, зачем "скучный" стек. Это конкретные инженерные решения которые можно проверить на своём проекте. Маркетинг бы не описывал свои провалы. И да, статью я писал через призму своего опыта. И я проверил - работает. А точнее - я это в какой-то степени делал и до их статьи.

Благодарю за конструктивное мнение, вам интересно ответить даже так как вы пробуете.

Что могу сказать по существу - ревьюить код написанный LLM и невозможно и не нужно в старом понимании. Ну конечно - с такой скоростью люди не могут успевать за ними. И статья ровно про это - про обвязки, которые помогают допускать меньше ошибок которые делает ваш клод и не допускать каких-либо объяснений что это сделал не он, о которых вы говорите.

Скажу по своему опыту - я с таким не сталкиваюсь и здесь решает работа с контекстом. Если я просто открываю репозиторий новый (уже с кодом) и даю ему задание по легаси коду - конечно он сделает миллион ошибок и создаст проблемы. Но если я создам AGENTS.md, docs/, обвяжу все AI-паттернами - он будет делать идеально. И я себе это доказал на разных проектах (легаси питон и Джанго на 100к+ строк кода; легаси реакт на 80к+ строк; микросервисы; монорепо — чего только не было). Молчу уже про новые проекты, которые я создаю сразу с ИИ обвязкой - там все просто идеально.

Работа с контекстом - решает и я вам искренне желаю научиться этому и я уверен — ваше мнение изменится)

У LLM не могут поседеть волосы, ведь в основном мой код проходит AI Review. Но были кейсы когда в качестве подрядчика код смотрели люди - можете не волноваться, и там были лишь благодарности по поводу того насколько быстро это сделано)

Кода и правда стало больше, но кому от этого стало хуже? В моих кейсах - никому. Только польза

Все верно понимаете. И нет, я не работаю в Anthropic, мне нет смысла рекламировать Claude Code

Давайте по порядку)

Контринтуитивность в том что люди (включая опытных инженеров) интуитивно пишут больше инструкций, думая что это поможет. А на практике это ухудшает результат. Это буквально определение слова контринтуитивный.

Про "агенты не пишут код, просто переписывают чужой". Ну это как сказать что калькулятор не считает, а просто переставляет цифры которые придумали люди. Да, модели обучены на открытом коде. Но когда агент берет задачу, анализирует кодовую базу, находит абстракции, пишет реализацию, прогоняет тесты и отвечает на ревью это не ctrl+c/ctrl+v. 1500 PR за 5 месяцев это измеримый результат, не маркетинг.

"Можно ли создать нечто новое". А что такое нечто новое в софте? 95% инженерной работы это интеграция, обвязка, CRUD, тесты, инфраструктура. Не изобретение алгоритмов. Агенты справляются именно с этим, освобождая людей для тех 5% где нужно проектирование. Статья ровно про это.

Про Open Source и капиталистов. Это валидная тема но она вообще не про то о чем статья. Можно переживать за этику и при этом продуктивно работать с тем что есть. Одно другому не мешает.

Про завод и флэт уайт. Прогнозы про массовую безработицу от автоматизации звучат с 1810 года. Каждый раз инструменты менялись, люди находили новые роли. Статья как раз описывает одну из таких ролей.

Ааа, ну по API это однозначно ни в какие ворота) Только подписка. Там как правила большие объемы токенов дают. Мои агенты столько пока не работали. Думаю как только это станет массовым явлением появится подписка условно за 500$. Ну это мое мнение. Посмотрим как будет. Пока скорее интересна архитектура всего этого.

У меня подписка на Claude Code за 200$ в месяц. Не могу сказать сколько точно мой X к производительности, но он однозначно кратный. X3 наверное минимум к уровню годовой давности. Коррелирует с доходом примерно на том же уровне. Подписка за себя окупает, не жалуюсь)

Думаю что если бы мне это было невыгодно - я бы не пользовался

Information

Rating
1,317-th
Location
Кишинев, Молдова, Молдова
Date of birth
Registered
Activity

Specialization

Фулстек разработчик, AI Engineer
Ведущий
Python
SQL
Английский язык
Docker
PostgreSQL