Обновить
32K+
12
diffnotes-tech@diffnotes-tech

Пользователь

85,4
Рейтинг
3
Подписчики
Отправить сообщение

Хорошее разделение - деградация vs обесценивание. Я писал про деградацию в терминах
Bainbridge, но у тебя точнее описано что происходит на практике. Мозг не "забывает" как деплоить - он просто отказывается тратить на это усилия, потому что знает что AI быстрее.

Про насилие над собой при ручной практике - частично соглашусь. Если заставлять себя писать код руками "для тренировки" - да, это бессмысленно. Но у меня немного другая логика: я не практикуюсь специально, а просто не отдаю AI мелочи где объяснять контекст дольше чем сделать самому. И в эти моменты навык поддерживается сам собой, без усилий.

А вот про эволюцию навыков - это то, к чему я пришел но не сформулировал. Навык ревью сейчас
это не "прочитать каждую строку", а "понять что именно AI мог пропустить". Другой скилл, но растёт из того же корня.

Разница между вайб-кодингом и агентной инженерией из матрицы - это буквально тесты. Один и тот же агент, один промпт. Есть тесты - квадрант 4. Нет тестов - квадрант 2. Не стратегический выбор а наличие CI в проекте

+24.6 от системного промпта - это же и есть ответ на вопрос статьи. Модель не стала независимой, она стала лучше следовать инструкции "будь независимой". Те же веса, тот же RLHF. Crow-9B это подтверждает идеально - красивый текст про автономию, мгновенная капитуляция на деле. Instruction following != independence

Половина списка не про кодинг-агентов - Snyk это сканер безопасности, BotHub API-прокси, Bolt/Lovable/v0 генераторы приложений без кода. А реальных open-source агентов нет: Aider (терминальный, работает с любой моделью включая локальные), Roo Code (форк Cline, расширение для VS Code). Оба бесплатные, не требуют зарубежной карты, подключаются к локальным моделям через Ollama

Боль №2 из статьи (агент "улучшает" разделы которые не просили) решается не через locked в JSON, а через системный промпт агента. CLAUDE.md, .cursorrules, copilot-instructions.md - файлы которые агент читает при каждом запросе. Пишешь "не трогай раздел X без явного запроса" - агент слушается. locked в tasks.json агент может просто проигнорировать или перезаписать файл, Conung_ViC выше правильно заметил

MCP в конце как "расширенные настройки" - а для локальных моделей это ключевая штука. Без MCP агент на каждый запрос грепает дерево проекта, читает файлы, набивает контекст сырым текстом. На Qwen 9B с 32k контекста один tree + пара файлов и всё. С MCP агент запрашивает конкретный контроллер или бин - структурированный ответ вместо raw файлов. Для облачных моделей с 200k это экономия, для локальных - вопрос работает или нет

Whisper длинные файлы и правда нормально ест, комменты выше правы. Тут другое - двухканальная телефония. В канале оператора тихо слышно клиента (crosstalk), VAD определяет эхо как речь и Whisper начинает галлюцинировать. Ключевое не сам VAD а фильтрация по RMS энергии после него

Три из пяти проблем из статьи - потеря контекста, дублирование кода, несоответствия в логике - от того что ChatGPT не видит проект. Cursor, Claude Code подключаются к папке и правят файлы напрямую. Контекст не теряется между правками, дубли видны сразу

Четыре одинаковых strcpy - ок, разные файлы, контекст не пересекается. Но isdigit определён в doom_libc.c и тут же ниже в том же файле проверка через >= '0' && <= '9'. Определение буквально выше, в контексте. Не использует

а, вот что смутило) не, это реально размер выборки из исследования BCG. Совпадение неудачное, да

Вот это ровно то о чем я в статье пытался сказать но другими словами. Барьер входа упал дом нуля. Раньше нужна была лингвистическая база, методисты, годы контента. Сейчас - API ключ и пара вечеров. 4 дня на языковой модуль это показательно. Duolingo конкурирует уже не с Babbel, а с любым разработчиком у которого есть идея и $20 на API

Ладно, посмотрю. Если реально дает результат лучше чем просто внятное ТЗ модели - пересмотрю свое мнение)

Ага, UML как линза - хорошая аналогия. Не столько рисуешь диаграммы, сколько думаешь в терминах связей и ответственностей. Без этого AI-код превращается в кучу файлов без структуры

Ну Claude Code для кодинга понятно, но ты написал про скрапинг и анализ данных - для этого обычно другие тулы берут. Или тоже через Claude Code гоняешь?

Да, 1488 человек для BCG - не огромная выборка. Я тоже обратил на это внимание, поэтому и полез в ActivTrak где 163 тысячи сотрудников и замеры а не самоотчет. Паттерн похожий, хотя конечно прямого сравнения этих двух исследований нет

Да, такие обёртки снижают порог входа. Вопрос в цене - обычно прокси-сервисы накидывают 30-50% сверху, и на активном использовании это ощутимо. Но для тех кому лень возиться с VPN и зарубежными картами - вполне рабочий вариант.

Фрактальные конструкты звучит как что-то из промпт-инжиниринга 2023 года когда все искали магические заклинания) сейчас модели достаточно умные чтобы просто сказать что тебе нужно.

Ага, UML как способ научить голову думать структурно - согласен. Даже если потом никогда не рисуешь диаграммы руками, само понимание что есть sequence, state machine, component diagram - помогает декомпозировать задачи. Собственно для джунов это и ценно.

Информация

В рейтинге
102-й
Зарегистрирован
Активность

Специализация

Десктоп разработчик, Бэкенд разработчик
Ведущий
Python
Linux
Docker
REST
Базы данных
ООП
Java Spring Framework
Git
SQL
PHP