Обновить
-6

Пользователь

0,7
Рейтинг
1
Подписчики
Отправить сообщение

Опять мыслим, что ИИ ВСЕХ заменит. Почему всех? Найдётся дежурный, кого разбудят ночью и он натравит ИИшку логи раскапывать.

Тем не менее контекст обсуждения на эту тему обычно такой, что любой кожаный несёт ответственность, в отличие от. По факту - нет там никакой ответственности. Отдельные исключения лишь подтверждают правило.

Серьёзные уязвимости - сканируются. Скилы в коде находят уязвимости, о которых даже не мог подумать. Ответственность - базворд. Не несёт наёмный работник никакой материальной ответственности. Максимум - уволят.

речи нет про то, что ИИ полностью всё сделает. Речь про то, что без проблем ИИ может писать складскую систему. Не за один день / промпт конечно. Внедрять понятно должен другой процесс.

почему я плачу за все часы по прежним ставкам?

Странный вопрос. Правильный вопрос - почему, используя ИИ, вы выставляете все тот же обьем работ в часах за одинаковые задачи?

Сделайте нам систему управления складом с интеграцией в 1С, корпоративной безопасностью и обучением 40 сотрудников" - это не поддаётся вайбкодингу.

все это прекрасно пишется вайбом. только не одним ппомптом

Думаю локальная оллама для распознования голоса - это оверкилл. Если гуглы не порезаны, то гугл спикер колонка + виртуальный matter device на NodeRed (про n8n не в курсе) - закрывают вопрос для большинства сценариев.

Шапкозакидательные эстимейты самоуверенных кожаных с ошибкой в разы (в лучшем случае) наконец-то стали попадать в цель с появлением генераторов.

А вот желание промптить до лимитов - это действительно имеет место быть. Уж очень дофаминово так быстро получать результат.

/superpowers:brainstorm (->prd)
/superpowers:writeplan (->plan) /superpowers:execute-plan

всё это с задаванием вопросов, ресёрчем, проработкой имплементации даже с предложением схем UI через бразузер, имплементация пулом агентов. Токенов жрёт до фига, но результат отличный

define model. Сейчас это слово подразумевает всю совокупность обвеса, а не просто веса

Я доверяю своему интенсивному опыту работы на грани лимитов Маx подписки последние 2 месяца. Окно сейчас 1М. Вот прямо не припомню, что бы клод опус 4.6 скатывался в полный маразм. Порой надо одёргивать, если размышления не туда уходят, но это вполне себе “рабочий” процесс. Но вот скорость работы резко деградирует, когда контекст распухает после интенсивных диалогов. Поэтому флоу через проработку PRD и его исполнение через чистый контекст - более, чем рабочий вариант.

Какие-то городские легенды. Клод сейчас довольно долгие “переговоры” ведёт, не теряя исходной постановки. Другой вопрос, что за 200К и контекст становится дороже, и генерация становится сильно медленней.

чистоту и порядок неважно где поддерживать. вопрос культуры производства.

Это нужно всегда хотя бы с точки зрения гигиены.

ну CI и докеризация нынче - это база, а не overengineering. Даже странно будет, если придётся объяснять, для чего это нужно.

Джун как AI роль. Брать специалиста с пониманием и умением работы с ИИ, потому что это может помочь более опытным коллегам.

Проблема только в том, что ЭФФЕКТИВНАЯ работа с ИИ требует понимания того, что именно и как требовать от инструмента, т.е. навыков выше среднего, а не джунских. Помощи от джуна, вбивающего банальные промпты без управления контекстом в сторону ОЖИДАЕМОГО результата будет немного, возможно будет только вред. Проблема яйца-курицы, как решать - не понятно. Возможно - дроблением задач на микро проекты, где важен только микро результат и совершенно не важна реализация.

Как создать свой первый навык?

С помощью /skill-creator

Думаю для мониторинга состояния архитектуры всё что требуется от “архитектурного видения” - это чёткое описание data flow и прочих флоу, а уж логи LLMы по tracking id копают на много лучше кожанных. Т.е. опять же, инструментарий стал лучше и он может порешать некоторые проблемы, с которыми людьми не справлялись. А окна в миллион не решают проблему галлюцинаций при распухшем контексте, наоборот, только делают эти проблемы более вероятными, так как перестаёшь следить за контекстом, не напарываясь на компрессию.

У микросервисов может появиться второй шанс, так как ЛЛМам проще с мелким контекстом. Но это не точно.

сё сделано через SSH‑команды, которые генерировал ИИ. Для меня это рутина, но сильно экономит время. Главное — смотреть и проверять, что именно ИИ делает.

Таки надо просить писать ансиблы и именно их исполнять и пушить в гит. Вот тогда и будет видно, и что он делает, и история будет, и воспроизводимость.

перед имплементацией просили его провести ресерч и составить план? это решает

1
23 ...

Информация

В рейтинге
2 441-й
Зарегистрирован
Активность