Pull to refresh
-7
0,5
Rating
1
Subscribers
Send message

почему я плачу за все часы по прежним ставкам?

Странный вопрос. Правильный вопрос - почему, используя ИИ, вы выставляете все тот же обьем работ в часах за одинаковые задачи?

Сделайте нам систему управления складом с интеграцией в 1С, корпоративной безопасностью и обучением 40 сотрудников" - это не поддаётся вайбкодингу.

все это прекрасно пишется вайбом. только не одним ппомптом

Думаю локальная оллама для распознования голоса - это оверкилл. Если гуглы не порезаны, то гугл спикер колонка + виртуальный matter device на NodeRed (про n8n не в курсе) - закрывают вопрос для большинства сценариев.

Шапкозакидательные эстимейты самоуверенных кожаных с ошибкой в разы (в лучшем случае) наконец-то стали попадать в цель с появлением генераторов.

А вот желание промптить до лимитов - это действительно имеет место быть. Уж очень дофаминово так быстро получать результат.

/superpowers:brainstorm (->prd)
/superpowers:writeplan (->plan) /superpowers:execute-plan

всё это с задаванием вопросов, ресёрчем, проработкой имплементации даже с предложением схем UI через бразузер, имплементация пулом агентов. Токенов жрёт до фига, но результат отличный

define model. Сейчас это слово подразумевает всю совокупность обвеса, а не просто веса

Я доверяю своему интенсивному опыту работы на грани лимитов Маx подписки последние 2 месяца. Окно сейчас 1М. Вот прямо не припомню, что бы клод опус 4.6 скатывался в полный маразм. Порой надо одёргивать, если размышления не туда уходят, но это вполне себе “рабочий” процесс. Но вот скорость работы резко деградирует, когда контекст распухает после интенсивных диалогов. Поэтому флоу через проработку PRD и его исполнение через чистый контекст - более, чем рабочий вариант.

Какие-то городские легенды. Клод сейчас довольно долгие “переговоры” ведёт, не теряя исходной постановки. Другой вопрос, что за 200К и контекст становится дороже, и генерация становится сильно медленней.

чистоту и порядок неважно где поддерживать. вопрос культуры производства.

Это нужно всегда хотя бы с точки зрения гигиены.

ну CI и докеризация нынче - это база, а не overengineering. Даже странно будет, если придётся объяснять, для чего это нужно.

Джун как AI роль. Брать специалиста с пониманием и умением работы с ИИ, потому что это может помочь более опытным коллегам.

Проблема только в том, что ЭФФЕКТИВНАЯ работа с ИИ требует понимания того, что именно и как требовать от инструмента, т.е. навыков выше среднего, а не джунских. Помощи от джуна, вбивающего банальные промпты без управления контекстом в сторону ОЖИДАЕМОГО результата будет немного, возможно будет только вред. Проблема яйца-курицы, как решать - не понятно. Возможно - дроблением задач на микро проекты, где важен только микро результат и совершенно не важна реализация.

Как создать свой первый навык?

С помощью /skill-creator

Думаю для мониторинга состояния архитектуры всё что требуется от “архитектурного видения” - это чёткое описание data flow и прочих флоу, а уж логи LLMы по tracking id копают на много лучше кожанных. Т.е. опять же, инструментарий стал лучше и он может порешать некоторые проблемы, с которыми людьми не справлялись. А окна в миллион не решают проблему галлюцинаций при распухшем контексте, наоборот, только делают эти проблемы более вероятными, так как перестаёшь следить за контекстом, не напарываясь на компрессию.

У микросервисов может появиться второй шанс, так как ЛЛМам проще с мелким контекстом. Но это не точно.

сё сделано через SSH‑команды, которые генерировал ИИ. Для меня это рутина, но сильно экономит время. Главное — смотреть и проверять, что именно ИИ делает.

Таки надо просить писать ансиблы и именно их исполнять и пушить в гит. Вот тогда и будет видно, и что он делает, и история будет, и воспроизводимость.

перед имплементацией просили его провести ресерч и составить план? это решает

никогда не понимал, что там люди в этих 100500 табах в хроме делжат такого нужного?

Модели просто не обучают отвечать “не знаю”, а учат давать хоть какой-то ответ, путь и фактологически неправильный.

это утверждение совершенно не верно. Сейчас не вспомню какой именно подкаст с openai был ещё год назад, где этому вопросу много времени эфирного уделили. Они вкладывали очень много усилий, что бы именно запретить моделям нести околесицу, когда некие вероятностные KPI по выдаче релятивного ответа сильно проседали

Gemini -Технический отчет GPT-4 (OpenAI, 2023) содержит целые разделы, посвященные «калибровке» (Calibration). Исследователи стремятся к тому, чтобы уверенность модели (logit-вероятность) коррелировала с фактической точностью. Если вероятность верного ответа низка, модель должна выдать стандартную фразу об отсутствии знаний.

очень многое можно выпускать в свет с слопнутом виде и разницы не будет ровно никакой

Если уж идти по этому пути, то не стоит останавливаться на оверпрайсд тормознутых VPS. Dedicated server за такие же (почти) деньги:

Fujitsu PRIMERGY RX1330 M3
Intel Xeon E3-1230v6
Processor 4 cores, 8 threads, 3.50GHz
Memory 16GB
Storage 1x 250GB SSD
Network Gbit/s Guaranteed 50 TB traffic per month
Starting at € 33.00

Information

Rating
2,740-th
Registered
Activity