Думаю локальная оллама для распознования голоса - это оверкилл. Если гуглы не порезаны, то гугл спикер колонка + виртуальный matter device на NodeRed (про n8n не в курсе) - закрывают вопрос для большинства сценариев.
всё это с задаванием вопросов, ресёрчем, проработкой имплементации даже с предложением схем UI через бразузер, имплементация пулом агентов. Токенов жрёт до фига, но результат отличный
Я доверяю своему интенсивному опыту работы на грани лимитов Маx подписки последние 2 месяца. Окно сейчас 1М. Вот прямо не припомню, что бы клод опус 4.6 скатывался в полный маразм. Порой надо одёргивать, если размышления не туда уходят, но это вполне себе “рабочий” процесс. Но вот скорость работы резко деградирует, когда контекст распухает после интенсивных диалогов. Поэтому флоу через проработку PRD и его исполнение через чистый контекст - более, чем рабочий вариант.
Какие-то городские легенды. Клод сейчас довольно долгие “переговоры” ведёт, не теряя исходной постановки. Другой вопрос, что за 200К и контекст становится дороже, и генерация становится сильно медленней.
Джун как AI роль. Брать специалиста с пониманием и умением работы с ИИ, потому что это может помочь более опытным коллегам.
Проблема только в том, что ЭФФЕКТИВНАЯ работа с ИИ требует понимания того, что именно и как требовать от инструмента, т.е. навыков выше среднего, а не джунских. Помощи от джуна, вбивающего банальные промпты без управления контекстом в сторону ОЖИДАЕМОГО результата будет немного, возможно будет только вред. Проблема яйца-курицы, как решать - не понятно. Возможно - дроблением задач на микро проекты, где важен только микро результат и совершенно не важна реализация.
Думаю для мониторинга состояния архитектуры всё что требуется от “архитектурного видения” - это чёткое описание data flow и прочих флоу, а уж логи LLMы по tracking id копают на много лучше кожанных. Т.е. опять же, инструментарий стал лучше и он может порешать некоторые проблемы, с которыми людьми не справлялись. А окна в миллион не решают проблему галлюцинаций при распухшем контексте, наоборот, только делают эти проблемы более вероятными, так как перестаёшь следить за контекстом, не напарываясь на компрессию.
сё сделано через SSH‑команды, которые генерировал ИИ. Для меня это рутина, но сильно экономит время. Главное — смотреть и проверять, что именно ИИ делает.
Таки надо просить писать ансиблы и именно их исполнять и пушить в гит. Вот тогда и будет видно, и что он делает, и история будет, и воспроизводимость.
Модели просто не обучают отвечать “не знаю”, а учат давать хоть какой-то ответ, путь и фактологически неправильный.
это утверждение совершенно не верно. Сейчас не вспомню какой именно подкаст с openai был ещё год назад, где этому вопросу много времени эфирного уделили. Они вкладывали очень много усилий, что бы именно запретить моделям нести околесицу, когда некие вероятностные KPI по выдаче релятивного ответа сильно проседали
Gemini -Технический отчет GPT-4 (OpenAI, 2023) содержит целые разделы, посвященные «калибровке» (Calibration). Исследователи стремятся к тому, чтобы уверенность модели (logit-вероятность) коррелировала с фактической точностью. Если вероятность верного ответа низка, модель должна выдать стандартную фразу об отсутствии знаний.
Странный вопрос. Правильный вопрос - почему, используя ИИ, вы выставляете все тот же обьем работ в часах за одинаковые задачи?
все это прекрасно пишется вайбом. только не одним ппомптом
Думаю локальная оллама для распознования голоса - это оверкилл. Если гуглы не порезаны, то гугл спикер колонка + виртуальный matter device на NodeRed (про n8n не в курсе) - закрывают вопрос для большинства сценариев.
Шапкозакидательные эстимейты самоуверенных кожаных с ошибкой в разы (в лучшем случае) наконец-то стали попадать в цель с появлением генераторов.
А вот желание промптить до лимитов - это действительно имеет место быть. Уж очень дофаминово так быстро получать результат.
/superpowers:brainstorm (->prd)
/superpowers:writeplan (->plan) /superpowers:execute-plan
всё это с задаванием вопросов, ресёрчем, проработкой имплементации даже с предложением схем UI через бразузер, имплементация пулом агентов. Токенов жрёт до фига, но результат отличный
define model. Сейчас это слово подразумевает всю совокупность обвеса, а не просто веса
Я доверяю своему интенсивному опыту работы на грани лимитов Маx подписки последние 2 месяца. Окно сейчас 1М. Вот прямо не припомню, что бы клод опус 4.6 скатывался в полный маразм. Порой надо одёргивать, если размышления не туда уходят, но это вполне себе “рабочий” процесс. Но вот скорость работы резко деградирует, когда контекст распухает после интенсивных диалогов. Поэтому флоу через проработку PRD и его исполнение через чистый контекст - более, чем рабочий вариант.
Какие-то городские легенды. Клод сейчас довольно долгие “переговоры” ведёт, не теряя исходной постановки. Другой вопрос, что за 200К и контекст становится дороже, и генерация становится сильно медленней.
чистоту и порядок неважно где поддерживать. вопрос культуры производства.
Это нужно всегда хотя бы с точки зрения гигиены.
ну CI и докеризация нынче - это база, а не overengineering. Даже странно будет, если придётся объяснять, для чего это нужно.
Проблема только в том, что ЭФФЕКТИВНАЯ работа с ИИ требует понимания того, что именно и как требовать от инструмента, т.е. навыков выше среднего, а не джунских. Помощи от джуна, вбивающего банальные промпты без управления контекстом в сторону ОЖИДАЕМОГО результата будет немного, возможно будет только вред. Проблема яйца-курицы, как решать - не понятно. Возможно - дроблением задач на микро проекты, где важен только микро результат и совершенно не важна реализация.
С помощью /skill-creator
Думаю для мониторинга состояния архитектуры всё что требуется от “архитектурного видения” - это чёткое описание data flow и прочих флоу, а уж логи LLMы по tracking id копают на много лучше кожанных. Т.е. опять же, инструментарий стал лучше и он может порешать некоторые проблемы, с которыми людьми не справлялись. А окна в миллион не решают проблему галлюцинаций при распухшем контексте, наоборот, только делают эти проблемы более вероятными, так как перестаёшь следить за контекстом, не напарываясь на компрессию.
У микросервисов может появиться второй шанс, так как ЛЛМам проще с мелким контекстом. Но это не точно.
Таки надо просить писать ансиблы и именно их исполнять и пушить в гит. Вот тогда и будет видно, и что он делает, и история будет, и воспроизводимость.
перед имплементацией просили его провести ресерч и составить план? это решает
никогда не понимал, что там люди в этих 100500 табах в хроме делжат такого нужного?
это утверждение совершенно не верно. Сейчас не вспомню какой именно подкаст с openai был ещё год назад, где этому вопросу много времени эфирного уделили. Они вкладывали очень много усилий, что бы именно запретить моделям нести околесицу, когда некие вероятностные KPI по выдаче релятивного ответа сильно проседали
Gemini -Технический отчет GPT-4 (OpenAI, 2023) содержит целые разделы, посвященные «калибровке» (Calibration). Исследователи стремятся к тому, чтобы уверенность модели (logit-вероятность) коррелировала с фактической точностью. Если вероятность верного ответа низка, модель должна выдать стандартную фразу об отсутствии знаний.
очень многое можно выпускать в свет с слопнутом виде и разницы не будет ровно никакой
Если уж идти по этому пути, то не стоит останавливаться на оверпрайсд тормознутых VPS. Dedicated server за такие же (почти) деньги:
Fujitsu PRIMERGY RX1330 M3
Intel Xeon E3-1230v6
Processor 4 cores, 8 threads, 3.50GHz
Memory 16GB
Storage 1x 250GB SSD
Network Gbit/s Guaranteed 50 TB traffic per month
Starting at € 33.00