Варите лягушку медленно. Постепенно снижайте выполняемый объем задач. Уверен у вас достаточно аргументов почему могло растянуться. В идеале если у вас есть коллеги - берите их за эталон и стремитесь к нему.
Я не согласен на тему английского. Мои рассуждения такие - я думаю у себя в голове с "условным качеством" 100 единиц. На родном языке я могу передать мысль пусть 90 единиц. На не родном качество изложения еще падает. Условный английский для меня 80 единиц. И для того чтоб покрыть разницу мне нужно писать больше на неродном языке, при этом передавая смысл хуже. По факту я оперирую на той самой смеси русского и английского на которую агрятся комментаторы. То есть я оптимизирую самое слабое звено (себя, свою коммуникацию). Оптимизировать расход токенов - это учить китайский ради скидки в 3 копейки на чеке в 10000 руб.
Я может вас огорчу, но OpenAI API прекрасно справляется с описанным вами сценарием. Многоязычность + возможность указать список "жаргонных" слов (чтобы еще улучшить точность распознавания, которая даже из коробки шикарна) за $0.006 в минуту. Я не знаю что еще желать. У меня около 20 часов STT в месяц
Обновления безопасности обязательны сколько-то лет после окончания выпуска. Тоже по европейским нормам уже вроде пару лет как. До этого страдал из-за корпоративных правил - запрет запуска Teams если обновления безопасности устарели на более чем 3 месяца. Вот уже года полтора как на старенькую модельку всё приходит свежее.
Статья в принципе описывает психическое заболевание любого дорвавшегося до власти человека. Когда он может наказывать за "неправильные новости" развивается та же самая картина совершенно без ИИ.
Я поднял себе speech-to-text на OpenAI API. Дёшево, лучший из всех инструментов (что я пробовал) который умеет распознавать язык на лету. То есть я тупо диктую на смеси русского и английского. Очень редко (~1-2%) возникают ошибки которые надо поправлять. Цикл между "надиктовать" и "сообщение вставлено" обычно комфортные 3-5 секунд. Если надиктовать "простыню" получается чуть дольше, но не принципиально. За март у меня вышло 20+ часов диктовки. Ручной текст остался только если я хочу структурно отформатировать сообщение, расставить акценты.
Использование родного языка + сленга существенно ускоряет и процесс размышления и точность/качество передачи информации.
Ща нахватаю минусов, но да ладно. Как прошедший этим же путем пару месяцев назад - вся эта векторка - немасштабируемое говно в условиях локального использования. Чем больше контекста разместите, тем бесполезнее будет становиться. Я по итогу пришел к "базе знаний" (сам ее называю "база заблуждений") с тэгированными артефактами. Рассказывать подробнее не буду, просто опишу принцип - мне не нужна "single point of truth" по причине что это недостижимая цель. То что было "верно" неделю назад сейчас воспринимается как наивное legacy. Но "тэг" на посте - он не умеет врать. Неделю назад это было guide и сейчас новая версия статьи это guide. Или комментарий к тому посту в котором описано почему статья говно. Принцип blockchain в плане минимизации мутабельности. Чисто CREATE + READ. Мне достаточно сущностей Post + Comment. ИИ сам ходит ищет по тем тэгам что релевантны (или что я его прошу посмотреть). Не серебряная пуля, но мои задачки закрывает. База кросс-сессионная, кросс-проектная. Upkeep на инструкции и вызовы минимальный.
Вы только забыли упомянуть что время жизни кэша ~5 минут у Anthropic. Цифра разумеется плавает, но она очень небольшая. То есть пока вы работаете интенсивно, попадание в кэш хорошее, бюджет сессии тратится медленно. Отойти на 10-20 минут подумать - stale cache + скачок в использовании бюджета. И да, важно упомянуть что кэш это не про "трату токенов" а про тарификацию. Cache miss ощутимо дороже cache hit, но cache hit всё еще тарифицируется и далеко не бесплатен.
С CLAUDE.md еще интереснее. Он цепляется к каждому сообщению (как писали в разборе кода claude code). Я за достоверность не поручусь, но если поменять CLAUDE.md то ИИ прекрасно описывает где и какие изменения произошли. Сама сессия stateless. Т.е. весь контекст "до" + промпт пользователя обрабатывается каждый раз. Кэш спасает, но первый же запрос "продолженной" сессии легко выгребает 10-20% пятичасового бюджета. У меня Opus 4.6 1M, и сессии обычно доходят до 400к токенов, очень иногда 500к+. Дальше наблюдается видимая деградация как в скорости обработки, так и в качестве.
Каждый второй ИИ энтузиаст создает свою систему памяти. Каждый третий видит в ней серебряную пулю. И что самое интересное, для большинства из них это работает. Но так же правда в том, что эти решения user-specific и нифига нормально не переносятся. Мне кажется каждый из нас собирает свое "идеальное зеркало" и потом смотримся в него и умиляемся "как мощны наши лапища".
Вы путаете не знаю умышленно или нет. Если в результате промпта была изменена строчка кода, которая прошла PR и попала в мастер. Имеет смысл кто был автором изменения? Я уж молчу про то что гарантий никто никогда никому не дает. Все поставляется AS IS.
И в дополнение вопрос - зачем нужно чтоб промпт в 100 случаях из 100 выдавал один и тот же результат? Когда мы разговариваем с людьми (и даже с разработчиками!) мы не падаем в обморок что один раз на "привет" он говорит "привет" а другой раз "здорово". Мы как-то уживаемся с мыслью что Васе надо рассказать контекст задачи, и может быть даже не один раз. И может быть даже так он напишет глупость и потом придет дефект с QA или вообще не дай бог правка от бизнеса.
Я считаю вообще вся ветка дискуссии "промпт не детерменирован" - гнилая изначально. Нам нужно чтоб промпт один раз написал как тут просят любители "детерменированный алгоритм".
Проблемы возникают тогда, когда нет четких границ ответственности. Я лучше высушу мозги тиме которая предоставила API и которая сама его не выполняет, чем залезу к ним, узнаю их потроха и напишу реализацию которая работает но не соответствует API.
Я очень хорошо понимаю описываемую вами боль. Действительно разные разработчики видят сложность совершенно по-разному. Кто-то может держать в своей памяти 35 сервисов и макаронную фабрику между ними. Кто-то говорит - вот API/Interface и на болту я вертел детали реализации - я следую контракту. Я сам сторонник последнего. Потому что когда приходится переключаться с проекта на проект, держать детали каждого в голове просто нереально. Но в то же время я потерял надежду что людей можно переубедить в диалоге. Может быть, лет через 5 они согласятся с вами. Но сейчас - шансы лысые.
Мне кажется вы сместили акценты. Там же явно сказано "Код должен быть настолько простым, насколько это возможно, но не проще." Это прямо тот принцип которым я руководствуюсь последние лет 10+. Это не про количество кб текста и не количество строчек кода.
Это какие-то мелкотравчатые проекты. У средненькой инфраструктуры не бывает времени когда ей никто не пользуется. Не говоря уже про крупняк.
Могу сказать только одно - вы вкатились работать за еду. Молодость она такая. Попробуйте ЗП увеличить после 40 хотя бы в 2 раза.
Назовите примерную зарплату к кому вы так открываете дверь с ноги. Может к кошке своей.
Варите лягушку медленно. Постепенно снижайте выполняемый объем задач. Уверен у вас достаточно аргументов почему могло растянуться. В идеале если у вас есть коллеги - берите их за эталон и стремитесь к нему.
Ты че кожаным такие вопросы задаешь. Спрашивай железяк, они тебе растолкуют
Я не согласен на тему английского. Мои рассуждения такие - я думаю у себя в голове с "условным качеством" 100 единиц. На родном языке я могу передать мысль пусть 90 единиц. На не родном качество изложения еще падает. Условный английский для меня 80 единиц. И для того чтоб покрыть разницу мне нужно писать больше на неродном языке, при этом передавая смысл хуже. По факту я оперирую на той самой смеси русского и английского на которую агрятся комментаторы. То есть я оптимизирую самое слабое звено (себя, свою коммуникацию). Оптимизировать расход токенов - это учить китайский ради скидки в 3 копейки на чеке в 10000 руб.
Я может вас огорчу, но OpenAI API прекрасно справляется с описанным вами сценарием. Многоязычность + возможность указать список "жаргонных" слов (чтобы еще улучшить точность распознавания, которая даже из коробки шикарна) за $0.006 в минуту. Я не знаю что еще желать. У меня около 20 часов STT в месяц
За х5 берёте подписку Max-100 и вперёд.
Обновления безопасности обязательны сколько-то лет после окончания выпуска. Тоже по европейским нормам уже вроде пару лет как. До этого страдал из-за корпоративных правил - запрет запуска Teams если обновления безопасности устарели на более чем 3 месяца. Вот уже года полтора как на старенькую модельку всё приходит свежее.
Статья в принципе описывает психическое заболевание любого дорвавшегося до власти человека. Когда он может наказывать за "неправильные новости" развивается та же самая картина совершенно без ИИ.
Я всё никак не могу решиться на покупку 5090. Вроде и хочется и колется. Как часто возникает мысль "а вот если бы их было две..." или там H100+?
Я поднял себе speech-to-text на OpenAI API. Дёшево, лучший из всех инструментов (что я пробовал) который умеет распознавать язык на лету. То есть я тупо диктую на смеси русского и английского. Очень редко (~1-2%) возникают ошибки которые надо поправлять. Цикл между "надиктовать" и "сообщение вставлено" обычно комфортные 3-5 секунд. Если надиктовать "простыню" получается чуть дольше, но не принципиально. За март у меня вышло 20+ часов диктовки. Ручной текст остался только если я хочу структурно отформатировать сообщение, расставить акценты.
Использование родного языка + сленга существенно ускоряет и процесс размышления и точность/качество передачи информации.
Ща нахватаю минусов, но да ладно. Как прошедший этим же путем пару месяцев назад - вся эта векторка - немасштабируемое говно в условиях локального использования. Чем больше контекста разместите, тем бесполезнее будет становиться. Я по итогу пришел к "базе знаний" (сам ее называю "база заблуждений") с тэгированными артефактами. Рассказывать подробнее не буду, просто опишу принцип - мне не нужна "single point of truth" по причине что это недостижимая цель. То что было "верно" неделю назад сейчас воспринимается как наивное legacy. Но "тэг" на посте - он не умеет врать. Неделю назад это было guide и сейчас новая версия статьи это guide. Или комментарий к тому посту в котором описано почему статья говно. Принцип blockchain в плане минимизации мутабельности. Чисто CREATE + READ. Мне достаточно сущностей Post + Comment. ИИ сам ходит ищет по тем тэгам что релевантны (или что я его прошу посмотреть). Не серебряная пуля, но мои задачки закрывает. База кросс-сессионная, кросс-проектная. Upkeep на инструкции и вызовы минимальный.
Вы только забыли упомянуть что время жизни кэша ~5 минут у Anthropic. Цифра разумеется плавает, но она очень небольшая. То есть пока вы работаете интенсивно, попадание в кэш хорошее, бюджет сессии тратится медленно. Отойти на 10-20 минут подумать - stale cache + скачок в использовании бюджета. И да, важно упомянуть что кэш это не про "трату токенов" а про тарификацию. Cache miss ощутимо дороже cache hit, но cache hit всё еще тарифицируется и далеко не бесплатен.
С CLAUDE.md еще интереснее. Он цепляется к каждому сообщению (как писали в разборе кода claude code). Я за достоверность не поручусь, но если поменять CLAUDE.md то ИИ прекрасно описывает где и какие изменения произошли. Сама сессия stateless. Т.е. весь контекст "до" + промпт пользователя обрабатывается каждый раз. Кэш спасает, но первый же запрос "продолженной" сессии легко выгребает 10-20% пятичасового бюджета. У меня Opus 4.6 1M, и сессии обычно доходят до 400к токенов, очень иногда 500к+. Дальше наблюдается видимая деградация как в скорости обработки, так и в качестве.
Каждый второй ИИ энтузиаст создает свою систему памяти. Каждый третий видит в ней серебряную пулю. И что самое интересное, для большинства из них это работает. Но так же правда в том, что эти решения user-specific и нифига нормально не переносятся. Мне кажется каждый из нас собирает свое "идеальное зеркало" и потом смотримся в него и умиляемся "как мощны наши лапища".
и даже с KFC!
Вы путаете не знаю умышленно или нет. Если в результате промпта была изменена строчка кода, которая прошла PR и попала в мастер. Имеет смысл кто был автором изменения? Я уж молчу про то что гарантий никто никогда никому не дает. Все поставляется AS IS.
И в дополнение вопрос - зачем нужно чтоб промпт в 100 случаях из 100 выдавал один и тот же результат? Когда мы разговариваем с людьми (и даже с разработчиками!) мы не падаем в обморок что один раз на "привет" он говорит "привет" а другой раз "здорово". Мы как-то уживаемся с мыслью что Васе надо рассказать контекст задачи, и может быть даже не один раз. И может быть даже так он напишет глупость и потом придет дефект с QA или вообще не дай бог правка от бизнеса.
Я считаю вообще вся ветка дискуссии "промпт не детерменирован" - гнилая изначально. Нам нужно чтоб промпт один раз написал как тут просят любители "детерменированный алгоритм".
Проблемы возникают тогда, когда нет четких границ ответственности. Я лучше высушу мозги тиме которая предоставила API и которая сама его не выполняет, чем залезу к ним, узнаю их потроха и напишу реализацию которая работает но не соответствует API.
Я очень хорошо понимаю описываемую вами боль. Действительно разные разработчики видят сложность совершенно по-разному. Кто-то может держать в своей памяти 35 сервисов и макаронную фабрику между ними. Кто-то говорит - вот API/Interface и на болту я вертел детали реализации - я следую контракту. Я сам сторонник последнего. Потому что когда приходится переключаться с проекта на проект, держать детали каждого в голове просто нереально. Но в то же время я потерял надежду что людей можно переубедить в диалоге. Может быть, лет через 5 они согласятся с вами. Но сейчас - шансы лысые.
Мне кажется вы сместили акценты. Там же явно сказано "Код должен быть настолько простым, насколько это возможно, но не проще." Это прямо тот принцип которым я руководствуюсь последние лет 10+. Это не про количество кб текста и не количество строчек кода.