Да, тут справедливо - оба исследования гоняли агентов на существующих репозиториях, greenfield вообще не трогали. На пустом проекте агенту неоткуда вывести конвенции, и контекстный файл это по сути единственный источник правды. Там вопрос скорее не "нужен ли CLAUDE.md" а "достаточно ли его". По опыту - на greenfield лучше работает plan.md или спека перед каждой задачей, потому что контекстный файл статичный, а проект на старте меняется каждый час. Но данных по этому нет, только ощущения.
Про SDD согласен, валидация на каждом шаге снимает проблему "агент прочитал инструкцию и побежал не туда". По сути это тот же A/B тест pamelafox только встроенный в пайплайн.
lightContext: true на heartbeat отрезает историю разговора, агент видит только HEARTBEAT.md. Но в чеклисте написано "проверь срочное в текущих задачах" - а откуда он узнает задачи без контекста? Либо ты даёшь tools и он тратит вызовы чтобы вспомнить что происходит, либо heartbeat вслепую. Полезный heartbeat это скорее lightContext: false на длинном интервале типа 2-4h, а не lightContext: true каждые полчаса
Лицензии защищали не через суды а через экономику - переписать было дороже чем соблюдать. Маленький разраб никогда не засудит корпорацию, тут уже написали. Phoenix потратил месяцы на клон BIOS, окупалось только при огромных ставках. При $14 за lodash барьера больше нет, и неважно сатира это или нет
1.29% по JPlag - это сходство текста кода. Поведение при этом совпадает почти полностью, тот же API те же кодировки. Google v Oracle (2021) уже решили что реимплементация API это fair use. Тут логика та же - поведение повторили, код нет
Автор выбрал Claude частично за тариф $100/мес. Но сам же пишет что Claude тратит в 3-4 раза больше токенов на тех же задачах. На фиксированном тарифе это значит упрёшься в потолок в 3-4 раза быстрее
проверяет Draft Writer, но кто проверяет Critic? Если Draft Writer естественно вписал неверный факт, Critic с теми же слепыми пятнами скорее всего пропустит. Тот же паттерн в code review субагентах - ревьюер-LLM стабильно пропускает ошибки которые сам бы допустил. Три итерации Critic -> Draft Writer улучшают стиль и структуру, но фактические ошибки проходят через все три
ursorrules, copilot-instructions. Файлы в корне проекта где руками описываешь архитектуру, конвенции, что куда класть. AI читает при каждом запросе. По факту время переехало с написания кода на написание инструкций для того кто код пишет
700 дней по 10 минут это ~117 часов. Для русского FSI дает 1100 часов. Объясниться получилось - значит для базового уровня работает. Но это 10% от того что нужно для свободного владения. Собственно про это и статья - база да, fluency нет. А про регулярность согласен, тут Дуо реально сильнее всех AI-тьюторов
800 дней это серьезный страйк) и вот это ровно то что я имел в виду - Duolingo не про язык, а про привычку. И если привычка работает - отлично, это уже больше чем у 90% людей которые "хотят выучить язык". AI пока не умеет так цеплять
В текстовом чате - да, работает. А в Voice Mode нет, он продолжает разговор даже если ты сказал полную ерунду. Видимо чтобы не ломать flow. Можно попросить в системном промпте "поправляй меня" но по факту он всё равно пропускает большинство ошибок
Ну вот Voice Mode как раз для таких пауз между командировками мог бы пригодиться хоть какая-то разговорная практика. Другое дело что без реальных ставок мотивация так себе
Cправедливо, репетитор и правда заинтересован в процессе а не в результате - как и Duolingo собственно. Получается AI тут даже честнее, ему платишь подписку а не за час, ему всё равно сколько ты занимаешься
Вот это кстати ровно та схема которая работает - Дуо для базы, книги для расширения, а разговор отдельно когда появляется реальная ситуация. B2-C1 письменный без Дуо это серьезно. Voice Mode теоретически мог бы закрыть разговорную часть между командировками, но пока он не исправляет ошибки - только иллюзия практики ))
Вот это кстати то что в статье не раскрыл - LLM для проверки своих текстов реально полезны, особенно для нюансов которые носители и так не поправят. В Voice Mode этого нет, а в текстовом чате работает. Может это и есть самый практичный юзкейс пока - не учить с нуля, а шлифовать то что уже знаешь
Вот это лучший аргумент против "AI заменит репетитора". Репетитор не заставит тебя сдавать Данте на итальянском через 7 месяцев) а стресс + реальные последствия = запомнил на 15 лет
Веб-разработчик, не языковые приложения) "я не лингвист" в статье - это дисклеймер, что пишу как пользователь, а не как методист.
Про 5000 часов от Новгородцева не слышал, но похоже на правду - FSI дает 600-750 для "простых" языков при интенсиве, а в реальности без полного погружения умножай на 3-4. Собственно про это и статья - AI может чуть сократить эти часы, но не в разы как обещает маркетинг
Cредневековая итальянская литература через 7 месяцев с нуля - это хардкор)) вот это ровно тот стресс который работает лучше любого приложения. Voice Mode рядом не стоял
Аналогия с зарядкой хорошая, в статье я примерно это же имел в виду про "фитнес-трекер". Про разные навыки согласен - я когда тестил Voice Mode, понял что он закрывает ровно один из них, разговорный. И то с оговорками. А грамматику, чтение, восприятие на слух - это всё отдельные истории и AI в каждой из них на разном уровне
Ну вот кстати условия выживаемости для языков работают лучше всего) переехал в страну, не можешь объяснить что тебе нужно в аптеке - выучишь за неделю. Только AI пока так не может - он слишком вежливый чтобы тебя в такую ситуацию поставить
Про два барьера точно подмечено. Первый - заговорить хоть как-то, второй - перестать переводить в голове. Voice Mode может помочь с первым если рядом нет носителей, но со вторым пока никакой AI не справляется - там нужна именно та каждодневность о которой ты пишешь
Да, тут справедливо - оба исследования гоняли агентов на существующих репозиториях, greenfield вообще не трогали. На пустом проекте агенту неоткуда вывести конвенции, и контекстный файл это по сути единственный источник правды. Там вопрос скорее не "нужен ли CLAUDE.md" а "достаточно ли его". По опыту - на greenfield лучше работает plan.md или спека перед каждой задачей, потому что контекстный файл статичный, а проект на старте меняется каждый час. Но данных по этому нет, только ощущения.
Про SDD согласен, валидация на каждом шаге снимает проблему "агент прочитал инструкцию и побежал не туда". По сути это тот же A/B тест pamelafox только встроенный в пайплайн.
lightContext: true на heartbeat отрезает историю разговора, агент видит только HEARTBEAT.md. Но в чеклисте написано "проверь срочное в текущих задачах" - а откуда он узнает задачи без контекста? Либо ты даёшь tools и он тратит вызовы чтобы вспомнить что происходит, либо heartbeat вслепую. Полезный heartbeat это скорее lightContext: false на длинном интервале типа 2-4h, а не lightContext: true каждые полчаса
Лицензии защищали не через суды а через экономику - переписать было дороже чем соблюдать. Маленький разраб никогда не засудит корпорацию, тут уже написали. Phoenix потратил месяцы на клон BIOS, окупалось только при огромных ставках. При $14 за lodash барьера больше нет, и неважно сатира это или нет
1.29% по JPlag - это сходство текста кода. Поведение при этом совпадает почти полностью, тот же API те же кодировки. Google v Oracle (2021) уже решили что реимплементация API это fair use. Тут логика та же - поведение повторили, код нет
Автор выбрал Claude частично за тариф $100/мес. Но сам же пишет что Claude тратит в 3-4 раза больше токенов на тех же задачах. На фиксированном тарифе это значит упрёшься в потолок в 3-4 раза быстрее
проверяет Draft Writer, но кто проверяет Critic? Если Draft Writer естественно вписал неверный факт, Critic с теми же слепыми пятнами скорее всего пропустит. Тот же паттерн в code review субагентах - ревьюер-LLM стабильно пропускает ошибки которые сам бы допустил. Три итерации Critic -> Draft Writer улучшают стиль и структуру, но фактические ошибки проходят через все три
ursorrules, copilot-instructions. Файлы в корне проекта где руками описываешь архитектуру, конвенции, что куда класть. AI читает при каждом запросе. По факту время переехало с написания кода на написание инструкций для того кто код пишет
700 дней по 10 минут это ~117 часов. Для русского FSI дает 1100 часов. Объясниться получилось - значит для базового уровня работает. Но это 10% от того что нужно для свободного владения. Собственно про это и статья - база да, fluency нет. А про регулярность согласен, тут Дуо реально сильнее всех AI-тьюторов
800 дней это серьезный страйк) и вот это ровно то что я имел в виду - Duolingo не про язык, а про привычку. И если привычка работает - отлично, это уже больше чем у 90% людей которые "хотят выучить язык". AI пока не умеет так цеплять
В текстовом чате - да, работает. А в Voice Mode нет, он продолжает разговор даже если ты сказал полную ерунду. Видимо чтобы не ломать flow. Можно попросить в системном промпте "поправляй меня" но по факту он всё равно пропускает большинство ошибок
Ну вот Voice Mode как раз для таких пауз между командировками мог бы пригодиться хоть какая-то разговорная практика. Другое дело что без реальных ставок мотивация так себе
Cправедливо, репетитор и правда заинтересован в процессе а не в результате - как и Duolingo собственно. Получается AI тут даже честнее, ему платишь подписку а не за час, ему всё равно сколько ты занимаешься
Вот это кстати ровно та схема которая работает - Дуо для базы, книги для расширения, а разговор отдельно когда появляется реальная ситуация. B2-C1 письменный без Дуо это серьезно. Voice Mode теоретически мог бы закрыть разговорную часть между командировками, но пока он не исправляет ошибки - только иллюзия практики ))
Вот это кстати то что в статье не раскрыл - LLM для проверки своих текстов реально полезны, особенно для нюансов которые носители и так не поправят. В Voice Mode этого нет, а в текстовом чате работает. Может это и есть самый практичный юзкейс пока - не учить с нуля, а шлифовать то что уже знаешь
Вот это лучший аргумент против "AI заменит репетитора". Репетитор не заставит тебя сдавать Данте на итальянском через 7 месяцев) а стресс + реальные последствия = запомнил на 15 лет
Веб-разработчик, не языковые приложения) "я не лингвист" в статье - это дисклеймер, что пишу как пользователь, а не как методист.
Про 5000 часов от Новгородцева не слышал, но похоже на правду - FSI дает 600-750 для "простых" языков при интенсиве, а в реальности без полного погружения умножай на 3-4. Собственно про это и статья - AI может чуть сократить эти часы, но не в разы как обещает маркетинг
Cредневековая итальянская литература через 7 месяцев с нуля - это хардкор)) вот это ровно тот стресс который работает лучше любого приложения. Voice Mode рядом не стоял
Аналогия с зарядкой хорошая, в статье я примерно это же имел в виду про "фитнес-трекер". Про разные навыки согласен - я когда тестил Voice Mode, понял что он закрывает ровно один из них, разговорный. И то с оговорками. А грамматику, чтение, восприятие на слух - это всё отдельные истории и AI в каждой из них на разном уровне
Ну вот кстати условия выживаемости для языков работают лучше всего) переехал в страну, не можешь объяснить что тебе нужно в аптеке - выучишь за неделю. Только AI пока так не может - он слишком вежливый чтобы тебя в такую ситуацию поставить
Про два барьера точно подмечено. Первый - заговорить хоть как-то, второй - перестать переводить в голове. Voice Mode может помочь с первым если рядом нет носителей, но со вторым пока никакой AI не справляется - там нужна именно та каждодневность о которой ты пишешь