Вот это лучший аргумент против "AI заменит репетитора". Репетитор не заставит тебя сдавать Данте на итальянском через 7 месяцев) а стресс + реальные последствия = запомнил на 15 лет
Веб-разработчик, не языковые приложения) "я не лингвист" в статье - это дисклеймер, что пишу как пользователь, а не как методист.
Про 5000 часов от Новгородцева не слышал, но похоже на правду - FSI дает 600-750 для "простых" языков при интенсиве, а в реальности без полного погружения умножай на 3-4. Собственно про это и статья - AI может чуть сократить эти часы, но не в разы как обещает маркетинг
Cредневековая итальянская литература через 7 месяцев с нуля - это хардкор)) вот это ровно тот стресс который работает лучше любого приложения. Voice Mode рядом не стоял
Аналогия с зарядкой хорошая, в статье я примерно это же имел в виду про "фитнес-трекер". Про разные навыки согласен - я когда тестил Voice Mode, понял что он закрывает ровно один из них, разговорный. И то с оговорками. А грамматику, чтение, восприятие на слух - это всё отдельные истории и AI в каждой из них на разном уровне
Ну вот кстати условия выживаемости для языков работают лучше всего) переехал в страну, не можешь объяснить что тебе нужно в аптеке - выучишь за неделю. Только AI пока так не может - он слишком вежливый чтобы тебя в такую ситуацию поставить
Про два барьера точно подмечено. Первый - заговорить хоть как-то, второй - перестать переводить в голове. Voice Mode может помочь с первым если рядом нет носителей, но со вторым пока никакой AI не справляется - там нужна именно та каждодневность о которой ты пишешь
хм, может и так. Если человеку не нужен язык прямо сейчас - это не лень, а просто нет реальной задачи. FSI не зря говорит про 600+ часов - без причины это время никто не потратит
Ну да в мире щас все больше и больше инструментов которые помогают изучать языки и решать проблемы, но главную проблему человечества пока не решают - лень)
Ревью AI-кода перед деплоем решает половину проблемы. Kiro сам решил удалить и пересоздать среду - тут ревью кода не поможет, агент действовал в рантайме с правами оператора. Пока агентам дают тот же IAM-уровень что и людям, это будет повторяться
Тест одним промптом через API показывает генерацию с нуля. Реальная разница между моделями вылезает в агентном режиме - когда модель видит ошибку, сама правит, запускает код снова. Claude Code и Codex делают по несколько итераций на задачу автоматически. На калькуляторе это незаметно
METR не доказали ускорение но эксперимент развалился - разработчики отказались работать без AI. В клинических испытаниях когда участники отказываются от контрольной группы обычно это значит лечение реально работает. А тут вывод - "данные слишком слабы". Зависимость без доказанной пользы
Весь расклад про расходы, но доходная часть - "прогноз 100 млрд выручки к 2028" и всё. А доходы тоже под давлением. Стоимость токена падает - модели эффективнее, конкуренты давят ценой. DeepSeek V3 обучили за $5.5M. Не снижаешь цены - клиенты уходят на open-source, снижаешь - выручка не растёт по плану
jdt внутри Explore субагента был бы идеальной связкой. Субагент и так защищает контекст основного агента, но сам всё равно грепает и тратит свой контекст на фильтрацию мусора. С jdt субагент получает 8 точных результатов сразу и возвращает основному агенту сухой остаток
В UPD самое ценное. Gemini залип на "бетон" и "дизель" - это ровно та же штука что и в коде. Модель увидела метафору в контексте и теперь тащит её в каждый ответ. В коде то же самое - написал хак, он в контексте, дальше всё строится поверх. UPD доказывает тезис статьи лучше чем сама статья
Логирование tool calls с трассами - LangSmith, LangFuse, Arize это умеют. Новое тут commitment protocol, агент фиксирует план до выполнения. Но реальные агентные пайплайны адаптивные, следующий шаг зависит от результата предыдущего. Агент обязался вызвать 3 инструмента, по ходу понял что нужен четвёртый - нарушение обязательства или нормальная работа?
Пользователи удаляют ChatGPT из-за Пентагона (+295%), Anthropic тут же запускает рекламу перехода на Claude. При этом Claude сам используется для определения целей в Иране. Маркетинг красивый
40% на планирование - самое больное место. Половина этого уходит не на задачу а на контекст: где лежат модели, как устроен API, какие конвенции. CLAUDE.md в корне проекта снимает эту часть - Claude Code читает его автоматически при старте. Один раз описал структуру и дальше планируешь только саму задачу
"90% задержки на CPU" - но это же не compute. Агент в основном ждёт ответа от API, парсит JSON, пишет в лог. Спрос растёт не из-за вычислений а из-за памяти - каждая агентная сессия держит контекст в RAM, и чем больше сокетов тем больше каналов DDR5 и параллельных сессий
Автор сам отмечает что код не страдает от повторного использования - и тут же натягивает аналогию с подделкой сыра. Для кода проблема не в авторстве а в отсутствии ментальной модели. Кто написал сортировку неважно, важно что вайб-кодер не проверил граничные случаи потому что не он их продумывал
git log пока единственный надёжный сигнал. Документацию, README, тесты LLM генерит за один промпт. А два года эволюции через коммиты и обсуждения в issues - нет
Вот это лучший аргумент против "AI заменит репетитора". Репетитор не заставит тебя сдавать Данте на итальянском через 7 месяцев) а стресс + реальные последствия = запомнил на 15 лет
Веб-разработчик, не языковые приложения) "я не лингвист" в статье - это дисклеймер, что пишу как пользователь, а не как методист.
Про 5000 часов от Новгородцева не слышал, но похоже на правду - FSI дает 600-750 для "простых" языков при интенсиве, а в реальности без полного погружения умножай на 3-4. Собственно про это и статья - AI может чуть сократить эти часы, но не в разы как обещает маркетинг
Cредневековая итальянская литература через 7 месяцев с нуля - это хардкор)) вот это ровно тот стресс который работает лучше любого приложения. Voice Mode рядом не стоял
Аналогия с зарядкой хорошая, в статье я примерно это же имел в виду про "фитнес-трекер". Про разные навыки согласен - я когда тестил Voice Mode, понял что он закрывает ровно один из них, разговорный. И то с оговорками. А грамматику, чтение, восприятие на слух - это всё отдельные истории и AI в каждой из них на разном уровне
Ну вот кстати условия выживаемости для языков работают лучше всего) переехал в страну, не можешь объяснить что тебе нужно в аптеке - выучишь за неделю. Только AI пока так не может - он слишком вежливый чтобы тебя в такую ситуацию поставить
Про два барьера точно подмечено. Первый - заговорить хоть как-то, второй - перестать переводить в голове. Voice Mode может помочь с первым если рядом нет носителей, но со вторым пока никакой AI не справляется - там нужна именно та каждодневность о которой ты пишешь
хм, может и так. Если человеку не нужен язык прямо сейчас - это не лень, а просто нет реальной задачи. FSI не зря говорит про 600+ часов - без причины это время никто не потратит
Ну да в мире щас все больше и больше инструментов которые помогают изучать языки и решать проблемы, но главную проблему человечества пока не решают - лень)
Ревью AI-кода перед деплоем решает половину проблемы. Kiro сам решил удалить и пересоздать среду - тут ревью кода не поможет, агент действовал в рантайме с правами оператора. Пока агентам дают тот же IAM-уровень что и людям, это будет повторяться
Тест одним промптом через API показывает генерацию с нуля. Реальная разница между моделями вылезает в агентном режиме - когда модель видит ошибку, сама правит, запускает код снова. Claude Code и Codex делают по несколько итераций на задачу автоматически. На калькуляторе это незаметно
METR не доказали ускорение но эксперимент развалился - разработчики отказались работать без AI. В клинических испытаниях когда участники отказываются от контрольной группы обычно это значит лечение реально работает. А тут вывод - "данные слишком слабы". Зависимость без доказанной пользы
Весь расклад про расходы, но доходная часть - "прогноз 100 млрд выручки к 2028" и всё. А доходы тоже под давлением. Стоимость токена падает - модели эффективнее, конкуренты давят ценой. DeepSeek V3 обучили за $5.5M. Не снижаешь цены - клиенты уходят на open-source, снижаешь - выручка не растёт по плану
jdt внутри Explore субагента был бы идеальной связкой. Субагент и так защищает контекст основного агента, но сам всё равно грепает и тратит свой контекст на фильтрацию мусора. С jdt субагент получает 8 точных результатов сразу и возвращает основному агенту сухой остаток
В UPD самое ценное. Gemini залип на "бетон" и "дизель" - это ровно та же штука что и в коде. Модель увидела метафору в контексте и теперь тащит её в каждый ответ. В коде то же самое - написал хак, он в контексте, дальше всё строится поверх. UPD доказывает тезис статьи лучше чем сама статья
Логирование tool calls с трассами - LangSmith, LangFuse, Arize это умеют. Новое тут commitment protocol, агент фиксирует план до выполнения. Но реальные агентные пайплайны адаптивные, следующий шаг зависит от результата предыдущего. Агент обязался вызвать 3 инструмента, по ходу понял что нужен четвёртый - нарушение обязательства или нормальная работа?
Пользователи удаляют ChatGPT из-за Пентагона (+295%), Anthropic тут же запускает рекламу перехода на Claude. При этом Claude сам используется для определения целей в Иране. Маркетинг красивый
40% на планирование - самое больное место. Половина этого уходит не на задачу а на контекст: где лежат модели, как устроен API, какие конвенции. CLAUDE.md в корне проекта снимает эту часть - Claude Code читает его автоматически при старте. Один раз описал структуру и дальше планируешь только саму задачу
"90% задержки на CPU" - но это же не compute. Агент в основном ждёт ответа от API, парсит JSON, пишет в лог. Спрос растёт не из-за вычислений а из-за памяти - каждая агентная сессия держит контекст в RAM, и чем больше сокетов тем больше каналов DDR5 и параллельных сессий
Автор сам отмечает что код не страдает от повторного использования - и тут же натягивает аналогию с подделкой сыра. Для кода проблема не в авторстве а в отсутствии ментальной модели. Кто написал сортировку неважно, важно что вайб-кодер не проверил граничные случаи потому что не он их продумывал
git log пока единственный надёжный сигнал. Документацию, README, тесты LLM генерит за один промпт. А два года эволюции через коммиты и обсуждения в issues - нет