Claude Code тупо лучше работает. Нет смысла пытаться ускорять работу и использовать посредственные инструменты.
Тут несколько причин:
Провайдеры моделей могут как модели обучать под harness, так и harness затачивать под модели, например, через промпты
Создателям Claude Code не нужно тратить кучу сил на поддержание совместимости с форком vscode (и еще кучи других устаревших костылей курсора, типа индексации кода). Они делают только агентскую систему и делают ее очень хорошо (фокус решает)
Да, на начальном. Если сразу брать задачки на 3+ дней, то без опыта контекст слишком сильно раздувается и потом начинается цикл compaction->восстановление контекста->compaction->...
Думаю, многие не понимают, что хабр изменился и для большинства авторов теперь не является самодостаточной площадкой. Для них это скорее место для обмена:
Они тратят время, чтобы сделать для хабросообщества контент, а взамен получить переходы по ссылкам на какие-то свои ресурсы. Причем, есть мотивация делать качественно – иначе переходов не будет.
А если запретить тут тг каналы и другие ссылки, то огромное количество хороших постов просто не появилось бы.
Я тоже учился в ШАДе и супер уважаю ребят оттуда, но все же важно понять, что большинство людей по природе консерваторы (и это круто, иначе бы энтузиасты разнесли все к чертям). Так то раньше и за мысли про круглую землю сжигали на кострах.
Хоть искусственные нейроны в сетках и отличаются от естественных, у них и общего тоже достаточно много. Как пример, если изучить зрительные нейроны в наших глазах, то идея CNN начинает казаться очень интуитивной
В целом, @Politura уже все расписал – большая часть перечисленных инструментов вполне заняли свои серьезные ниши.
А даже если бы не заняли – то странно приводить их как аргументы против ошибки выжившего – всегда можно найти штуку, которая не оправдала ожиданий – это такая же ошибка выжившего.
Кстати, полезный практический лайфхак:
LLMки лучше работают с XML разметкой на вход, чем с JSON, особенно, когда большой комплект данных.
Оно все меньше впечатляет на большей части банальных задач. Но это нормально – они и так уже решаются достаточно хорошо. Весь прогресс – на узком хвосте распределения сложных задач, требующих серьезного ризонинга и надежности. Если вас не впечаляют возможности gpt-5 и sonnet-4.5, то мб у вас просто мало таких задач
Не обязательно ломать, но и ничего не менять – тоже спорное решение
Чем раньше откипит, тем проще будет в будущем 😁
Ну и с экономической точки зрения: у заказчика плата за доп токены в курсоре перебивала стоимость Макс подписки CC
Claude Code тупо лучше работает. Нет смысла пытаться ускорять работу и использовать посредственные инструменты.
Тут несколько причин:
Провайдеры моделей могут как модели обучать под harness, так и harness затачивать под модели, например, через промпты
Создателям Claude Code не нужно тратить кучу сил на поддержание совместимости с форком vscode (и еще кучи других устаревших костылей курсора, типа индексации кода). Они делают только агентскую систему и делают ее очень хорошо (фокус решает)
Да, на начальном. Если сразу брать задачки на 3+ дней, то без опыта контекст слишком сильно раздувается и потом начинается цикл compaction->восстановление контекста->compaction->...
Думаю, многие не понимают, что хабр изменился и для большинства авторов теперь не является самодостаточной площадкой. Для них это скорее место для обмена:
Они тратят время, чтобы сделать для хабросообщества контент, а взамен получить переходы по ссылкам на какие-то свои ресурсы. Причем, есть мотивация делать качественно – иначе переходов не будет.
А если запретить тут тг каналы и другие ссылки, то огромное количество хороших постов просто не появилось бы.
Пост-шалость, который упоминаю в тексте
https://habr.com/ru/articles/955666/
Как минимум два спикера конфы решают эту проблему в своих тулах. Вам может быть интересно
Я тоже учился в ШАДе и супер уважаю ребят оттуда, но все же важно понять, что большинство людей по природе консерваторы (и это круто, иначе бы энтузиасты разнесли все к чертям). Так то раньше и за мысли про круглую землю сжигали на кострах.
Хоть искусственные нейроны в сетках и отличаются от естественных, у них и общего тоже достаточно много. Как пример, если изучить зрительные нейроны в наших глазах, то идея CNN начинает казаться очень интуитивной
"разработчики не нужны, пока на одну и ту же задачу не перестанут писать разный код"
"разработчики не нужны, пока на одну и ту же задачу не перестанут писать разный код"
Что не означает, что стоит это принимать 🤷♂️
Пишите пост! Это же прям супер уникальный опыт
В целом, @Politura уже все расписал – большая часть перечисленных инструментов вполне заняли свои серьезные ниши.
А даже если бы не заняли – то странно приводить их как аргументы против ошибки выжившего – всегда можно найти штуку, которая не оправдала ожиданий – это такая же ошибка выжившего.
Кстати, полезный практический лайфхак:
LLMки лучше работают с XML разметкой на вход, чем с JSON, особенно, когда большой комплект данных.
А зря перестали
Скорее всего у вас просто плохой пайплайн перевода выстроен. Я делал цикл переводов AI-2027, текст целиком написан LLM без редактуры
Оно все меньше впечатляет на большей части банальных задач. Но это нормально – они и так уже решаются достаточно хорошо. Весь прогресс – на узком хвосте распределения сложных задач, требующих серьезного ризонинга и надежности. Если вас не впечаляют возможности gpt-5 и sonnet-4.5, то мб у вас просто мало таких задач
Пока нет. Есть исследование, которое показывает, что количество ошибок в задачах бухгатерии систематически накапливается
https://accounting.penrose.com/
При этом, оно все равно очень маленькое, а это значит, что с human-in-the-loop, который валидирует результаты, оно может работать уже сейчас
Ага. Кто-то жалуется, что разработчики тупеют из-за использования ИИ, а для кого-то наоборот по-максимуму использует новые возможности. Все как всегда
Или что у ребят просто хорошая архитектура и документация