В этом случае я бы сохранил пару "задание + правильный SQL" -- это уже огромный сигнал для модели о том, как устроен мир и как нужно писать SQL. В следущий раз он в вашем стиле напишет, что перестанете отличать, не вы ли это писали когда-то.
Тезис в том, что порог входа в текущего джуна повысится, ведь продуктивность людей постарше вырастет в разы. Либо появятся немного другая джуновская позиция, возможно как раз и перепроверять за чужими агентами.
Так и AI отчет тоже можно перепроверить "по шагам" - просто попроси описывать шаги так, как надо. Можно еще направиь другого агента перепроверять все за "рисерчером". Базовый инсайт в том, что теперь это делается как минимум гораздо быстрее, чем руками сделает человек. Попробуйте
ИИ - это инструмент. Кто-то на гитаре играет хардрок, а кто-то джаз соло. В руках мастера он может не только находить дырки в коде, но и писать код без дырок.
Если честно, я не понимаю, о чем вы. Все "обучение" модели -- это сбор примеров и мини-вики, как описано в статье. Модели уже весьма умные из коробки, попробуйте сами.
Из-за того, что генерация результата занимает сильно меньше часа, не составляет труда сказать "вот тут ты не правильно понял" -- и он быстро переделает.
А так, современные агенты уже научены задавать вопросы, если чего-то не хватает -- очень удобно.
В целом, как и все роли под влиянием новшеств от AI. Если честно, не очень понятно, как будет выглядеть роль и требования к "джуну" через пару лет, если базовые задачи уже агенты решают грамотно (если научиться с ними работать, а не сдаваться после первой неудачи).
Если AI раз за разом делает что-то не так, значит, его неправильно настроили) посмотрите, что на вход подается в качестве контекста.
При этом (на январь 2026) если использовать Claude Code с моделью Opus 4.5, то он по умолчанию очень хорошо с этим работает. Если только конечно пользователь не установил кучу ненужных плагинов, MCP, скилов, которые засоряют контекст ненужными для задачи данными. Ну и начинать новый чат всегда нужно не забывать. А остальное -- дело практики :)
Я раньше пользовался исключительно ChatGPT Codex - мне нравилось, что он разворачивает мой код у себя на серверах, тестит и запускает, а на выходе кидает PR.
Но после перехода на Claude Code CLI, который все делает локально, мне стало гораздо удобнее: он работает в разы быстрее.
Конечно у кодекса тоже есть CLI, но я пока доволен CC.
Либо асики для трансформеров выйдут в массы и микро-ллм будут крутиться прямо на ноутах / телефонах. Для голосового ассистента, например, много не надо.
клод код просто работает без танцев с бубном, с SOTA моделью и полезными тулами для жизни из коробки. Конечно можно все опенсорс локально настроить, но сколько это займет доп часов?
Я бы тоже так думал, если не встречал фулл тайм разработчиков + ярых противников CC, которые рискнули попробовать сами его в конце 2025 и быстро переобулись.
В этом случае я бы сохранил пару "задание + правильный SQL" -- это уже огромный сигнал для модели о том, как устроен мир и как нужно писать SQL. В следущий раз он в вашем стиле напишет, что перестанете отличать, не вы ли это писали когда-то.
Тезис в том, что порог входа в текущего джуна повысится, ведь продуктивность людей постарше вырастет в разы. Либо появятся немного другая джуновская позиция, возможно как раз и перепроверять за чужими агентами.
Так и AI отчет тоже можно перепроверить "по шагам" - просто попроси описывать шаги так, как надо. Можно еще направиь другого агента перепроверять все за "рисерчером". Базовый инсайт в том, что теперь это делается как минимум гораздо быстрее, чем руками сделает человек. Попробуйте
Попробуйте свежие модели, появившиеся этой зимой. При достаточно полном описании данных и таблиц, SQL пишется на ура.
ИИ - это инструмент. Кто-то на гитаре играет хардрок, а кто-то джаз соло. В руках мастера он может не только находить дырки в коде, но и писать код без дырок.
Если честно, я не понимаю, о чем вы. Все "обучение" модели -- это сбор примеров и мини-вики, как описано в статье. Модели уже весьма умные из коробки, попробуйте сами.
Любая аналитика, любая кастомная визуализация любой сложности, генерация и проверка гипотез, даже произвольный рисерч а-ля "найди что-нибудь интересное".
Из-за того, что генерация результата занимает сильно меньше часа, не составляет труда сказать "вот тут ты не правильно понял" -- и он быстро переделает.
А так, современные агенты уже научены задавать вопросы, если чего-то не хватает -- очень удобно.
Звучите как человек, который так и не попробовал Claude Code или Codex этой зимой. Ваши тезисы верны при малом опыте работы с агентами.
В целом, как и все роли под влиянием новшеств от AI. Если честно, не очень понятно, как будет выглядеть роль и требования к "джуну" через пару лет, если базовые задачи уже агенты решают грамотно (если научиться с ними работать, а не сдаваться после первой неудачи).
Глупцы, прозрейте!
AI это будущее
Один раз подсядешь, не сможешь остановиться.
Если AI раз за разом делает что-то не так, значит, его неправильно настроили) посмотрите, что на вход подается в качестве контекста.
При этом (на январь 2026) если использовать Claude Code с моделью Opus 4.5, то он по умолчанию очень хорошо с этим работает. Если только конечно пользователь не установил кучу ненужных плагинов, MCP, скилов, которые засоряют контекст ненужными для задачи данными. Ну и начинать новый чат всегда нужно не забывать. А остальное -- дело практики :)
попробуйте) потратьте 1520 рублей на собственное образование -- не пожалеете!
Я раньше пользовался исключительно ChatGPT Codex - мне нравилось, что он разворачивает мой код у себя на серверах, тестит и запускает, а на выходе кидает PR.
Но после перехода на Claude Code CLI, который все делает локально, мне стало гораздо удобнее: он работает в разы быстрее.
Конечно у кодекса тоже есть CLI, но я пока доволен CC.
Либо асики для трансформеров выйдут в массы и микро-ллм будут крутиться прямо на ноутах / телефонах. Для голосового ассистента, например, много не надо.
какой был запрос у человека выше)
я всегда за то, чтобы заплатить за передовые технологии и не тратить время на развертку всего локально ради прайваси.
главное -- что это работает в твоем кейсе.
Если что, много MCP могут тоже выедать контекст модели. Советую периодически чекать /context в CC.
Когда пересаживаются с велосипеда на автомобильно, не у многих получается сразу кататься.
клод код просто работает без танцев с бубном, с SOTA моделью и полезными тулами для жизни из коробки. Конечно можно все опенсорс локально настроить, но сколько это займет доп часов?
Я бы тоже так думал, если не встречал фулл тайм разработчиков + ярых противников CC, которые рискнули попробовать сами его в конце 2025 и быстро переобулись.