Тренд 2025 года: в некоторых бигтехах кандидату дают сложную задачу и разрешают пользоваться ChatGPT.
Мол, мы же всё равно работаем с ИИ, давайте проверим, как кандидат с ним ладит.
Звучит прогрессивно, на деле - странновато. Если смотреть глубже — это далеко не первый случай, когда компании увлекаются "модными форматами собеседований".
И далеко не всегда это заканчивалось хорошо.
Мы это уже видели
Когда-то в моду вошли алгоритмы на доске. Вакансия — про веб-разработку, а на собесе надо было писать сортировку пузырьком фломастером. Зачем? Чтобы проверить чистую алгоритмическую мысль.
Результат: половина сильных инженеров отваливалась, потому что они не тренировали соревновательные задачи. Компании хвастались жёстким отбором, а на деле упускали талант.
Потом пошёл тренд на домашки на неделю. Дескать, "мы проверим, как кандидат работает в реальной среде".
На практике это было издевательство: разработчик бесплатно тратил 20–30 часов, бизнес получал готовые прототипы, а нанимать могли и другого.
Теперь у нас новая волна: "разрешим ChatGPT".
Логика та же:
модно
кажется прогрессивным
вроде как ближе к реальной работе.
Но проблема всё та же — компания проверяет не то, что нужно.
Что реально проверяет собес с LLM
Представим: кандидат кидает задачу в ИИ, получает решение, запускает — и оно работает.
Выглядит отлично, но давайте посмотрим, что компания проверила:
Умение формулировать запрос, полезно, но слишком поверхностно.
Навык копипаста, работает ли Ctrl+C → Ctrl+V? Да.
Везение, ChatGPT иногда выдаёт решение с первого раза, иногда с пятого. На собесе это больше похоже на лотерею.
А что не проверили?
Понимание архитектуры.
Умение оптимизировать.
Навык читать и рефакторить чужой код.
Знание ограничений бизнеса и продукта.
Иными словами, вы проверили быструю руку, но не ясную голову.
Что получит бизнес
Если компания нанимает "вайб-кодеров" — тех, кто полагается на ИИ как на костыль, — проект очень быстро превращается в болото.
Начинает плодиться код, который люди не понимают(не они его писали, не они его читали, не они и будут о нем думать). Как следствие - рост багов, техдолга и страх трогать легаси.
И всё это не потому, что LLM плох, а потому что компания не то проверяла - проверили инструмент, а не мозги.
Плюсы все таки есть
Сегодня писать код с помощью ИИ — уже обычная практика. Не для того, чтобы выключить мозг и переложить всю работу на машину, а чтобы ускорять рутину. Шаблонные тесты, однотипные API-интеграции, скучный boilerplate — всё это давно проще сгенерировать и доработать, чем делать с нуля.
Поэтому, когда кандидат принципиально не использует LLM, вариантов немного.
Либо он сознательно замедляет себя и работает дольше, чем мог бы.
Либо он просто не понимает, как встроить инструмент в процесс.
Для бизнеса и то и другое звучит тревожно, в первом случае это вопрос скорости, во втором — вопрос вменяемости.
И в этом смысле проверка на собеседовании может быть полезна. Она показывает, умеет ли человек пользоваться ИИ как инструментом, а не заменой мышлению. Потому что в 2025 году игнорировать такой инструмент — всё равно что писать код без поиска по проекту.
Как я бы подошел к этому
Если уж давать ИИ на собесе, то смысл не в том, чтобы посмотреть, как он пишет.
Смысл в том, чтобы проверить: а что кандидат делает с результатом?
Ревью кода. Мы в некоторых командах начали применять подход, когда даем кандидату сгенерированный кусок кода - чтобы разобрал и объяснил проблемы в нем.
Архитектура. Спрашиваем, как решение впишется в общую систему, какие риски могут быть.
Немного про читинг
В тему рассматриваемой проблемы, хочу упомянуть еще проблему списывания. Сейчас появилось очень много инструментов, позволяющих с легкостью проходить алгоритмические собеседования. (Уже и гугл начал возвращаться к очным собесам)
Поэтому мы начали давать перегруженные контекстом задачи.
Такие, где не хватает просто подставить формулу. Задачи, где важно следить за ходом рассуждений, держать в голове разные ограничения и бизнес-логику. Там ИИ часто начинает плыть, а вот живой кандидат либо справляется, либо нет. (человеку следить за контекстом гораздо проще)
В итоге, плохо или хорошо?
Каждое поколение собеседований приносило свои модные практики.
Сначала алгоритмы на доске. Потом домашки на неделю. Теперь — собес с LLM.
И каждый раз компании наступают на одни и те же грабли - проверяют форму вместо сути.
Хороший инженер — это не тот, кто умеет быстрее всех копировать код.
Хороший инженер — это тот, кто понимает, что делает, и умеет использовать инструменты осознанно.
ИИ — это калькулятор. Он не понимает, что считает.
И если ваш кандидат тоже не понимает — то у вас теперь два калькулятора и ни одного инженера.
Оффтоп
Если тебе близки подобные темы — приглашаю в Telegram-канал «Техдир на пальцах».
Строим дружное и общительное коммьюнити.