Тренд 2025 года: в некоторых бигтехах кандидату дают сложную задачу и разрешают пользоваться ChatGPT.
Мол, мы же всё равно работаем с ИИ, давайте проверим, как кандидат с ним ладит.

Звучит прогрессивно, на деле - странновато. Если смотреть глубже — это далеко не первый случай, когда компании увлекаются "модными форматами собеседований".
И далеко не всегда это заканчивалось хорошо.

Мы это уже видели

Когда-то в моду вошли алгоритмы на доске. Вакансия — про веб-разработку, а на собесе надо было писать сортировку пузырьком фломастером. Зачем? Чтобы проверить чистую алгоритмическую мысль.
Результат: половина сильных инженеров отваливалась, потому что они не тренировали соревновательные задачи. Компании хвастались жёстким отбором, а на деле упускали талант.

Потом пошёл тренд на домашки на неделю. Дескать, "мы проверим, как кандидат работает в реальной среде".
На практике это было издевательство: разработчик бесплатно тратил 20–30 часов, бизнес получал готовые прототипы, а нанимать могли и другого.

Теперь у нас новая волна: "разрешим ChatGPT".
Логика та же:

  • модно

  • кажется прогрессивным

  • вроде как ближе к реальной работе.

Но проблема всё та же — компания проверяет не то, что нужно.

Что реально проверяет собес с LLM

Представим: кандидат кидает задачу в ИИ, получает решение, запускает — и оно работает.
Выглядит отлично, но давайте посмотрим, что компания проверила:

  • Умение формулировать запрос, полезно, но слишком поверхностно.

  • Навык копипаста, работает ли Ctrl+C → Ctrl+V? Да.

  • Везение, ChatGPT иногда выдаёт решение с первого раза, иногда с пятого. На собесе это больше похоже на лотерею.

А что не проверили?

  • Понимание архитектуры.

  • Умение оптимизировать.

  • Навык читать и рефакторить чужой код.

  • Знание ограничений бизнеса и продукта.

Иными словами, вы проверили быструю руку, но не ясную голову.

Что получит бизнес

Если компания нанимает "вайб-кодеров" — тех, кто полагается на ИИ как на костыль, — проект очень быстро превращается в болото.
Начинает плодиться код, который люди не понимают(не они его писали, не они его читали, не они и будут о нем думать). Как следствие - рост багов, техдолга и страх трогать легаси.

И всё это не потому, что LLM плох, а потому что компания не то проверяла - проверили инструмент, а не мозги.

Плюсы все таки есть

Сегодня писать код с помощью ИИ — уже обычная практика. Не для того, чтобы выключить мозг и переложить всю работу на машину, а чтобы ускорять рутину. Шаблонные тесты, однотипные API-интеграции, скучный boilerplate — всё это давно проще сгенерировать и доработать, чем делать с нуля.

Поэтому, когда кандидат принципиально не использует LLM, вариантов немного.
Либо он сознательно замедляет себя и работает дольше, чем мог бы.
Либо он просто не понимает, как встроить инструмент в процесс.

Для бизнеса и то и другое звучит тревожно, в первом случае это вопрос скорости, во втором — вопрос вменяемости.

И в этом смысле проверка на собеседовании может быть полезна. Она показывает, умеет ли человек пользоваться ИИ как инструментом, а не заменой мышлению. Потому что в 2025 году игнорировать такой инструмент — всё равно что писать код без поиска по проекту.

Как я бы подошел к этому

Если уж давать ИИ на собесе, то смысл не в том, чтобы посмотреть, как он пишет.
Смысл в том, чтобы проверить: а что кандидат делает с результатом?

  • Ревью кода. Мы в некоторых командах начали применять подход, когда даем кандидату сгенерированный кусок кода - чтобы разобрал и объяснил проблемы в нем.

  • Архитектура. Спрашиваем, как решение впишется в общую систему, какие риски могут быть.

Немного про читинг

В тему рассматриваемой проблемы, хочу упомянуть еще проблему списывания. Сейчас появилось очень много инструментов, позволяющих с легкостью проходить алгоритмические собеседования. (Уже и гугл начал возвращаться к очным собесам)

Поэтому мы начали давать перегруженные контекстом задачи.
Такие, где не хватает просто подставить формулу. Задачи, где важно следить за ходом рассуждений, держать в голове разные ограничения и бизнес-логику. Там ИИ часто начинает плыть, а вот живой кандидат либо справляется, либо нет. (человеку следить за контекстом гораздо проще)

В итоге, плохо или хорошо?

Каждое поколение собеседований приносило свои модные практики.
Сначала алгоритмы на доске. Потом домашки на неделю. Теперь — собес с LLM.
И каждый раз компании наступают на одни и те же грабли - проверяют форму вместо сути.

Хороший инженер — это не тот, кто умеет быстрее всех копировать код.
Хороший инженер — это тот, кто понимает, что делает, и умеет использовать инструменты осознанно.

ИИ — это калькулятор. Он не понимает, что считает.

И если ваш кандидат тоже не понимает — то у вас теперь два калькулятора и ни одного инженера.

Оффтоп

Если тебе близки подобные темы — приглашаю в Telegram-канал «Техдир на пальцах».
Строим дружное и общительное коммьюнити.