
Когда появился рабочий заголовок этой статьи, казалось, что тема простая и даже вполне очевидная. Ну что тут обсуждать — пришел ИИ, тестовые задания ушли в историю, это и так должно быть понятно, просто помашем им вслед. Но чем дольше была работа над материалом, просмотр старых статей и комментариев на Хабре, и вспоминая собственный опыт команды найма в SSP SOFT, тем сильнее приходило ощущение: «Прошлое не сдается без боя» и «Как же все запущено (в нашей индустрии)».
Спойлер: да, в SSP SOFT мы осознанно отказались от тестовых заданий в пользу живого обсуждения задач на собеседовании. Но статья не об этом, а об общей ситуации в отрасли.
Что не вызывает сомнений, в 2025 году мы фактически потеряли один знакомый всем термин — «нагуглить». В разработке его больше почти не произносят. А ведь это была целая эпоха, под этим словом подразумевали умение быстро найти пример решения или кусок кода на форумах или в GitHub. Сегодня реальность другая, решение для тестового задания (и вообще под любую IT-задачу) больше не ищут — его генерируют. И кандидаты делают это за условные минуты (хотя промпты писать — тоже требует навыков и аналитического мышления). Т.е. там, где тестовые задания десятилетия считались надежным фильтром в воронке найма, этот этап больше не работает.
Где-то с 2024 года старые практики найма начали трещать по швам. То, что десятилетиями воспринималось как «объективная проверка», внезапно перестало что-либо проверять. А привычные аргументы у рекрутеров вроде «так мы оцениваем мотивацию кандидата» или «пусть потратит время — значит, заинтересован» начали звучать откровенно фальшиво.
Эта статья — не про ИИ как очередной хайп-инструмент. Она про то, как одно технологическое изменение вскрыло накопившиеся проблемы в найме разработчиков (и любых ИТ-спецов в целом) и заставило по-новому посмотреть на тестовые задания, техинтервью и саму логику оценки инженерных навыков.
И да — чем дальше мы погружались в тему, тем отчетливее становилось картина: отмена тестовых заданий — это не радикальный шаг. Это, скорее, запоздалая попытка навести порядок в практике найма. Ведь еще до эпохи ИИ, тестовые задания не так уж редко выполнялись менторами или кандидаты брали «помощь друга».
Чуть-чуть истории
Практика тестовых заданий именно в IT уходит примерно в 70-е годы XX века, во времена первых массовых мэйнфреймов в университетах и инженерных центрах, где программистов отбирали по способности решать формализованные задачи: написать алгоритм, оптимизировать вычисление, уложиться в ограничения по очень дефицитной тогда оперативной памяти и/или машинному времени на исполнение задания.
В конце 1980–х и в 1990-е, с развитием коммерческого ПО, доступных по цене серверов и массовых персональных ПК, тестовые задания трансформировались в более прикладной формат: написать функцию, небольшой модуль, позже — «мини-приложение». В эпоху аутсорсинга и удаленной работы 2000-х тестовое задание стало стандартом де-факто: его было удобно отправить по е-майл и таким же образом получить ответ, и эта практика позволяла отсеивать слабых и отбирать сильных кандидатов.
Долгое время подход работал. Он позволял оценить базовый уровень владения языком, аккуратность кода, умение довести задачу до конца. Но важно понимать тот временной контекст: тестовые задания появились в эпоху, когда кандидат писал код сам, опираясь на собственный опыт, документацию или максимум, используя советы друзей и Stack Overflow.
Stack Overflow — крупнейшая в мире платформа вопросов и ответов для разработчиков, созданная в 2008 году, где программисты делятся знаниями, решают технические проблемы и обсуждают практики разработки.
В конце 2010–х — начале 2020–х годов ситуация начала меняться быстро и не в лучшую сторону. Рекрутеры (не все огульно, но адекватных профессионалов там увы не большинство), уверенные в своей позиции ЧСВ и гордыни как “руки, дающей работу”, пошли по пути усложнения заданий, которые стали требовать неприемлемо большое время для качественного выполнения, порой до пары дней и более плотной работы. Кандидаты тратили на них вечера и выходные, компании получали десятки разномастных решений, тимлиды отвлекались от своей непосредственной работы, занимаясь оценкой десятков заданий. Что главное, содержание заданий часто слабо коррелировало с тем, над чем человек будет работать на реальном проекте, а фидбэк по итогам тестового в большинстве случаев не отправлялся вовсе. Некомпетентный рекрутер просто пропадал, не отвечая на чаты и почту, а после нескольких пингов «ну что там и как там», кандидату приходила стандартная отписка.
Фактически к середине 2020-х тестовое задание перестало быть инструментом инженерной оценки и стало рудиментом процесса найма, который не успел адаптироваться к новой реальности.
Кандидаты были против тестовых задолго до ИИ — но к 2025 году конфликт стал открытым
Важно отметить: критическое отношение разработчиков к тестовым заданиям появилось задолго до эпохи AI-ассистентов. Уже в конце 2010-х годов в профессиональной среде активно обсуждали несправедливость и низкую эффективность «домашек», особенно для специалистов уровня middle и выше.
Причины были понятны и тогда: тестовые отнимали много личного времени и почти никогда не сопровождались внятной обратной связью. Более того, кандидаты давно указывали на очевидные уязвимости формата — работу можно было делегировать, частично скопировать или полностью использовать готовые решения из интернета.
Показательно, что еще в 2023 году в профессиональной среде активно использовался термин «нагуглить тестовое». Он отражал реальность того еще совсем недавнего времени: задание можно было решить за счет поиска примеров, фрагментов кода и чужих решений. Сегодня термин «нагуглить» выглядит уже архаично — его вытеснило понимание, что современные AI-инструменты позволяют не просто «нагуглить», а сгенерировать готовое решение и сразу подготовить к нему ревью кода «в одном флаконе».
При этом позиция HR во многих компаниях долгое время оставалась неизменной, и как минимум половина из них и сегодня по-прежнему держится за старую практику. Да, даже в самых дремучих компаниях уже понимают, что тестовое задание не коррелирует с навыками кандидата, но там рекрутеры нашли новую фишку — теперь тестовое рассматривается уже как маркер мотивации кандидата и его заинтересованности в вакансии и работе в этой конкретной компании. Они, что все возомнили себя гуглом и майкрософтом, это ли не фарисейство?
К примеру, такую точку зрения хорошо иллюстрирует комментарий Валерии Климовой, Head of Recruiting (https://habr.com/ru/companies/agima/articles/765556/):
«Тестовым заданием можно точно оценить заинтересованность кандидата в позиции: некоторые делают его на отвали, у некоторых видно, что он нагуглил. Классно, если есть тестовое, которое нагуглить точно не получится, максимально индивидуальное».
Подобная позиция вызывает смех в 2026 году, ведь AI-ассистент решит любое тестовое. В обсуждениях на Хабре все чаще появлялись мнения о том, что формат тестовых заданий давно устарел и проигрывает живому интервью. Например, один из комментариев:
«Сам несколько раз делал тестовые, но считаю, что это трата времени. Можно дать другу или родственнику, можно найти пример в интернете. Онлайн-решение, как по мне, лучше. Например, так в Тинькофф — теория и практика по 1,5 часа».
Отдельной точкой напряжения было повсеместное отсутствие качественной обратной связи. Для многих кандидатов именно это превращало тестовые задания в источник разочарования:
«Ты долбаешься несколько часов, стараешься, а в ответ — молчание, “мы перезвоним” или просто “не подходите”. Даже положительный ответ редко сопровождается нормальным фидбеком».
К 2026 году это расхождение взглядов между практикой HR и взглядами опытных кандидатов приобрело жесткий антагонистический характер, особенно среди middle и senior-разработчиков. С их точки зрения тестовое задание перестало быть инструментом оценки и превратилось в одностороннюю растрату личного времени и усилий без гарантий получить хоть какой-то фидбэк.
Именно здесь ИИ не создал проблему, а обнажил ее. Он окончательно лишил тестовые задания их последнего аргумента — способности хоть как-то объективно оценивать навыки. В этой точке конфликт между ожиданиями компаний и позицией кандидатов можно снять самым простым способом: отказавшись от тестовых заданий как обязательного этапа и заменив их форматами, где в формате реального времени видны мышление, опыт и реальная профессиональная зрелость кандидата.
Почему в России от тестовых оказаться проще, чем на Западе
Парадоксально, но в 2026 и далее годах российские разработчики и IT-компании окажутся в более выгодн��м положении, чем их коллеги в западных странах. Не потому, что наш рынок оказался более «продвинутым», а потому, что здесь не успела сформироваться полноценная бизнес-индустрия вокруг тестовых заданий.
На Западе под технические тесты за последние 10–15 лет вырос целый рынок. Платформы вроде LeetCode, HackerEarth, CodeSignal и им подобных стали не просто вспомогательным инструментом, а инфраструктурой найма. Они предлагают компаниям готовые решения для автоматизированной оценки: алгоритмические задачи, проверки по структурам данных, timed challenges, рейтинги, анти-читинг, аналитику и интеграцию с ATS.
Для компаний это выглядело удобно и масштабируемо, формально объективно и легко стандартизируемо. Для самих платформ — это стабильный бизнес. И именно здесь возникает ключевая проблема, т.к. индустрия не склонна признавать, что ее продукт устарел и стал legacy. Даже с появлением AI-ассистентов реакцией стало не переосмысление формата, а попытка усложнить правила игры — ужесточить тайминги на ответы, ограничить инструменты в сессиях со стороны кандидата, ввести надстройки в экзаменационное ПО в виде «анти-AI» механик.
Похожий подход можно наблюдать и в России — например, в недавней инициативе добровольной сертификации разработчиков на портале «Госуслуги». В рамках сертификации используется приложение от ХХ.ру, которое отслеживает активность пользователя, в том числе попытки переключения на другие вкладки браузера, чтобы предотвратить использование AI-ассистента. Это показательный пример устаревшей логики: вместо того чтобы признать новую реальность и встроить ИИ в процесс оценки, система пытается бороться с новыми высокотехнологичными инструментами запретами и контролем.
По сути, запрет AI-ассистентов в сертификационных ИТ-тестах «ХХ.ру + Госуслуги» выглядит как классический недальновидный сценарий: если не можешь победить процесс — пытаешься его запретить. Но история технологий показывает, что такие подходы редко работают в долгую (правильнее было бы возглавить тренд).
Вернемся к платформам индустрии тестовых заданий — к счастью, на российском IT-рынке в целом подобная жесткая привязка к тестовым платформам не стала доминирующей. Облачные тестовые задания использовались, но чаще как вспомогательный элемент, а не фундамент всей воронки найма. Это оставило рынку больше пространства для маневра и компаниям легче отказаться от формальных тестов и перейти к живым интервью, к практическим сессиям live-coding, ревью кода в реальном времени.
Именно поэтому сегодня в РФ проще признать очевидное: если инструмент в лице тестовых заданий перестал решать задачу отбора кандидатов в воронке найма, его не нужно бесконечно «подпирать костылями» и запретами. Правильнее будет заменить более адекватным форматом оценки.
Лед тронулся, господа заседатели
Поскольку IT глобально, то рано или поздно даже самые упертые российские компании откажутся от тестовых заданий, если эта практика уйдет в прошлое в других странах. И здесь тоже лед тронулся, — несмотря на инерцию мышления у HR и сопротивление платформ найма, в 2025 году стало очевидно: часть западных компаний стала осознанно отходить от классических тестовых заданий. Причина в простой реальности — формат перестал работать в условиях ИИ.
Вместо попыток «закрутить гайки» и бороться с инструментами, которые уже стали частью профессии, компании начали менять саму логику собеседований.
Один из наиболее показательных примеров — использование практик live coding и pair programming. Кандидат работает за своим ноутбуком вместе с интервьюером, решая задачу, максимально близкую к реальной рабочей ситуации. Разрешены обсуждения, уточнение требований, исправление ошибок. Цель — оценить ход мысли, а не память на операторы языка и скорость печати.
К примеру, как пишет портал Wired, компания Meta (запрещена в РФ) стала разрешать кандидатам использовать AI-ассистенты в процессе интервью. Еще один устойчивый тренд — проектные задания прямо внутри интервью, а не в виде «домашки». Такой подход описывали инженеры Shopify и Atlassian: небольшая задача разбирается сразу в диалоге — с вопросами, компромиссами и обсуждением альтернатив. Это экономит время кандидатов и снижает нагрузку на hiring-команды.
Наконец, все больше компаний используют обсуждение существующих систем и реальных кейсов вместо синтетических тестовых задач. Это могут быть архитектурные схемы, примеры продакшн-кода или разбор инцидентов. Такой формат практически сложно «пройти» за счет ИИ-ассистента без реального опыта — разговор очень быстро упирается в понимание архитектуры решения и контекст задачи.
Однако, процесс признания AI-ассистентов как допустимого инструмента со стороны кандидатов при найме и на западе идет со скрипом. К примеру, двоякой позиции придерживается даже такая продвинутая компания как Amazon, несмотря на активное внедрение ИИ в рабочие процессы (например, облачная платформа AWS предлагает AI для разработки и оптимизации кода). При этом, Amazon запрещает кандидатам пользоваться генеративными AI-инструментами во время собеседований, если это не оговорено отдельно. И это парадоксальным образом делается одновременно с уже обязанностью для штатных разработчиков Amazon использовать AI-инструменты в своей повседневной работе.
Общий вывод здесь довольно очевиден: рынок с трудом, но начал сдвигаться от формальной проверки навыков кандидата к оценке инженерного мышления и зрелости как профессионала. ИИ стал не причиной этих изменений, а катализатором — он просто ускорил отказ от инструментов, которые уже давно плохо отражали реальную работу разработчика.
Наш прогноз: практика тестовых заданий рано или поздно «сломается» окончательно
В статье 2025 года в статье на CNews Программисты все реже соглашаются на тестирование при трудоустройстве подчеркивалось: «На вакансии с тестовыми заданиями всегда откликаются 6 из 10 специалистов по тестированию и только 2 программиста из 10. В опросе сервиса по поиску работы SuperJob приняли участие 1400 представителей профессий, которые наиболее часто сталкиваются с тестовыми заданиями при трудоустройстве».
Кстати, продолжая тему нашей предыдущей статьи о технических собеседованиях и роли внешних экспертов, важно быть честными и самокритичными. Да, в SSP SOFT мы осознанно отказались от тестовых заданий для middle+ и senior-уровней — как от инструмента, который перестал адекватно отражать реальные навыки инженеров. Но при этом мы не считаем, что это автоматически означает полную «свободу инструментов» на этапе живого собеседования.
Мы перешли к формату hour-long interviews — интервью продолжительностью около 60 минут, в рамках которых кандидат решает задачу или обсуждает технический кейс в реальном времени с интервьюером (внешним экспертом). Такой формат намного ближе к повседневной работе разработчика и позволяет увидеть не результат, а процесс мышления: как человек анализирует требования, выбирает решения, обсуждает компромиссы и реагирует на уточняющие вопросы.
При этом, в зависимости от уровня грейда и особенностей вакантной позиции мы можем не разрешать использование AI-ассистентов во время интервью. Это мы рассматриваем не как попытку «бороться с прогрессом» — в реальной работе мы, наоборот, приветствуем и поощряем эффективное использование ИИ. Но на этапе собеседования для опытных кандидатов нам важно увидеть как кандидат думает сам, без внешних подсказок.
В этом смысле наша практика пока совпадает с подходом Amazon, где ИИ активно внедряется в рабочие процессы разработки, но на интервью для высоких грейдов по-прежнему ожидается самостоятельное решение задач и оценивается именно самостоятельное рассуждение кандидата. Но повторимся, все зависит от вакансии — для джуна-разработчика умение показать на интервью навыки использования AI-ассистентов, наоборот, приветствуется.
Заключение

Подведем итог: тестовое задание в эпоху ИИ не оценивает навыки разработки, а только умение пользоваться инструментом. Если на вакансию откликнулись сотни кандидатов, и из них несколько десятков прошли фильтр ATS (читайте на Хабре нашу статью как пройти фильтр ATS) и далее получили тестовые, и все они сделаны с одинаковым качеством ИИ-ассистентом — как поступить нанимающим менеджерам? Задача отсеять слабых и выявить сильных кандидатов, сформировав шорт-лист — остается нерешенной.
Появление AI-ассистентов стало финальной точкой в истории классических тестовых заданий. Сегодня стандартную «домашку» — CRUD-сервис, алгоритмическую задачу, REST-endpoint, SQL-запрос или даже небольшое приложение — можно сгенерировать за минуты. Причем не просто получить код, а довести его до аккуратного, читаемого и формально корректного состояния и даже сопроводить ревью.
ИИ не сделал разработчиков слабее. Он сделал устаревшие инструменты оценки бесполезными. И тестовые задания оказались первыми, кто этого не пережил.
Немного HR-рекламы от нашего блога: мы занимаемся заказной разработкой ПО и ИТ-аутсорсингом. Ждем резюме специалистов, готовых работать оффлайн в Москве (ЦАО) или Томске, а также удаленно из любой точки России. Текущие вакансии на нашей странице на hh. Откликайтесь с резюме нам напрямую в Telegram или на почту job@ssp-soft.com. Пож-та приложите сопроводительное письмо с фразой «Нашел(ла) вас на Хабре» для более ускоренного рассмотрения резюме.
У нас активный найм, за 2025 год мы наняли 179 специалистов.
Успехов в вашей профессиональной карьере в 2026 году!
P.S. И напоследок: знаем, что хабровцы не любят рекламу ТГ-каналов, но будет приятно, если заглянете в наш телеграм-канал SSP SOFT, там публикуем разные полезности из мира ИТ, советы для поддержания здоровья и продуктивности, проводим конкурсы с призами.
Если вам канал понравится — рады видеть вас в числе подписчиков.
