перевод статьи Алин Лернер и Питер Бергман
Этот пост - первый захватывающий для interviewing.io, потому что он посвящен настоящему эксперименту, проводимому настоящей академической исследовательской лабораторией
Если вы читаете мои работы в течение последнего десятилетия, то знаете, что я всегда был чем-то вроде исследователя в кресле [прим. пер. человек, который занимается исследованиями, анализом и высказывает свои мнения, не имея практического опыта в изучаемой области]. До создания interviewing.io я провел несколько экспериментов, и с тех пор я и моя команда продолжаем их.
Одним из экспериментов, который я проводил до основания interviewing.io, была попытка выяснить, насколько хорошо рекрутеры умеют оценивать качество кандидатов по резюме.
Я проводил его 10 лет назад и обнаружил, что они не только плохо оценивают резюме (примерно так же точно, как подбрасывают монетку), но и не согласны друг с другом в том, как выглядит хороший кандидат.
Несмотря на то что в то время эти результаты были шокирующими, исследование имело ряд серьезных недостатков.
Во-первых, у меня не было объективных показателей того, какие кандидаты были действительно хорошими. В то время я работал рекрутером, поэтому я знал, кого мне удалось трудоустроить, но это, очевидно, не является абсолютной и окончательной оценкой инженерных способностей. Во-вторых, у меня была нерепрезентативная выборка инженеров-программистов. Благодаря своему бренду мне удалось привлечь множество отличных, нетрадиционных кандидатов - инженеров, которые на самом деле были очень хороши, но не выглядели хорошо на бумаге. Рекрутерам сложнее всего оценивать такие резюме, а в данных их было много. Наконец, размер моей выборки был не слишком велик: в итоге я получил 716 точек данных, из которых только около половины были получены от рекрутеров (остальные - от инженеров и менеджеров по персоналу - моя первоначальная гипотеза заключалась в том, что они лучше справятся с задачей, но я ошибся... все были плохи в оценке резюме).