Как стать автором
Обновить

Юридические и этические последствия использования ИИ для найма персонала

Время на прочтение 8 мин
Количество просмотров 2.5K
Автор оригинала: Ben DattnerTomas Chamorro-PremuzicRichard BuchbandLucinda Schettler


Цифровые инновации и подвижки в области искусственного интеллекта (ИИ) породили множество инструментов для поиска и распознавания потенциальных кандидатов. Многие из технологий обещают помочь организациям находить нужного человека на конкретное место и отсеивать неправильных людей быстрее, чем когда бы то ни было.

Эти инструменты дают организациям невиданные возможности по принятию решений о человеческом капитале на основе обработки данных. У них также есть потенциал для демократизации откликов – миллионы кандидатов могут получить оценку их сильных сторон, направлений для развития и выбора как потенциальной карьеры, так и подходящей организации. В частности мы наблюдаем быстрый рост (и соответствующие инвестиции) в оценки на основе игр, ботов для обработки постов в соцсетях, лингвистический анализ текстов кандидатов, интервью по видеосвязи, использующие алгоритмы для анализа содержания речи, тона голоса, эмоциональных состояний, невербального поведения и темперамента.

Подрывая основы найма и оценки персонала, эти инструменты оставляют подвешенными вопросы по поводу их точности, а также о приватности и об этических и юридических последствиях. Особенно это хорошо видно по сравнению с такими проверенными временем психометрическими методиками, как NEO-PI-R, тест Вандерлика, тест стандартными прогрессивными матрицами Рейвена или тест личности Хогана. Все они были созданы при помощи научного подхода и тщательно проверены на соответствующих рабочих местах, в результате чего было получено надёжное соответствие оценок кандидатов и их эффективности на рабочем месте (а свидетельства были опубликованы в независимых научных журналах, заслуживающих доверия). Недавно Сенат США даже забеспокоился насчёт того, не скажутся ли новые технологии (в особенности, лицевого анализа) отрицательно на равноправии всех кандидатов.

В данной статье мы концентрируемся на потенциальных последствиях новых технологий, связанных с частной жизнью кандидатов, а также с защитой кандидатов законом о недопустимости дискриминации инвалидов, и другими федеральными законами и законами штатов. Наниматели понимают, что не могут задавать кандидатам вопросы по поводу их семейного положения или политических взглядов, наличия у них беременности, сексуальной ориентации, физических или психических заболеваний, проблем с алкоголем, наркотиками или недостатком сна. Однако новые технологии, возможно, смогут не напрямую учитывать эти факторы без соответствующего согласия со стороны кандидата.

Прежде чем углубиться в имеющиеся двусмысленности дивного нового мира оценок кандидатов, неплохо будет окинуть взглядом прошлое. Психометрические оценки существуют уже более 100 лет, а широко начали применяться после т.н. альфа-теста для американских военных, разбивавшего новобранцев на категории и определявшего вероятность достижения ими успеха в различных ролях. Традиционно психометрия делится на три обширные категории: когнитивные способности, или интеллект; личность, или темперамент; психическое здоровье или клинический диагноз.

После принятия закона об инвалидах (Americans with Disabilities Act, ADA) в 1990-м, нанимателям в общем запрещено интересоваться физическими недостатками людей, их психическим здоровьем или клиническими диагнозами в рамках предварительной оценки кандидатов, а нарушившие этот закон компании попали под суд и порицание. По сути, инвалидность – физическая или психическая – считается «личной» информацией, которой наниматель не может интересоваться во время интервью, так же, как он не может задавать вопросы о частной жизни или учитывать при принятии решений личную демографическую информацию.

Тесты когнитивных способностей и интеллекта были признаны надёжными методами предсказания успехов на работе на большом спектре профессий. Однако подобные оценки могут оказаться дискриминационными, если они будут неблагоприятно влиять на некоторые особые группы людей, определяемые, к примеру, полом, расой, возрастом или национальностью. Если наниматель использует оценку, неблагоприятное влияние которой было обнаружено на основе относительных оценок для различных особых групп людей, он должен доказать, что эта технология оценки связана с работой и предсказывает успех на определённом рабочем месте.

Оценки личности с меньшей вероятностью навлекут на работодателей обвинения в дискриминации, поскольку между характеристиками личности и демографическими особенностями корреляция практически отсутствует. Также стоит отметить, что взаимосвязь личности и эффективности на работе зависит от контекста (т.е. от вида работы).

К сожалению, по поводу нового поколения инструментов для поиска кандидатов, которые всё чаще используются в предварительных оценках, информации накоплено гораздо меньше. Многие из инструментов появились как технологические инновации, а не как научным образом созданные методы или исследовательские программы. В итоге не всегда понятно, что именно они оценивают, правомерны ли лежащие в их основе гипотезы, и можно ли ожидать от них предсказания эффективности кандидата на рабочем месте. К примеру, физические свойства речи и голос человека – которые давно связываются с особенностями личности – связали с различиями в показателях труда. Если инструмент предпочитает такие особенности речи, как модуляция, тон или «дружелюбный» голос, не выделяющиеся у какой-либо особой группы людей, тогда юридических проблем это не вызывает. Но такие инструменты, возможно, не проходили научной проверки, и поэтому не контролируются на предмет потенциальной дискриминации – что означает, что работодатель может понести ответственность за слепое следование их рекомендациям. Кроме того, пока не существует убедительной гипотезы или выводов по поводу того, этично ли отсеивать людей на основании их голоса – свойства, которое определяется физиологией и не поддаётся изменению.

Точно так же активность в соцсетях – к примеру, использование Facebook или Twitter – отражает интеллект и особенности личности человека, включая их тёмную сторону. Однако этично ли обрабатывать эти данные с целью найма, если пользователи используют эти приложения для разных целей, и не давали своего согласия на анализ данных с целью построения выводов на основе их публичных постов?

В контексте найма новые технологии поднимают множество новых этических и юридических вопросов, касающихся приватности, которые по нашему мнению необходимо публично обсуждать, а именно:

1) Какие искушения возникают у компаний касательно приватности кандидата, связанной с личными характеристиками?

С продвижением технологий большие данные и ИИ смогут всё точнее определять характерные особенности, описывающие личные характеристики. К примеру, сегодня лайки на Facebook можно со значительной точностью использовать для определения сексуальной ориентации и расы. Так же легко определять политические предпочтения и религиозные верования. Не может ли возникнуть искушение у компаний использовать подобные инструменты для отсева кандидатов, если они сочтут, что поскольку решения принимаются не на базе этих характеристик непосредственно, то они будут легальными? Возможно, наниматель и не нарушает никаких законов, оценивая кандидата на основе личной информации, но компания может понести юридические риски, если будет основывать принятие решений о найме на принадлежности кандидата к особым группам – по месту рождения, расе или родному языку – или на основе частной информации, прав на рассмотрение которой у неё нет, к примеру, физических заболеваний или психических недомоганий. Как суды будут обрабатывать ситуации, в которых работодатель основывался на инструментах, использующих эти косвенные характеристики, пока неясно; однако понятно, что незаконно действовать на основе определённых особых или приватных характеристик, вне зависимости от того, каким образом они были выявлены.

Это также может быть применимым для ПО, распознающего лица, поскольку недавние исследования предсказывают, что ИИ для распознавания лиц вскоре сможет с высокой точностью определять сексуальную и политическую ориентацию кандидатов, как и их «внутреннее состояние», куда входят настроение и эмоции. Как может поменяться применение закона об инвалидах? Кроме того, закон о детекторе лжи для сотрудников в общем запрещает нанимателям использовать подобные тесты при найме на работу, а закон о неразглашении генетической информации запрещает им использовать генетическую информацию для принятия решений о найме. Но что, если точно такую же информацию о правде, лжи и генетических особенностях можно собрать при помощи упомянутых инструментов?

2) С какими искушениями столкнутся компании касаемо приватности кандидатов в области их стиля жизни и занятий?

Нанимателям теперь доступна такая информация, как чекины кандидата в церкви утром каждую субботу, обзор центра по уходу за больными деменцией, в который он устроил своего престарелого родителя, или третье заявление о разводе. Все подобные вещи, и многие другие, легко обнаружить в цифровую эпоху. Большие данные следят за нами всюду, куда бы мы ни пошли в онлайне, и собирают информацию, которую могут переработать такие инструменты, которых мы и представить себе пока не можем – инструменты, которые, в принципе, могут рассказать работодателю о том, подходим ли мы на определённые роли. И эти большие данные будут становиться только ещё больше; если верить экспертам, 90% всех данных в мире были созданы только за два последних года. А за расширением данных следует и потенциальное расширение их недобросовестного использования, приводящее к дискриминации – намеренной или случайной.

В отличие от Евросоюза, гармонизировавшего свой подход к приватности законом о защите данных (GDPR), США полагается на подход с латанием дыр, в основном обеспечиваемый законами штатов. Они начали принимать определённые законы касательно соцсетей в 2012 году, чтобы запретить работодателям требовать у кандидатов пароли к личным учётным записям в виде необходимого для найма условия. Более двадцати штатов приняли законы подобного рода. Однако в области общей защиты личной жизни в рамках использования новых технологий на рабочем месте такой активности не наблюдается. В частности, в Калифорнии приняли закон, потенциально ограничивающий возможности работодателя по использованию данных кандидата или сотрудника. В целом судам штатов и федеральным судам ещё только предстоит принять объединённую платформу, позволяющую анализировать защиту частной жизни сотрудников от новых технологий. Итог таков, что, пока что судьба приватности сотрудников в эпоху больших данных остаётся неопределённой. Это помещает работодателей в конфликтное положение, требующее осторожности. Появляющиеся передовые технологии могут оказаться чрезвычайно полезными. Но они дают нанимателям информацию, считавшуюся ранее личной. Легально ли использовать её для найма? Этично ли изучать её без согласия кандидата?

2) С какими искушениями столкнутся компании касаемо приватности кандидатов, связанной с их инвалидностью?

Закон об инвалидах включает в себя и психические заболевания, и физические, и определяет человека, как инвалида, если заболевание существенно ограничивает его жизненную активность, если в истории человека записаны подобные ограничения, или другие люди ощущают наличие у него ограничений. Лет десять назад комиссия по равноправному найму США (EEOC) выпустила рекомендации, где говорится, что в качестве психических ограничений необходимо рассматривать постоянно расширяющийся список психических заболеваний, описываемый в психиатрической литературе, и что человеку становится легче попасть под действие закона об инвалидах. В результате в категорию людей, защищённых этим законом, могут попадать люди, имеющие значительные проблемы в общении с другими, с концентрацией или с поведением в социуме.

Технология, кроме поднятия новых вопросов об инвалидности, представляет и новые дилеммы, касающиеся различий между людьми, будь они демографические, или иные. Уже зарегистрированы ситуации, в которых подобные системы демонстрировали выученные искажения, в особенности связанные с расой и полом. К примеру, в Amazon разработали программу автоматического поиска сотрудников для изучения резюме – и отказались от неё, когда поняли, что она не была расово нейтральной. Для уменьшения подобных предвзятостей разработчики балансируют данные, используемые для обучения ИИ-моделей, чтобы те соответствующим образом представляли все группы. Чем больше информации будет у технологии для обучения, тем лучше она сможет контролировать появление потенциальных искажений.

В заключение отметим, что технологии уже могут переходить границы публичных и частных свойств, особенностей и состояний личности, и есть все основания полагать, что в будущем это будет лишь усугубляться. Наниматели, используя ИИ, большие данные, соцсети и машинное обучение, будут получать всё возрастающие возможности доступа к личной жизни кандидатов, их персональным особенностям, сложностям и психологическим состояниям. На многие из новых вопросов о приватности, поднятых нами выше, нет простых ответов, но мы считаем, что все они достойны публичного обсуждения.
Теги:
Хабы:
Если эта публикация вас вдохновила и вы хотите поддержать автора — не стесняйтесь нажать на кнопку
+7
Комментарии 6
Комментарии Комментарии 6

Публикации

Истории

Ближайшие события

Московский туристический хакатон
Дата 23 марта – 7 апреля
Место
Москва Онлайн
Геймтон «DatsEdenSpace» от DatsTeam
Дата 5 – 6 апреля
Время 17:00 – 20:00
Место
Онлайн
PG Bootcamp 2024
Дата 16 апреля
Время 09:30 – 21:00
Место
Минск Онлайн
EvaConf 2024
Дата 16 апреля
Время 11:00 – 16:00
Место
Москва Онлайн