Введение
Благодаря достижениям в области технологических разработок искусственный интеллект (ИИ) распространился на различные сектора бизнеса и рабочие места: наряду с такими областями, как прогнозирование кредитоспособности, системы уголовного правосудия и ценообразование на товары, технологии с использованием искусственного интеллекта изменили и практику подбора персонала компаний, выходя на рынок с экспоненциальной скоростью. Приложения ИИ можно найти на различных этапах рекрутинга, например, при написании объявлений о вакансиях, проверке резюме кандидатов и анализе видеоинтервью с помощью программного обеспечения для распознавания лиц. Поскольку эти новые технологии существенно влияют на жизнь и карьеру людей, то часто могут вызывать этические проблемы.
Рассмотрение практики рекрутинга с этической точки зрения
Поставщики рекрутинговых систем с искусственным интеллектом утверждают, что их программное обеспечение делает решения о найме не только более эффективными и точными, но и более справедливыми, менее предвзятыми, поскольку они не зависят от человеческой интуиции. Однако применение ИИ в контексте рекрутинга может привести к серьезным конфликтам с тем, что общество обычно считает этичным, например, это было продемонстрировано на примере Amazon в 2018 году, когда компания отказалась от протестированного алгоритма найма, который оказался предвзятым и дискриминирующим женщин (например, Mujtaba & Mahapatra, 2019).
Когда люди являются "пользователями" или "потребителями" алгоритмических систем, проблемы с точностью рекомендаций по отношению к их вкусу могут быть не более чем неудобством, однако когда решения ИИ включаются в процесс приема на работу, соискатели не могут от них отказаться, и неточности становятся проблематичными. Существуют и другие этические проблемы, связанные с рекрутингом с помощью ИИ, такие как конфиденциальность данных, прозрачность и подотчетность.
Недостатки рекрутинга искусственного интеллекта
Во-первых, существует лишь несколько работ, в которых теоретически обосновывается этическая дискуссия, что оставляет многие аргументы необоснованными: дополнительные теоретические и нормативные работы в этой области могли бы оказаться полезными для менеджеров и организаций, поскольку они не ограничиваются казуистикой, а дают рекомендации по определению правильных действий.
Во-вторых, в большинстве работ основное внимание уделяется проблеме алгоритмической предвзятости, при этом игнорируются другие этические проблемы, такие как подотчетность и автономия человека в контексте рекрутинга с помощью ИИ.
В-третьих, существующие подходы к снижению этических рисков носят достаточно
общий характер и не содержат конкретных рекомендаций по их реализации в контексте рекрутинга, однако ориентация на конкретную область желательна, поскольку общие нормативные рекомендации часто не дают ощутимого эффекта из-за своей поверхностности.
Теоретическая перспектива
Симбек (2019) обратилась к этическим основам из других дисциплин, таких как медицина, робототехника и ИИ, и применила их в контексте управления персоналом, а именно она предложила перенести из других областей ключевые этические концепции, которые должны быть реализованы при применении новых технологий ИИ в HR-аналитике. Она выделила пять ключевых этических принципов: неприкосновенность частной жизни и конфиденциальность, возможность отказаться от участия, институциональный контроль, прозрачность и уважение к динамичному характеру развития личности.
Яргер и др. (2020) обратились к феминистскому мышлению и методам, утверждая, что ими следует руководствоваться при разработке систем найма с использованием искусственного интеллекта. Феминистские подходы проливают свет на то, насколько алгоритмы могут увековечить неблагоприятное положение исторически маргинализированных групп, если при их разработке не учитывается принцип справедливости.
Ронб-Кеттлер и Ленервп (2019) оценили рекрутинг с помощью ИИ с гуманистической точки зрения, в центре которой находится человек: авторы представили гуманистический рекрутинг как ответ на текущее технологическое развитие. Они пришли к выводу, что для адаптации к современной динамичной реальности важны как гуманистическое понимание, так и современные технологии.
Анализ этих трех теоретических работ показывает, что детальная оценка рекрутинга с использованием искусственного интеллекта с точки зрения одной из традиционных этических теорий, таких как утилитаризм или деонтология, и обсуждение потенциальных последствий для практики найма еще не проводились.
Перспективы практиков
С точки зрения опыта, некоторые работы (Florentine, 2016; Polli et al., 2019) подчеркивают проблематичность традиционных методов оценки кандидатов и представляют использование ИИ в качестве перспективной альтернативы; другие (Bogen, 2019; Dattner et al., 2019) скорее предостерегают от практики найма с использованием ИИ, поднимая множество пока не раскрытых вопросов о точности их применения, а также об этических, правовых и приватных последствиях.
Юридическая перспектива
Важность решений о трудоустройстве как для отдельных людей, так и для общества в целом, привела к разработке обширной правовой базы для принятия таких решений. Законы о гражданских правах защищают людей от дискриминации при принятии любых решений о трудоустройстве, которые могут привести к неравному обращению или неравному воздействию.
Техническая перспектива
Фернандес-Мартинес и Фернандес (Fernández-Martínez & Fernández, 2020) обнаружили отсутствие регулирования и необходимость внешнего и нейтрального аудита используемых технологий ИИ, и, соответственно, представили мультиагентную программную архитектуру для поддержки аудита процессов рекрутинга. Кроме того, Васконселос и др. (2018) предложили вычислительный фреймворк для смягчения дискриминации и несправедливости, вызванных предвзятостью в системах ИИ, опираясь на эпистемологические принципы.
Описательная перспектива
В нескольких исследованиях сравнивалось восприятие соискателями справедливости собеседований с использованием ИИ по сравнению с традиционными собеседованиями с рекрутером-человеком, что позволило получить противоположные результаты. Если в одной группе работ (Acikgoz et al., 2020; Lee, 2018; Newman et al., 2020) было установлено, что люди воспринимают решения, принятые с помощью алгоритмов, как менее справедливые, чем решения, принятые человеком, то в другой группе работ (Langer et al., 2019a, 2019b, 2020; Suen et al., 2019) не было обнаружено разницы в восприятии справедливости решений, принятых ИИ или человеком.
Информационно-пропагандистская деятельность
Несколько статей посвящены технологиям искусственного интеллекта, применяемым на этапе информационно-просветительской деятельности, когда компании пытаются обнаружить таланты и привлечь кандидатов. Используя алгоритмы целевой коммуникации через онлайн-платформы и социальные сети или автоматического уведомления соискателей, компании могут расширить охват потенциальных кандидатов. Кроме того, боты с искусственным интеллектом используются для идентификации пула активных и пассивных кандидатов или для (повторного) обнаружения лучших талантов в пуле бывших кандидатов через их внутреннюю автоматизированную систему отслеживания.
Скрининг
Примечательно, что большинство статей, посвященных этичности рекрутинга ИИ, сосредоточены на применении технологии ИИ при первоначальной проверке резюме. Системы искусственного интеллекта используются для фильтрации кандидатов с целью составления короткого списка и рейтинга. Чат-боты и инструменты анализа резюме ищут семантические совпадения и связанные термины, определяющие квалификацию кандидата. Другие инструменты идут еще дальше и используют МО для прогнозирования будущей эффективности работы кандидата на основе сигналов, связанных с стажем работы или производительностью, или отсутствия сигналов, связанных с опозданиями или дисциплинарными мерами. Эти инструменты проверки считаются высокоэффективными для оптимизации процесса, особенно для ведущих работодателей, которые получают огромное количество заявок на каждую открытую вакансию; однако высказываются опасения, что высококвалифицированные кандидаты могут быть упущены из виду.
Оценка
Хотя алгоритмы отбора на практике не новы, в последнее время наблюдается тенденция к анализу видеоинтервью при приеме на работу. В таких структурированных видеоинтервью технология искусственного интеллекта заменяет интервьюера-человека и задает кандидату короткий набор заранее определенных вопросов. Более того, технология искусственного интеллекта может не только оценивать фактические ответы, но также использовать программное обеспечение для распознавания аудио и лиц для анализа дополнительных факторов.
Фасилитация
Наконец, ИИ используется для облегчения процесса набора персонала, взяв на себя административные задачи. Например, инструменты искусственного интеллекта решают проблему длинных онлайн-анкет для заявителей с помощью методов обработки естественного языка (NLP).Они используются для анализа неструктурированных документов, таких как резюме кандидатов, и извлечения соответствующей информации для автоматического заполнения формы заявки компании. Кроме того, помощники на базе искусственного интеллекта могут использоваться для взаимодействия и общения с кандидатами: они могут сопровождать кандидатов на различных этапах процесса найма, от ответов на вопросы, связанные с компанией и процессом, до планирования собеседований.
Заключение
Инструменты искусственного интеллекта уже стали частью современной практики рекрутинга и отбора сотрудников. Тема рассматривается с теоретической, практической, юридической, технической и описательной точек зрения. Существует потребность в теоретических и эмпирических исследованиях, устраняющих разрыв между деловой этикой и практическим применением ИИ в сфере рекрутинга. Поскольку развитие и внедрение методов рекрутинга с использованием ИИ растет и сопряжено с множеством этических рисков и двусмысленностей, необходимо стимулировать исследования для решения многих остающихся неизученных областей рекрутинга и отбора с использованием ИИ.
Литература:
1. Anna Lena Hunkenschroer, Christoph Luetge, 2022, Ethics of AI-Enabled Recruiting and Selection: A Review and Research Agenda, Retrieved from https://link.springer.com/article/10.1007/s10551-022-05049-6#Sec36 [Электронный ресурс]
Comments