Аннотация
Статья посвящена использованию технологий искусственного интеллекта (AI) в процессе рекрутинга персонала. Применение AI включает написание объявлений о вакансиях, обработку резюме и анализ видео-интервью. Хотя использование AI может повысить эффективность процесса, оно также может вызвать этические вопросы.
Для решения этих вопросов необходимо разработать этические стандарты использования AI. В статье проводится систематический анализ существующей литературы, который выявляет 51 исследование на эту тему. Авторы анализируют этические риски и предлагают способы снижения этих рисков.
Введение
Применение искусственного интеллекта (ИИ) в рекрутинге предоставляет возможности для оптимизации процесса подбора персонала. В данной статье проведен систематический обзор литературы, чтобы выявить основные этические возможности, риски и неоднозначности, а также предложить способы смягчения этических проблем в рекрутинге с использованием ИИ. Один из способов снижения рисков - это разработка этических принципов использования AI. Кроме того, необходимы дальнейшие исследования для лучшего понимания этических аспектов использования AI и разработки методов снижения рисков.
Основные этические возможности
Применение ИИ в рекрутинге предоставляет ряд этических возможностей. Во-первых, это повышение объективности и справедливости процесса подбора. Алгоритмы могут исключить субъективные факторы и предвзятость, основываясь на объективных критериях. Во-вторых, ИИ может улучшить качество и точность оценки кандидатов, позволяя выявлять скрытые таланты и потенциал. В-третьих, применение ИИ может повысить прозрачность и доверие к процессу, так как алгоритмы могут быть объяснены и проверены.
Смягчение этических проблем
Для смягчения этических проблем в рекрутинге с использованием ИИ предлагаются различные подходы. Во-первых, необходимо разработать и использовать нейтральные и объективные алгоритмы, чтобы избежать предвзятости и дискриминации. Во-вторых, прозрачность и объяснимость алгоритмов должны быть обеспечены, чтобы кандидаты могли понять, как принимаются решения о их приеме или отказе. В-третьих, необходимо обеспечить защиту конфиденциальности и безопасности персональных данных кандидатов.
Дальнейшие исследования и разработка этических стандартов
Несмотря на предложенные способы смягчения этических проблем, они все еще остаются сложными и вызывают много вопросов. Для разработки этических стандартов и руководств для применения ИИ в рекрутинге необходимы дальнейшие исследования и обсуждения. Это позволит обеспечить справедливость, прозрачность и конфиденциальность в рекрутинговой практике.
Сейчас можно обнаружить лишь несколько работ, в которых теоретически обосновывается этическая дискуссия, что оставляет многие аргументы необоснованными: дополнительные теоретические и нормативные работы в этой области могли бы оказаться полезными для менеджеров и организаций, поскольку они не ограничиваются казуистикой, а дают рекомендации по определению правильных действий.
А также существующие подходы к снижению этических рисков носят достаточно общий характер и не содержат конкретных рекомендаций по их реализации в контексте рекрутинга, однако ориентация на конкретную область желательна, поскольку общие нормативные рекомендации часто не дают ощутимого эффекта из-за своей поверхностности.
Критерии отбора, включения и исключения
Также важно включить в процесс оценки этичности рекрутинга с использованием ИИ всех заинтересованных сторон - рекрутеров, разработчиков алгоритмов и кандидатов. Рекрутеры должны быть осведомлены о том, какие данные используются алгоритмами ИИ, как они влияют на процесс выбора кандидатов и какие могут быть этические риски. Они также должны быть готовы принимать ответственность за решения, принятые на основе рекомендаций ИИ. Разработчики алгоритмов должны учитывать этические риски и стремиться создавать справедливые и объективные модели. Они должны учитывать возможность дискриминации и неравенства при обучении алгоритмов на исторических данных. Также важно разработать механизмы обратной связи и прозрачности для кандидатов, чтобы они могли оспорить решения, принятые на основе алгоритмов ИИ, и получить объяснение о причинах таких решений.
Структурный анализ литературы и категоризация
Хронологическое развитие выявленной литературы подчеркивает новизну и возрастающую значимость темы нашего исследования в последние несколько лет. Причем первые статьи были опубликованы в 2016 году. 51 статья была опубликована в 40 журналах по различным направлениям исследований, таким как право, менеджмент, организационная психология, робототехника, и компьютерные науки. На основе анализа литературы возможно выделить пять направлений для классификации найденных статей: теоретическое, практическое, юридическое, техническое и описательное.
В целом, статьи, относящиеся к практическому направлению, явно составляют большинство существующих исследований, посвященных этичности ИИ-рекрутинга (39%). Этичности рекрутинга с помощью ИИ (39%), далее следуют технические, описательная и юридическая точки зрения (24%, 22% и 10%), и, наконец, теоретическая перспектива (6%).
Теоретическая перспектива
Первая группа статей оценивает этику рекрутинга с использованием ИИ и предлагает теоретические рамки для обсуждения и применения в практике.
v Simbeck (2019) обращается к этическим основам из других дисциплин и предлагает пять ключевых принципов, которые должны быть реализованы при применении ИИ в кадровой аналитике.
v Яргер и др. (2020) выделяют феминистскую концепцию, которая обращает внимание на вопросы справедливости при разработке систем найма с использованием ИИ.
v Ронб-Кеттлер и Ленервп (2019) оценивают рекрутинг с гуманистической точки зрения и утверждают, что технологии могут быть внедрены таким образом, чтобы улучшить опыт рекрутов и кандидатов.
Вторая группа работ фокусируется на практической направленности и обсуждает последствия использования ИИ в рекрутинге для менеджеров и корпораций. Некоторые работы подчеркивают проблемный характер традиционных методов оценки кандидатов и предлагают использование ИИ в качестве перспективной альтернативы. Другие работы предостерегают от использования ИИ в рекрутинге и поднимают вопросы точности, этики, правовых и конфиденциальности. Некоторые работы предлагают практические рекомендации для руководителей о том, как этично и эффективно внедрять искусственный интеллект в процесс рекрутинга. Обсуждение этики и последствий рекрутинга с использованием ИИ на основе традиционных этических теорий, таких как утилитаризм или деонтология, еще не проводилось.
Информационно-разъяснительная работа
В ряде статей рассматриваются технологии ИИ, применяемые на этапе аутрич, когда компании пытаются обнаружить таланты и привлечь кандидатов. Используя алгоритмы для целевой коммуникации на онлайн-платформах и в социальных сетях или для автоматического оповещения соискателей, компании могут расширить охват потенциальных кандидатов могут расширить охват потенциальных.
Кроме того, ИИ-боты используются для определения активных и пассивных кандидатов (например, через LinkedIn) или для (повторного) обнаружения лучших талантов в пуле бывших кандидатов с помощью внутренней автоматизированной системы отслеживания (ATS) & Поставщики программного обеспечения с искусственным интеллектом, такие как Textio, используют ИИ в виде методов анализа текста для прогнозирования привлекательности объявления о вакансии на основе результатов найма нескольких миллионов вакансий. Таким образом, искусственный интеллект может помочь компаниям дебатировать формулировки объявлений о приеме на работу, делая их гендерно нейтральными для привлечения разнообразного контингента соискателей или адаптировать их для конкретной целевой группы.
Несмотря на то что алгоритмы отбора кандидатов не являются чем-то новым, в последнее время наблюдается тенденция к использованию видеоинтервью. В таких структурированных видеоинтервью технология искусственного интеллекта заменяет человека, проводящего собеседование, и задает кандидату короткий набор заранее заданных вопросов (Chamorro-Premuzic et al., 2016; Fernández-Martínez & Fernández, 2020). Более того, технология ИИ может не только оценивать фактические ответы, но и использовать программное обеспечение для распознавания звука и лица, чтобы анализировать дополнительные факторы, такие как тон голоса, микроперемещения лица и эмоции, что позволяет получить информацию об определенных личностных качествах и компетенциях. Помимо собеседований, для дальнейшей оценки используются тесты навыков с использованием ИИ, симуляторы, и нейробиологические видеоигры используются для оценки других качеств, например, отношения соискателей к риску, способности к планированию, настойчивости или мотивации. Таким образом, инструменты оценки, основанные на данных, изменили сигналы о талантах. На основе лингвистического анализа веб-активности кандидатов новые технологии делают выводы о талантах, личностных качествах и других важных индивидуальных особенностях и сопоставляют их с культурой компании-работодателя (например, Polli).
Фасилитация
Наконец, ИИ используется для облегчения процесса рекрутинга, беря на себя административные задачи. Например, средства ИИ решают проблему длинных онлайн-анкет для соискателей с помощью методов обработки естественного языка (NLP). Они используются для анализа неструктурированных документов, таких как резюме кандидатов, и извлечения релевантной информации для автоматического заполнения анкеты компании. Кроме того, для взаимодействия и общения с кандидатами могут использоваться ассистенты на базе ИИ: Они могут сопровождать кандидатов на различных этапах процесса найма, от ответов на вопросы о компании в процессе работы до ответов на вопросы, связанные с компанией и процессом, до назначения собеседовании. Сегодня многие компании также используют программы для автоматического создания оферт в автоматическом режиме и их подписания в электронном виде
Снижение предвзятости с помощью ИИ
Использование ИИ может уменьшить предвзятость на различных этапах процесса рекрутинга. На этапе поиска персонала ИИ может исключить предвзятость, связанную с гендерными формулировками в описаниях вакансий, создавая инклюзивные описания должностей. В процедуре отбора ИИ может снизить субъективность, применяя общие критерии оценки для всех кандидатов. Это позволяет оценить всех кандидатов, не ограничиваясь временными и ресурсными ограничениями человека. Кроме того, ИИ может игнорировать внешние атрибуты кандидатов и сосредоточиться только на их навыках и поведении.
Но риск алгоритмической предвзятости в своем процентном соотношении все же существует, как и в любой деятельности, проводимой ИИ и невозможно утверждать, что снижение предвзятости это абсолютный плюс работы нейросети. Это может произойти из-за необъективности принципов построения модели, ошибок в выборе признаков и необъективности обучающих данных.
Техническая тщательность
Снижение предвзятости в рекрутинге с использованием ИИ требует технической тщательности при разработке и реализации алгоритмов. Это включает выбор объективных критериев, использование разнообразных обучающих данных и проверку алгоритмов на предмет предвзятости. Только такой подход может помочь снизить риск алгоритмической предвзятости и обеспечить более справедливый и прозрачный процесс рекрутинга.
Критики выражают опасения относительно технической надежности и валидности методов оценки, основанных на использовании искусственного интеллекта (ИИ). Некоторые из опасений включают:
1. Недостаток научного обоснования: Многие новые инструменты ИИ в рекрутинге появились как технологические инновации, а не на основе научно обоснованных методов или исследовательских программ.
2. Технические риски: Внедрение технологического контекста, такого как видеоигры или интервьюеры-аватары, может привести к шуму и ошибкам измерения в оценке кандидатов. Также сложно измерить индивидуальную эффективность сотрудников и отделить ее от групповой эффективности.
3. Компромисс между точностью и объяснимостью: Некоторые более сложные алгоритмы могут быть более точными, но труднее объяснить свои решения. Это приводит к компромиссу между точностью и объяснимостью, исследование которого является важным этическим вопросом.
4. Техническая реализация также связана с рисками. Например, внедрение технологического контекста, такого как видеоигры или интервьюеры-аватары, может внести шумовую дисперсию в оценку кандидатов и привести к ошибкам измерения. Постоянная повторная валидация и контроль алгоритмических инструментов являются важными мерами для снижения технических рисков.
5. Также важным вопросом является влияние ИИ на автономию человека. Использование ИИ для формирования человеческих решений может нарушить автономию человека и стать этической проблемой. Патернализм ИИ может ограничивать свободу выбора и самоопределение кандидатов. Различные подходы к снижению этических рисков включают постоянную валидацию и контроль алгоритмических инструментов, сохранение участия и контроля человека в процессе обучения и внедрения ИИ, а также обеспечение прозрачности и объяснимости алгоритмов.
Организационные стандарты
Законы о конфиденциальности: Компании должны соблюдать законы о конфиденциальности при использовании ИИ в процессе найма. Это включает защиту и безопасность конфиденциальных данных кандидатов, а также запрет на использование или прогнозирование частной или конфиденциальной информации о кандидатах.
Прозрачность: Компании должны предоставлять значимую информацию о процессе принятия решений о найме. Это включает информацию об используемых алгоритмических методах и наборах данных, чтобы обеспечить прозрачность и разработать эффективную политику.
Человеческий надзор: Вводится стандарт человеческого надзора за применением ИИ в рекрутинге. Опытные рекрутеры должны следить за отбором и оценкой, производимыми ИИ, и принимать решения, учитывая алгоритм, а не полностью полагаться на него.
Инструменты соответствия: Для контроля соблюдения этических стандартов в рекрутинге с использованием ИИ, следует создать инструменты соответствия. Например, компании могут создать совет по этике ИИ, состоящий из представителей заинтересованных сторон, а также разработать этический кодекс для инициатив, связанных с ИИ.
Разнообразие команд: Для обеспечения инклюзивности и равноправия в рекрутинге с использованием ИИ, рекомендуется создавать разнообразные команды специалистов по изучению данных.
Последствия для будущих теоретических и эмпирических исследований
Наш обзор выделяет несколько этически неоднозначных тем, связанных с рекрутингом через использование искусственного интеллекта, которые требуют дальнейших эмпирических исследований. Первым вопросом, который можно изучить дополнительно, является точность и валидность инструментов рекрутинга с использованием искусственного интеллекта. Во-вторых в статье упоминаются важные аспекты, связанные с информированным согласием и использованием персональных данных.
1. Отсутствие теоретических работ
- Отмечается недостаток нормативного этического анализа рекрутинга на основе искусственного интеллекта в сочетании с устоявшимися этическими подходами.
2. Проблема неприкосновенности частной жизни
- Обсуждается в контексте традиционных этических школ, таких как утилитаризм, деонтология, и контрактивизм.
- Поднимается вопрос о сборе и оценке личной информации о соискателях с помощью методов искусственного интеллекта в рекрутинге, что может вызвать вопросы о праве на частную жизнь
3. Сопровождающие риски внедрения ИИ в рекрутинг
- Алгоритмы, базирующиеся на машинном обучении, могут быть предвзятыми из-за технических недостатков, вызванных необъективными обучающими наборами или алгоритмическим дизайном.
4. Противоречивые взгляды на этичность ИИ-рекрутинга
- Управляющие должны понимать, какие этические проблемы могут возникать из-за технологий ИИ и как алгоритмические решения могут противоречить их стремлениям.
5. Роль федеральных агентств в обеспечении этичного использования ИИ в рекрутинге
- Настоятельная необходимость для государственных учреждений действовать за пределами регулирования и установления организационных стандартов для обеспечения этичного использования ИИ в рекрутинге.
Заключение
Инструменты искусственного интеллекта уже стали частью современной практики рекрутинга и практики подбора персонала. Тема рассматривается с теоретической, практической, юридической, технической и описательной точек зрения. Синтезируя выявленные статьи и оценивая высказанные соображения с этической точки зрения, мы предоставляем исследователям рекомендации по текущему состоянию литературы и создать общую основу для будущих исследований. Кроме того, мы выявляем пробелы в существующих исследованиях и открываем возможности для будущих исследований. Существует потребность в теоретических и эмпирических исследований, преодолевающих разрыв между деловой этикой и практическим применением ИИ в рекрутинге. Поскольку разработка и внедрение искусственного интеллекта в рекрутинге набирают обороты и сопровождаются различными этическими рисками и неоднозначностями.
Литература:
1. Anna Lena Hunkenschroer, Christoph Luetge, 2022, Ethics of AI-Enabled Recruiting and Selection: A Review and Research Agenda, Retrieved from https://link.springer.com/article/10.1007/s10551-022-05049-6#Sec36 [Электронный ресурс]
Comments