Научная статья
УДК 34:004:349.2:004.8
EDN: https://elibrary.ru/chpesp
DOI: https://doi.org/10.21202/jdtl.2024.31
Использование искусственного интеллекта при найме работников: проблемы и перспективы правового регулирования
Денис Александрович Новиков
Санкт-Петербургский государственный университет, Санкт-Петербург, Россия
Ключевые слова Аннотация
алгоритм,
закон,
искусственный интеллект, наем работника, персональные данные, право, работник, работодатель, трудовое право, цифровые технологии
Цель: определить правовые проблемы использования искусственного интеллекта при найме работников и обозначить основные направления их решения.
Методы: формально-юридический и сравнительно-правовой анализ, правовое прогнозирование, правовое моделирование, синтез, индукция, дедукция.
Результаты: выявлен ряд правовых проблем, возникающих при использовании искусственного интеллекта (ИИ) при найме работников, среди которых защита персональных данных соискателя, получаемых при применении искусственного интеллекта; дискриминация и необоснованный отказ в приеме на работу из-за предвзятости алгоритмов искусственного интеллекта; юридическая ответственность за принятое генеративным алгоритмом решение при найме работника. Автор полагает, что для оптимального решения указанных проблем необходимо обратить внимание на передовой опыт зарубежных стран, прежде всего на те страны, где приняты специальные законы о регулировании применения ИИ при найме работников и выработаны руководства для работодателей, применяющих генеративные алгоритмы в аналогичных целях. Кроме того, следует учесть законотворческую работу Европейского союза и США в сфере управления рисками, возникающими при использовании ИИ.
Научная новизна: в работе проведено комплексное исследование правовых проблем, возникающих при использовании ИИ при найме работников, зарубежного опыта их решения, что позволило автору выработать рекомендации по усовершенствованию российского законодательства в данной сфере. Проблему защиты персональных данных соискателей при использовании искусственного интеллекта для
© Новиков Д. А., 2024
Статья находится в открытом доступе и распространяется в соответствии с лицензией Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная (CC BY 4.0) (https://creativecommons.org/licenses/by/4.0/deed.ru), позволяющей неограниченно использовать, распространять и воспроизводить материал при условии, что оригинальная работа упомянута с соблюдением правил цитирования.
найма автор предлагает решить путем дополнения трудового законодательства нормами, закрепляющими требования по прозрачности и согласованности сбора, обработки и хранения информации при применении генеративных алгоритмов. Перечень и объем допустимых для сбора персональных данных следует отобразить в специальном государственном стандарте. Решение проблемы дискриминации из-за предвзятости алгоритмов видится в обязательной сертификации и ежегодном мониторинге программ искусственного интеллекта для найма, а также запрете скоринговых инструментов оценки соискателей. Автор придерживается позиции, что искусственный интеллект не может «вершить судьбу» соискателя: ответственность за решения, принятые алгоритмом о найме, возлагается исключительно на работодателя, в том числе в случаях привлечениях третьих лиц для осуществления подбора работников.
Практическая значимость: полученные результаты могут быть использованы для ускорения разработки и принятия правовых норм, правил, инструментов и стандартов в сфере использования ИИ для найма работников. Отсутствие надлежащего правового регулирования в данной сфере создает существенные риски как для прав человека, так и для развития отраслей экономики, в которых задействуются генеративные алгоритмы в целях найма работников.
Для цитирования
Новиков, Д. А. (2024). Использование искусственного интеллекта при найме работников: проблемы и перспективы правового регулирования. Journal of Digital Technologies and Law, 2(3), 611-635. https://doi.Org/10.21202/jdtl.2024.31
Содержание
Введение
1. Проблемы использования искусственного интеллекта при найме
работников
1.1. Защита персональных данных соискателя, получаемых при применении искусственного интеллекта для найма
1.2. Дискриминация и необоснованность отказа в приеме на работу из-за предвзятости алгоритмов искусственного интеллекта для найма работников
1.3. Юридическая ответственность за принятое искусственным интеллектом решение о найме работника
2. Зарубежный опыт нормативного регулирования использования
искусственного интеллекта для найма работников
2.1. Нормативное регулирование использования искусственного интеллекта для найма работников в США
2.2. Нормативное регулирование использования искусственного интеллекта для найма работников в Европейском союзе
Заключение
Список литературы
Введение
За последние годы в сфере трудовых отношений искусственный интеллект (далее -ИИ) стал важнейшим инструментом осуществления управленческих процессов и процедур. Крупные компании и корпорации все более склонны передавать функции по найму работников технологии ИИ. Например, транснациональная корпорация Unilever уже обрабатывает с помощью ИИ 1,8 млн заявлений о приеме на работу и нанимает 30 тысяч новых работников в год (Ginu & Anson, 2021); 99 % компаний из списка Fortune 500 (500 крупнейших компаний США по годовым доходам) полагаются на ИИ для найма работников (Fuller et al., 2021). За рубежом применяются такие платформы, как AllyO, Arya, BambooHR, Entelo, Ideal, Jibe, Talenture, Taleo, TextRecruit, Textio, Toptal, TurboHire, Turing, Paradox, Recruitee, Upwork, Zoom.ai, ZohoRecruit.
Российские компании («Альфа-Банк», ВТБ, «Додо Пицца», «Мегафон», МТС, РЖД, «Ростелеком», «Сбербанк», «Яндекс» и др.) постепенно интегрируют в свои кадровые решения ИИ для найма работников1. Как показало исследование HRlink, 24 % российских компаний уже применяют ИИ в процессах найма работников, 6 % планируют внедрить такие решения в течение года, 71 % сотрудников кадровых отделов позитивно воспринимают внедрение ИИ в свою работу1 2. В России среди ИИ-инструментов для найма работников используются такие платформы, как AmazingHiring, FriendWork Recruiter, GoRecruit Hireman, HireVue, Hurma, My new job, PeopleForce, Playhunt, Recright, Talantix, uForce, Yva.ai, Робот Вера, СберПодбор и др.3 Следует учесть, что данные сервисы ИИ для найма работников перманентно усовершенствуются, дополняются новыми функциями, в том числе благодаря технологии машинного обучения.
Вследствие бурного развития программного обеспечения для найма работников и его практического применения работодателями в Российской Федерации ставится вопрос о выработке государственной политики в данной сфере. Так, в паспорте национальной программы «Цифровая экономика Российской Федерации» (утв. протоколом Президиума Совета при Президенте РФ по стратегическому развитию и национальным проектам от 04.06.2019 № 7) отмечается усиление процессов цифровизации в сфере занятости населения и обозначается необходимость одобрения концепции комплексного правового регулирования отношений, возникающих в связи с развитием цифровой экономики. В 2020 г. авторы такой Концепции указали, что для трансформации законодательства в сфере цифровой экономики необходимо сосредоточиться на изменениях трудового законодательства в вопросах,
1 В России искусственный интеллект начал подбирать персонал. (2023, 11 августа). Ura.ru. https://clck.ru/3CVvmv
2 Исследование HRlink: 71 % HR-специалистов позитивно относится к ИИ. (2023, 26 декабря). Искусственный интеллект Российской Федерации. https://clck.ru/3CVvqB
3 В августе 2023 г. Министерство цифрового развития, связи и массовых коммуникаций Российской Федерации заявило о запуске на платформе «Гостех» эксперимента «Государственные кадры», предполагающего использование ИИ для найма на государственную службу. К 2030 г. планируется создать на основе ИИ новую информационную HR-систему развития госслужащих. См.: Искусственный интеллект будет нанимать госслужащих: заменит ли технология конкурсную комиссию? (2023, 23 августа). RG.ru. https://clck.ru/3CVvvC
которые касаются правовой защиты граждан в «условиях информационных технологических новаций в сфере труда и дистанционной занятости»4.
Кроме того, учитывая тот факт, что ИИ уже изменил и изменит в будущем еще больше способы сбора, обработки и анализа данных о потенциальных работниках, появляются дополнительные риски нарушения прав человека в сфере труда. Поэтому перед работниками, работодателями, разработчиками и государством встает логичный вопрос о правовых последствиях применения ИИ при найме работников. Ведь необходимо учитывать тот факт, что вместе с якобы положительными последствиями глобальной трансформации трудовых отношений в сферах, где используются новые информационные средства производства, возникают реальные неблагоприятные последствия, связанные с перераспределением капитала в обществе и уменьшением социальной защиты трудящихся (Новиков, 2023). Следовательно, правовая проблематика использования ИИ при найме работников заключается в том, как следует регулировать отношения, возникающие при использовании технологии ИИ в целях найма работников и как с юридической точки зрения оценивать решения, принятые алгоритмом.
Проблематика использования ИИ при найме работников обсуждается в российской (Щербакова, 2021; Serova & Shcherbakova, 2022) и зарубежной юридической науке (De Stefano, 2019; Kochling & Wehner, 2020; Reddy, 2022; Hunkenschroer & Kriebitz, 2023; Basu & Dave, 2024). Однако на сегодняшний день большинство исследований являются фрагментарными, охватывающими отдельные участки данной научной проблемы. Вследствие этого следует обратить более пристальное внимание на правовые проблемы использования ИИ при найме работников и попробовать выработать рекомендации для их решения в рамках нормативного урегулирования.
1. Проблемы использования искусственного интеллекта при найме работников
Процедура найма работников - это ряд мероприятий, которые можно разделить на четыре основных этапа: поиск, отсев, собеседование и отбор5. Соответственно, под ИИ в сфере найма работников следует понимать алгоритм, обученный принимать автоматические решения о найме на каждом из этапов (Haenlein & Kaplan, 2019). В алгоритмах найма работников ИИ обучается на данных, полученных от предыдущих кандидатов до и после найма, чтобы сделать прогноз о возможности найма потенциальных кандидатов (Kuncel et al., 2014). К технологиям, содержащим такие алгоритмы, относятся асинхронное видеоинтервью, чат-боты и другие автоматизированные платформы, которые интерпретируют и оценивают ответ кандидата в режиме реального времени и предоставляют оценку интервью (Langer et al., 2019). Алгоритмы ИИ определяют набор правил, используемых для преобразования входных данных в выходные решения и могут быть обучены для имитации человеческих решений о приеме на работу.
4 Фонд развития центра разработки и коммерциализации новых технологий. (2020). Концепция комплексного регулирования (правового регулирования) отношений, возникающих в связи с развитием цифровой экономики. Москва.
5 Bogen, M., & Rieke, A. (2018). Help wanted: an examination of hiring algorithms, equity, and bias. APO. https://goo.su/wc44
Работодатели, применяя такие технологии, предполагают, что инструменты ИИ объективны и поэтому могут управлять процессом принятия решений, свободным от предвзятости, которая влияет на человеческие суждения6, благодаря чему компании могут улучшить отбор работников, усовершенствовать их профессиональное развитие, удержание и управление эффективностью (Estrada et al., 2024). И, соответственно, логичным может показаться вывод, что риск дискриминации и необоснованного отказа в приеме на работу при использовании ИИ уменьшается, как и риск найма на работу менее квалифицированного работника.
В свою очередь, исследование М. К. Ли показывает, что, по мнению работников, справедливо, чтобы окончательное решение принимали люди, если речь идет о потенциале работников или карьерном росте. Если люди согласны с тем, что алгоритмическая система выполняет аналитические задачи (например, планирование работы), то человеческие задачи (например, прием на работу, оценка работы) должны выполняться людьми (Lee, 2018). М. Лангер и К. Дж. Кёниг отмечают, что использование технологии ИИ при найме работников в сочетании с недостатком знаний и прозрачности того, как работают алгоритмы, усиливает эмоциональную напряженность и снижает межличностное отношение и социальное взаимодействие (Langer et al., 2023). Итак, социальные исследования демонстрируют, что работники признают вспомогательную роль ИИ при найме, акцентируя внимание на важности принятия окончательного решения работодателем.
С другой стороны, исследование, проведенное Й. Бигманом, продемонстрировало, что люди меньше морально возмущены, когда решение о приеме на работу принимает алгоритм ИИ, а не человек (Bigman et al., 2023). Однако данный результат не доказывает беспристрастность алгоритма по сравнению с человеческим решением, а подтверждает лояльное отношение людей к информационным технологиям, от которых они менее ожидают необъективности, чем от человека. Кроме того, такое предположение подразумевает, что разработчики этих алгоритмов, данные, на которых строятся эти технологии, и организации, в которых они применяются, беспристрастны. Как указывают А. Кёхлинг и М. С. Вернер, в исследованиях технологий найма с использованием ИИ было установлено, что алгоритм может быть дискриминационным, однако остается открытым вопрос, являются ли алгоритмы более справедливыми, чем человек (Kochling & Wehner, 2020).
Можно констатировать, что использование для найма работников алгоритмов ИИ создает фундамент для социальных противоречий между сторонами трудовых отношений, не говоря о правовых проблемах, речь о которых пойдет ниже.
1.1. Защита персональных данных соискателя, получаемых при применении искусственного интеллекта для найма
С одной стороны, персональные данные могут быть частью обучающих данных, используемых для создания новых моделей алгоритмов путем выявления закономерностей. С другой - эти математические модели могут быть применены к персональным данным, чтобы делать выводы или прогнозы о соискателях. ИИ позволяет автоматически принимать решения на основе факторов и критериев, которые заранее
6 UNESCO. Artificial Intelligence: Examples of ethical dilemmas. (2023, 21 April). https://clck.ru/3CVwHU
не определены, а меняются в зависимости от базы данных, «питающей» алгоритм (Lukacs & Varadi, 2023). То есть все функционирование системы найма работников с помощью ИИ основано на обработке персональных данных сотрудников. Поэтому очевидно, что автоматизированное принятие решений о найме на основе ИИ вступает в существенное противоречие с требованиями о защите персональных данных.
Действующее законодательство устанавливает исчерпывающий перечень документов, предъявляемых работником при найме, однако объем и виды сведений, добровольно передаваемых работодателю в процессе отбора, собеседования, законом не определены. На сегодняшний день отсутствует унифицированный перечень персональных данных, которые может использовать ИИ в процессе найма работников, а также правовой механизм контроля за их сбором, обработкой и анализом. Кроме того, законодательство не ограничивает работодателя в приемах и способах проверки деловых качеств (слово «в частности» при описании содержания понятия «деловые качества» в Постановлении Пленума Верховного Суда РФ от 17.03.2004 № 2 указывает на то, что признаки деловых качеств не имеют исчерпывающего характера). Аналогичная позиция представлена в судебной практике по делам о проведении различного, в том числе психологического, тестирования при приеме на работу для проверки деловых качеств (определение Московского городского суда от 24.02.2016 № 33-3692/16, решение Мытищинского городского суда Московской области от 21.01.2016 № 2-396/2016, определение Московского городского суда от 21.12.2017 № 33-52746/2017).
Таким образом, порядок оценки деловых качеств работника при приеме на работу нормативно не урегулирован, в связи с чем работодатель вправе самостоятельно избрать форму (в том числе с использованием ИИ), в которой он будет проводить такую оценку, и закрепить ее в локальных актах организации. Здесь также важен аспект прозрачности и согласованности проведения сбора данных о соискателе с применением ИИ, который должен оформляться отдельным соглашением.
Еще одним вектором данной проблемы является то, что персональные данные о соискателе, полученные работодателем в результате их сбора ИИ, являются конфиденциальными и не должны использоваться никаким другим образом, кроме принятия решения о найме, храниться у третьих лиц (например, разработчиков) либо им передаваться. В этом аспекте наибольший риск имеет использование «открытых» систем ИИ, таких как ChatGPT, Bard и других чат-ботов7. Информация, введенная в «открытую» систему ИИ, может быть непреднамеренно передана другому пользователю и сохранена в нейронной сети ИИ, чтобы использоваться для дальнейшего обучения системы. При использовании «закрытых» систем ИИ (т. е. специальных программ разработчиков) существует риск некачественных протоколов защиты и хранения данных, которые могут спровоцировать утечку и распространение персональных данных соискателей. Необходимо учитывать проблему правовых последствий несанкционированного использования персональных данных, которые работодатель получил о соискателе с помощью ИИ и которые умышленно или по неосторожности (вследствие ненадежных протоколов защиты информации) были использованы не по назначению либо переданы третьим лицам.
7 Markel, K. A., Mildner, A. R., & Lipson, J. L. (2023, September 29). AI and employee privacy: important considerations for employers. Reuters. https://clck.ru/3CVwcu
1.2. Дискриминация и необоснованность отказа в приеме
на работу из-за предвзятости алгоритмов искусственного интеллекта
для найма работников
Б. Ситватхару и Р Пиллаи отмечают, что ИИ осуществляет необходимую фильтрацию кандидатов на основе различных характеристик человека, таких как предыдущий опыт, возраст, пол и квалификация (Sivathanu & Pillai, 2018). Соответственно с помощью алгоритмов машинного обучения, закодированных в ИИ, могут быть найдены закономерности или предпочтения по какой-либо из характеристик, которые не воспринимались другими людьми, включая самого субъекта данных, что в свою очередь создает почву для дискриминации при найме работников и может повысить риски необоснованных отказов в приеме на работу. В результате такой практики могут возникнуть проблемы, когда работодатели запрограммируют систему ИИ не нанимать конкретного человека или группу людей на определенную должность, а впоследствии система обучится не нанимать этого человека или данную группу людей на другие должности. Необходимо заметить, что система ИИ, созданная для найма работников, может сделать это только в том случае, если она была запрограммирована и обучена определенным образом при использовании предыдущих данных о найме. Например, Сбербанк с 2019 г. применяет скоринговый ИИ для оценки вероятности увольнений при найме соискателя. С помощью системы банк присваивает скоринг-балл кандидату и вычисляет, как скоро он решит уволиться. Система анализирует резюме соискателей, предыдущий опыт работы и другие параметры из открытых источников, согласие на использование которых предоставляет соискатель8.
К чему может привести использование скоринг-моделей для найма работников, хорошо проиллюстрировал случай с компанией Amazon. Данная транснациональная компания с 2015 г. не только активно задействовала ИИ для подбора сотрудников, но и уже столкнулась из-за этого с проблемами юридического характера. Алгоритм компании Amazon принимал дискриминационные решения по приему на должности исключительно мужчин, а кадровая служба данные решения не проверяла (система обучалась на резюме, представленных претендентами, получившими работу за десятилетний период, большая часть из которых были мужчинами). Дело дошло до исковых заявлений, судебных процессов, и в конечном итоге Amazon пришлось отказаться от использования ИИ для найма сотрудников9. Предвзятость скоринговых моделей ИИ для найма подтверждают и научные исследования. Так, Л. Чен и его коллеги подтвердили, что в поисковых системах женщины ранжируются ИИ несколько ниже, чем мужчины (Chen et al., 2018).
Итак, в зависимости от того, как настроены системы ИИ, они могут дискриминировать людей и отсеивать тех, кто им не подходит, или ранжировать резюме людей на основе несправедливых критериев, выработанных машинным обучением.
Аналогичным образом применение технологии эмоционального ИИ (Emotion AI) формирует риск дискриминации и необоснованного отказа в приеме на работу,
8 Сбербанк научил искусственный интеллект предсказывать увольнения. (2019, 18 октября). Forbes. https://clck.ru/3CVwoY
9 Oppenheim, M. (2018, 11 October). Amazon scraps "sexist AI" recruitment tool. Independent. https://clck. ru/3CVwqY
когда считывание эмоций и интонаций на собеседовании происходит путем применения видео-, аудио- и других биометрических датчиков. Как указывает О. В. Федосеева, ИИ осуществляет распознавание эмоций по мимике и считывает их с помощью оптических датчиков, которые фиксируют выражение лица в режиме реального времени либо в записи с веб-камер (Федосеева, 2021). Полученные данные обрабатываются алгоритмами машинного обучения, определяя тип микровыражений, тональность и эмоциональность голосовой реакции. В широком смысле «чтение» микровыражений лица и тональности в голосе позволяет ИИ обнаруживать эмоции потенциальных работников и осуществлять профессиональное прогнозирование.
Применяя технологию эмоционального ИИ, работодатель желает не просто удостовериться в профессиональной компетентности потенциального работника, а диагностировать его эмоциональные реакции на те или иные вопросы, связанные с трудовой деятельностью у данного работодателя (например, это могут быть мимические или интонационные реакции на вопросы о готовности работать сверхурочно, о причинах ухода с предыдущей работы и т. п.). В частности, программа VCV московских разработчиков позволяет просматривать видеоролики собеседований, а к моменту личной встречи исключить заведомо неподходящих кандидатов, предварительно оценить soft skills и соответствия ценностям компании для скоринга настроения и поведения кандидатов. Программные продукты другой московской компании, Sever.AI, дают возможность просматривать видео с ответами, анализировать изображение (внешнее поведение кандидата), звук (его речь, тембр) и текст (содержание ответов).
Исследуя риски задействования такого программного обеспечения при найме работников, сотрудники Московского технологического института провели в 2021 г. эксперимент с программами MyInterview и Curious Thing и установили, что программы по-разному считывают эмоции соискателей с разными камерами и микрофонами, при разных поворотах головы и в разных зонах экрана. Также они практически не понимают интонаций в голосе, сказанных с сильным акцентом10. Как отмечает Т. Прадип, при проведении собеседований с использованием ИИ негативно сказываются на оценке соискателя проблемы с сетевым подключением, синдром дефицита внимания или недостаточная концентрация кандидата, поэтому для принятия финального решения о трудоустройстве необходимо участие человека (Pradeep, 2024).
Как видим, поскольку инструменты ИИ управляются данными, полученными из объективной действительности, трудно, если не невозможно, избежать риска того, что инструменты ИИ закодируют и усугубят определенные предубеждения. Поэтому одной из наиболее серьезных проблем в сфере найма работников при использовании ИИ является наличие предвзятых алгоритмов - алгоритмов, приводящих к дискриминации, необъективным и незаконным решениям. М. Джексон называет предвзятыми алгоритмами предубеждения, которые ИИ может повторить при принятии решений (Jackson, 2021).
10 МТИ: ИИ-софт для проведения собеседований не понимает даже, на каком языке говорит кандидат. (2021,8 июля). Хабр. https://clck.ru/3CVxKF
Основными характеристиками предвзятых алгоритмов при найме работников с использованием ИИ являются:
1) предвзятость выборки - данные, на которых учится ИИ, не точно отражают реальную картину мира. Как указывает Ж. Чен, почти каждый алгоритм машинного обучения опирается на предвзятые базы данных (Chen, 2023);
2) алгоритмическая предвзятость, которая возникает из-за алгоритма, а не из-за данных. При разработке алгоритма алгоритмическая предвзятость может быть обусловлена несколькими факторами, такими как глубина нейронной сети или предварительная информация, необходимая алгоритму. Как отмечает Ю. С. Харитонова, алгоритмическая предвзятость существует даже тогда, когда у разработчика алгоритма нет намерения дискриминации, и даже когда рекомендательная система не принимает на вход демографическую информацию (Харитонова и др., 2021);
3) предвзятость репрезентации, возникающая во время сбора данных и связанная с неравномерным сбором данных, при котором не учитываются вбросы или аномалии. Предвзятость репрезентации также может возникнуть, когда не учитывается разнообразие населения, например, данные, которые не включают все демографические группы в равной степени;
4) предвзятость измерений, проявляющаяся в неравнозначных выводах или допускающая ошибки при построении обучающего набора данных. Эти ошибки могут привести к необъективным результатам в отношении определенных демографических групп11.
В целом, если при сборе и обработке данных генеративному алгоритму не хватает количества и качества по определенным характеристикам, он не сможет объективно отобразить реальность, что приведет к неизбежной предвзятости алгоритмических решений и, соответственно, принятию работодателем несправедливого и, возможно, незаконного решения об отказе в приеме на работу более достойного кандидата либо, наоборот, трудоустройству менее квалифицированного соискателя.
1.3. Юридическая ответственность за принятое искусственным интеллектом решение о найме работника
В современных исследованиях высказываются позиции, что прикладное управление ИИ уже стало способным сделать видимость того, будет ли программа посылать свои собственные решения работнику (Ivanova et al., 2018), или что нынешние информационно-социальные изменения затрагивают и трансформируют характер трудовых отношений таким образом, что личное общение субъектов отношения отходит на второй план, а личное общение будет заменено отношениями между работниками в цифровой среде (Lorincz, 2018). Данные позиции не выдерживают критики, ведь сама идея признать систему с ИИ в качестве субъекта права противоречит таким представлениям о субъекте права, как социально-правовая ценность, достоинство, автономная правовая воля, а также вступает в противоречие с составом правоотношения, составом правонарушения и ничтожна в рамках института представительства (Хисамова, Бегишев, 2020).
11 Roller, A. (2023, September 8). AI hiring bias: How HR can understand and mitigate potential pitfalls. https://clck.ru/3CVxwT
ИИ не может более быть участником общественных отношений, так как не имеет способности устанавливать взаимодействие между субъектами права по поводу удовлетворения материальных или культурных потребностей. Также не существует никакого общественно значимого результата, которого ИИ хотел бы достичь. Субъектов права ИИ может исключительно датифицировать под конкретные алгоритмические задачи, заданные при программировании и усовершенствованные путем машинного обучения. Поэтому признание за ИИ правосубъектности невозможно, исходя из программного свойства его взаимосвязи с внешним миром. М. Х. Джаррахи отмечает, что принятие решений на основе ИИ и человека должно дополнять друг друга (а не заменять) и использовать их сравнительные преимущества (Jarrahi, 2018). ИИ является средством автоматизации процессов найма потенциальных работников, цифровым инструментом взаимодействия между элементами производственной системы на уровне сбора, обработки, анализа и хранения информации.
Таким образом, ИИ в правовой реальности может существовать исключительно в качестве объекта права. Все решения, принятые ИИ, должны быть контролируемы и объяснимы человеком (работодателем), который и несет ответственность за их последствия. Окончательное решение о найме работника либо об отказе в приеме на работу на основе информации, полученной от ИИ, может принимать исключительно работодатель или его уполномоченный орган.
2. Зарубежный опыт нормативного регулирования использования искусственного интеллекта для найма работников
Использование технологий ИИ для оптимизации процесса принятия решений по найму работников является привлекательным для работодателей, но, как мы увидели, создает существенные правовые проблемы, которые необходимо решать на законодательном уровне. Возможность принятия нормативных актов в данной сфере пока что находится в России на уровне научных дискуссий и концептуальных разработок, поэтому актуальным представляется обращение к исследованию передового опыта зарубежных стран.
2.1. Нормативное регулирование использования искусственного интеллекта для найма работников в США
Наибольший прогресс в урегулировании отношений по найму работников с использованием ИИ демонстрируют США, где на уровне отдельных штатов уже приняты соответствующие нормативно-правовые акты.
Иллинойс стал первым штатом, принявшим закон, специально регулирующий использование работодателями ИИ для проведения собеседований с потенциальными сотрудниками. Закон Иллинойса о видеоинтервью с использованием искусственного интеллекта (Artificial Intelligence Video Interview Act) вступил в силу в январе 2020 г.12 Данный закон требует от работодателей, которые «рассматривают кандидатов на должности, расположенные в Иллинойсе13», выполнить все следующие действия: прежде чем просить кандидатов предоставить видеоинтервью, уведомить
12 Artificial Intelligence Video Interview Act (820 ILCS 42). https://clck.ru/3CVz5D
13 Там же.
соискателей о том, что работодатель может использовать ИИ для анализа видеоинтервью соискателя и оценки его соответствия работе; предоставить соискателю информацию о том, как работает ИИ и какие общие характеристики он использует для оценки соискателей; получить согласие соискателя на то, чтобы его оценивал ИИ. Закон также устанавливает, что в течение 30 дней после получения запроса от соискателя работодатель должен удалить видеоинтервью с кандидатом и проинструктировать любое лицо, получившее копию видеоинтервью, сделать то же самое, включая все резервные копии, созданные в электронном виде.
Кроме того, 9 августа 2024 г. в штате Иллинойс был принят Закон о трудоустройстве с использованием искусственного интеллекта (HB3773)14. Этот Закон, вступающий в силу 1 января 2026 года, вносит изменения в Закон о правах человека штата Иллинойс (Illinois Human Rights Act) и направлен на предотвращение дискриминационных последствий использования ИИ в процессе принятия решений при трудоустройстве. Закон требует от работодателей уведомлять об использовании ИИ для следующих целей, связанных с трудоустройством: набор персонала, прием на работу, продвижение по службе, продление трудовых отношений, отбор на обучение или стажировку, увольнение, дисциплинарное взыскание, установление срока трудового договора.
Закон штата Мэриленд, принятый в марте 2020 г.15, требует от работодателей выполнения определенных требований для использования технологии распознавания лиц при собеседовании с соискателями. Закон предписывает работодателю получить подписанное согласие от соискателей, прежде чем он сможет использовать технологию распознавания лиц «с целью создания шаблона лица» во время собеседования.
Городской совет Нью-Йорка принял 11 декабря 2021 г. местный закон № 144 об автоматизированных инструментах принятия решений о приеме на работу (Automated Employment Decision Tools), который вступил в силу 5 июля 2023 г. Согласно закону № 144, автоматизированный инструмент принятия решения о приеме на работу - это любой вычислительный процесс, основанный на машинном обучении, статистическом моделировании, анализе данных или ИИ, который выдает упрощенный результат, включая оценку, классификацию или рекомендацию, используемый для существенной помощи или замены дискреционного принятия решений о приеме на работу, которые затрагивают физических лиц. Данный закон обязывает работодателей проводить «проверку на предвзятость» любого автоматизированного инструмента принятия решения о приеме на работу перед его использованием и уведомлять работников и кандидатов, проживающих в Нью-Йорке, об использовании работодателем таких инструментов при оценке или анализе для приема на работу или продвижения по службе, а также о должностных квалификациях и характеристиках, которые будет оценивать ИИ. Также работодатели обязаны уведомить кандидатов за десять дней до использования ИИ для принятия решения о найме.
17 мая 2024 г. Совет по гражданским правам штата Калифорния опубликовал Правила по защите от дискриминации при трудоустройстве в автоматизированных системах принятия решений (Regulationsto Protect Against Employment Discrimination in Automated Decision-Making Systems)16. Правила определяют автоматизированную
14 Illinois House Bill 3773 (2024, September 9). https://clck.ru/3DcoQm
15 Md. Code, Lab. & Empl. § 3-717. https://clck.ru/3CVzMD
16 Regulations to Protect Against Employment Discrimination in Automated Decision-Making Systems. (2024, 17 May). https://goo.su/FwwU
систему принятия решений как вычислительный процесс, в том числе основанный на машинном обучении, статистике или других методах обработки данных или ИИ, который проверяет, оценивает, классифицирует, рекомендует или иным образом принимает решение или облегчает принятие решения человеком, которое влияет на сотрудников или кандидатов. В Правилах подчеркивается, что использование автоматизированной системы принятия решений не заменяет требования об индивидуальной оценке соискателя.
Правила также вводят определение агента работодателя, включая в него любое лицо или третью сторону, которая обеспечивает администрирование автоматизированных систем принятия решений для использования работодателем при принятии решений о найме, которые могут привести к отказу в приеме на работу или иным образом негативно повлиять на условия, положения, льготы или привилегии при приеме на работу. Это означает, что работодатель несет ответственность за действия третьих лиц, которых работодатель нанимает для управления системами принятия решений, если эти системы принятия решений оказывают дискриминационное воздействие. Кроме того, Правила обязывают работодателей и все другие организации, подпадающие под действие положения, хранить любые кадровые или иные записи о трудоустройстве, «связанные с любой практикой трудоустройства и влияющие на любые трудовые преимущества любого кандидата или сотрудника (включая все заявления, кадровые, членские или рекомендательные записи или файлы, а также все данные машинного обучения)» в течение четырех лет.
17 мая 2024 г. в штате Колорадо был принят комплексный нормативный акт в сфере ИИ - Закон о защите прав потребителей при использовании искусственного интеллекта (Consumer Protections for Artificial Intelligence Act)17, в содержание которого включены нормы, касающиеся трудовых отношений. Закон, вступающий в силу 1 февраля 2026 г., распространяется как на разработчиков, так и на организации, внедряющие ИИ в свою работу, и требует проявлять «разумную осторожность», чтобы избежать дискриминационных алгоритмов. Закон направлен на «системы искусственного интеллекта высокого риска», под которыми понимаются любые системы ИИ, принимающие или являющиеся существенным фактором в принятии значимого решения, в том числе в сфере трудоустройства. Чтобы соответствовать закону, работодатели должны внедрить политику и программу управления рисками, ежегодно проводить оценку воздействия, уведомлять сотрудников или соискателей об использовании работодателем ИИ, если он используется для принятия решения в отношении работника или соискателя, сделать общедоступное заявление с кратким описанием типов систем высокого риска, которые использует работодатель. Работодатели обязаны сообщить генеральному прокурору Колорадо об обнаружении алгоритмической дискриминации в течение 90 дней с момента обнаружения.
Важную роль в продвижении потенциальных норм использования ИИ при найме работников в США исполняет Комиссия по соблюдению равноправия при трудоустройстве (EEOC). 28 октября 2021 г. EEOC выступила с «Инициативой по искусственному интеллекту и справедливости алгоритмов»18, в которой обозначила необходимость изучения практики применения ИИ при найме работников и выработки специальных руководств для работодателей, которые в последующем должны стать основой для правового регулирования на федеральном уровне.
17 Consumer Protections for Artificial Intelligence Act. (2024, 17 May). https://clck.ru/3DcuBv
18 EEOC Artificial Intelligence and Algorithmic Fairness Initiative. (2021,28 October). https://clck.ru/3CVzfn
12 мая 2022 г. EEOC выпустила руководство «Закон об американцах с ограниченными возможностями и использование программного обеспечения, алгоритмов и искусственного интеллекта для оценки кандидатов на работу и сотрудников»19. В данном руководстве EEOC выделяет три наиболее распространенных способа, которыми использование работодателями ИИ может нарушать права лиц с ограниченными возможностями.
Во-первых, работодатель может нарушить права лиц с ограниченными возможностями, если потребует от соискателя с инвалидностью, мешающей ему работать руками, пройти тест на знание предмета, требующий использования клавиатуры или трекпада, без каких-либо приспособлений или альтернативной версии теста.
Во-вторых, алгоритм, который использует работодатель, может намеренно или ненамеренно отсеять человека с инвалидностью, даже если он способен выполнять работу с разумными приспособлениями. Это может произойти, например, если программное обеспечение для проведения собеседования, предназначенное для анализа навыков соискателя по решению проблем, поставит более низкие оценки кандидату на работу с дефектом речи, из-за которого программе трудно интерпретировать его ответ в соответствии с речевым шаблоном, который программа была обучена распознавать.
В-третьих, алгоритмический инструмент принятия решений, который работодатель использует для оценки кандидатов на работу, может нарушить ограничения на вопросы, связанные с инвалидностью, и медицинскими обследованиями, для лиц с ограниченными возможностями. Такое нарушение может произойти, если инструмент ИИ, который работодатель использует для оценки кандидатов, задает вопросы (напрямую) о наличии инвалидности, либо может вызвать ответ, содержащий информацию о наличии инвалидности у человека.
18 мая 2023 г. EEOC издала документ «Избранные вопросы: Оценка неблагоприятного воздействия программного обеспечения, алгоритмов и искусственного интеллекта, используемых в процедурах отбора при приеме на работу»20, в котором изложила свое видение дальнейшего урегулирования найма работников с использованием ИИ.
Во-первых, процесс отбора соискателей, в котором используется ИИ, может быть признан дискриминационным, если показатель отбора лиц определенной расы, цвета кожи, религии, пола или национального происхождения или комбинации таких характеристик (например, сочетание расы и пола) составляет менее 80 % от показателя незащищенной группы. Имеется в виду ситуация, схожая с уже рассмотренным случаем в компании Amazon, когда ИИ осуществил выбор кандидата, основываясь на предыдущем опыте отбора на должности, и предпочел преимущественно мужчин.
Во-вторых, работодатели несут ответственность за любое негативное воздействие, вызванное инструментами ИИ, которые приобретаются или используются сторонними поставщиками ИИ, и не могут полагаться на собственные прогнозы или
19 EEOC The Americans with Disabilities Act and the Use of Software, Algorithms, and Artificial Intelligence to Assess Job Applicants and Employees. (2022, 12 May). https://clck.ru/3CVzk3
20 EEOC Select Issues: Assessing Adverse Impact in Software, Algorithms, and Artificial Intelligence Used in Employment Selection Procedures Under Title VII of the Civil Rights Act of 1964. (2023, May 18). https://clck.ru/3CVzoG
исследования поставщиков ИИ о том, окажут ли их инструменты ИИ негативное воздействие на соискателей. В данном случае подтверждается мысль об отсутствии правосубъектности у ИИ и возложении ответственности за принятые решения алгоритмом на работодателя.
В-третьих, работодатели должны систематически проверять инструменты ИИ, чтобы убедиться, что они не являются дискриминационными. Если существует вероятность того, что инструмент ИИ оказывает неравное воздействие, работодатель должен доказать, что использование этого инструмента связано с работой и соответствует деловой необходимости и что нет менее дискриминационных альтернатив, которые были бы столь же эффективны. Данная рекомендация EEOC должна содействовать выявлению в программном обеспечении ИИ для найма работников предвзятых алгоритмов.
18 мая 2023 г. Бюро финансовой защиты потребителей (CFPB), Министерство юстиции (DOJ), Комиссия по соблюдению равноправия при трудоустройстве (EEOC) и Федеральная торговая комиссия (FTC) опубликовали совместное заявление по поводу дискриминации и предвзятости21, в котором подчеркиваются три направления по регулированию ИИ при найме работников:
1) применение существующих правовых норм - существующие законы и нормативные акты в равной степени применимы к использованию автоматизированных систем и новых технологий, ведомства будут применять существующие правовые основы к ИИ;
2) устранение вредных последствий - ИИ может увековечить незаконную предвзятость, автоматизировать незаконную дискриминацию и привести к другим вредным последствиям, что подчеркивает необходимость бдительности при использовании ИИ в практике трудоустройства;
3) защита индивидуальных прав - обязательной является защита прав человека от дискриминационной практики ИИ.
24 апреля 2024 г. Министерство труда США (DOL) выпустило Руководство о том, как работодателям из числа федеральных подрядчиков следует вести себя при использовании ИИ для найма работников (Artificial Intelligence and Equal Employment Opportunity for Federal Contractors)22. Согласно Руководству федеральные подрядчики обязаны: обосновать необходимость использования ИИ для найма работников; проанализировать, насколько процедура отбора с помощью ИИ связана с работой; проводить мониторинг используемых программ ИИ на предмет наличия предвзятых алгоритмов; изучить потенциально менее дискриминационные альтернативные процедуры отбора соискателей. В Руководстве подчеркивается, что полное исключение человека из процесса может привести к нарушению федеральных законов о занятости. Федеральный подрядчик несет ответственность за использование продуктов и услуг третьих лиц для найма работников с применением ИИ. Также Руководство закрепляет перечень «перспективных практик», которых рекомендуется придерживаться федеральным подрядчикам: заранее уведомлять
21 Joint statement on enforcement efforts against discrimination and bias in automated systems. (2023, April 25). https://clck.ru/3CVzxw
22 Artificial Intelligence and Equal Employment Opportunity for Federal Contractors (2024, April 24). https://clck.ru/3Dcv8d
соискателей об использовании ИИ при найме; прозрачно прояснять соискателям политику и процедуру использования ИИ для найма; убедиться, что система ИИ, полученная от поставщика, может быть подвергнута контролю и мониторингу; проводить тестирование системы ИИ, используемую для найма работников, и приспособить ее для отдельных защищенных категорий населения; контролировать использование ИИ при принятии решений о трудоустройстве и отслеживать получаемые данные для дальнейшей стандартизации и усовершенствования алгоритмов.
2.2. Нормативное регулирование использования искусственного интеллекта для найма работников в Европейском союзе
В отличие от США, где федеральным законодательством все еще не урегулированы вопросы использования ИИ для найма работников, в Европейском союзе 21 мая 2024 г. был принят Регламент ЕС об искусственном интеллекте (Artificial Intelligence Act)23, который предусматривает создание общей нормативной базы для использования ИИ. Данный Регламент содержит нормы, регулирующие использование ИИ в трудовых отношениях, в частности при найме работников.
Регламентом устанавливаются три категории программных продуктов (систем) ИИ, разделенных по степени риска, согласно которым осуществляется регулирование их использования: запрещенные системы (с недопустимой степенью риска); системы с высокой степенью риска; остальные системы ИИ (общего назначения, общего назначения с системными рисками). Последняя категория программных продуктов ИИ на данном этапе не подпадает под действие Регламента и специально не регулируется.
Недопустимый риск предполагает запрет применения эмоционального ИИ в процессе трудоустройства (исключение - медицинские показания и соображения безопасности), целенаправленного использования программных продуктов ИИ для выявления определенных уязвимостей (в силу возраста, инвалидности, конкретной социальной или экономической ситуации кандидатов) или категоризации людей на основе биометрических либо персональных данных (путем определения расы, политических взглядов, членства в профсоюзе, религиозных, философских убеждений соискателей). Также к запрещенным системам ИИ в контексте найма работников ст. 5 Регламента относит те, которые используют методы подсознательного либо манипулятивного воздействия с целью искажения поведения кандидата путем существенного ухудшения его способности принимать обоснованные решения; осуществляют скоринговую оценку на основе социального поведения или известных, предполагаемых или прогнозируемых личных характеристик (например, чтобы сделать прогноз о возможном увольнении работника на основе предыдущего опыта трудовой деятельности); создают или расширяют базы данных распознавания лиц посредством нецелевого извлечения изображений лиц из Интернета или видеозаписей с камер видеонаблюдения.
23 Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act). https://clck.ru/3DdUr7
К системам ИИ высокой степени риска Регламент относит программные продукты, используемые, в частности, для найма и отбора людей (размещение целевых объявлений о приеме на работу, анализ и фильтрация заявлений о приеме на работу, оценка кандидатов), для принятия решений, влияющих на условия трудовых отношений, продвижения по службе и прекращения трудовых отношений, для распределения задач на основе индивидуального поведения, личных черт или характеристик и для мониторинга или оценки людей в трудовых отношениях. По мнению авторов Регламента, эти системы ИИ могут оказать значительное влияние на будущие карьерные перспективы, средства к существованию людей и права работников, увековечивать исторически сложившиеся модели дискриминации, например, в отношении женщин, определенных возрастных групп, инвалидов, лиц определенного расового или этнического происхождения, нарушать их основные права на защиту персональных данных и неприкосновенность частной жизни24.
Не рассматриваются в качестве систем высокой степени риска, согласно ст. 6 Регламента, программные продукты ИИ, если они не представляют значительного риска причинения вреда здоровью, безопасности или основным правам физических лиц, в том числе из-за отсутствия существенного влияния на результаты принятия решений, в случае выполнения одного или нескольких из следующих критериев: a) система ИИ предназначена для выполнения узкой процедурной задачи; b) система ИИ предназначена для улучшения результата ранее выполненного человеком действия; c) система ИИ предназначена для выявления моделей принятия решений или отклонений от предыдущих моделей принятия решений и не предназначена для замены или влияния на ранее проведенную человеком оценку без надлежащей проверки со стороны человека; d) система ИИ предназначена для выполнения подготовительной задачи к оценке, соответствующей целям примеров использования перечисленных в Приложении III Регламента (например, в случае предварительной каталогизации заявлений от кандидатов с помощью алгоритма ИИ).
Регламент содержит способы управления рисками для программных продуктов ИИ с высокой степенью риска. К таким способам относится: тестирование системы ИИ (идентификация и анализ прогнозируемых рисков); оценка рисков с участием и без участия нотифицированного органа (на протяжении всего жизненного цикла системы ИИ); разработка и принятие надлежащих и целенаправленных мер по управлению рисками. Управление рисками возложено на развертывателя (deployer) - лицо, использующее систему ИИ в соответствии с его полномочиями (за исключением случаев, когда система ИИ используется для личной непрофессиональной деятельности). Развертывателем может быть как работодатель, так и лицо, которое по заданию работодателя использует систему ИИ в целях отбора и найма работников.
Регламентом закрепляются обязанности развертывателей систем ИИ высокой степени риска, которые в том числе должны нивелировать потенциальные нарушения прав соискателей. Например, развертыватели обязаны обеспечить достаточную степень прозрачности работы системы ИИ высокой степени риска (то есть система
24 Там же.
ИИ должна проектироваться и использоваться таким образом, чтобы позволить интерпретировать выходные данные системы и использовать их надлежащим образом); информировать соискателей и работников о том, что на них будет распространяться действие системы ИИ высокой степени риска; гарантировать надлежащий уровень точности, надежности и кибербезопасности системы ИИ высокой степени риска (системы ИИ высокой степени риска должны быть устойчивы к несанкционированным попыткам третьих лиц изменить алгоритмы их использования, результаты или производительность из-за уязвимости системы). При использовании систем ИИ высокой степени риска Регламент рекомендует не полагаться исключительно на автоматически принятые решения и задействовать людей для их финальной проверки или оценки.
Результаты работы алгоритмов, предоставляемые системами ИИ высокой степени риска при найме работников, могут быть под влиянием предубеждений, которые склонны постепенно усиливаться путем машинного обучения и тем самым закреплять и усиливать существующую дискриминацию, в частности в отношении лиц, принадлежащих к определенным уязвимым группам. Поэтому Регламент обращает внимание на недопустимость предвзятости алгоритмов в системах ИИ высокой степени риска. В частности, наборы больших данных в системах ИИ должны учитывать в той степени, в которой этого требует их целевое назначение, особенности, характеристики или элементы, свойственные конкретным географическим, контекстуальным, поведенческим или функциональным условиям, в которых предполагается использовать систему ИИ. Системы ИИ высокой степени риска, которые продолжают обучаться после ввода развертывателями в эксплуатацию, должны разрабатываться таким образом, чтобы устранить или максимально снизить риск возможного влияния предвзятости и необъективных результатов на исходные данные для будущих операций.
Таким образом, зарубежный опыт демонстрирует основные направления правового регулирования использования ИИ для найма работников, которые соответствуют ранее выделенным правовым проблемам в данной сфере: положения, касающиеся применения ИИ для найма, должны содержать требования о прозрачности и согласованности сбора, обработки и хранения информации, непредвзятости алгоритмов и их периодическом мониторинге, ответственности работодателя за решения, принятые ИИ при найме работников.
Заключение
Интенсивное внедрение ИИ в сферу управления трудом, в частности наем работников, формирует как потенциальные возможности, так и существенные риски. С одной стороны, ИИ может значительно оптимизировать и улучшить эффективность процедур по найму работников, а с другой - возникают проблемы правового характера, связанные с нарушением прав соискателей и ответственностью работодателя за ошибки алгоритмов.
Соответственно, учитывая выделенные проблемы и исследованный зарубежный опыт, для российского законодателя актуальной представляется разработка и включение в трудовое законодательство следующих положений согласно трем основным направлениям регулирования использования ИИ для найма работников.
I. Прозрачность и согласованность сбора, обработки и хранения информации при использовании ИИ для найма работников.
Глава 14 Трудового кодекса РФ (далее - ТК РФ) закрепляет нормы, касающиеся защиты персональных данных работников, в том числе относящихся к обеспечению прозрачности и согласованности сбора, обработки, хранения и использования таких данных. Разумным представляется распространение положений данной главы на соискателей и лиц, поступающих на работу, и дополнение соответствующих статей главы 14 ТК РФ такими положениями: работодатель обязан заранее письменно уведомить соискателей о том, что ИИ может быть использован для сбора, обработки и анализа их персональных данных; работодатель обязан заранее письменно уведомить соискателей об использовании ИИ для проведения и анализа видеоинтервью; работодатели должны объяснить, какой программный продукт ИИ используется, как он работает и какие характеристики применяются для оценки деловых качеств соискателей; соискатели должны дать свое письменное согласие на оценку их деловых качеств с помощью программного обеспечения ИИ; работодатель не имеет права передавать видеозаписи соискателя другим лицам, в том числе разработчикам программного обеспечения; работодатель обязан удалить данные, полученные ИИ о соискателе, в том числе в ходе видеоинтервью, в течение 15 дней после получения письменного требования от соискателя; работодатель не имеет права использовать технологию ИИ для найма инвалидов.
Перечень и объем персональных данных, который допустимо обрабатывать с помощью ИИ при найме, следует урегулировать с помощью механизма стандартизации. Необходимо заметить, что в 2020 г. Федеральным агентством по техническому регулированию и метрологии была разработана Перспективная программа стандартизации по приоритетному направлению «Искусственный интеллект» на период 2021-2024 гг., предусматривающая разработку 217 стандартов, среди которых не нашлось места стандартам в сфере использования ИИ для найма работников. В данном случае нужно учесть положения ГОСТ Р 59277-2020б от 03.01.2021, которым утвержден «Национальный стандарт системы искусственного интеллекта. Классификация систем искусственного интеллекта». Национальный стандарт системы ИИ содержит классификацию информации в зависимости от соответствия следующим классам конфиденциальности: класс «0» - открытая информация; класс «1» - внутренняя информация; класс «2» - конфиденциальная информация; класс «3» - секретная информация. Данная классификация должна позволить закодировать в системах ИИ для найма работников четкий перечень и допустимые пределы сбора информации о соискателях.
II. Непредвзятость алгоритмов ИИ для найма работников.
Крайне важно кодировать программы ИИ для найма работников так, чтобы избежать предвзятости алгоритмов и, как следствие, дискриминации и необоснованного отказа в приеме на работу. Инструментом обеспечения непредвзятости алгоритмов ИИ для найма работников может стать обязательная сертификация соответствующего программного обеспечения.
Сертификация программного обеспечения и алгоритмов ИИ на сегодняшний день не является в России обязательной, согласно Постановлению Правительства РФ от 01.12.2009 № 982 «Об утверждении единого перечня продукции, подлежащей обязательной сертификации, и единого перечня продукции, подтверждение соответствия
которой осуществляется в форме принятия декларации о соответствии»25, где указывается, что программное обеспечение проходит подтверждение соответствия с заявленными производителем техническими условиями или государственными стандартами исключительно в добровольной системе сертификации продукции. В свою очередь, развитие систем ИИ и возникновение существенных рисков, связанных с возможным нарушением трудовых прав граждан, требует включения в перечень продукции, подлежащей обязательной сертификации, программ ИИ и машинного обучения на основе разработанных государственных стандартов, а также периодического мониторинга. Поэтому следует обязать работодателей проводить обязательный ежегодный мониторинг используемой технологии ИИ для найма и направлять отчет о проведенном мониторинге в тот центр по сертификации, где программа, которую использует работодатель, проходила сертификацию.
Также актуальным представляется рассмотрение вопроса о запрете использования работодателями даже при наличии согласия соискателя скоринговых моделей ИИ для найма работников как имеющих значительный риск предвзятости при прогнозировании трудового поведения соискателя.
III. Ответственность работодателя за принятые генеративным алгоритмом решения о найме работников.
ИИ не может обладать правосубъектностью и быть ответственным за результаты сбора, обработки и анализа данных соискателей и принятие решений о найме. Более того, данная позиция уже отображена в п. 6 ч. 1 ст. 86 действующего ТК РФ, где закрепляется, что при принятии решений, затрагивающих интересы работника, работодатель не имеет права основываться на персональных данных работника, полученных исключительно в результате их автоматизированной обработки или электронного получения. Данная норма должна быть распространена также на соискателей и лиц, поступающих на работу. То есть работодатели несут ответственность за любое негативное воздействие, вызванное инструментами ИИ. Кроме того, работодатель несет ответственность за действия третьих лиц, которых работодатель нанимает для управления системами принятия решений, в том числе автоматизированными, если такие системы принятия решений оказывают дискриминационное воздействие. Последнее положение также актуально закрепить в ст. 90 ТК РФ.
Список литературы
Новиков, Д. А. (2023). Критические замечания относительно либерального понимания в социологических и правовых исследованиях феномена труда в информационном обществе. Ежегодник трудового права, 13, 81-91. https://doi.org/10.21638/spbu32.2023.105 Федосеева, О. В. (2021). К вопросу о создании и развитии эмоционального искусственного интеллекта.
Россия: тенденции и перспективы развития, 16-1, 674-676.
Харитонова, Ю. С., Савина, В. С., Паньини, Ф. (2021). Предвзятость алгоритмов искусственного интеллекта: вопросы этики и права. Вестник Пермского университета. Юридические науки, 53, 488-515. https://doi.org/10.17072/1995-4190-2021-53-488-515
Хисамова, З. И., Бегишев, И. Р. (2020). Сущность искусственного интеллекта и проблема определения правосубъектности. Московский юридический журнал, 2, 96-106. https://doi.org/10.18384/2310-6794-2020-2-96-106
25 Постановление Правительства РФ от 01.12.2009 № 982. КонсультантПлюс. https://clck.ru/3EPpur
Щербакова, О. В. (2021). Использование программ искусственного интеллекта при найме работников. Электронное приложение к Российскому юридическому журналу, 3, 72-76. https://doi.org/10.34076 /22196838_2021_3_72
Basu, N., & Dave, R. (2024). Artificial intelligence and job sector - need for laws. Educational Administration: Theory And Practice, 30(3), 690-701. https://doi.org/10.53555/kuey.v30i3.1337 Bigman, Y. E., Wilson, D., Arnestad, M. N., Waytz, A., & Gray, K. (2023). Algorithmic discrimination causes less moral outrage than human discrimination. Journal of Experimental Psychology: General, 152(1), 4-27. https://doi.org/10.1037/xge0001250
Chen, L., Ma, R., Hannak, A., & Wilson, C. (2018). Investigating the impact of gender on rank in resume search engines. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems, 651, 1 -14. https://doi.org/10.1145/3173574.3174225
Chen, Z. (2023). Ethics and discrimination in artificial intelligence-enabled recruitment practices. Humanities and Social Sciences Communications, 10, 567. https://doi.org/10.1057/s41599-023-02079-x De Stefano, V. (2019). "Negotiating the algorithm": automation, artificial intelligence and labor protection.
Comparative Labor Law & Policy Journal, 41 (1), 15-46. https://doi.org/10.2139/ssrn.3178233 Estrada, G, Coronado, M., Soria, Y., Jimenez, S., Cristobal, J., Torres, E., Camargo, M., Taipe, M., Aparicio, S., Luis, J., & Briceno B. (2024). Inteligencia artificial en la gestion de los recursos humanos. Revista de Climatologla Edici'on Especial Ciencias Sociales, 24, 2082-2092.
Fuller, J., B. Raman M., Sage-Gavin, E., Hines, K. et al. (2021). Hidden workers: untapped talent. Harvard Business School Project on Managing the Future of Work and Accenture.
Ginu, G., Mary, T., Anusha, B., & Anson, M. (2021). A systematic review of artificial intelligence and hiring: Present Position and Future Research Areas. Indian Journal of Economics and Business, 20(2), 57-70. http://dx.doi. org/10.5281/zenodo.5407602
Haenlein, M., & Kaplan, A. (2019). A brief history of artificial intelligence: On the past, present, and future of artificial intelligence. California Management Review, 61(4), 5-14. https://doi.org/10.1177/0008125619864925 Hunkenschroer, A. L., & Kriebitz, A. (2023). Is AI recruiting (un)ethical? A human rights perspective on the use of AI for hiring. AI Ethics, 3, 199-213. https://doi.org/10.1007/s43681-022-00166-4 Ivanova, M., Bronowicka, J., Kocher, E., & Degner, A. (2018). The App as a Boss? Control and Autonomy in Application-Based Management: Working Paper. Europa-Universitat Viadrina Frankfurt. https://doi. org/10.11584/arbeit-grenze-fluss.2
Jackson, M. (2021). Artificial intelligence & algorithmic bias: the issues with technology reflecting history & humans. Journal of Business & Technology Law, 16(2), 299-316.
Jarrahi, M. H. (2018). Artificial intelligence and the future of work: Human-AI symbiosis in organizational decision making. Business Horizons, 61(4), 577-586. https://doi.org/10.1016/j.bushor.2018.03.007 Kochling, A., & Wehner, M. C. (2020). Discriminated by an algorithm: a systematic preview of discrimination and fairness by algorithmic decision-making in the context of HR recruitment and HR development. Business Research, 13, 795-848. https://doi.org/10.1007/s40685-020-00134-w Kuncel, N., Klieger, D., & Ones, D. (2014). In hiring, algorithms beat instinct. Harvard Business Review, 92(5), 32. Langer, M., Cornelius, J. K., & Andromachi, F. (2023). Information as a double-edged sword: the role of computer experience and information on applicant reactions towards novel technologies for personnel selection. Computers in Human Behavior, 81, 19-30. https://doi.org/10.1016/j.chb.2017.11.036 Langer, M., Konig, C. J., Sanchez, D. R.-P, & Samadi, S. (2019). Highly automated interviews: applicant reactions and the organizational context. Journal of Managerial Psychology, 35(4), 301-314. https://doi.org/10.1108/ jmp-09-2018-0402
Lee, M. K. (2018). Understanding perception of algorithmic decisions: fairness, trust, and emotion in response to algorithmic management. Big Data & Society, 5(1), 1-16. https://doi.org/10.1177/2053951718756684 Lorincz, G. (2018). Kommentar a munka torvenykonyverol szolo 2032. evi I. torvenyhez: Munkajogi sci-fi. Pecsi Munkajogi Kozlemenyek, 11 (1-2), 7-34.
Lukacs, A., & Varadi S. (2023). GDPR-compliant AI-based automated decision-making in the world of work.
Computer Law & Security Review, 50, 105848. https://doi.org/10.1016/j.clsr.2023.105848 Pradeep, T. (2024). Labour law in the era of artificial intelligence and automation. International Journal For Multidisciplinary Research, 6(2). https://doi.org/10.36948/ijfmr.2024.v06i02.16324 Reddy, S. (2022). The legal issues regarding the use of artificial intelligence to screen social media profiles for the hiring of prospective employees. Obiter, 43(2), 113-131. https://doi.org/10.17159/obiter.v43i2.14254 Serova, A. V., & Shcherbakova, O. V. (2022). The employee's right to privacy transformation: digitalization challenges. Kutafin Law Review, 9(3), 437-465. https://doi.org/10.17803/2713-0525.2022.3.21.437-465 Sivathanu, B., & Pillai, R. (2018). Smart HR 4.0 - how industry 4.0 is disrupting HR. Human Resource Management International Digest, 26(4), 7-11. https://doi.org/10.1108/hrmid-04-2018-0059
Сведения об авторе
Новиков Денис Александрович - кандидат юридических наук, доцент, доцент кафедры трудового и социального права, Санкт-Петербургский государственный университет
Адрес: 199034, Россия, г. Санкт-Петербург, Университетская наб., 7-9 E-mail: [email protected] ORCID ID: https://orcid.org/0000-0003-2727-5357
Scopus Author ID: https://www.scopus.com/authid/detaiLuri?authorId=57218897105 WoS Researcher ID: https://www.webofscience.com/wos/author/record/CAA-7871-2022 Google Scholar ID: https://scholar.google.com/citations?user=gEjH4S4AAAAJ РИНЦ Author ID: https://elibrary.ru/author_items.asp?authorid=1149154
Конфликт интересов
Автор сообщает об отсутствии конфликта интересов.
Финансирование
Исследование не имело спонсорской поддержки.
Тематические рубрики
Рубрика OECD: 5.05 / Law Рубрика ASJC: 3308 / Law Рубрика WoS: OM / Law
Рубрика ГРНТИ: 10.63.33 / Трудовые ресурсы. Трудоустройство Специальность ВАК: 5.1.3 / Частно-правовые (цивилистические) науки
История статьи
Дата поступления - 6 августа 2023 г.
Дата одобрения после рецензирования - 22 августа 2023 г.
Дата принятия к опубликованию - 25 сентября 2024 г.
Дата онлайн-размещения - 30 сентября 2024 г.
Research article
UDC 34:004:349.2:004.8
EDN: https://elibrary.ru/chpesp
DOI: https://doi.org/10.21202/jdtl.2024.31
Using Artificial Intelligence in Employment: Problems and Prospects of Legal Regulation
Novikov Denis A. 0
Saint Petersburg State University, Saint Petersburg, Russia
Keywords Abstract
algorithm,
artificial intelligence, digital technologies, employee, employer,
hiring of an employee,
labor law,
law,
legislation, personal data
Objective: to identify the legal problems of using artificial intelligence in hiring employees and the main directions of solving them.
Methods: formal-legal analysis, comparative-legal analysis, legal forecasting, legal modeling, synthesis, induction, deduction.
Results: a number of legal problems arising from the use of artificial intelligence in hiring were identified, among which are: protection of the applicant's personal data, obtained with the use of artificial intelligence; discrimination and unjustified refusal to hire due to the bias of artificial intelligence algorithms; legal responsibility for the decision made by a generative algorithm during hiring. The author believes that for the optimal solution of these problems, it is necessary to look at the best practices of foreign countries, first of all, those which have adopted special laws on the regulation of artificial intelligence for hiring and developed guidelines for employers using generative algorithms for similar purposes. Also, the European Union's and USA's legislative work in the area of managing risks arising from the use of artificial intelligence should be taken into account.
Scientific novelty: the article contains a comprehensive study of legal problems arising from the use of artificial intelligence in hiring and foreign experience in solving these problems, which allowed the author to develop recommendations to improve Russian legislation in this area. As for the problem of applicants' personal data protection when using artificial intelligence for hiring, the author proposes to solve it by supplementing the labor legislation with norms that enshrine the requirements for transparency and consistency in the collection, processing and storage of information
© Novikov D. A., 2024
This is an Open Access article, distributed under the terms of the Creative Commons Attribution licence (CC BY 4.0) (https://creativecommons.org/licenses/by/4.0), which permits unrestricted re-use, distribution and reproduction, provided the original article is properly cited.
when using generative algorithms. The list and scope of personal data allowed for collection should be reflected in a special state standard. The solution to the problem of discrimination due to biased algorithms is seen in the mandatory certification and annual monitoring of artificial intelligence software for hiring, as well as the prohibition of scoring tools for evaluating applicants. The author adheres to the position that artificial intelligence cannot "decide the fate" of a job seeker: the responsibility for the decisions made by the algorithm is solely on the employer, including in cases of involving third parties for the selection of employees.
Practical significance: the obtained results can be used to accelerate the development and adoption of legal norms, rules, tools and standards in the field of using artificial intelligence for hiring. The lack of adequate legal regulation in this area creates significant risks both for human rights and for the development of industries that use generative algorithms to hire employees.
For citation
Novikov, D. A. (2024). Using Artificial Intelligence in Employment: Problems and Prospects of Legal Regulation. Journal of Digital Technologies and Law, 2(3), 611-635. https://doi.Org/10.21202/jdtl.2024.31
References
Basu, N., & Dave, R. (2024). Artificial intelligence and job sector - need for laws. Educational Administration: Theory And Practice, 30(3), 690-701. https://doi.org/10.53555/kuey.v30i3.1337
Bigman, Y. E., Wilson, D., Arnestad, M. N., Waytz, A., & Gray, K. (2023). Algorithmic discrimination causes less moral outrage than human discrimination. Journal of Experimental Psychology: General, 152(1), 4-27. https://doi.org/10.1037/xge0001250
Chen, L., Ma, R., Hannak, A. & Wilson, C. (2018). Investigating the impact of gender on rank in resume search engines. Proceedings of the 2018 chi conference on human factors in computing systems, 651, 1-14. https://doi.org/10.1145/3173574.3174225
Chen, Z. (2023). Ethics and discrimination in artificial intelligence-enabled recruitment practices. Humanities and Social Sciences Communications, 10. https://doi.org/10.1057/s41599-023-02079-x
De Stefano, V. (2019). "Negotiating the algorithm": automation, artificial intelligence and labor protection. Comparative Labor Law & Policy Journal, 41 (1), 15-46. https://doi.org/10.2139/ssrn.3178233
Estrada, G, Coronado, M., Soria, Y., Jimenez, S., Cristobal, J., Torres, E., Camargo, M., Taipe, M., Aparicio, S., Luis, J., & Briceno B. (2024). Inteligencia artificial en la gestion de los recursos humanos. Revista de Climatologla Edici'on Especial Ciencias Sociales, 24, 2082-2092. (In Spanish).
Fedoseeva, O. V. (2021). On creating and developing emotional artificial intelligence. Rossiya: tendencii i perspektivy razvitiya, 16-1, 674-676. (In Russ.).
Fuller, J., B. Raman M., Sage-Gavin, E., Hines, K. et al. (2021). Hidden workers: untapped talent. Harvard Business School Project on Managing the Future of Work and Accenture.
Ginu, G., Mary, T., Anusha, B., & Anson, M. (2021). A systematic review of artificial intelligence and hiring: Present Position and Future Research Areas. Indian Journal of Economics and Business, 20(2), 57-70. http://dx.doi.org/10.5281/zenodo.5407602
Haenlein, M. & Kaplan, A. (2019). A brief history of artificial intelligence: On the past, present, and future of artificial intelligence. California Management Review, 61(4), 5-14. https://doi.org/10.1177/0008125619864925
Hisamova, Z. I., & Begishev, I. R. (2020). The nature of artificial intelligence and the problem of legal personality determination. Moscow Juridical Journal, 2, 96-106. (In Russ.). https://doi.org/10.18384/2310-6794-2020-2-96-106
Hunkenschroer, A. L., & Kriebitz, A. (2023). Is AI recruiting (un)ethical? A human rights perspective on the use of AI for hiring. AI Ethics, 3, 199-213. https://doi.org/10.1007/s43681-022-00166-4 Ivanova, M., Bronowicka, J., Kocher, E., & Degner, A. (2018). The App as a Boss? Control and Autonomy in Application-Based Management: Working Paper. Europa-Universitat Viadrina Frankfurt. https://doi. org/10.11584/arbeit-grenze-fluss.2
Jackson, M. (2021). Artificial intelligence & algorithmic bias: the issues with technology reflecting history & humans. Journal of Business & Technology Law, 16(2), 299-316.
Jarrahi, M. H. (2018). Artificial intelligence and the future of work: Human-AI symbiosis in organizational decision making. Business Horizons, 61(4), 577-586. https://doi.org/10.1016/j.bushor.2018.03.007 Kharitonova, Yu. S., Savina, V. S., & Pagnini, F. (2021). Artificial intelligence's algorithmic bias: ethical and legal Issues. Perm University Herald. Juridical Sciences, 53, 488-515. (In Russ.). https://doi.org/10.17072/1995-4190-2021-53-488-515
Kochling, A., & Wehner, M. C. (2020). Discriminated by an algorithm: a systematic preview of discrimination and fairness by algorithmic decision-making in the context of HR recruitment and HR development. Business Research, 13, 795-848. https://doi.org/10.1007/s40685-020-00134-w Kuncel, N., Klieger, D., & Ones, D. (2014). In hiring, algorithms beat instinct. Harvard Business Review, 92(5), 32. Langer, M., Cornelius, J. K., & Andromachi, F. (2023). Information as a double-edged sword: the role of computer experience and information on applicant reactions towards novel technologies for personnel selection. Computers in Human Behavior, 81, 19-30. https://doi.org/10.1016/j.chb.2017.11.036 Langer, M., Konig, C. J., Sanchez, D. R.-P, & Samadi, S. (2019). Highly automated interviews: applicant reactions and the organizational context. Journal of Managerial Psychology, 35(4), 301-314. https://doi.org/10.1108/ jmp-09-2018-0402
Lee, M. K. (2018). Understanding perception of algorithmic decisions: fairness, trust, and emotion in response to algorithmic management. Big Data & Society, 5(1), 1-16. https://doi.org/10.1177/2053951718756684 Lorincz, G. (2018). Kommentar a munka torvenykonyverol szolo 2032. evi I. torvenyhez: Munkajogi sci-fi. Pecsi Munkajogi Kozlemenyek, 11(1-2), 7-34. (In Hungarian)
Lukacs, A., & Varadi S. (2023). GDPR-compliant AI-based automated decision-making in the world of work.
Computer Law & Security Review, 50, 105848. https://doi.org/10.1016/j.clsr.2023.105848 Novikov, D. A. (2023). Critical remarks on the liberal understanding in sociological and legal studies of the phenomenon of labour in the information society. Russian Journal of Labour & Law, 13, 81 -91. (In Russ.). https://doi.org/10.21638/spbu32.2023.105
Pradeep, T. (2024). Labour law in the era of artificial intelligence and automation. International Journal For Multidisciplinary Research, 6(2). https://doi.org/10.36948/ijfmr.2024.v06i02.16324 Reddy, S. (2022). The legal issues regarding the use of artificial intelligence to screen social media profiles for the hiring of prospective employees. Obiter, 43(2), 113-131. https://doi.org/10.17159/obiter.v43i2.14254 Serova, A. V., & Shcherbakova, O. V. (2022). The employee's right to privacy transformation: digitalization challenges. Kutafin Law Review, 9(3), 437-465. https://doi.org/10.17803/2713-0525.2022.3.21.437-465 Shcherbakova, O. V. (2021). The use of artificial intelligence programs when recruiting employees. Electronic Supplement to the Russian Juridical Journal, 3, 72-76. (In Russ.). https://doi. org/10.34076/22196838_2021_3_72
Sivathanu, B., & Pillai, R. (2018). Smart HR 4.0 - how industry 4.0 is disrupting HR. Human Resource Management International Digest, 26(4), 7-11. https://doi.org/10.1108/hrmid-04-2018-0059
Author information
Denis A. Novikov - Cand. Sci. (Law), Associate Professor, Department of Labor and
Social Law, Saint Petersburg State University
Address: 7-9 Universitetskaya nab., 199034 Saint Petersburg, Russia
E-mail: [email protected]
ORCID ID: https://orcid.org/0000-0003-2727-5357
Scopus Author ID: https://www.scopus.com/authid/detail.uri?authorId=57218897105 WoS Researcher ID: https://www.webofscience.com/wos/author/record/CAA-7871-2022 Google Scholar ID: https://scholar.google.com/citations?user=gEjH4S4AAAAJ RSCI Author ID: https://elibrary.ru/author_items.asp?authorid=1149154
Conflict of interests
The author declares no conflict of interests.
Financial disclosure
The research had no sponsorship.
Thematic rubrics
OECD: 5.05 / Law РASJC: 3308 / Law WoS: OM / Law
Article history
Date of receipt - August 6, 2023 Date of approval - August 22, 2023 Date of acceptance - September 25, 2024 Date of online placement - September 30, 2024