Научная статья на тему 'ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРОБЛЕМА ПРОЗРАЧНОСТИ АВТОМАТИЗИРОВАННОГО ПРИНЯТИЯ РЕШЕНИЙ В СФЕРЕ ТРУДА'

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРОБЛЕМА ПРОЗРАЧНОСТИ АВТОМАТИЗИРОВАННОГО ПРИНЯТИЯ РЕШЕНИЙ В СФЕРЕ ТРУДА Текст научной статьи по специальности «Право»

CC BY
15
3
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / автоматизированное принятие решений / персональные данные / прозрачность / трудовое право / трудовые отношения / artificial intelligence / automated decision-making / personal data / transparency / labor law / labor relations

Аннотация научной статьи по праву, автор научной работы — И.В. Крылов

Применение искусственного интеллекта позволяет работодателю оптимизировать процесс принятия кадровых решений, однако создает угрозу негативного воздействия на права работника. В связи с этим работник имеет законный интерес в обеспечении прозрачности автоматизированного принятия кадровых решений. Однако стандарт такой прозрачности законом не установлен. Проанализирован подход к регулированию автоматизированного принятия решений, воспринятый в праве Европейского союза и Российской Федерации. По результатам исследования предлагаются меры совершенствования действующего законодательства. Основной вывод заключается в том, что абсолютный запрет на автоматизированное принятие решений, предусмотренный ч. 6 ст. 86 Трудового кодекса Российской Федерации, должен уступить место регламентации ключевых вопросов, связанных с автоматизированным принятием решений в трудовых отношениях. Данная регламентация должна предусматривать ряд обязанностей работодателя, в том числе по обеспечению прозрачности процессов автоматизированного принятия решений.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ARTIFICIAL INTELLIGENCE AND THE PROBLEM OF TRANSPARENCY OF AUTOMATED DECISION-MAKING IN THE SPHERE OF LABOR

The use of artificial intelligence allows the employer to optimize the process of personnel decision-making, but creates a threat of negative impact on the rights of the employee. In this regard, the employee has a legitimate interest in ensuring transparency of automated personnel decision-making. However, the law does not set a standard for such transparency. In the article, the author analyzes the approach to the regulation of automated decision-making, perceived in the law of the European Union and the Russian Federation. Based on the results of the study, the author suggests measures to improve the current legislation. The main conclusion is that the absolute prohibition on automated decision-making affecting the interests of an employee, provided for in the Part 6 of Article 86 of the Labor Code of the Russian Federation, should give way to the regulation of key issues related to automated decision-making. This regulation should provide for a number of obligations of the employer, including ensuring transparency of automated decision-making processes.

Текст научной работы на тему «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРОБЛЕМА ПРОЗРАЧНОСТИ АВТОМАТИЗИРОВАННОГО ПРИНЯТИЯ РЕШЕНИЙ В СФЕРЕ ТРУДА»

УДК 349.2

DOI: https://doi.org/10.17308/law/1995-5502/2023/3/87-95

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРОБЛЕМА ПРОЗРАЧНОСТИ АВТОМАТИЗИРОВАННОГО ПРИНЯТИЯ РЕШЕНИЙ

В СФЕРЕ ТРУДА

И. В. Крылов

Московский государственный университет имени М. В. Ломоносова

ARTIFICIAL INTELLIGENCE AND THE PROBLEM OF TRANSPARENCY OF AUTOMATED DECISION-MAKING IN THE SPHERE OF LABOR

I. V. Krylov Lomonosov Moscow State University

Аннотация: применение искусственного интеллекта позволяет работодателю оптимизировать процесс принятия кадровых решений, однако создает угрозу негативного воздействия на права работника. В связи с этим работник имеет законный интерес в обеспечении прозрачности автоматизированного принятия кадровых решений. Однако стандарт такой прозрачности законом не установлен. Проанализирован подход к регулированию автоматизированного принятия решений, воспринятый в праве Европейского союза и Российской Федерации. По результатам исследования предлагаются меры совершенствования действующего законодательства. Основной вывод заключается в том, что абсолютный запрет на автоматизированное принятие решений, предусмотренный ч. 6 ст. 86 Трудового кодекса Российской Федерации, должен уступить место регламентации ключевых вопросов, связанных с автоматизированным принятием решений в трудовых отношениях. Данная регламентация должна предусматривать ряд обязанностей работодателя, в том числе по обеспечению прозрачности процессов автоматизированного принятия решений.

Ключевые слова: искусственный интеллект, автоматизированное принятие решений, персональные данные, прозрачность, трудовое право, трудовые отношения.

Abstract: the use of artificial intelligence allows the employer to optimize the process of personnel decision-making, but creates a threat of negative impact on the rights of the employee. In this regard, the employee has a legitimate interest in ensuring transparency of automated personnel decision-making. However, the law does not set a standard for such transparency. In the article, the author analyzes the approach to the regulation of automated decision-making, perceived in the law of the European Union and the Russian Federation. Based on the results of the study, the author suggests measures to improve the current legislation. The main conclusion is that the absolute prohibition on automated decision-making affecting the interests of an employee, provided for in the Part 6 of Article 86 of the Labor Code of the Russian Federation, should give way to the regulation of key issues related to automated decision-making. This regulation should provide for a number of obligations of the employer, including ensuring transparency of automated decision-making processes.

Key words: artificial intelligence, automated decision-making, personal data, transparency, labor law, labor relations.

Современный работодатель стремится оптимизировать хозяйственные процессы и для достижения данной цели внедряет в свою дея-

© Крылов И. В., 2023

тельность программы и программно-аппаратные комплексы на основе искусственного интеллекта, включая системы автоматизирован-

ного принятия решений (далее - системы АПР)1. Применение систем АПР позволяет минимизировать или полностью исключить участие человека в процессе принятия необходимых кадровых решений в рамках процедуры подбора персонала, оценки эффективности труда и пр.

В качестве примера системы АПР можно привести российскую программу-рекрутера «Робот Вера»2. Программа анализирует резюме соискателя по заданным параметрам, звонит соискателю и проводит первичное собеседование, при необходимости проводит с соискателем видеоинтервью. Если соискатель подходит, программа переводит его на специалиста отдела кадров, который принимает окончательное решение о заключении или об отказе в заключении трудового договора. Хотя окончательное решение принимает человек, программа самостоятельно отсеивает некоторых соискателей на предыдущих этапах подбора персонала. Таким образом, не допуская соискателя на следующий этап, программа автоматически лишает его возможности трудоустройства.

Следующий пример демонстрирует практика компании Amazon. В сортировочных центрах Amazon специальная система оценивает производительность труда работников - успевает ли работник отсортировать определенное количество заказов за установленную норму времени. Данная норма рассчитывается системой на основе общего показателя эффективности труда всех работников сортировочного центра. Для оценки производительности труда каждый работник носит на запястье устройство, а специальные датчики, расположенные внутри помещения, считывают информацию с этого устройства. Если работник не выполняет установленную норму выработки, система направляет ему предупреждение. Если работник получает шесть предупреждений в течение последних 12 месяцев, система автоматически направляет ему уведомление об увольнении3.

Как видно, применение работодателем систем АПР порождает риск негативного воздействия на права и законные интересы работника

1 См.: Кутейников Д. Л., Ижаев О. А., Зенин С. С., Лебедев В. А. Алгоритмическая прозрачность и подотчетность : правовые подходы к разрешению проблемы «Черного ящика» // Lex Russica. 2020. № 6 (163). С. 139148.

2 URL: clck.ru/dwiRe (дата обращения: 28.05.2023).

3 URL: clck.ru/349fKS (дата обращения: 28.05.2023).

(соискателя). Поскольку в отношении работника решение принимает не человек, а алгоритм, положение работника зависит от того, насколько корректно данный алгоритм функционирует. Как показала практика, алгоритмы способны принимать решения, которые ограничивают права лиц, относящихся к определенным социальным группам4. Кроме того, алгоритмы не способны воспринимать нормы этики и учитывать общий контекст принятия решений5. Наконец, любая компьютерная программа подвержена киберугрозам.

С учетом приведенных обстоятельств работник имеет законный интерес в обеспечении прозрачности процесса автоматизированного принятия решений, которые порождают в отношении него юридические последствия или иным образом затрагивают его права.

Таким образом, возникает проблема достижения оптимального баланса интересов работника, который подвергается воздействию автоматизированного принятия решений, и работодателя, который применяет системы АПР для управления персоналом.

Цель настоящего исследования - разработать положения, которые могут быть использованы для решения проблемы прозрачности автоматизированного принятия кадровых решений.

Автоматизированное принятие решений в праве Европейского союза

Европейский союз демонстрирует высокий уровень проработки правовых вопросов, связанных с автоматизированным принятием решений. Полагаем, проблематика автоматизированного принятия решений может быть раскрыта с двух точек зрения: во-первых, с точки зрения требований Общего регламента по защите данных (далее - ОБРИ) к обработке персональных данных6; во-вторых, с точки зрения требо-

4 Barocas S., Selbst A. D. Big Data's disparate impact // California Law Review. 2016.

5 См.: Algorithms and human rights - Study on the human rights dimensions of automated data processing techniques and possible regulatory implications, 2018. URL: https://clck.ru/34Y9cm (дата обращения: 28.05.2023).

6 General Data Protection Regulation : Регламент Европейского парламента и совета Европейского союза 2016/679 от 27 апреля 2016 г. о защите физических лиц при обработке персональных данных и о свободном обращении таких данных, а также об отмене Директивы 95/46/ЕС. URL: https://base.garant.ru/71936226/ (дата обращения: 28.05.2023).

ваний правового регулирования искусственного интеллекта.

Часть 1 ст. 22 GDPR устанавливает общий запрет на принятие юридически значимых решений, основанных исключительно на автоматизированной обработке персональных данных. При этом GDPR не конкретизирует, что значит «решение, основанное исключительно на автоматизированной обработке персональных данных». Согласно позиции Рабочей группы по защите прав человека в сфере обработки персональных данных (далее - Рабочая группа) решение считается основанным исключительно на автоматизированной обработке персональных данных, если в процессе принятия такого решения отсутствует значимое вмешательство человека7.

Запрет, установленный ч. 1 ст. 22 GDPR, не применяется при наличии согласия субъекта персональных данных, а также в случае, если автоматизированное принятие решений необходимо для исполнения договора или предусмотрено законом.

GDPR предусматривает ряд требований к обеспечению прозрачности автоматизированного принятия решений. В частности, контролер (оператор персональных данных) обязан сообщить субъекту о факте осуществления автоматизированного принятия решений; объяснить субъекту значение и предполагаемые последствия такой обработки персональных данных; раскрыть субъекту значимую информацию о логике автоматизированного принятия решений (п. f ч. 2 ст. 13 GDPR).

GDPR не конкретизирует, какие именно сведения относятся к логике автоматизированного принятия решений. Формулировка данного требования звучит весьма абстрактно. Согласно позиции Рабочей группы такая информация должна включать критерии, используемые контролером в процессе автоматизированного принятия решений, и обоснование таких критериев, при этом контролеру не обязательно раскрывать сам алгоритм автоматизированного принятия решений, однако предоставленная им информация должна быть достаточно полной, чтобы субъект данных мог понять причины принятого решения8.

7 См.: Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679 (wp251rev.01). URL: clck.ru/34Y2zV (дата обращения: 28.05.2023).

8 Там же.

Чтобы понять, как данные положения GDPR применяются на практике, обратимся к двум судебным делам, которые были рассмотрены в 2021 г. в Амстердаме. Оба судебных дела пересекаются с тематикой платформенной занятости. В частности, компания Uber B.V. заблокировала нескольким водителям доступ к приложению Uber Driver. Водители обратились в суд с требованием отменить блокировку и восстановить доступ к личному кабинету.

В первом, более раннем деле, суд отказал истцам в удовлетворении заявленных требований9. В качестве основного аргумента истцы ссылались на нарушение их права не подвергаться решению, основанному исключительно на автоматизированной обработке персональных данных. Кроме того, истцы полагали, что ответчик не выполнил свои обязанности по обеспечению прозрачности автоматизированного принятия решений, в частности, не проинформировал их о логике, лежащей в основе автоматизированного принятия решений.

Что касается утверждения о нарушении ответчиком ч. 1 ст. 22 GDPR, суд установил, что решение о блокировке доступа принято ответчиком только после проведения внутреннего расследования. По результатам расследования специалисты Uber B.V. установили факт использования приложения Uber Driver ненадлежащим образом и проинформировали об этом водителей такси. Впоследствии внутреннее расследование было проведено повторно. Таким образом, при принятии решения о блокировке учетных записей имело место значимое вмешательство человека. В связи с этим принятое решение не является принятым исключительно на основании автоматизированной обработки персональных данных.

В части утверждения о невыполнении ответчиком обязанности по обеспечению прозрачности обработки персональных данных суд установил следующее. Некоторым водителям ответчик представил исчерпывающую информацию о том, какие действия по ненадлежащему использованию приложения послужили основанием для принятия решения о блокировке их учетных записей. В отношении данных водителей ответчик выполнил свою обязанность по обеспечению прозрачности. Остальным водителям он не представил такую информацию. В связи с этим у

9 URL: clck.ru/34MzCL (дата обращения: 28.05.2023).

истцов отсутствовала возможность оценить обоснованность и законность блокировки их учетных записей. В результате суд обязал ответчика предоставить им информацию о персональных данных, на основании которых ответчик принял решение заблокировать доступ к приложению.

Оценивая решение суда с положительной стороны, отметим, что суд не пошел по формальному пути и не стал отказывать истцам в удовлетворении заявленных требований на том лишь основании, что документы приложения Uber Driver предусматривали возможность осуществления ответчиком автоматизированного принятия решений, включая блокировку доступа к приложению. Суд исследовал вопрос с точки зрения того, принимал ли ответчик решение исключительно на основании автоматизированной обработки персональных данных в соответствии с ч. 1 ст. 22 GDPR. В частности, суд проанализировал совокупность обстоятельств на предмет наличия или отсутствия значимого вмешательства человека в процесс принятия решения о блокировке доступа к приложению Uber Driver.

С другой стороны, суд не исследовал вопрос раскрытия ответчиком информации о логике автоматизированного принятия решений. Полагаем, необходимость в исследовании данного вопроса обусловлена следующими обстоятельствами. Во-первых, ответчик в целом осуществляет автоматизированное принятие решений в отношении пользователей приложения Uber Driver, что подтверждается документами в области персональных данных. Во-вторых, при обосновании своих требований в качестве отдельного довода истцы отметили, что не были заранее проинформированы о логике, лежащей в основе автоматизированного принятия решений. Хотя суд решил, что ответчик в отношении истцов не принимал решения на основании исключительно автоматизированной обработки персональных данных по смыслу п. 1 ст. 22 GDPR, данное обстоятельство не снимает вопрос о том, выполнил ли ответчик свою обязанность по информированию субъектов персональных данных о логике, лежащей в основе автоматизированного принятия решений.

В аналогичном и более позднем деле суд удовлетворил требования истцов о восстановлении доступа к приложению Uber Driver10. Суд

10 URL: clck.ru/34MzBO (дата обращения: 28.05.2023).

указал, что решение о блокировке доступа к личному кабинету основано исключительно на автоматизированной обработке персональных данных, что является нарушением ч. 1 ст. 22 GDPR. Текст судебного решения отличается лаконичностью, и подробное исследование обстоятельств дела в нем не приведено. Вместе с тем вынесенное решение является исторически первым случаем, когда суд отменил автоматизированное решение о расторжении договора с лицами, осуществляющими трудовую деятельность11.

В качестве промежуточного итога отметим, что GDPR предъявляет определенные требования к обеспечению прозрачности автоматизированного принятия решений. Однако конкретный перечень информации, подлежащей раскрытию, GDPR не установлен. В частности, GDPR не конкретизирует перечень сведений, которые относятся к «логике» автоматизированного принятия решений. На практике суд исследует вопрос прозрачности с точки зрения того, было ли представленной информации достаточно для того, чтобы субъект данных мог оценить обоснованность и законность принятого решения.

Поскольку многие системы АПР разработаны на основе машинного обучения, отдельное внимание следует уделить вопросу регулирования в Европейском союзе систем искусственного интеллекта.

На текущий момент на рассмотрении Европейского парламента находится проект Регламента об установлении на территории Европейского союза единых правил в отношении искусственного интеллекта (далее - Регламент)12. Регламент предусматривает широкий перечень обязанностей, связанных с обеспечением прозрачности функционирования систем искусственного интеллекта, в частности обязанность информировать физических лиц о том, что они взаимодействуют с системой искусственного интеллекта; обязанность осуществлять человеческий контроль (надзор) за принимаемыми решениями; обязанность сопровождать системы

11 На момент вынесения решения водители Uber имели статус самозанятых лиц, однако через несколько месяцев в рамках другого дела данный суд признал водителей Uber работниками, а не самозанятыми. URL: clck. ru/34Y3GY (дата обращения: 28.05.2023).

12 Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts. URL: clck.ru/ehghz (дата обращения: 28.05.2023).

искусственного интеллекта инструкциями, которые включают ключевую информацию о системе искусственного интеллекта, в том числе ее характеристики и назначение.

В пояснительной записке к проекту Регламента отмечается, что возложение обязанностей по обеспечению прозрачности систем искусственного интеллекта не окажет непропорционального воздействия на интеллектуальные права лиц, которым принадлежат системы искусственного интеллекта, поскольку выполнение данных обязанностей будет ограничено раскрытием минимального набора информации, необходимого для обеспечения возможности защиты нарушенного права13.

Таким образом, наряду с ОБРИ, предполагаемое регулирование систем искусственного интеллекта также предусматривает обязанность по обеспечению прозрачности систем искусственного интеллекта, вследствие чего в Европейском союзе возникает комплексное правовое воздействие на отношения, связанные с автоматизированным принятием решений.

Автоматизированное принятие решений в праве Российской Федерации

С точки зрения отечественного права проблему прозрачности автоматизированного принятия кадровых решений представляется возможным рассмотреть прежде всего через призму требований к обработке персональных данных работника. Это обусловлено тем фактом, что кадровые решения, как правило, принимаются на основе сведений, имеющих непосредственное отношение к работнику, включая его профессионально-квалификационные и личностные качества, показатели эффективности его труда и пр. С учетом широкого подхода к определению понятия «персональные данные»14 практически любые сведения о работнике можно отнести к категории персональных данных. Квалификация сведений в качестве персональных данных и осуществление с ними действий (операций) является спусковым механизмом, приводящим в действие законодательство о персональных данных15.

13 Там же.

14 См.: Савельев А. И. Научно-практический постатейный комментарий к Федеральному закону «О персональных данных». М. : Статут. 2017. 320 с. Доступ из справ.-правовой системы «КонсультантПлюс».

15 См.: Там же.

Отношения, связанные с обработкой персональных данных работника, регулируются главой 14 Трудового кодекса Российской Федерации16 (далее - ТК РФ) с учетом положений Федерального закона «О персональных данных»17.

Глава 14 ТК РФ содержит ст. 86, которая предусматривает общие требования при обработке персональных данных работника и гарантии их защиты. Часть 6 ст. 86 ТК РФ гласит, что при принятии решений, затрагивающих интересы работника, работодатель не имеет права основываться на персональных данных работника, полученных исключительно в результате их автоматизированной обработки или электронного получения.

Часть 1 ст. 16 Федерального закона «О персональных данных» содержит похожую норму и запрещает принятие на основании исключительно автоматизированной обработки персональных данных решений, порождающих юридические последствия в отношении субъекта персональных данных или иным образом затрагивающих его права и законные интересы, за исключением случаев, предусмотренных ч. 2 данной статьи.

Формулировки ч. 6 ст. 86 ТК РФ и ч. 1 ст. 16 ФЗ «О персональных данных» похожи, но не тождественны. Принципиальное отличие заключается в том, что ТК РФ устанавливает абсолютный запрет на автоматизированное принятие решений, которые затрагивают интересы работника. Федеральный закон «О персональных данных» по общему правилу запрещает автоматизированное принятие решений, но предусматривает ряд исключений, в том числе наличие согласия субъекта персональных данных, выраженное в письменной форме.

Обратим внимание, что ни ТК РФ, ни Федеральный закон «О персональных данных» не раскрывают, что значит «исключительно автоматизированная обработка персональных данных». Не известно, какой именно смысл вкладывал отечественный законодатель в рассматриваемое выражение, однако положения ч. 6

16 Трудовой кодекс Российской Федерации : федер. закон от 30 декабря 2001 г. № 197-ФЗ (в ред. от 19.12.2022. № 545-ФЗ) // Собр. законодательства Рос. Федерации. 7 января 2002 г. № 1 (ч. 1). Ст. 3 ; 26 декабря 2022. № 52. Ст. 9375.

17 О персональных данных : федер. закон от 27 июля 2006 г. № 152-ФЗ (в ред. от 14.06.2022. № 266-ФЗ) // Собр. законодательства Рос. Федерации. 31 июля 2006 г. № 31 (ч. 1). Ст. 3451 ; 18 июля 2022 г. № 29 (ч. 3). Ст. 5233.

ст. 86 ТК РФ и ч. 1 ст. 16 Федерального закона «О персональных данных» заметно похожи на положение ч. 1 ст. 22 ОБРИ.

Если использовать европейский подход и толковать выражение «исключительно автоматизированная обработка персональных данных» с точки зрения наличия или отсутствия значимого вмешательства человека, возникает закономерный вопрос, какое вмешательство человека является значимым для целей трудового права?

Полагаем, значимым вмешательством не может быть совершение человеком - представителем работодателя - чисто символических действий18, направленных на придание юридической силы решению, сгенерированному системой АПР, например, подписание приказа. С другой стороны, необоснованно требовать от работодателя собственноручно перепроверять все решения, сгенерированные системой АПР. В таком случае пропадает весь смысл внедрения систем, которые способны автоматизировать и существенно ускорить процесс обработки огромного массива данных. Данное ограничение является несоразмерным и нарушает законный интерес работодателя эффективно вести экономическую деятельность.

По нашему мнению, для достижения оптимального баланса интересов работника и работодателя последний должен принимать комплекс технических и организационно-правовых мер, направленных на предупреждение некорректного функционирования систем АПР, а также предусмотреть возможность проверки, отмены и обжалования решений (рекомендаций), сформированных такими системами, в том числе в спорных или иных критически важных ситуациях.

Следующая проблема заключается в том, что запрет ч. 6 ст. 86 ТК РФ распространяется на принятие решений, которые затрагивают интересы работника, при этом ТК РФ не раскрывает значение этого выражения. С учетом принципа приоритета интересов работника как более слабой стороны трудового договора отсутствие правовой определенности по данному вопросу теоретически позволяет суду и надзорным органам трактовать запрет ч. 6 ст. 86 ТК РФ максимально широко. В свою очередь широкое толкование может необоснованно ограничивать законный интерес работодателя эффективно вести эконо-

18 См.: Соловьев А. И. Указ. соч.

мическую деятельность за счет внедрения инновационных технологий, включая системы АПР.

Полагаем, абсолютный запрет, предусмотренный ч. 6 ст. 86 ТК РФ, целесообразно распространить на более узкую категорию - а именно на решения, которые порождают юридические последствия и с высокой степенью вероятности могут ухудшить положение работника (например, решение о привлечении работника к дисциплинарной ответственности). В данной ситуации система АПР может собирать и анализировать данные о работнике, формировать рекомендации (выводы, заключения), однако окончательное кадровое решение в отношении работника (соискателя) должен принимать человек с учетом иных факторов, а не только на основании рекомендаций алгоритмов.

Если решение не порождает в отношении работника юридических последствий и не ухудшает положение работника, полагаем, такое решение может быть принято работодателем в исключительно автоматизированном порядке при наличии согласия работника в письменной форме.

Предлагаемый нами вариант правового регулирования основан на риск-ориентированном подходе, который предусматривает разграничение нормативного бремени в зависимости от степени риска негативного воздействия автоматизированного принятия решений на права и интересы работника. Подобный риск-ориентированный подход также присутствует в Регламенте об установлении на территории Европейского союза единых правил в отношении искусственного интеллекта.

Наконец, следует обратить внимание на проблему прозрачности автоматизированного принятия решений. Проблема заключается в том, что в отличии от Федерального закона «О персональных данных» ТК РФ не налагает на работодателя ряд информационных обязанностей, связанных с принятием юридически значимых решений на основании исключительно автоматизированной обработки персональных данных.

Согласно ч. 3 ст. 16 Федерального закона «О персональных данных» оператор обязан разъяснить субъекту персональных данных порядок принятия решений на основании исключительно автоматизированной обработки его персональных данных и возможные юридические последствия такого решения, предоставить возможность заявить возражение против такого решения, а также разъяснить порядок защи-

ты субъектом персональных данных своих прав и законных интересов.

Аналог данной нормы в главе 14 ТК РФ отсутствует, что является большим упущением с точки зрения обеспечения реальной возможности работника защитить свои права и законные интересы, нарушенные вследствие принятия необоснованного кадрового решения в автоматизированном порядке.

В силу ч. 1 ст. 56 Гражданского процессуального кодекса Российской Федерации19 бремя доказывания нарушенного права ложится именно на работника (соискателя), в связи с чем в его законном интересе обладать минимальным набором информации, чтобы иметь возможность защитить нарушенное право в суде. Таким образом, возникает вопрос, какую именно информацию об автоматизированном принятии решений работодатель должен раскрывать работнику?

Полагаем, для ответа на данный вопрос целесообразно учитывать основные цели раскрытия информации работнику (соискателю) в контексте автоматизированного принятия кадровых решений. По нашему мнению, цели следующие:

- обеспечить возможность оценить обоснованность кадрового решения, принятого работодателем в автоматизированном порядке -данная цель проистекает в том числе из принципа запрещения дискриминации в сфере труда (ст. 3 ТК РФ);

- обеспечить возможность защитить права и законные интересы, нарушенные вследствие принятия работодателем необоснованного кадрового решения в автоматизированном порядке - данная цель проистекает из принципа обеспечения права работника на защиту государством его трудовых прав и свобод, включая судебную защиту (ст. 2 ТК РФ).

Считаем, с учетом приведенных выше обстоятельств проблема прозрачности автоматизированного принятия кадровых решений может быть решена за счет раскрытия работнику (соискателю) следующих сведений:

- информации о факте применения работодателем систем АПР при принятии решений в отношении работника;

- перечня и описания решений, при приня-

19 Гражданский процессуальный кодекс Российской Федерации : федер. закон от 14 ноября 2002 г. № 138-ФЗ (в ред. от 18.03.2023. № 80-ФЗ) // Собр. законодательства Рос. Федерации. 18 ноября 2002 г. № 46. Ст. 4532 ; 20 марта 2023 г. № 12. Ст. 1893.

тии которых работодатель использует системы АПР, включая решения, которые работодатель принимает в исключительно автоматизированном порядке;

- перечня и источника данных, на основе которых работодатель принимает решения с применением систем АПР;

- оснований (критериев) принятия решений с применением систем АПР;

- описания технических и организационно-правовых мер, предпринимаемых работодателем для контроля за системами АПР;

- порядка обжалования решений, принятых работодателем с применением АПР.

Приведенный перечень информации необходимо закрепить в локальном нормативном акте, с которым работник должен быть ознакомлен под подпись. Кроме того, по письменному требованию работника ему должна быть предоставлена информация о том, какие именно данные послужили основанием для принятия в отношении него конкретного кадрового решения.

Полагаем, раскрытие данной информации обеспечит прозрачность принятия кадровых решений с использованием различных систем АПР. По нашему мнению, введение такой обязанности не возложит на работодателя чрезмерное нормативное бремя, поскольку раскрытие информации ограничено минимальным набором сведений, необходимым для защиты интересов работника. Кроме того, на наш взгляд, представленный перечень сведений является нейтральным, т. е. не привязан к какой-либо конкретной технологии, которая лежит в основе автоматизированного принятия решений.

Наряду с совершенствованием ТК РФ в части регулирования автоматизированного принятия решений работа должна проводиться и по линии принятия законодательства об искусственном интеллекте.

В «Национальной стратегии развития искусственного интеллекта на период до 2030 года» отмечается, что алгоритмы работы нейронных сетей крайне сложны для интерпретации; отсутствие понимания того, как искусственный интеллект достигает результатов, является одной из причин низкого уровня доверия к современным технологиям искусственного интеллекта.

Согласно «Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года» к основным проблемам регулирования техноло-

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

гий искусственного интеллекта относится проблема алгоритмической прозрачности систем искусственного интеллекта , т. е. невозможность в ряде случаев полного объяснения причин, по которым система искусственного интеллекта приняла конкретное решение.

Таким образом, проблема алгоритмической прозрачности в целом известна отечественному законодателю, что подтверждается содержанием приведенных документов стратегического планирования.

Помимо документов стратегического планирования в 2021 г. представители российских организаций подписали Кодекс этики в сфере искусственного интеллекта20. В нем можно встретить идеи, аналогичные тем, что содержатся в проекте Регламента об установлении на территории Европейского союза единых правил в отношении искусственного интеллекта:

- рекомендуется осуществлять добросовестное информирование пользователей об их взаимодействии с системой искусственного интеллекта, когда это затрагивает вопросы прав человека и критических сфер его жизни, и обеспечивать возможность прекратить такое взаимодействие по желанию пользователя;

- следует обеспечивать комплексный надзор человека за любыми системами искусственного интеллекта в объеме и порядке, зависящих от назначения систем искусственного интеллекта;

- рекомендуется предоставлять пользователям системы искусственного интеллекта достоверную информацию о системе искусственного интеллекта, допустимых областях и наиболее эффективных методах применения системы искусственного интеллекта, вреде, пользе и существующих ограничениях в их применении.

Таким образом, отечественное регулирование систем искусственного интеллекта в целом развивается в одном русле с европейским подходом.

В то же время законодательство об искусственном интеллекте в Российской Федерации находится на первоначальном этапе становления. Для разработки конкретных предложений целесообразно проводить различные процедуры, которые позволят оценить и повысить эффективность будущего регулирования. К таким процедурам относятся прежде всего проведение правовых экспериментов и общественных

20 ИИЬ: clck.ru/349grc (дата обращения: 28.05.2023).

консультаций с заинтересованными сторонами. Кроме того, представляется целесообразным учитывать результаты научных исследований, зарубежный опыт регулирования и положения утвержденных документов стратегического планирования.

На текущий момент ТК РФ содержит абсолютный запрет на автоматизированное принятие решений, затрагивающих интересы работника. При этом формулировка ч. 6 ст. 86 ТК РФ имеет ряд существенных недостатков. Полагаем, с учетом стремительного развития технологий искусственного интеллекта и потенциальной пользы от внедрения систем автоматизированного принятия решений в хозяйственную деятельность работодателя абсолютный запрет должен уступить место регламентации ключевых вопросов, связанных с автоматизированным принятием решений. В частности, мы предлагаем внести в ТК РФ следующие изменения:

- абсолютный запрет распространить только на автоматизированные принятия решений, которые порождают юридические последствия и с высокой степенью вероятности способны ухудшить положение работника;

- разрешить с письменного согласия работника автоматизированные принятия решений, которые не порождают в отношении работника юридических последствий и не ухудшают его положение;

- обязать работодателя раскрывать работнику определенный перечень информации об автоматизированном принятии решений.

Сведения, подлежащие раскрытию, могут включать:

- информацию о факте применения работодателем систем АПР при принятии решений в отношении работника;

- перечень и описание решений, при принятии которых работодатель использует системы АПР, включая решения, которые работодатель принимает в исключительно автоматизированном порядке;

- перечень и источник данных, на основе которых работодатель принимает решения с применением систем АПР;

- основания (критерии) принятия решений с применением систем АПР;

- описание технических и организационно-правовых мер, предпринимаемых работодателем для контроля за системами АПР;

- порядок обжалования решений, принятых работодателем в исключительно автоматизированном порядке.

Раскрытие перечисленных сведений обеспечит прозрачность автоматизированного принятия решений, но не повлечет возложение на работодателя чрезмерного нормативного бремени.

Поскольку системы автоматизированного принятия решений, как правило, основаны на технологиях искусственного интеллекта, наряду с совершенствованием главы 14 ТК РФ необходимо разрабатывать регулирование искусственного интеллекта. Данное регулирование должно предусматривать ряд обязанностей по обеспечению прозрачности систем искусственного интеллекта, включая их идентификацию при взаимодействии с человеком (пользователем), доведение до человека достоверной информации о системе искусственного интеллекта и пр. Таким образом, решение проблемы прозрачности автоматизированного принятия решений в сфере труда будет иметь комплексный характер.

Библиографический список

Кутейников Д. Л., Ижаев О. А., Зенин С. С., Лебедев В. А. Алгоритмическая прозрачность и по-

дотчетность : правовые подходы к разрешению проблемы «черного ящика» // Lex Russica. 2020. № 6 (163). С. 139-148.

Савельев А. И. Научно-практический постатейный комментарий к Федеральному закону «О персональных данных». М. : Статут, 2017. 320 с.

Barocas S., Selbst A. D. Big Data's disparate impact // California Law Review. 2016.

Algorithms and human rights - Study on the human rights dimensions of automated data processing techniques and possible regulatory implications, 2018. URL: clck.ru/34Y9cm

References

Algorithms and human rights - Study on the human rights dimensions of automated data processing techniques and possible regulatory implications, 2018. URL: clck.ru/34Y9cm

Barocas S., Selbst A. D. Big Data's disparate impact // California Law Review. 2016.

Kuteynikov D. L., Izhaev O. A., Zenin S. S., Lebedev V. A. Algorithmic transparency and accountability : legal approaches to solving the "Black Box" problem // Lex Russica. 2020. No. 6 (163). P. 139-148.

Savelyev A. I. Scientific and practical article-by-article commentary on the Federal Law "On Personal Data". Moscow : Statute, 2017. 320 p.

Московский государственный университет имени М. В. Ломоносова

Крылов И. В., аспирант кафедры трудового права

E-mail: ivan.vl.krylov@gmail.com Поступила в редакцию: 29.05.2023 Для цитирования:

Крылов И. В. Искусственный интеллект и проблема прозрачности автоматизированного принятия решений в сфере труда // Вестник Воронежского государственного университета. Серия: Право. 2023. № 3 (54). С. 87-86. DOI: https://doi.org/10.17308/ law/1995-5502/2023/3/87-95.

Lomonosov Moscow State University Krylov I. V., Postgraduate Student of the Labor Law Department

E-mail: ivan.vl.krylov@gmail.com

Received: 29.05.2023

For citation:

Krylov I. V. Artificial intelligence and the problem of transparency of automated decision-making in the sphere of labor // Proceedings of Voronezh State University. Series: Law. 2023. № 3 (54). P. 87-86. DOI: https://doi.org/10.17308/law/1995-5502/2023/3Z87-95.

i Надоели баннеры? Вы всегда можете отключить рекламу.