Научная статья на тему 'Рекомендации по этическим аспектам искусственного интеллекта в приложении к сфере трудовых отношений'

Рекомендации по этическим аспектам искусственного интеллекта в приложении к сфере трудовых отношений Текст научной статьи по специальности «Право»

CC BY
171
28
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
Законодательство / искусственный интеллект / право / принципы права / труд / трудовое право / трудовые отношения / цифровизация / цифровые технологии / этика / Artificial intelligence / digital technologies / digitalization / ethics / labor law / labor relations / labor / law / legislation / principles of law

Аннотация научной статьи по праву, автор научной работы — София Рицу

Цель: распространение и широкое использование искусственного интеллекта выдвигает на первый план не только проблемы защиты данных, но и этические вопросы. Цель данной статьи – изучение этических аспектов искусственного интеллекта и предложение рекомендаций для его использования в трудовом праве. Методы: исследование основано на методах сравнительного и эмпи­рического анализа. Сравнительный анализ позволил изучить положения современного трудового законодательства в контексте искус­ственного интеллекта. Эмпирический анализ выявил этические проблемы, относящиеся к искусственному интеллекту в сфере труда, путем изучения спорных случаев использования искусственного интеллекта в различных областях, таких как здравоохранение, образование, транспорт и др. Результаты: частноправовые аспекты этических проблем искусственного интеллекта были изучены в контексте этических и трудовых вопросов права, влияющих на процесс отбора с помощью искусственного интеллекта и на обращение с работниками с точки зрения работодателя. Автор выделяет как общие аспекты этики, так и вопросы цифровой этики. Предложены отдельные международные рекомендации относительно этики искусственного интеллекта. Научная новизна: исследование посвящено изучению этических аспектов использования искусственного интеллекта в конкретной отрасли частного праватрудовом праве. Автор дает рекомендации относительно этических аспектов использования искусственного интеллекта в данной сфере. Практическая значимость: исследование восполняет имеющиеся пробелы в научной литературе по указанному вопросу. Результаты работы могут использоваться в процессе законотворчества и служить базой для дальнейших исследований.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Recommendations on the Ethical Aspects of Artificial Intelligence, with an Outlook on the World of Work

Objective: the spread and wide application of Artificial Intelligence raises ethical questions in addition to data protection measures. That is why the aim of this paper is to examine ethical aspects of Artificial Intelligence and give recommendations for its use in labor law. Methods: research based on the methods of comparative and empirical analysis. Comparative analysis allowed to examine provisions of the modern labor law in the context of use of Artificial Intelligence. Empirical analysis made it possible to highlight the ethical issues related to Artificial Intelligence in the world of work by examining the disputable cases of the use of Artificial Intelligence in different areas, such as healthcare, education, transport, etc. Results: the private law aspects of the ethical issues of Artificial Intelligence were examined in the context of ethical and labor law issues that affect the selection process with Artificial Intelligence and the treatment of employees as a set of data from the employers’ side. Author outlined the general aspects of ethics and issues of digital ethics. Author described individual international recommendations related to the ethics of Artificial Intelligence. Scientific novelty:this research focused on the examination of ethical issues of the use of Artificial Intelligence in the specific field of private lawlabor law. Authors gave recommendations on ethical aspects of use of Artificial Intelligence in this specific field. Practical significance: research contributes to the limited literature on the topic. The results of the research could be used in lawmaking process and also as a basis for future research.

Текст научной работы на тему «Рекомендации по этическим аспектам искусственного интеллекта в приложении к сфере трудовых отношений»

Научная статья

УДК 341.1/8:004.8

EDN: https://elibrary.ru/cpffyw

DOI: https://doi.org/10.21202/jdtl.2023.21

з

Check for updates

Рекомендации по этическим аспектам искусственного интеллекта в приложении к сфере трудовых отношений

София Рицу О

Университет Мишкольца г. Мишкольц, Венгрия

Ключевые слова

Законодательство, искусственный интеллект, право,

принципы права, труд,

трудовое право, трудовые отношения, цифровизация, цифровые технологии, этика

Аннотация

Цель: распространение и широкое использование искусственного интеллекта выдвигает на первый план не только проблемы защиты данных, но и этические вопросы. Цель данной статьи - изучение этических аспектов искусственного интеллекта и предложение рекомендаций для его использования в трудовом праве. Методы: исследование основано на методах сравнительного и эмпирического анализа. Сравнительный анализ позволил изучить положения современного трудового законодательства в контексте искусственного интеллекта. Эмпирический анализ выявил этические проблемы, относящиеся к искусственному интеллекту в сфере труда, путем изучения спорных случаев использования искусственного интеллекта в различных областях, таких как здравоохранение, образование, транспорт и др.

Результаты: частноправовые аспекты этических проблем искусственного интеллекта были изучены в контексте этических и трудовых вопросов права, влияющих на процесс отбора с помощью искусственного интеллекта и на обращение с работниками с точки зрения работодателя. Автор выделяет как общие аспекты этики, так и вопросы цифровой этики. Предложены отдельные международные рекомендации относительно этики искусственного интеллекта.

Научная новизна: исследование посвящено изучению этических аспектов использования искусственного интеллекта в конкретной отрасли частного права - трудовом праве. Автор дает рекомендации относительно этических аспектов использования искусственного интеллекта в данной сфере.

© Рицу С., 2023

Статья находится в открытом доступе и распространяется в соответствии с лицензией Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная (CC BY 4.0) (https://creativecommons.Org/licenses/by/4.0/deed.ru), позволяющей неограниченно использовать, распространять и воспроизводить материал при условии, что оригинальная работа упомянута с соблюдением правил цитирования.

Практическая значимость: исследование восполняет имеющиеся пробелы в научной литературе по указанному вопросу. Результаты работы могут использоваться в процессе законотворчества и служить базой для дальнейших исследований.

Для цитирования

Рицу, С. (2023). Рекомендации по этическим аспектам искусственного интеллекта в приложении к сфере трудовых отношений. Journal ofDigital Technologies and Law, 7(2), 498-519. https://doi.org/10.21202/jdtl.2023.21

Содержание

Введение

1. Этика - цифровая этика

2. Регулирование этических аспектов искусственного интеллекта

2.1. ЮНЕСКО - Рекомендации по этике искусственного интеллекта

2.2. Этические принципы Группы экспертов высокого уровня (HLEG), принятые Еврокомиссией

2.3. Европейский парламент - Рамочная резолюция об этических аспектах искусственного интеллекта (ИИ), робототехники и связанных с ними технологий

2.4. Другие рекомендации и руководства

3. Этические аспекты искусственного интеллекта в сфере труда (на основе доклада Исследовательской службы Европарламента по вопросам искусственного интеллекта)

Заключение Список литературы

Введение

Не вызывает сомнений, что технологии искусственного интеллекта стремительно развиваются. На многих площадках эта тема обсуждается с точки зрения общественных отношений. Исследования показывают, что искусственный интеллект (далее - ИИ) воспринимается неоднозначно; с одной стороны, он сможет выполнять различные виды деятельности во многих областях, но его противники уже говорят о теориях заговора.

Правовое регулирование ИИ также активно исследуется, в основном с точки зрения нормативных вопросов (Cyman et al., 2021; Alikhademi et al., 2022). Учитывая, как тяжело сейчас угнаться за технологическим прогрессом, состояние правового регулирования выглядит следующим образом: по мере появления технологических достижений право пытается установить нормы в отношении отдельных вопросов. С одной стороны, это правильно, учитывая, что само законодательство основывается на эмпирическом знании; с другой - правовое регулирование требует внимательного подхода, так как необходимо учесть проблемы, которые еще даже не возникли, но которые в ряде случаев можно предвидеть. Научный и технологический прогресс, цифровая революция, искусственный интеллект, алгоритмизация ставят

перед правом непростые задачи, и мы наблюдаем пересмотр как доминирования правовых институтов, так и содержания отдельных правовых категорий (Harmathy, 2019). Развитию регулирования во многом способствует наличие общепринятых стандартов, однако решать эти вопросы, учитывая их специфику, необходимо также и на уровне государства.

Применение и распространение алгоритмизации и искусственного интеллекта представляет собой крайне интересную проблему для исследователя. Их применение связано с ускорением и повышением точности всех процессов. В недавнем прошлом появилось множество работ, посвященных различным аспектам возрастания рисков использования умных роботов. Исследователь Laszlo Z. Karvalics назвал этот подход алармизмом, и он является логическим следствием (и неизменным спутником) устоявшейся парадигмы «сильного искусственного интеллекта» и последних версий этой парадигмы (Karvalics, 2015).

Технологии непрерывно изменяются. Как и прежние индустриальные революции, нынешняя революция «Индустрия 4.0» (или даже «Индустрия 5.0») может приносить инновации каждый день, каждый час и каждую минуту. Темп развития возрастает экспоненциально, и право не может за ним угнаться. Насущной проблемой является защита человека и его прав как в цифровом, так и в реальном пространстве, ведь, как отмечал Stefan Ibolya, недостаточно эффективное правовое регулирование может стать препятствием для экономического развития (Stefan, 2020).

Различные аспекты искусственного интеллекта не только активно изучаются исследователями, но и сами играют значимую роль в развитии науки и решении глобальных проблем, от создания персональных помощников или беспилотных автомобилей до изучения космоса. Технологии стали частью нашей повседневной жизни, добавили нам удобств, расширив возможности человека. Обучающие алгоритмы уже выполняют многие задачи, от вождения автомобиля до принятия решений. Во многих случаях они принимают решения о нашей жизни, поэтому необходимы определенные гарантии. Помимо мер по защите данных, широкое распространение ИИ ставит также важные этические проблемы. Заявленная тема статьи становится краеугольным камнем исследований.

Недавние обсуждения выявили насущную необходимость работы над социальными и этическими аспектами алгоритмических систем и систем на основе данных, которые управляют нашей жизнью. Выступления ученых, журналистов и правоведов на тему машинного обучения и искусственного интеллекта затрагивают проблемы равенства, предубеждений, прозрачности, доступа, участия и дискриминации, что в совокупности часто называют проблемой ИИ и этики. Этот дискурс определяется стремлением снизить уровень дискриминации и предубеждений в области данных, а также нерешенными вопросами по поводу алгоритмических систем: могут ли они быть справедливыми, будет ли их использование способствовать достижению равноправия в будущем либо напротив, закрепит или даже усилит существующее неравенство. Несмотря на очевидную новизну этих вопросов, многие лежащие в их основе проблемы издавна обсуждались и имеют богатую традицию в сфере библиотековедения и науки об информации (library and information science, LIS) (Hoffmann et al., 2019).

Темпы развития технологических инноваций и их распространения по всему миру при поддержке цифровой экономики явно превышают темпы развития

человеческого сознания. Jerome Beranger1 попытался перечислить и определить основные этические критерии, формирующие базис будущего мировоззрения, призванного двигаться в сторону искусственного интеллекта на службе человеческого разума, а также предвидеть все отклонения и возможные последствия развития алгоритмических систем (Beranger, 2021).

Объемы и сложность данных и алгоритмов, используемых в системах на основе искусственного интеллекта, также представляют значительные проблемы при предвидении их этических, правовых и политических последствий. Исследование в области этики искусственного интеллекта, основанное на опросах заинтересованных лиц, данных права и политики, показывает, что этика ИИ структурируется личными ценностями и профессиональными целями людей (Fleischmann et al., 2023).

В первой части статьи рассмотрены общие аспекты этики и выделены вопросы цифровой этики. Затем представлены отдельные рекомендации международных организаций в области этики ИИ. В данной работе мы более подробно обсудим частноправовые аспекты этики ИИ (включая трудовое право). В рамках этой темы мы рассмотрим вопросы этики и трудового права, влияющие на процессы выбора искусственного интеллекта и отношений с сотрудниками с точки зрения работодателя.

1. Этика - цифровая этика

Слово «этика» происходит от греческого ethos, что значит «привычка, форма поведения». Предметом ведения этики является деятельность человека и проявления личности в действиях. Термин часто используется как синоним слова «мораль», обозначающего формы поведения и деятельность относительно целей человека (Turay, 2000). Этика содержит стандарты нравственности, существующие подсознательно, ценности, лежащие в основе наших действий (Müller & Kerenyi, 2019). Этика -это доктрина моральных ценностей, которую следует отличать от этикета, т. е. науки о традициях, манерах, внешних приличиях - о человеческом поведении (Legeza, 2013).

Этика и прикладная этика изучают практические проблемы и повседневные ситуации. Их область исследования - низкие и высокие проявления нравственных феноменов, общих категорий нравственности; так, П. Фобель ссылается на определение Kansky и отмечает, что центральной темой на XX Всемирном философском конгрессе была прикладная этика, в рамках которой рассматривались проблемы биоэтики, этики охраны здоровья, окружающей среды, а также деловой этики, этики спорта, этики в области технологий и права (Fobel, 2002).

В области этики технологий определяющим фактором является цифровая этика, возникновение которой относится к периоду развития Интернета. Этическое поведение столь же важно во Всемирной паутине, доступной каждому, сколь и вне цифрового пространства. Сегодня каждый может создавать цифровой контент, размещать комментарии, выражать свое мнение по различным вопросам. Этими действиями мы выражаем свои ценностные установки.

1

Научный эксперт в области этического подхода к цифровой революции, сооснователь и руководитель ADELIAA, научный сотрудник коллектива по биоэтике ^егт 1295 BЮETHICS Университета Тулузы.

Цифровая этика, или, в более широком смысле, информационная этика, изучает влияние цифровых информационных и коммуникационных технологий на общество и окружающую среду в целом. В более узком смысле информационная этика (или этика цифровых СМИ) изучает этические аспекты информации, содержащейся в Интернете, и средств коммуникации, основанных на Интернете, таких как мобильные телефоны и средства навигации (Оаригго, 2018).

Появление цифровой этики также породило сложные правовые проблемы. Цифровая коммуникация, алгоритмизация и развитие искусственного интеллекта оказывают значительное влияние на жизни людей. По мнению йате! Eszteгi, на первый план могут выйти такие новые этические проблемы, как автоматическое принятие решений без вмешательства человека и права искусственных образований (Eszteгi, 2021). Как отмечает Gabгiella появление машинных субъектов может привести

к переосмыслению самой сущности человека или ценностей человеческого существования (№те^, 2021). Этические вопросы искусственного интеллекта в военной сфере исследовались 1тге Nëgyesi (Nëgyesi, 2020). В работе Rëka Pusztahelyi предложена классификация этических принципов искусственного интеллекта с различных точек зрения в зависимости от их направленности. В частности, выделены частные, отраслевые и всеобщие этические принципы (Pusztahelyi, 2019). В нашей работе мы придерживаемся этой классификации. Действительно, этические принципы искусственного интеллекта, применяемые в медицине, не обязательно должны покрывать таковые этические концепции рынка труда.

Нельзя сказать, что системам искусственного интеллекта изначально присущи несправедливость и неравенство, однако проблема взаимодействия таких систем и нашего несправедливого мира вызывает дискуссии. Как отмечал Knowles, одним из механизмов решения проблемы этики ИИ является этическое обучение ИИ: все, кто принимает участие в обучении, использовании и/или предоставлении данных системам искусственного интеллекта, должны руководствоваться принципами четкого морального обоснования, ответственного выбора и правильных действий (Ю^^, 2021).

Первым шагом к созданию этических систем искусственного интеллекта является изучение этических дилемм. Сообщество исследователей и специалистов в области искусственного интеллекта предпочитает использовать широкие нормы регулирования искусственного интеллекта, а не узкоспециализированные стандарты ^и et а1., 2018). Подобные нормы были созданы ЮНЕСКО, Европарла-ментом и Еврокомиссией; эти рекомендации и резолюции мы рассмотрим в следующей главе.

2. Регулирование этических аспектов искусственного интеллекта

Появление искусственного интеллекта вызвало множество вопросов законодательного регулирования. Они относятся не только к правовой концептуализации и категоризации, но и к отдельной отрасли права - этическим аспектам искусственного интеллекта и связанной с ними правовой ответственности.

Этические риски искусственного интеллекта значительны. Об этом свидетельствует исследование Deloitte 2018 г., согласно которому 32 % менеджеров оценивали этические риски искусственного интеллекта так высоко, что готовы были остановить

свои инициативы в этой области2. По результатам опроса, проведенного в 2019 г. исследовательским институтом Capgemini Research Institute, почти половина пользователей искусственного интеллекта испытывали в этой связи этические проблемы, а 86 % менеджеров отметили, что им известны случаи, когда использование искусственного интеллекта привело к этическим проблемам (Capgemini Research Institute, 2019)3. Эти исследования также показывают, что недостаточно обозначить правовые принципы искусственного интеллекта, следует также обратить внимание на его этические аспекты.

Хотя терминология в данной области может меняться, сущность этики искусственного интеллекта постепенно проясняется. Принципы ОЭСР направлены на создание надежного искусственного интеллекта; подобные положения были сформулированы Объединенным центром искусственного интеллекта (United Center for Artificial Intelligence) (в качестве важнейших принципов были указаны отслежи-ваемость, надежность и управляемость). Группа экспертов высокого уровня Евросоюза сосредоточивается на принципах защиты данных, управления данными, прозрачности, недискриминации и справедливости (Tilesch & Hatamleh, 2021).

2.1. ЮНЕСКО - Рекомендации по этике искусственного интеллекта

Искусственный интеллект присутствует в жизни миллиардов людей, даже без их ведома, незаметно трансформируя общество. Его применение несет множество преимуществ, от обучения до поиска работы. Однако наряду с преимуществами он порождает также риски и проблемы. Искусственный интеллект несет в себе значительные социальные и культурные последствия, ставя вопросы о свободе слова и самовыражения, о праве на тайну частной жизни, об имущественных правах, дискриминации, манипуляции и искажении информации. Вдобавок искусственный интеллект бросает вызов когнитивным способностям человека и аспектам взаимодействия. Алгоритмы могут способствовать распространению дезинформации, влиять на политические и идеологические взгляды. Процессы глубокого обучения могут усиливать существующие предубеждения, что противоречит требованиям равноправия, подчеркивает неравенство между отдельными социальными слоями и группами, усиливает цифровые барьеры, а значит, и шансы на появление цифрового разрыва; все это отмечено в предварительном докладе ЮНЕСКО по проблеме искусственного интеллекта4.

Чтобы преодолеть эти риски и вызовы, необходимо установить как международные, так и национальные законодательные нормы, основанные на принципах ЮНЕСКО. В этой связи в ноябре 2021 г. на Генеральной конференции ЮНЕСКО были приняты рекомендации по искусственному интеллекту. Ранее, на 40-й сессии

Loucks, J., Davenport, Th. H., & Schatsky, D. (2018, October 22). State of AI in the Enterprise, 2nd Edition. Early adopters combine bullish enthusiasm with strategic investments. Deloitte. https://www2.deloitte. com/us/en/insights/focus/cognitive-technologies/state-of-ai-and-intelligent-automation-in-business-survey-2018.html

Почему решение этических вопросов в области искусственного интеллекта принесет пользу организации [Why addressing ethical questions in AI will benefit organization]. https://www.expertbibliotheek.nl/ publicaties/data

Рекомендации по этике искусственного интеллекта. https://www.unesco.org/en/legal-affairs/ recommendation-ethics-artificial-intelligence

2

3

4

в ноябре 2019 г., было принято решение о создании международного нормативного документа по этике искусственного интеллекта. Соответственно, специальная группа экспертов провела междисциплинарные консультации с целью всестороннего внедрения указанных рекомендаций5.

Рекомендации ЮНЕСКО относятся к этическим аспектам в области искусственного интеллекта с точки зрения нормативного регулирования. В них этика определяется как база для оценки технологий искусственного интеллекта. Цель рекомендаций не в том, чтобы дать определение искусственному интеллекту, но в том, чтобы раскрыть важнейшие вопросы с точки зрения этики6. Также ставится цель создать международно признанный нормативный инструмент, отражающий такие ценности, как права, свободы и достоинство человека, защита окружающей среды, разнообразие, инклюзивность, формирование мирных и равноправных сообществ. Указанный инструмент также должен формулировать основные принципы и конкретные рекомендации для их достижения7, в первую очередь учитывая то, что государства-участники должны будут вводить свои правила для оценки этических аспектов, проводить оценку рисков, осуществлять надзор и создавать механизмы обеспечения безопас-ности8. Помимо этических вопросов, в рекомендациях выделены также проблемы защиты данных, международного сотрудничества и развития, охраны окружающей среды и гендерного равенства.

2.2. Этические принципы Группы экспертов высокого уровня (HLEG), принятые Еврокомиссией

С момента своего возникновения Европейский союз неоднократно сталкивался с социальными и экологическими проблемами, круг которых увеличивался экспоненциально с увеличением числа стран-участниц. Признавая важность устойчивого развития и климатических изменений, Евросоюз поддержал несколько международных инициатив, например, Конвенцию по климату9 и Цели в области устойчивого развития под эгидой ООН10. ЕС также осуществляет деятельность в соответствии с принципами устойчивого развития; в рамках этой деятельности Комиссия Евросоюза основала Группу экспертов высокого уровня (HLEG, далее - ГЭВУ) для изучения этических аспектов искусственного интеллекта11.

Работа ГЭВУ многопланова, она затрагивает все сферы приложения искусственного интеллекта и определяет не только развитие, но и моральные стороны его применения (Pusztahelyi, 2019). Рекомендации экспертной группы были использованы в таких инициативах Еврокомиссии, как «Укрепление доверия к человеко-ориентированному

5 Рекомендации по этике искусственного интеллекта. https://www.unesco.org/en/legal-affairs/ recommendation-ethics-artificial-intelligence

6 Там же.

7

Там же.

8 Там же.

9 Парижское соглашение. https://www.un.org/en/climatechange/paris-agreement

Цели в области устойчивого развития. https://sdgs.un.org/goals

Группа экспертов высокого уровня (HLEG). https://digital-strategy.ec.europa.eu/en/policies/expert-group-ai

10 11

искусственному интеллекту»12, «Белая книга по искусственному интеллекту: европейский подход к совершенству и доверию»13 и обновленный Координированный план по искусственному интеллекту14.

В сводном отчете ГЭВУ отметила, что в отношении искусственного интеллекта должны выполняться три основных условия: законность, этичность, устойчивость. Были установлены принципы применения надежного искусственного интеллекта, обеспечивающие этичность и устойчивость искусственного интеллекта. Что касается законности, то, как отмечает Rëka Pusztahelyi, она начинается с того, что применение ИИ имеет место в рамках стандартов (Pusztahelyi, 2019).

В первой главе «Руководящих принципов по этике для надежного искусственного интеллекта» отражены базовые права и заложены основы понимания искусственного интеллекта, затем рассматриваются задачи этики15 и в то же время отмечается, что этический кодекс в данной области не может заменить этической аргументации. Как и документ ЮНЕСКО, отчет ГЭВУ базируется на фундаментальных правах (ценностях): достоинство, свобода, справедливость, демократия, равенство, верховенство права, отсутствие дискриминации, которые выступают основаниями правомочности по закону и нравственности. Кроме того, документ закладывает четыре базовых принципа: уважение к автономии человека, предотвращение вреда, справедливость и объяснимость; эти принципы выходят за рамки требований закона, но их соблюдение ставит серьезную дилемму перед разработчиками программного обеспечения (Pusztahelyi, 2019). Помимо общих принципов, обозначены семь требований, которые должны обеспечить всестороннее соблюдение этических принципов. Эти требования следующие: участие и надзор человека (включая основные права, участие человека и надзор со стороны человека), техническая стабильность и безопасность (устойчивость к атакам и безопасность, точность, надежность и воспроизводимость), защита данных и управление данными (уважение к частной жизни, качество и целостность данных, доступ к данным), прозрачность (включая отслеживаемость, объяснимость), разнообразие, отсутствие дискриминации, справедливость (недопустимость несправедливого предубеждения, доступность и универсальный дизайн, участие заинтересованных сторон), социальное и экологическое благополучие (выделяя устойчивость и защиту окружающей среды в качестве приоритетов) и подотчетность (включая проведение аудита, минимизацию негативных последствий, возможности для компромиссов и законных мер защиты)16. В документе подчеркивается, что эти требования одинаково важны, а их применение необходимо на всех этапах жизненного цикла приложений с ИИ, однако некоторые из этих требований содержатся в уже существующих правовых нормах.

12 Укрепление доверия к человекоориентированному искусственному интеллекту. (2019). https://digital-strategy.ec.europa.eu/en/library/communication-building-trust-human-centric-artificial-intelligence

13 Белая книга по искусственному интеллекту: европейский подход к совершенству и доверию. (2020). https://commission.europa.eu/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en

14 Координированный план по искусственному интеллекту, версия 2021 года. (2021). https://digital-strategy.ec.europa.eu/en/library/coordinated-plan-artificial-intelligence-2021-review

15 Руководящие принципы по этике для надежного искусственного интеллекта. (2021). https:// ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines/1.html

16 Там же.

2.3. Европейский парламент - Рамочная резолюция об этических аспектах искусственного интеллекта, робототехники и связанных с ними технологий

Помимо рекомендаций ЮНЕСКО и руководства ГЭВУ, важно рассмотреть рамочные документы Европейского парламента. Основными принципами этих предложений являются поддержка использования искусственного интеллекта, робототехники и других связанных с ними технологий и приведение их в соответствие этическим принципам. Цель данного проекта - создать регулирование на основе этических принципов, направленное на развитие, внедрение и использование искусственного интеллекта, робототехники и связанных с ними технологий17. Задачей данного регулирования является установление всеобъемлющей долгосрочной законодательной базы Евросоюза для осуществления этических принципов и правовых обязательств.

Ответственный за данный проект Ибан Гарсия дель Бланко подчеркнул преимущества и риски искусственного интеллекта. По его словам, поставленная цель -достичь построения более устойчивого и справедливого общества; при этом следует уделять больше внимания обеспечению защиты частной жизни и искоренению дискриминации. Важно выработать нормативную базу на основе фундаментальных этических принципов. При разработке человеко-ориентированного ИИ необходимо обеспечить не только надежность, но и безопасность. Соответственно, документ создавался с учетом таких принципов, как оценка высокорискового ИИ, робототехники и связанных с ними технологий, обеспечение безопасности, прозрачности, подотчетности, гарантий отсутствия дискриминации, наличия законных мер защиты и права на защиту, социальная ответственность, устойчивость технологий искусственного интеллекта, соблюдение права на частную жизнь, ограничения биометрической идентификации, обеспечение необходимого контроля над использованием данных и формированием данных с помощью технологий. Внутри Евросоюза регулирование распространяется на любые технологии искусственного интеллекта, робототехники и связанных с ними технологий, включая программное обеспечение, алгоритмы и данные, используемые или создаваемые посредством таких технологий, в соответствии с законодательством ЕС, принципами человеческого достоинства, автономии и безопасности, а также в соответствии с другими фундаментальными правами, закрепленными в Уставе, и должны развиваться, применяться и использоваться должным образом18. Резолюция была принята 20 октября 2020 г.19, были представлены предложения. Правовым основанием для представления предложений явилась ст. 114 Договора о функционировании Европейского союза, которая устанавливает меры по обеспечению создания и функционирования единого внутреннего рынка. Проект стал одним из центральных элементов стратегии единого цифрового рынка. Он основывается на уже существующих законодательных нормах, является сбалансированным и необходимым для достижения поставленных целей. В проекте

17 Рамочная резолюция об этических аспектах искусственного интеллекта (ИИ), робототехники и связанных с ними технологий. (2020/2012(11^), 2020). https://oeil.secure.europarl.europa.eu/oeil/popups/ summary.do?id=1636985&t=d&l=en

18 Там же.

19 Там же.

используется подход на основе анализа риска; бремя регулирования налагается лишь в том случае, если существует высокая вероятность угрозы фундаментальным правам или безопасности со стороны системы искусственного интеллекта20.

Таким образом, мы видим, что законодательная база Европарламента строится по тем же этическим принципам, что и рекомендации ЮНЕСКО, и руководство ГЭВУ.

2.4. Другие рекомендации и руководства

Вышеописанные документы содержат общие положения и рекомендации, обладающие схожей логической структурой и подчеркивающие необходимость обеспечения практически одних и тех же этических ценностей. В данном разделе мы кратко рассмотрим публикации, не направленные конкретно на установление стандартов, но описывающие этические принципы, характерные для указанной сферы деятельности.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Международная организация «Институт инженеров электротехники и электроники» (далее - IEEE) в 2019 г. выпустила руководство по этике искусственного интеллекта под названием «Этически согласованный дизайн» (Ethically Aligned Design, EAD). Цель Глобальной инициативы IEEE - выработать прагматические и целеполага-ющие оценки и рекомендации, на которые могли бы опираться в своей деятельности разработчики технологий, законодатели и ученые (Pusztahelyi, 2019). В 2021 г. организация представила стандарт по этике IEEE7000, направленный на развитие этических и справедливых систем искусственного интеллекта. Этот стандарт в настоящее время изучается Еврокомиссией. Его положения выходят за рамки проблем защиты данных, прозрачности и надежности, так как содержат также анализ социальных последствий использования технологий и проблемы изменения личности под влиянием технологий. Стандарт предлагает разработчикам четкую систему принципов дизайна и развития. При этом используются различные теории этики, позволяющие выделить релевантные ценности и определить их приоритетность по классификации корпоративных или отраслевых ценностей. Введено также новое понятие «требование этической ценности» (ethical value requirement, EVR), входящее в системные требования, которые устанавливаются исходя из оценки рисков (Spiekermann et al., 2022).

Кроме того, при Министерстве обороны США был создан Объединенный центр искусственного интеллекта, начавший работу в 2019 г. Центр разрабатывает руководства в области искусственного интеллекта в основном в военной сфере, однако его деятельность представляется важной с этической точки зрения, учитывая, что ключевым приоритетом систем искусственного интеллекта является обеспечение соответствия правовым нормам с целью снижения опасности для гражданских лиц, и эти приоритеты актуальны с момента установления требований до окончания этапа тестирования21.

20 Проект Постановления Европейского парламента и Европейского совета о введении согласованных норм в области искусственного интеллекта (Закон об искусственном интеллекте) и внесении изменений в некоторые законодательные акты Евросоюза. https://eur-lex.europa.eu/legal-content/EN/ TXT/?uri=CELEX%3A52021PC0206

21 Объединенный центр искусственного интеллекта. https://www.defense.gov/News/News-Stories/ Article/Article/2418970/joint-artificial-intelligence-center-has-substantially-grown-to-aid-the-warfigh/

Этические вопросы в области искусственного интеллекта рассматриваются не только международными или национальными организациями. Так, компания IBM сочла необходимым внедрить этические принципы в свои процессы разработки и развития22; компания Adobe также сделала это23.

В России Комиссия по реализации Кодекса этики в сфере ИИ определила главным приоритетом развития технологий искусственного интеллекта защиту интересов и прав людей; это не только позволяет решить задачу ответственности и возможных последствий, но и обеспечивает использование ИИ для заявленных целей и там, где это принесет пользу людям24.

3. Этические аспекты искусственного интеллекта в сфере труда (на основе доклада Исследовательской службы Европарламента по вопросам искусственного интеллекта)

Ожидается, что искусственный интеллект и смежные технологии дадут огромные экономические и социальные преимущества во всех областях, окажут влияние на финансовый сектор, здравоохранение, сельское хозяйство. Использование искусственного интеллекта принесет практическую пользу в плане улучшения прогнози-руемости и оптимизации деятельности. Однако нельзя забывать, что последствия применения систем искусственного интеллекта могут угрожать фундаментальным правам человека, закрепленным в Хартии Европейского союза по правам человека, таким как равноправие, отсутствие дискриминации, человеческое достоинство, защита персональных данных и частной жизни25.

Системы искусственного интеллекта способны обрабатывать данные точнее и быстрее, чем человек, однако их использование несет в себе значительные риски, если искусственный интеллект принимает решения без вмешательства человека. В случаях, когда системы могут избежать контроля со стороны человека или действовать с минимальным вмешательством человека, возникает множество этических вопросов; поэтому, по нашему мнению, такие процессы следует тщательно контролировать, пока не будет достигнут определенный уровень тестирования и гарантий безопасности.

В области здравоохранения искусственный интеллект может во многих случаях применяться для решения задач диагностики. Машинное обучение осуществляется на базе образцов, получаемых из баз данных, однако данные могут быть искажены внешними влияниями, а значит, и полученный результат может быть неверным. При обсуждении этики искусственного интеллекта в области радиологии на презентации совместной европейской и североамериканской декларации по стандарту IEEE подчеркивалось, что необходим приоритет человеческого фактора, т. е. результаты

22 IBM: повседневная этика для искусственного интеллекта. https://www.ibm.com/design/ai/ethics/ everyday-ethics/

23 Этические принципы в области искусственного интеллекта компании Adobe. https://www.adobe. com/about-adobe/aiethics.html

24 Российский Альянс в сфере искусственного интеллекта - Этический кодекс искусственного интеллекта. https://ethics.a-ai.ru/

25 Исследовательская служба Европарламента: Закон об искусственном интеллекте. (2021). https:// www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf

работы искусственного интеллекта должны занимать подчиненное положение относительно результатов суждений, надзора и контроля человека26.

Наряду со здравоохранением, образованием, транспортом, энергетикой, финансовым и банковским сектором, сфера трудовых отношений также классифицируется Европарламентом как высокорисковая с точки зрения искусственного интеллекта. Системы искусственного интеллекта все чаще используются в процессе принятия решений в сфере занятости. Учет этических аспектов также важен при практическом применении искусственного интеллекта, особенно в отношении уязвимых или социально незащищенных групп и лиц, а также в случаях неравноправных позиций сторон, будь то отношения покупателя и продавца или работника и работодателя. В последнем случае (который соответствует теме нашего исследования) это отношения старшинства и подчинения, что свидетельствует о необходимости применять этические принципы.

В связи с этим в 2021 г. Еврокомиссия представила проект правового регулирования искусственного интеллекта. Общая цель проекта - создать необходимые условия для развития надежных систем искусственного интеллекта, а для этого определить согласованную законодательную базу. Кроме того, были поставлены задачи, обеспечивающие соответствие систем искусственного интеллекта европейскому законодательству и правовой определенности и способствующие формированию и поддержанию единого рынка. Новая законодательная база призвана также утвердить технологически нейтральное определение систем искусственного интеллекта. В проекте тщательно анализируется система рисков при использовании искусственного интеллекта. Подход, основанный на анализе рисков, ранжирует системы искусственного интеллекта по степени риска: от неприемлемого до высокого и ограниченного. Тем самым закладываются требования к высокорисковым системам, а именно: требование предварительной оценки соответствия, регистрация провайдера услуг в общей базе данных ЕС, тестирование, техническая надежность, прозрачность, надзор человека, кибербезопасность. Кроме того, поставлен вопрос о соответствии проекта стандартам ЕС, которые разрабатываются в настоящее время27.

В Приложении III к данному проекту выделена группа систем искусственного интеллекта высокого класса, включающая, кроме систем биометрической идентификации и систем для оценивания обучающихся, также системы оценки уровня занятости и самозанятости. В связи с этим дистрибьюторы и провайдеры услуг в области систем искусственного интеллекта, используемых для рекламы и отбора вакансий, оценки на основе собеседований, отбора и найма сотрудников, обязаны выполнить ряд требований, прежде чем запускать эти системы, а весь процесс подлежит строгому регулированию и надзору28.

26 Этические вопросы использования искусственного интеллекта в радиологии. https://www.neuroct. hu/blog/a-mesterseges-intelligencia-alkalmazasanak-etikai-kerdesei-a-radiologiaban

27 Гармонизация искусственного интеллекта: роль стандартов в Регламенте ЕС по ИИ. https:// montrealethics.ai/harmonizing-artificial-intelligence-the-role-of-standards-in-the-eu-ai-regulation/

28 Проект Постановления Европейского парламента и Европейского совета о введении согласованных норм в области искусственного интеллекта (Закон об искусственном интеллекте) и внесении изменений в некоторые законодательные акты Евросоюза. https://eur-lex.europa.eu/legal-content/EN/ TXT/?uri=CELEX%3A52021PC0206

В рамках отношений найма мы уже сейчас можем столкнуться с работой искусственного интеллекта в области отбора и найма на первом этапе - часто искусственный интеллект без нашего ведома выбирает наше резюме из всего множества полученных анкет. Такое использование искусственного интеллекта значительно повышает эффективность отбора кандидатов. Однако, по нашему мнению, это приложение не может заменить работу специалиста по кадрам; эту деятельность следует расценивать как дополнительную и вспомогательную, тогда как искусственный интеллект или робот не способен воспроизвести человеческое взаимодействие в контексте личного собеседования.

В процессе отбора искусственный интеллект обеспечивает справедливые условия, способствует снижению риска предвзятости и предубеждений - кандидаты отбираются исключительно на основании их профессионального опыта и навыков. В то же время это преимущество может породить этические риски в аспекте восприимчивости организации. Ярким примером такой ситуации является робот-кадровик компании Amazon Inc., которого обучали на резюме, поданных в компанию в течение 10 лет. Поскольку большинство резюме на позиции технических специалистов были от мужчин, искусственный интеллект «научился» отдавать предпочтение кандидатам-мужчинам. Робот автоматически отклонял анкеты женщин, тем самым нарушая гендерное равенство как этический принцип (Dastin, 2018).

В связи с этим возникает вопрос: насколько этично для работодателя воспринимать сотрудников как элементы базы данных? Как правило, базы данных можно смоделировать, однако в отсутствие контекста ценность таких данных снижена или полностью равна нулю. Например, в работе Boyd и Crawford описано графическое моделирование сети личных взаимоотношений на основе социальных сетей, позволяющее получить набор данных, но не полную и точную информацию о реальных отношениях между людьми (Boyd & Crawford, 2012). При отборе сотрудников мы можем столкнуться с подобной этической дилеммой: может ли искусственный интеллект определить пригодность кандидата? Полученные резюме оторваны от контекста, это лишь обезличенные наборы данных, из которых можно сделать определенные выводы, но на которые, по нашему мнению, нельзя полностью положиться.

Подобная дилемма возникает также при использовании искусственного интеллекта для анализа возможности сокращения рабочей силы. В Приложении III указанного проекта программное обеспечение ИИ, предназначенное для инициирования или прекращения контрактных отношений и принятия соответствующих решений, также отнесено к высокорисковым системам. Таковы же и системы для наблюдения и оценки эффективности деятельности и поведения людей в рамках правовых отношений (AI Act Proposal). Нет сомнений, что искусственный интеллект принимает справедливые решения на основе оценки деятельности, но этично ли будет уволить сотрудника, который в данный момент хуже работает, в одиночку воспитывая детей, только потому, что искусственный интеллект поместил его в более низкую категорию эффективности? Польза искусственного интеллекта в определенных процессах бесспорна, однако мы против того, чтобы расценивать сотрудников как элементы базы данных. Мы считаем, что при принятии решений следует учитывать также другие факторы, такие как возможности дальнейшего обучения и переобучения сотрудника, его гибкость и, разумеется, положение семьи или принадлежность к социально незащищенным группам. В этой связи при разработке законодательных норм страны - члена ЕС или конкретной организации, помимо стремления к инновационности,

мы должны учитывать содержание отношений между машиной и человеком, отношений старшинства и подчинения и (в соответствии с проектом законодательства ЕС) обеспечить прозрачность применения искусственного интеллекта и возможность пересмотра принятого решения человеком. Очевидно, что машины все сильнее вовлекаются в процессы принятия этических решений, которые требуют этических обоснований. Существующие алгоритмы машинного обучения с этической точки зрения непостижимы, однако они не сильно отличаются от человеческого поведения. В статье Marius Dorobantu и Yorick Wilks исследовалась роль рациональности и обоснованности в традиционном этическом мышлении и искусственном интеллекте, при этом подчеркивалась необходимость обоснования своих действий. В работе изучается фактор воплощения Нила Лоуренса как подход к пониманию различий между человеческим и машинным интеллектом, увязанный с теологическим пониманием личности, а также предлагается концепция искусственных моральных подпорок, которая этически обосновывает понятия искусственного и человеческого субъекта права в качестве более многообещающего универсального подхода к человеческой и машинной этике (Dorobantu & Wilks, 2019).

Заключение

В эпоху искусственного интеллекта этика вышла на новый уровень значимости обсуждений (Sudhi & Huraimel, 2021). Относительно рисков искусственного интеллекта консенсус пока не достигнут. Хотя инновациям нельзя препятствовать, нет сомнений, что при применении искусственного интеллекта необходим человеческий надзор, что связано с определенными этическими проблемами. Руководства, рекомендации и проекты законодательства, кратко представленные в данной работе, направлены в том числе на достижение этой цели, т. е. на создание правовой базы для успешного применения этих технологий в будущем.

Инновации присущи любой цивилизации. В Бельмонтском докладе 1978 г. были указаны три этических принципа: уважение к личности, благодетельность и справедливость, ставшие основой исследований, в которых участвуют люди в качестве объектов. Однако независимые комитеты по контролю над исследованиями человека в качестве объекта и выпускаемые ими стандарты нацелены на соответствие этике исследовательской работы в Интернете, в области больших данных и искусственного интеллекта. Об этом свидетельствуют выполненная в 2014 г. работа об эффекте эмоционального заражения в Фейсбуке* и споры вокруг исследования 2016 г. «Гей-радар искусственного интеллекта» (Tang, 2020).

Как показывает проведенный анализ, этические риски искусственного интеллекта, способного к самостоятельной деятельности, представляют собой существенный вызов законодательству. Машинное обучение стало популярным инструментом многих приложений уголовного права, включая вынесение приговора и выработку правовых мер. Однако также потенциально возможно, что прогностические системы будут создавать эффект неравномерности и усиливать социальное неравенство. Хотя в ряде исследований было показано, что модели машинного обучения могут успешно справляться с такими задачами, им также присуще воспроизведение системных предвзятостей, первоначально заложенных человеком. При этом важность справедливых установок для приложений машинного обучения в законотворчестве недостаточно исследовалась учеными (Alikhademi et al., 2022).

Соответствующие рекомендации служат основой для развития законодательства; при этом необходимо гармонизировать международные и национальные стандарты и реорганизовать системы стандартов. Трудовое законодательство может сыграть важную роль в этом подходе. Наиболее значимыми являются обязывающие гражданско-правовые договоры и ресурсы, ставящие задачу достичь полной занятости; также важны инструменты регулирования массовых увольнений (Stefano, 2018). Заметные усилия по регулированию искусственного интеллекта прилагаются не только в Евросоюзе; для Европы характерен подход, основанный на оценке риска, тогда как в Соединенных Штатах предлагаются более специализированные указания (Sussman, 2021). Общей чертой является то, что для развития научных исследований и расширения использования технологий искусственного интеллекта необходимо создать инфраструктуру, которая способствовала бы сотрудничеству между заинтересованными лицами и обеспечивала деятельность в соответствии с рамками закона и, что не менее важно, этики. Кроме того, необходимо понять суть взаимодействия между искусственным интеллектом (роботами) и человеком, а также проблемы эмоционального интеллекта, как отмечал Jozsef Hajdu (Hajdu, 2020).

Государства признают значимость искусственного интеллекта и начинают разрабатывать нормативную базу вокруг стратегии автономного ИИ. 25 апреля 2018 г. Венгрия вместе с еще 25 европейскими странами подписала Декларацию о сотрудничестве в сфере искусственного интеллекта, в которой фиксируется намерение стран-участниц сотрудничать и поддерживать инновации в сфере разработки искусственного интеллекта в Европе29.

Споры вокруг этики искусственного интеллекта достигли критической точки, поскольку сегодня текстовые программы с ИИ общего назначения, такие как GPT-3, способны генерировать масштабные, сложные тексты, выглядящие так, будто они написаны человеком. С другой стороны, существует программа обработки информации на естественном языке (Krutilla & Kovari, 2022). Бизнес-сообщество принимает недостаточное участие в обсуждении этических вопросов, касающихся слияния ролей человека и машины при создании контента (Illia et al., 2023).

Центральной проблемой нашего времени является этика при принятии решений. По нашему мнению, автономные интеллектуальные системы не учитывают потребности человека, они принимают объективные решения. Следовательно, необходимо создать искусственный интеллект, ориентированный на человека, отвечающий ценностям и этическим принципам общества, т. е. разработать механизмы сдерживания для защиты справедливости человеческого достоинства.

Подводя итоги, можно сказать, что использование искусственного интеллекта приводит к комплексным изменениям. При этом необходимо создать законодательную базу и обеспечить прозрачность деятельности. В этой связи в настоящей работе представлены отдельные законодательные решения с акцентом на этические аспекты искусственного интеллекта в приложении к трудовым отношениям.

«Искусственный интеллект никогда не станет этическим. Это инструмент, и, как любой инструмент, его можно использовать во благо и во зло. Нет хорошего ИИ, есть только хорошие и плохие люди. Мы не настолько умны, чтобы сделать ИИ этическим.

29 Стратегия развития искусственного интеллекта (Венгрия). https://ai-watch.ec.europa.eu/countries/ hungary/hungary-ai-strategy-report_en

Мы не настолько умны, чтобы сделать ИИ нравственным... В конечном итоге я считаю, что единственный способ избежать гонки вооружений с использованием ИИ -это не иметь ИИ вообще. Это единственная защита от ИИ» (Connock, 2023).

* Организация признана экстремистской, ее деятельность запрещена на территории Российской Федерации.

Список литературы

Alikhademi, K., Drobina, E., Prioleau, D., Richardson, B., & Gilbert, J. E. (2022). A review of predictive policing from the perspective of fairness. Artificial Intelligence and Law, 4(23), 1 -17. https://doi.org/10.1007/ s10506-021 -09286-4

Beranger, J. (2021). Societal Responsibility of Artificial Intelligence: Towards an Ethical and Eco-responsible AI. UK: Wiley-Iste.

Boyd, D., & Crawford, K. (2012). Az adatrengeteg kínos kérdései. Információs Társadalom, 72(2), 7. https://doi.

org/10.22503/inftars.xii.2012.2.1 Candriam Academy. (2022). What is the European Commission's HLEG?

Capgemini Research Institute. (2019). Why addressing ethical questions in AI will benefit organization. Capurro, R. (2018). Digital Ethics. International Journal of Applied Research on Information Technology and Computing, 9/1, 23-31.

Connock, A. (2023). Media Management and Artificial Intelligence: Understanding Media Business Models in the Digital Age. UK: Routledge.

Cyman, D., Gromova, E., & Juchnevicius, E. (2021). Regulation of Artificial Intelligence in BRICS and the European

Union, BRICS Law Journal, 8(1), 86-115. https://doi.org/10.21684/2412-2343-2021 -8-1 -86-115 Dastin, J. (2018). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. Dorobantu, M., & Wilks, Y. (2019). Moral orthoses: a new approach to human and machine ethics. Zygon Journal

of Religion and Science, 54(4), 12-23. https://doi.org/10.1111/zygo.12560 Eszteri, D. (2015). A mesterséges intelligencia fejlesztésének és üzemeltetésének egyes felel6sségi kérdései.

Infokommunikáció és Jog, 47-57. ISSN 1786-0776 Fleischmann, S. S., Greenberg, K. R., Verma, N., Cummings, B., Li, L., & Shenefel, C. (2023). Locazing the work of artificial intelligence ethics. Journal of the Association for Information Science and Technology, 74(3), 311-322. https://doi.org/10.1002/asi.24638 Fobel, P. (2002). Alkalmazott filozófia és etika. In S. Karikó, & S. Karikó (Szerk.), Az alkalmazott filozófia esélyei. Budapest: Áron Kiadó.

Hajdú, J. (2020). A mesterséges intelligecia hatása a munkaer6piacra, avagy elveszik-e a robotok az ember

munkáját. Infokommunikáció és Jog, 7. Harmathy, A. (2019). A polgári jog a változó jogrendszerben. In V. Lamm, & A. Sajó, Studia in honorem Lajos

Vékás. Budapest: HVG-ORAC Lapés K0nyvkiadó Kft. Hoffmann, A. L., Roberts, S. T., Wolf, C. T., & Wood, S. (2019). Beyond fairness, accountability, and transparency in the ethics of algorithms: Contributions and perspectives from LIS. Proceedings of the Association for Information Science and Technology, 55(1), 694-696. https://doi.org/10.1002/pra2.2018.14505501084 Illia, L., Colleoni, E., & Zyglidopoulo, S. (2023). Ethical implications of text generation in the age of artificial intelligence. Business Ethics, the Environment & Responsibility, 32(1), 201-210. https://doi.org/10.1111/ beer.12479

Karvalics, Z. L. (2015). Mesterséges intelligencia - a diskurzusok újratervezésének kora. Információs Társadalom. Knowles, M. A. (2021). Five Motivating Concerns for AI Ethics Instruction. Proceedings of the Association for

Information Science and Technology, 58, 472-476. https://doi.org/10.1002/pra2.481 Krutilla, Z., & K6vári, A. (2022). The origin and primary areas of application of natural language processing. In 2022 IEEE 22nd International Symposium on Computational Intelligence and Informatics and 8th IEEE International Conference on Recent Achievements in Mechatronics Automation Computer Science and Robotics (pp. 293-298). https://doi.org/10.1109/cinti-macro57952.2022.10029432 Legeza, L. (2013). Mérnôki etika. Budapest.

Müller, J., & Kerényi, Á. (2019). A biizalom ésetika igénye a digitális korszakban. Hitelintézeti Szeml, 18/4, 8-19. Négyesi, I. (2020). A mesterséges intelligencia és az etika. Társadalomtudomány, 704.

Nemeth, G. (2021). Jogäszi etikai kihiväsok a technolögiai fejlodes tükreben: az etika es jog innoväciöjänak aktuälis kerdesei. Tanulmänyok. http://real.mtak.hU/108838/1/JAP-2020-01_NG.pdf

Pusztahelyi, R. (2019). Bizalmunkra meltö MI - A mesterseges intelligencia fejlesztesenek es alkalmazäsänak erkölcsi-etikai vonatkozäsairöl. Publicationes Universitatis Miskolcinensis Sectio Juridica et Politica, XXXVII/2, 99.

Spiekermann, S., Krasnova, H., Hinz, O., Baumann, A., Benlian, A., Grimple, H., & Trenz, M. (2022). Values and Ethics in Information Systems. Bus Inf Syst Eng, 64, 247-264. https://doi.org/10.1007/s12599-021-00734-8

Stefän, I. (2020). A mesterseges intelligencia fogalmänak polgäri jogi ertelmezese. Pro Futuro, 1, 29-39.

Stefano, V. (2018). "Negotiating the algorithm": Automation, artificial intelligence and labour protection. Employment Working Paper, 246.

Sudhi, S., & Huraimel, K. (2021). Dealing with Ethics, Privacy, and Security. In Reimagining Businesses with AI (pp. 193-206).

Sussman, E. H. (2021). U. S. Artificial Intelligence Regulaton takes shape.

Tang, B. (2020). Independent AI Ethics Committees and ESG Corporate Reporting on AI as Emerging Corporate and AI Governance Trends. In S. Chishti, I. Bartoletti, A. Leslie, & S. Millie, The AI Book: The Artificial Intelligence Handbook for Investors, Entrepreneurs and FinTech Visionaries. https://doi.org/10.1002/9781119551966.ch48

Tilesch, G., & Hatamleh, O. (2021). Mesterseg es Intelligencia. Libri Kiadö.

Turay, A. (2000). Az ember es az erkölcs- Alapveto etika Aquinoi Tamas nyoman. Szeged: Agape, Ferences Nyomda es Könyvkiadö Kft.

Yu, H., Shen, Zh., Miao, Ch., Leung, C., Lesser, V. R., & Yang, O. (2018). Building ethics into Artficial Intelligence. http://arxiv.org/pdf/1812.02953.pdf

Сведения об авторе

София Рицу - аспирант кафедры аграрного и трудового права, Университет Мишкольца

Адрес: Университетский городок, г. Мишкольц, Венгрия

E-mail: jogriczu@uni-miskolc.hu

ORCID ID: https://orcid.org/0000-0002-4024-5833

Конфликт интересов

Автор заявляет об отсутствии конфликта интересов.

Финансирование

Исследование не имело спонсорской поддержки.

Тематические рубрики

Рубрика OECD: 5.05 / Law Рубрика ASJC: 3308 / Law Рубрика WoS: OM / Law

Рубрика ГРНТИ: 10.87.91 / Международное право в практике отдельных государств Специальность ВАК: 5.1.5 / Международно-правовые науки

История статьи

Дата поступления - 9 апреля 2023 г. Дата одобрения после рецензирования - 22 апреля 2023 г. Дата принятия к опубликованию - 16 июня 2023 г. Дата онлайн-размещения - 20 июня 2023 г.

Research article

DOI: https://doi.org/10.21202/jdtl.2023.21

3ps>

Check fo updates

neck for pdates

Recommendations on the Ethical Aspects of Artificial Intelligence, with an Outlook on the World of Work

Zsofia Riczu ©

University of Miskolc Miskolc, Hungary

Keywords

Artificial intelligence,

digital technologies,

digitalization,

ethics,

labor law,

labor relations,

labor,

law,

legislation, principles of law

© Riczu Zs., 2023

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Abstract

Objective: the spread and wide application of Artificial Intelligence raises ethical questions in addition to data protection measures. That is why the aim of this paper is to examine ethical aspects of Artificial Intelligence and give recommendations for its use in labor law.

Methods: research based on the methods of comparative and empirical analysis. Comparative analysis allowed to examine provisions of the modern labor law in the context of use of Artificial Intelligence. Empirical analysis made it possible to highlight the ethical issues related to Artificial Intelligence in the world of work by examining the disputable cases of the use of Artificial Intelligence in different areas, such as healthcare, education, transport, etc. Results: the private law aspects of the ethical issues of Artificial Intelligence were examined in the context of ethical and labor law issues that affect the selection process with Artificial Intelligence and the treatment of employees as a set of data from the employers' side. Author outlined the general aspects of ethics and issues of digital ethics. Author described individual international recommendations related to the ethics of Artificial Intelligence. Scientific novelty:this research focused on the examination of ethical issues of the use of Artificial Intelligence in the specific field of private law - labor law. Authors gave recommendations on ethical aspects of use of Artificial Intelligence in this specific field.

article, distributed under the terms of the Creative Commons Attribution licence (CC BY 4.0)

.org/licenses/by/4.0), which permits unrestricted re-use, distribution and reproduction, provided the

is properly cited.

Practical significance: research contributes to the limited literature on the topic. The results of the research could be used in lawmaking process and also as a basis for future research.

For citation

Riczu, Zs. (2023). Recommendations on the Ethical Aspects of Artificial Intelligence, with an Outlook on the World of Work. Journal ofDigital Technologies and Law, 7(2), 498-519. https://doi.org/10.21202/jdtl.2023.21

References

Alikhademi, K., Drobina, E., Prioleau, D., Richardson, B., & Gilbert, J. E. (2022). A review of predictive policing from the perspective of fairness. Artificial Intelligence and Law, 4(23), 1 -17. https://doi.org/10.1007/ s10506-021 -09286-4

Beranger, J. (2021). Societal Responsibility of Artificial Intelligence: Towards an Ethical and Eco-responsible AI. UK: Wiley-Iste.

Boyd, D., & Crawford, K. (2012). Az adatrengeteg kínos kérdései. Információs Társadalom, 72(2), 7. https://doi. org/10.22503/inftars.xii.2012.2.1

Candriam Academy. (2022). What is the European Commission's HLEG?

Capgemini Research Institute. (2019). Why addressing ethical questions in AI will benefit organization.

Capurro, R. (2018). Digital Ethics. International Journal of Applied Research on Information Technology and Computing, 9/1, 23-31.

Connock, A. (2023). Media Management and Artificial Intelligence: Understanding Media Business Models in the Digital Age. UK: Routledge.

Cyman, D., Gromova, E., & Juchnevicius, E. (2021). Regulation of Artificial Intelligence in BRICS and the European Union, BRICS Law Journal, 8(1), 86-115. https://doi.org/10.21684/2412-2343-2021 -8-1 -86-115

Dastin, J. (2018). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters.

Dorobantu, M., & Wilks, Y. (2019). Moral orthoses: a new approach to human and machine ethics. Zygon Journal of Religion and Science, 54(4), 12-23. https://doi.org/10.1111/zygo.12560

Eszteri, D. (2015). A mesterséges intelligencia fejlesztésének és üzemeltetésének egyes felelósségi kérdései. Infokommunikáció és Jog, 47-57. ISSN 1786-0776

Fleischmann, S. S., Greenberg, K. R., Verma, N., Cummings, B., Li, L., & Shenefel, C. (2023). Locazing the work of artificial intelligence ethics. Journal of the Association for Information Science and Technology, 74(3), 311-322. https://doi.org/10.1002/asi.24638

Fobel, P. (2002). Alkalmazott filozófia és etika. In S. Karikó, & S. Karikó (Szerk.), Az alkalmazott filozófia esélyei. Budapest: Áron Kiadó.

Hajdú, J. (2020). A mesterséges intelligecia hatása a munkaerópiacra, avagy elveszik-e a robotok az ember munkáját. Infokommunikáció és Jog, 7.

Harmathy, A. (2019). A polgári jog a változó jogrendszerben. In V. Lamm, & A. Sajó, Studia in honorem Lajos Vékás. Budapest: HVG-ORAC Lapés Konyvkiadó Kft.

Hoffmann, A. L., Roberts, S. T., Wolf, C. T., & Wood, S. (2019). Beyond fairness, accountability, and transparency in the ethics of algorithms: Contributions and perspectives from LIS. Proceedings of the Association for Information Science and Technology, 55(1), 694-696. https://doi.org/10.1002/pra2.2018.14505501084

Illia, L., Colleoni, E., & Zyglidopoulo, S. (2023). Ethical implications of text generation in the age of artificial intelligence. Business Ethics, the Environment & Responsibility, 32(1), 201-210. https://doi.org/10.1111/ beer.12479

Karvalics, Z. L. (2015). Mesterséges intelligencia - a diskurzusok újratervezésének kora. Információs Társadalom.

Knowles, M. A. (2021). Five Motivating Concerns for AI Ethics Instruction. Proceedings of the Association for Information Science and Technology, 58, 472-476. https://doi.org/10.1002/pra2.481

Krutilla, Z., & Köväri, A. (2022). The origin and primary areas of application of natural language processing. In 2022 IEEE 22nd International Symposium on Computational Intelligence and Informatics and 8th IEEE International Conference on Recent Achievements in Mechatronics Automation Computer Science and Robotics (pp. 293-298). https://doi.org/10.1109/cinti-macro57952.2022.10029432

Legeza, L. (2013). Mernöki etika. Budapest.

Müller, J., & Kerenyi, Ä. (2019). A biizalom esetika igenye a digitälis korszakban. Hitelintezeti Szeml, 18/4, 8-19.

Negyesi, I. (2020). A mesterseges intelligencia es az etika. Tarsadalomtudomany, 104.

Nemeth, G. (2021). Jogäszi etikai kihiväsok a technologiai fejlödes tükreben: az etika es jog innoväciojänak aktuälis kerdesei. Tanulmanyok. http://real.mtak.hu/108838/1/JAP-2020-01_NG.pdf

Pusztahelyi, R. (2019). Bizalmunkra melto MI - A mesterseges intelligencia fejlesztesenek es alkalmazäsänak erkölcsi-etikai vonatkozäsairol. Publicationes Universitatis Miskolcinensis Sectio Juridica et Politica, XXXVII/2, 99.

Spiekermann, S., Krasnova, H., Hinz, O., Baumann, A., Benlian, A., Grimple, H., & Trenz, M. (2022). Values and Ethics in Information Systems. Bus Inf Syst Eng, 64, 247-264. https://doi.org/10.1007/s12599-021-00734-8

Stefän, I. (2020). A mesterseges intelligencia fogalmänak polgäri jogi ertelmezese. Pro Futuro, 1, 29-39.

Stefano, V. (2018). "Negotiating the algorithm": Automation, artificial intelligence and labour protection. Employment Working Paper, 246.

Sudhi, S., & Huraimel, K. (2021). Dealing with Ethics, Privacy, and Security. In Reimagining Businesses with AI (pp. 193-206).

Sussman, E. H. (2021). U. S. Artificial Intelligence Regulaton takes shape.

Tang, B. (2020). Independent AI Ethics Committees and ESG Corporate Reporting on AI as Emerging Corporate and AI Governance Trends. In S. Chishti, I. Bartoletti, A. Leslie, & S. Millie, The AI Book: The Artificial Intelligence Handbook for Investors, Entrepreneurs and FinTech Visionaries. https://doi.org/10.1002/9781119551966.ch48

Tilesch, G., & Hatamleh, O. (2021). Mesterseg es Intelligencia. Libri Kiado.

Turay, A. (2000). Az ember es az erkölcs- Alapveto etika Aquinoi Tamas nyoman. Szeged: Agape, Ferences Nyomda es Könyvkiado Kft.

Yu, H., Shen, Zh., Miao, Ch., Leung, C., Lesser, V. R., & Yang, O. (2018). Building ethics into Artficial Intelligence. http://arxiv.org/pdf/1812.02953.pdf

Author information

Zsofia Riczu - PhD candidate, Faculty of Law, Agricultural and Labour Law Department, University of Miskolc

Address: Miskolc-Egyetemväros, Miskolc, Hungary

E-mail: jogriczu@uni-miskolc.hu

ORCID ID: https://orcid.org/0000-0002-4024-5833

Conflict of interest

The author declares no conflict of interest.

Financial disclosure

The research had no sponsorship.

Thematic rubrics

OECD: 5.05 / Law PASJC: 3308 / Law WoS: OM / Law

Article history

Date of receipt - April 9, 2023 Date of approval - April 22, 2023 Date of acceptance - June 16, 2023 Date of online placement - June 20, 2023

i Надоели баннеры? Вы всегда можете отключить рекламу.