Закон и право. 2024. № 4. С. 112-115. Law and legislation. 2024;(4):112-115.
Научная статья УДК 34.096
https://doi.org/10.24412/2073-3313-2024-4-112-115 EDN: https://elibrary.ru/EBJGRG
NIION: 1997-0063-4/24-199 MOSURED: 77/27-001-2024-3-399
Правовые аспекты социализации искусственного интеллекта
в правовой сфере
Владислав Вячесловович Полоницкий
Государственный университет просвещения,
Москва, Россия, [email protected]
Аннотация. В статье рассматриваются понятие, категории искусственного интеллекта. Используя рамки теории фикции в отношении юридических лиц, делается предложение, что искусственный интеллект может стать субъектом права, таким, как юридическое лицо. Приводятся навыки, необходимые для социализации систем искусственного интеллекта. Анализируется правовое регулирование искусственного интеллекта в России и зарубежных странах. Делается вывод, что сегодня необходимы нормативные акты, регулирующие создание и применение искусственного интеллекта и юридическую ответственность за его действия. Предложены пути совершенствования законодательства в этой сфере.
Ключевые слова: искусственный интеллект, закон об искусственном интеллекте, навыки, социализация, ответственность, юридическое лицо.
Для цитирования: Полоницкий В.В. Правовые аспекты социализации искусственного интеллекта в правовой сфере // Закон и право. 2024. № 4. С. 112—115. https://doi.org/10.24412/2073-3313-2024-4-112-115 ЕБЫ: https://elibrary.ru/EBJGRG
Original article
Legal aspects of the socialization of artificial intelligence in the legal field
Vladislav V. Polonitsky
State University of Education,
Moscow, Russia, [email protected]
Abstract. The article discusses the concept and categories of artificial intelligence. Using the framework of the theory of fiction in relation to legal entities, it is proposed that artificial intelligence can become a subject of law, such as a legal entity. The skills necessary for the socialization of artificial intelligence systems are given. The legal regulation of artificial intelligence in Russia and foreign countries is analyzed. It is concluded that today there is a need for regulations governing the creation and application of AI and legal responsibility for AI actions. The ways of improving legislation in this area are proposed.
Keywords: artificial intelligence, law on artificial intelligence, skills, socialization, responsibility, legal entity.
For citation: Polonitsky V.V. Legal aspects of the socialization of artificial intelligence in the legal field // Law and legislation. 2024; (4): 112—115. (In Russ.). https://doi.org/10.24412/2073-3313-2024-4-112-115 EDN: https://elibrary.ru/EBJGRG
Искусственный интеллект (ИИ) — это область компьютерных наук, которая изу--«^чает, как машины могут имитировать интеллект людей.
Отечественные авторы определяют ИИ как результат интеллектуальной деятельности человека, выраженный в придании способности создан-
© Полоницкий В.В. М., 2024.
ным человеком объектам материального мира осуществлять функции, деятельность, свойственные человеческому интеллекту [1]. ИИ можно рассматривать как имитацию мыслительной деятельности человека электронным устройствами.
Поскольку технологии становятся все более изощренными и комплексными, обеспечение правильного и ответственного использования искусственного интеллекта требует участия мно-
ЗАКОН И ПРАВО • 04-2024
гих сторон, включая правительства, частные компании, экспертов по правовым вопросам и технологиям, а также широкую общественность. Следовательно, существует необходимость в более интенсивном обсуждении и сотрудничестве при определении правового положения искусственного интеллекта, чтобы использование этой технологии могло принести максимальную пользу людям и окружающей среде [8].
По мере приближения к точке, когда ИИ начинает развиваться все больше, человечество должно начать готовиться к развитию ИИ и направлять его таким образом, чтобы оно приносило пользу обществу, в то же время максимально избегая экзистенциальных угроз. Такова должна быть роль закона [7].
Стремительное развитие технологий «внесло» на повестку дня вопрос о социализации ИИ. Системы ИИ все чаще становятся неотъемлемой частью повседневной жизни людей. Однако по мере усложнения и распространения ИИ растет актуальность обеспечения их безопасной и эффективной интеграции в человеческое общество.
Она предполагает наличие у ИИ определенных навыков, необходимых для гармоничного взаимодействия систем ИИ с социумом безопасным, этичным и ответственным образом. Модель навыков для социализации ИИ содержит технические, социальные и этические навыки.
Технические навыки обеспечивают понимание ИИ человеческих слов, поведения и адекватное реагирование на них, адаптацию систем ИИ к новой информации и ситуациям.
Социальные навыки предусматривают понимание и уважение системами ИИ человеческих ценностей и норм, избежание предвзятости и мирное и конструктивное разрешение споров и конфликтов.
Этические навыки включают способность систем ИИ не совершать неправильные, аморальные действия, принимать решения, соответствующие принятым социальным нормам, а также защищать права человека, в том числе на частную жизнь.
Становится все более очевидным, что искусственный интеллект, становясь со временем все более адаптированным к человеческим нуждам, найдет свое место в современном мире, а значит, требуется и качественное правовое регулирование разработки и использования подобных технологий [6].
ИИ в настоящее время широко распространен практически во всех сферах жизни общества, включая медицину, финансы, услуги, производство, образование. ИИ может способствовать бы-
строму и эффективному решению различных повседневных вопросов, предоставлению необходимой информации, повышению производительности труда. Тем не менее использование ИИ может иметь и отрицательные последствия, например, привести к потере людьми своих рабочих мест; также ИИ может неограниченно собирать и распространять конфиденциальную информацию, что нарушает неприкосновенность частной жизни.
Серьезной проблемой использования ИИ является недостаток нормативных актов, четко регулирующих разработку, применение, контроль за ИИ, а также юридическую ответственность за действия ИИ. Непредсказуемость последствий деятельности систем ИИ (оказывающих серьезное влияние на жизнь человека и способных радикально ее изменить [2], влияющих на общественные отношения) вынуждает определить четкие правовые основы применения искусственного интеллекта.
Один случаев, подтверждающий актуальность данной проблемы, произошел в 2017 г. с разработанным Amazon ИИ «Alexa». В ноябре 2017 г. Алекса самостоятельно в отсутствие хозяев дома решила устроить домашнюю вечеринку. В ходе повторных инцидентов, в мае 2018 г., Alexa записала разговор его владельца и передала содержание записанного разговора третьим лицам, нарушив тем самым конфиденциальность информации.
В связи с этими случаями возникает вопрос о том, кто подлежит привлечению к юридической ответственности за такие действия. Это вызывает настоятельную потребность разработки правовых норм, регулирующих использование ИИ и возмещение расходов и ущерба, вызванных ИИ. Наличие правовых инструментов позволит обеспечить защиту прав и интересов людей, пострадавших из-за действий ИИ.
Например, на существующем этапе развития технологий имеется потребность разработки правовых положений, направленных на формирование действенной системы ответственности за действия ИИ, затрагивающей автора, разработчика, программиста, пользователя ИИ.
При этом актуальным выступает вопрос соблюдения баланса между развитием технологий и соблюдением социальных прав человека. ИИ должен не заменять человека, а лишь дополнять и улучшать его возможности.
Некоторые ученые утверждают, что ИИ не обязательно должен иметь тот же правовой статус, что и люди, поэтому ИИ считается объектом [3]. ИИ не имеет души, характера, морали, чувств, присущих людям. Однако существует такой субъект пра-
LAW & LEGISLATION • 04-2024
ва, как юридическое лицо, которое также не обладает вышеуказанными качествами человека, но все равно выступает юридическим субъектом.
Теория вымысла была разработана Фридрихом Карлом ван Савиньи, который отмечал, что юридическое лицо — это фикция, которая может выполнять юридические действия подобно людям. Юридические лица не имеют реальной формы, поэтому фактически юридические действия выражаются в действиях людей как их представителей.
Основываясь на этой теории, можно соотнести деятельность юридического лица с формой ИИ, который используется для выполнения порученных ему действий. Команда здесь выступает как имитация моделей поведения и мышления и принятия решений, подобных человеческим. Форма ИИ нереальна, т.е. фактически действия совершаются людьми, но при помощи машин, роботов, которые разработаны, произведены и запрограммированы людьми.
Модели работы ИИ схожи с юридическими действиями. Моделирование человеческого интеллекта выражается (воспроизводится) в действиях ИИ, обученного мыслить и поступать, как люди, согласно их инструкциям. Таким образом, в определенной степени ИИ схож с юридическим лицом, которое не является реальным, но может совершать действия, подобные человеческим, поэтому его можно определить как субъект права.
В России и большинстве других стран законодательство не обеспечивает в полном объеме регламентацию сложных юридических вопросов в области ИИ. В России ряд федеральных законов регулирует использование ИИ в различных сферах. Например, Федеральный закон «О персональных данных» включает положения, касающиеся обработки персональных данных с участием ИИ. Указом Президента РФ от 10 октября 2019 г. № 490 определен вектор развития правового регулирования данной сферы.
В то же время существует потребность принятия специального закона о регулировании ИИ, который должен включать определение понятия, видов ИИ, правила его использования, ответственность за причинение вреда в результате использования ИИ и др.
С учетом ст. 1064 ГК РФ ответственность за вред, нанесенный вследствие использования ИИ, должно нести виновное лицо — разработчик, правообладатель, пользователь ИИ, владелец источника повышенной опасности с ИИ, изготовитель товаров, исполнитель работ, услуг с использованием ИИ.
Вопросы правосубъектности искусственного интеллекта нуждаются в детальной проработке с ориентацией на соблюдение разумного баланса прав, обязанностей и ответственности между разработчиками, пользователями искусственного интеллекта, а также между субъектами-адресатами, вступающими в правоотношения с участием искусственного интеллекта [5].
В сфере медицины для регламентации вопросов использования ИИ необходимо предусмотреть правовое обеспечение защиты персональных данных пациента при использовании ИИ, в том числе сохранности информации, находящейся в электронных медицинских картах.
В трудовой сфере в правовом регулировании нуждаются вопросы трудовых прав и обязанностей носителей ИИ, времени, охраны труда и защиты прав сотрудников, работающих с системами ИИ, взаимодействия работников и систем ИИ [4].
8 декабря 2023 г. Европейский парламент достиг предварительного соглашения с Европейским советом по Закону об ИИ, являющимся первым нормативным актом, всеобъемлюще регулирующим продажу и использование искусственного интеллекта.
В настоящее время он находится на стадии принятия парламентом и советом. На практике это первый комплексный нормативный документ, направленный на устранение рисков, связанных с ИИ, посредством указания обязательств и требований, предназначенных для защиты здоровья, безопасности и основных прав граждан ЕС. Закон исходит из того, что для предотвращения негативных последствий системами ИИ должны управлять люди, а не программы.
Основная цель Закона об ИИ состоит в том, чтобы установить обязательства для поставщиков и пользователей согласно уровню риска, создаваемого искусственным интеллектом.
США в целях развития ИИ выбрали путь минимального вмешательства и значительного финансирования индустрии ИИ. Государство исходит из того, что индустрия ИИ не может нарушать право человека на частную жизнь, однако соответствующие предписывающие нормы не должны ограничивать развитие технологий.
В Китае Государственным советом в 2017 г. опубликован План развития искусственного интеллекта нового поколения (АГОР), который является документом, конкретизирующим цели государственной политики в области ИИ в Китае и представляющим собой план развития ИИ нового поколения. АГОР предусматривает разработку этических стандартов использования
ЗАКОН И ПРАВО • 04-2024
ИИ, подчеркивая необходимость использования ИИ в различных сферах, в том числе в военной промышленности и социальном обеспечении.
Следует отметить, что сегодня как развитые, так и развивающиеся страны не имеют надлежащей нормативно-правовой системы для искусственного интеллекта. Поэтому следует разработать законодательство, регулирующее ИИ, а именно, законы об искусственном интеллекте. Такие законы могли бы включать средства правовой защиты как от уголовных, так и от гражданских правонарушений, совершаемых ИИ по отношению к своим человеческим субъектам. Законы могли бы также создать нормативную базу для регулирования и судебного разбирательства действий ИИ и рассмотрения нарушений, если таковые имеются, совершенных ими.
На наш взгляд, правовое регулирование в данной сфере должно обеспечивать развитие социально полезного применения ИИ и предотвращение рисков причинения им вреда людям. Вероятнее всего правовое регулирование социализации ИИ будет предусматривать наделение его ограниченными правами и обязанностями.
Нормативные положения должны устанавливать четкие правила создания и использования ИИ, юридической ответственности за его действия.
Список источников
1. Вайпан В.А. Основы правового регулирования цифровой экономики // Право и экономика. 2017. № 11. С. 5-18.
2. Витко В. Анализ научных представлений об авторе и правах на результаты деятельности искусственного интеллекта // ИС. Авторское право и смежные права. 2019. № 2. С. 5—20; № 3. С. 5—22.
3. Карчевский В.П. Человек и робот. Развитие процессов обучения // Искусственный интеллект. 2012. № 4. С. 43—52.
4. Липчанская М.А., Заметина Т.В. Социальные права граждан в условиях использования искусственного интеллекта: правовые основы и пробелы законодательного регулирования в России // Журнал рос. права. 2020. № 11. С. 78—96.
5. Моргунова Е.А., Шахназаров Б.А. Право интеллектуальной собственности в условиях раз-
вития новых технологий: Монография. М.: Норма, ИНФРА-М, 2023.
6. Шишкина И.С., Бирюков Д.О. Искусственный интеллект: правовые аспекты // Право и экономика. 2023. № 11. С. 5-14; № 12. С. 5-15.
7. Guihot M., Matthew A., Suzor N. Nudging robots: Innovative solutions to regulate artificial intelligence / / Vanderbilt Journal of Entertainment and Technology Law. 2017. 20 (2). Pp. 385-456 // URL: https://eprints.qut.edu.au/109926/
8. Hanif Abdul Halim, Kedudukan Hukum. Artificial Intelligence: Tantangandan Perdebatannya // URL: https://kliklegal.com/kedudukan-hukum-artificial-intelligence-tantangan-dan-perde-batannya/
References
1. Vaipan V.A. Fundamentals of legal regulation of the digital economy // Law and economics. 2017. № 11. Pp. 5-18.
2. Vitko V. Analysis of scientific ideas about the author and the rights to the results of artificial intelligence // IS. Copyright and related rights. 2019. № 2. Pp. 5-20; № 3. Pp. 5-22.
3. Karchevsky V.P. Man and robot. The development of learning processes // Artificial intelligence. 2012. № 4. Pp. 43-52.
4. Lipchanskaya M.A., Zametina T. V. Social rights of citizens in the context of the use of artificial intelligence: legal foundations and gaps in legislative regulation in Russia / / Journal of Russian Law. 2020. № 11. Pp. 78-96.
5. Morgunova E.A., Shakhnazarov B.A. Intellectual property law in the context of the development of new technologies: Monograph. Moscow: Norma, INFRA-M, 2023.
6. Shitkina I.S., Biryukov D.O. Artificial intelligence: legal aspects // Law and economics. 2023. № 11. Pp. 5-14; № 12. Pp. 5-15.
7. Guihot M, Matthew A., Suzor N. Nudging robots: Innovative solutions to regulate artificial intelligence / / Vanderbilt Journal of Entertainment and Technology Law. 2017. 20 (2). Pp. 385-456 // URL: https://eprints.qut.edu.au/109926/
8. Hanif Abdul Halim, Kedudukan Hukum. Artificial Intelligence: Tantangandan Perdebatannya // URL:https://kliklegal.com/kedudukan-hukum-artificial-intelligence-tantangan-dan-perdebatannya/
Информация об авторе
Полоницкий В.В. — аспирант
Статья поступила в редакцию 01.02.2024; одобрена после рецензирования 08.03.2024; принята к публикации 14.03.2024.
Information about the author
Polonitsky V.V. — graduate student
The article was submitted 01.02.2024; approved after reviewing 08.03.2024; accepted for publication 14.03.2024.
LAW & LEGISLATION • 04-2024