Научная статья на тему 'РЕГУЛИРОВАНИЕ ПРИМЕНЕНИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ОРГАНИЗАЦИОННЫХ СИСТЕМАХ'

РЕГУЛИРОВАНИЕ ПРИМЕНЕНИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ОРГАНИЗАЦИОННЫХ СИСТЕМАХ Текст научной статьи по специальности «Право»

CC BY
31
12
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
ВОЗМЕЩЕНИЕ ВРЕДА / ПОВЫШЕННАЯ ОПАСНОСТЬ ДЛЯ ОКРУЖАЮЩИХ / СИСТЕМА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА / СИСТЕМА ОБЯЗАТЕЛЬНОГО СТРАХОВАНИЯ ГРАЖДАНСКОЙ ОТВЕТСТВЕННОСТИ / ФРАНШИЗА

Аннотация научной статьи по праву, автор научной работы — Басов Олег Олегович

В настоящее время в Российской Федерации отсутствует специальное законодательное регулирование, учитывающее специфику применения технологий искусственного интеллекта. Остро стоят вопросы проработки механизмов гражданско-правовой ответственности в случае причинения вреда системами искусственного интеллекта, имеющими высокую степень автономности, при принятии ими решений, в том числе с точки зрения способов, позволяющих возместить причиненный действиями таких систем вред. На основе анализа зарубежного опыта правового регулирования гражданско-правовой ответственности за вред, причиненный деятельностью систем искусственного интеллекта, и опыта формирования нормативно-правовой базы в области искусственного интеллекта в России, предложено применять к деятельности, связанной с использованием систем искусственного интеллекта, деликтную ответственность, а возмещение вреда, причинённого такой деятельностью осуществлять из средств специально созданной системы обязательного страхования гражданской ответственности для разработчиков и владельцев систем искусственного интеллекта, в том числе специально введённого субъекта - специализированного оператора систем искусственного интеллекта, и предусматривать страховую франшизу, обусловленную автономностью (непредсказуемостью) действий систем искусственного интеллекта.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — Басов Олег Олегович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

REGULATION OF THE USE OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES IN ORGANIZATIONAL SYSTEMS

Currently there is no special legislative regulation in the Russian Federation that takes into account the specifics of the use of artificial intelligence technologies. There are acute issues of working out the mechanisms of civil liability in the event of harm caused by artificial intelligence systems that have a high degree of autonomy in their decision-making, including in terms of ways to compensate for the harm caused by the actions of such systems. Based on the analysis of foreign experience in the legal regulation of civil liability for harm caused by the activities of artificial intelligence systems, and the experience of forming the legal framework in the field of artificial intelligence in Russia, it is proposed to apply tort liability to activities related to the use of artificial intelligence systems, and compensation for damage caused by such activities to be carried out from the funds of a specially created system of compulsory civil liability insurance for developers and owners of artificial intelligence systems, including a specially introduced entity - a specialized operator of artificial intelligence systems, and provide for an insurance deductible due to the autonomy (unpredictability) of the actions of artificial intelligence systems intellect.

Текст научной работы на тему «РЕГУЛИРОВАНИЕ ПРИМЕНЕНИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ОРГАНИЗАЦИОННЫХ СИСТЕМАХ»

Экономика. Право. Инновации. 2022. № 4. С. 78-82 Economics. Law. Innovation. 2022. No. 4. P. 78-82

Управление в организационных системах Management in organizational systems

Научная статья УДК 343.11

doi: 10.17586/2713-1874-2022-4-78-82

РЕГУЛИРОВАНИЕ ПРИМЕНЕНИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ОРГАНИЗАЦИОННЫХ СИСТЕМАХ

Олег Олегович Басов

Санкт-Петербургский государственный университет аэрокосмического приборостроения, Санкт-Петербург, Россия, oobasov@mail.ru, https://orcid.org/0000-0001-5788-4845 Язык статьи - русский

Аннотация: В настоящее время в Российской Федерации отсутствует специальное законодательное регулирование, учитывающее специфику применения технологий искусственного интеллекта. Остро стоят вопросы проработки механизмов гражданско-правовой ответственности в случае причинения вреда системами искусственного интеллекта, имеющими высокую степень автономности, при принятии ими решений, в том числе с точки зрения способов, позволяющих возместить причиненный действиями таких систем вред. На основе анализа зарубежного опыта правового регулирования гражданско-правовой ответственности за вред, причиненный деятельностью систем искусственного интеллекта, и опыта формирования нормативно-правовой базы в области искусственного интеллекта в России, предложено применять к деятельности, связанной с использованием систем искусственного интеллекта, деликтную ответственность, а возмещение вреда, причинённого такой деятельностью осуществлять из средств специально созданной системы обязательного страхования гражданской ответственности для разработчиков и владельцев систем искусственного интеллекта, в том числе специально введённого субъекта - специализированного оператора систем искусственного интеллекта, и предусматривать страховую франшизу, обусловленную автономностью (непредсказуемостью) действий систем искусственного интеллекта.

Ключевые слова: возмещение вреда, повышенная опасность для окружающих, система искусственного интеллекта, система обязательного страхования гражданской ответственности, франшиза

Ссылка для цитирования: Басов О.О. Регулирование применения технологий искусственного интеллекта в организационных системах // Экономика. Право. Инновации. 2022. № 4. С. 78-82. http://dx.doi.org/10.17586/ 2713-1874-2022-4-78-82.

REGULATION OF THE USE OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES

IN ORGANIZATIONAL SYSTEMS

Oleg O. Basov

Saint-Petersburg State University of Aerospace Instrumentation, St. Petersburg, Russia, oobasov@mail.ru,

https://orcid.org/0000-0001-5788-4845

Article in Russian

Abstract: Currently there is no special legislative regulation in the Russian Federation that takes into account the specifics of the use of artificial intelligence technologies. There are acute issues of working out the mechanisms of civil liability in the event of harm caused by artificial intelligence systems that have a high degree of autonomy in their decision-making, including in terms of ways to compensate for the harm caused by the actions of such systems. Based on the analysis of foreign experience in the legal regulation of civil liability for harm caused by the activities of artificial intelligence systems, and the experience of forming the legal framework in the field of artificial intelligence in Russia, it is proposed to apply tort liability to activities related to the use of artificial intelligence systems, and compensation for damage caused by such activities to be carried out from the funds of a specially created system of compulsory civil liability insurance for developers and owners of artificial intelligence systems, including a specially introduced entity - a specialized operator of artificial intelligence systems, and provide for an insurance deductible due to the autonomy (unpredictability) of the actions of artificial intelligence systems intellect.

Keywords: artificial intelligence system, compensation for damage, compensation for moral damage, compulsory civil liability insurance system, franchise, increased danger to others

For citation: Basov O.O. Regulation of the Use of Artificial Intelligence Technologies in Organizational Systems. Ekonomika. Pravo. Innovacii. 2022. No. 4. pp. 78-82. (In Russ.). http://dx.doi.org/10.17586/2713-1874-2022-4-78-82.

О.О. Басов

Введение. В настоящее время в Российской Федерации отсутствует специальное законодательное регулирование, учитывающее специфику применения технологий искусственного интеллекта (далее - ИИ). Остро стоят вопросы проработки механизмов гражданско-правовой ответственности в случае причинения вреда системами ИИ, имеющими высокую степень автономности, при принятии ими решений [1], в том числе с точки зрения определения способов возмещения вреда, причиненного в результате их применения.

Постановка задачи, материалы и методы исследования. В случае причинения вреда системой ИИ ранее предложено признавать её источником повышенной опасности [1, 2] и в соответствии с российским законодательством возлагать ответственность за него на её владельца. Однако применительно к ответственности за вред, причинённый в результате применения систем ИИ, такой подход не всегда оправдан.

Так, например, уже в 2017 году был известен случай нанесения ущерба в несколько десятков миллиардов рублей в результате проведения аукционных торгов ботами, вступившими в сговоры [3]. Очевидно, что в данном случае ответственность должна ложиться на создателей таких ботов (их программ) и их пользователей. Однако если предположить, что положенная в основу функционирования бота, участвовавшего в торгах, технология «сильного» ИИ самостоятельно избрала стратегию, дообучившись на поступающих данных, возникают очевидные вопросы:

- как в данном случае установить вину системы искусственного интеллекта;

- каким образом распределить ответственность между субъектами.

С целью исследования этих и вновь возникающих вопросов автором рассмотрен подход к возмещению вреда, причиненного в результате деятельности, связанной с результатами применения систем ИИ, основанный на введении специального субъекта - специализированного оператора систем ИИ.

Результаты исследования. В целях настоящего исследования под системами ИИ понимается совокупность информационно-коммуникационной инфраструктуры и программного обеспечения, позволяющая:

- выполнять значительное число задач анализа данных, принятия на их основе решений и их реализации;

- обеспечивать имитацию интеллектуальных способностей человека и объясни-мость предлагаемых человеку вариантов решений, воспроизводя и иногда превышая широкий спектр когнитивных и интеллектуальных способностей человека, включая интерпретацию внешних данных и воздействий, и извлечение из них смыслов;

- использовать полученные знания для обучения, планирования и принятия решений в условиях неопределенности и достижения конкретных целей и задач при помощи гибкой адаптации к изменяющимся условиям и взаимодействию с внешней средой.

Указанное «превышение способностей человека» характеризует системы ИИ высокой степенью непредсказуемости, точнее даже, неопределённостью действий, что практически не позволяет просчитать возможные риски наступления и последствия причинения вреда. Очевидно, что данный вопрос во многом определяется характеристиками программного обеспечения, реализующего технологию ИИ, и баз данных, содержащих данные для принятия на их основе решений. И несмотря на высокую степень техничности (технологичности) указанного вопроса, качественные характеристики программного обеспечения и баз данных, используемых системами ИИ, важны для наделения субъектов ответственностью и дальнейшей защиты нарушенных прав и законных интересов потерпевших вследствие применения систем ИИ.

Система ИИ является сложной, а её применение требует определённых профессиональных компетенций, которыми может не обладать обычный пользователь. В связи с чем профессиональные организация и сопровождение деятельности по применению систем ИИ, предоставление соответствующих услуг в сфере ИИ в указанных условиях должны осуществляться специализированными операторами систем ИИ - юридическими лицами, организациями, чья деятельность в обязательном порядке должна быть лицензирована.

Такие организации, являясь, по сути, владельцами источников повышенной опас-

ности, должны нести ответственность за вред, причиненный в результате применения таких систем. При этом ответственность специализированных операторов систем ИИ должна быть абсолютной (возникать независимо от наличия или отсутствия вины в причинении вреда), ограниченной (с законодательно установленным пределом ответственности) и исключительной (в отсутствии права регресса).

Соответствие деятельности, связанной с результатами применения систем ИИ, деятельности, связанной с повышенной опасностью для окружающих, позволяет распространить на неё действие Федерального закона «О лицензировании отдельных видов деятельности» от 08.08.2001 № 128-ФЗ (в ред. от 06.12.2007). Правомочность такого подхода подтверждается механизмами правового регулирования аналогичных, с точки зрения повышенной опасности, видов деятельности, таких, например, как деятельность в области использования ядерной энергии (см., например, Федеральный закон «Об использовании атомной энергии» от 21.11.1995 № 170-ФЗ (в ред. от 01.12.2007 № 318-Ф3)), деятельность, связанная с воздушным транспортом (см., например, Воздушный кодекс Российской Федерации от 19.03.1997 № 60-ФЗ (ред. от 22.08.2004)) и другие.

Для наделения специализированного оператора систем ИИ обязанностью владельца - ответственностью за вред, причиненный в результате применения систем ИИ, необходимо, чтобы им у разработчика (автора) приобретались в соответствии с действующим законодательством исключительные права на программы, реализующие технологию ИИ, и базы данных, содержащие данные для обучения технологий (моделей и алгоритмов) ИИ, одним из следующих способов:

- путем заключения договора с разработчиком (автором) с целью получения прав на уже существующие программу, реализующую технологию ИИ, и/или базу данных, содержащую данные для обучения технологий (моделей и алгоритмов) ИИ (статьи 1285, 1286 Гражданского кодекса Российской Федерации);

- путем заключения договора с разработчиком (автором), предметом которого будет заказ на создание новой системы ИИ (статья

1296 Гражданского кодекса Российской Федерации);

- путем создания новой программы, реализующей технологию ИИ, и/или базы данных, содержащей данные для обучения технологий (моделей и алгоритмов) ИИ, сотрудниками специализированного оператора систем ИИ в рамках трудовых отношений (статья 1296 Гражданского кодекса РФ).

К существенным условиям соответствующего договора передачи исключительных прав на систему (программу и базу данных) ИИ необходимо отнести сведения о:

- полноте и качестве данных, использованных для обучения системы (моделей, алгоритмов, технологии) ИИ;

- процессе обучения системы (моделей, алгоритмов, технологии) ИИ;

- допустимых условиях функционирования системы ИИ, необходимых для обеспечения безопасного функционирования системы, ответственность за которое вместе с исключительными правами на программу, реализующую технологию ИИ, и/или базу данных, содержащую данные для обучения технологий (моделей и алгоритмов) ИИ, должна переходить к специализированному оператору систем ИИ.

Последние, в свою очередь, должны предоставлять пользователям как систему ИИ совокупно, так и отдельно программу, реализующую технологию ИИ, и/или базу данных, содержащую данные для обучения технологий (моделей и алгоритмов) ИИ, а также комплекс услуг по эксплуатации систем ИИ.

Между тем, масштабы вреда, причиняемого ненадлежащим функционированием систем ИИ, сбоями в работе программ, реализующих технологии ИИ, некачественные данные, используемые для обучения систем (моделей, алгоритмов и технологий) ИИ, трудно переоценить. Очевидно, что в указанных условиях возложение ответственности за вред, причиненный в результате применения систем ИИ, в полном объеме может привести не к стимулированию работ по развитию технологий ИИ, а к совершенно противоположному результату: ни одна организация не станет участвовать в проектах в сфере ИИ [4], если в результате реализации таких проектов она может обанкротиться из-за ненадлежащего функционирования разработан-

О.О. Басов

ной системы. В связи с изложенным предлагается:

- создание специальной системы обязательного страхования гражданской ответственности для разработчиков и владельцев систем ИИ, в том числе специализированного оператора систем ИИ, для возмещения вреда, причинённого в результате применения таких систем;

- введение обязательной страховой франшизы (фиксированной денежной суммы ущерба, которая не подлежит возмещению по договору страхования) [5], обусловленной автономностью (непредсказуемостью) действий систем ИИ и порождаемыми ею последствиями.

Выводы. В результате проведённого исследования установлено следующее.

Достаточно высокую степень автономности действий систем ИИ в решении поставленных задач и их неспособность непосредственно воспринимать этические и правовые нормы, учитывать их при осуществлении каких-либо действий, с одной стороны, и масштабы вреда, который они могут принести, выйдя из-под контроля, в совокупности следует рассматривать как основания для признания деятельности по применению систем ИИ деятельностью, связанной с повышенной опасностью для окружающих.

Учитывая масштабы вреда, причиняемого в результате применения систем ИИ, представляется целесообразным введение гражданско-правовой ответственности специального субъекта - специализированного оператора систем ИИ как законного владельца ис-

Список источников

1. Басов О.О. Субъекты гражданско-правовой ответственности в случае причинения вреда применением систем искусственного интеллекта // Закон. Право. Государство. 2022. № 1 (33). С. 210-216.

2. Антонов А.А. Искусственный интеллект как источник повышенной опасности // Юрист. 2020. № 7. С. 69-74.

3. Цариковский А. ФАС скорректирует свою нормативную базу и методы работы // Федеральная антимонопольная служба. Официальный сайт [Электронный ресурс]. - Режим доступа: https://fas.gov.ru/news/23174

точника повышенной опасности, в роли которого могут выступать юридические лица, управляющие имущественными правами разработчиков систем ИИ, деятельность которых должна подлежать обязательному лицензированию.

С учётом цивилистической доктрины и норм действующего гражданского законодательства к основным мерам гражданско-правовой ответственности специализированного оператора систем ИИ отнесены: возмещение (взыскание) убытков и компенсация. Учитывая специфику деятельности введённого специального субъекта, предлагаются компенсационные выплаты за:

- причинение морального вреда (статьи 151, 1099-1101 Гражданского кодекса Российской Федерации), в том числе причиненного утечкой, порчей личной или конфиденциальной информации в результате применением систем ИИ;

- нарушение исключительных прав на результаты интеллектуальной деятельности по созданию систем (технологий) ИИ (статья 1252 Гражданского кодекса Российской Федерации).

Возмещение вреда, причиненного в результате применения систем ИИ, должно осуществляться из средств специально созданной системы обязательного страхования гражданской ответственности для разработчиков и владельцев систем ИИ, в том числе специализированного оператора систем ИИ, и предусматривать страховую франшизу, обусловленную автономностью (непредсказуемостью) действий систем ИИ.

References

1. Basov O.O. Subjects of Civil Liability in Case of Harm Caused by the Use of Artificial Intelligence Systems. Zakon. Pravo. Gosudarstvo. 2022. No. 1 (33). pp. 210-216. (In Russ.).

2. Antonov A.A. Artificial Intelligence as a Source of Increased Danger. Yurist. 2020. No. 7. pp. 69-74. (In Russ.).

3. Tsarikovskiy A. FAS Will Adjust Its Regulatory Framework and Methods of Work. Federal Antimonopoly Service. Official site. Available at: https://fas.gov.ru/news/23174 (In Russ.).

4. Приказ Минэкономразвития России от 29.06.2021 № 392 «Об утверждении критериев определения принадлежности проектов к проектам в сфере искусственного интеллекта» // Официальный интернет-портал правовой информации [Электронный ресурс]. -Режим доступа: http://pravo.gov.ru

5. Шергунова Е.А. Особенности применения франшизы в Российском страховании // Вестник Волжского университета имени В.Н. Татищева. 2020. Том 1. № 3. С. 99-109.

4. Order of the Ministry of Economic Development of Russia dated June 29, 2021 No. 392 «On Approval of the Criteria for Determining Whether Projects Belong to Projects in the Field of Artificial Intelligence». Official Internet portal of legal information. Available at: http://pravo. gov.ru (In Russ.).

5. Shergunova E.A. Features of Using a Franchise in Russian Insurance. Vestnik Volzhskogo universiteta im. V.N. Tatishcheva. 2020. Vol. 1. No. 3. pp. 99-109. (In Russ.).

Статья поступила в редакцию 18.12.2022; одобрена после рецензирования 26.12.2022; принята к публикации 28.12.2022. The article was submitted 18.12.2022; approved after reviewing 26.12.2022; accepted for publication 28.12.2022.

i Надоели баннеры? Вы всегда можете отключить рекламу.