Научная статья на тему 'ПРОБЛЕМА ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ПРИ ИСПОЛЬЗОВАНИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ПРЕДПРИНИМАТЕЛЬСКОЙ ДЕЯТЕЛЬНОСТИ'

ПРОБЛЕМА ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ПРИ ИСПОЛЬЗОВАНИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ПРЕДПРИНИМАТЕЛЬСКОЙ ДЕЯТЕЛЬНОСТИ Текст научной статьи по специальности «Право»

CC BY
26
7
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / субъект юридической ответственности / artificial intelligence / subject of legal responsibility

Аннотация научной статьи по праву, автор научной работы — М.Р. Гавриилов

В статье рассматриваются теоретические подходы возможности применения юридической ответственности к системам искусственного интеллекта. Проводится сравнение между тремя видами юридической ответственности применимых к предпринимательской деятельности: строгой, субсидиарной и виновной. Предлагаются выводы, направленные на обоснование возможности применения юридической ответственности к искусственному интеллекту.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE PROBLEM OF LEGAL RESPONSIBILITY IN THE USE OF ARTIFICIAL INTELLIGENCE IN BUSINESS

The article discusses theoretical approaches to the possibility of applying legal liability to artificial intelligence systems. A comparison is made between three types of legal liability applicable to entrepreneurial activity: strict, subsidiary and guilty. Conclusions aimed at substantiating the possibility of applying legal liability to artificial intelligence are proposed.

Текст научной работы на тему «ПРОБЛЕМА ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ПРИ ИСПОЛЬЗОВАНИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ПРЕДПРИНИМАТЕЛЬСКОЙ ДЕЯТЕЛЬНОСТИ»

ПРОБЛЕМА ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ПРИ ИСПОЛЬЗОВАНИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ПРЕДПРИНИМАТЕЛЬСКОЙ

ДЕЯТЕЛЬНОСТИ

М.Р. Гавриилов, магистрант

Российский государственный гуманитарный университет (Россия, г. Москва)

DOI:10.24412/2500-1000-2023-10-3-41-43

Аннотация. В статье рассматриваются теоретические подходы возможности применения юридической ответственности к системам искусственного интеллекта. Проводится сравнение между тремя видами юридической ответственности применимых к предпринимательской деятельности: строгой, субсидиарной и виновной. Предлагаются выводы, направленные на обоснование возможности применения юридической ответственности к искусственному интеллекту.

Ключевые слова: искусственный интеллект, субъект юридической ответственности.

В столь быстро развивающиеся время человечество в начале XX века смутно представляло будущие открытия и технологические прорывы. Хотя были и ученые, которые опережали свое время, а некоторые предсказывали возможности развития высоких технологий. Одним из таких изобретений стал компьютер, теперь мы все чаще стали говорить «искусственный интеллект». Система, обладающая возможностями, которые мы обычно сравниваем с человеческим разумом.

Рассмотрим три вида ответственности, которые на данный момент видятся наиболее правдоподобными и постараемся понять какой из них более подходящий, с учетом современных реалий, для применения к искусственному интеллекту.

Следует согласиться с тезисом, что целесообразно выводить отдельные системы искусственного интеллекта на рынок при условии, когда они действуют безопаснее и эффективнее, чем среднестатистический человек, в аналогичной сфере деятельности [1, с. 1655].

В 2022 году погибло более 14 тысяч человек в результате ДТП на российских дорогах. В большинстве случаев именно человеческий фактор является причиной дорожно-транспортных происшествий. Неизвестно как изменится статистика при автоматизации процесса управления транспортом, но есть мнение что запуск беспилотных транспортных средств суще-

ственно снизить количество ошибок на дорогах.

Но стоит учитывать, что происшествия с участием искусственного интеллекта неизбежны. В связи с этим актуальность правосубъектности искусственного интеллекта не вызывает сомнений.

В законодательстве Российской Федерации отсутствуют специальные нормы, регулирующие ответственность за действия искусственного интеллекта, поэтому необходимо обратиться к общим положениям гражданского и административного законодательства.

Субъектом юридической ответственности может являться как разработчик и поставщик искусственного интеллекта, так и предприниматель, использующий его в своей деятельности.

Примером ответственности разработчика и поставщика искусственного интеллекта может служить случай, когда алгоритм, созданный компанией, неправильно обработал персональные данные клиентов, что привело к утечке информации. В этом случае разработчик и поставщик могут нести ответственность по гражданскому законодательству Российский Федерации за причинение вреда.

Примером ответственности предпринимателя может служить ситуация, когда компания использует роботов-

производственников, которые неправильно функционируют и приводят к авариям

на производстве. В этом случае предприниматель может нести ответственность по административному законодательству Российской Федерации за нарушение требований по безопасности труда и причинение вреда здоровью работников.

Подробнее остановимся на принципе ответственности. В пример для сравнения рассмотрим три вида ответственности: виновная, субсидиарная и строгая.

В рамках виновной ответственности, обязательства могут быть возложены на несколько сторон: владельца, производителя и оператора системы искусственного интеллекта. Виновная ответственность возлагается на эти стороны в случае умысла (намеренного нанесения вреда) и неосторожности (нарушения осторожности, что привело к причинению вреда). При этом каждый из упомянутых выше субъектов (владелец, производитель, оператор) может нести ответственность в равной степени, в зависимости от своего вклада в ситуацию и конкретных обстоятельств дела. Плюсом такого подхода является то, что ответственность может быть возложена на любые субъекты, у которых установлена вина. Это обеспечивает справедливые условия, поскольку в случае наличия вины соответствующий субъект должен нести ответственность. Гибкость нормативно правового регулирования означает, что не существует заранее определенного и исчерпывающего списка ответственных субъектов. Однако, применение модели виновной ответственности, где конкретное ответственное лицо допустившее ошибку сложно установить, также имеет свои недостатки. В таких случаях невозможно полностью восстановить права потерпевшего и надлежащим образом возместить причиненный ущерб. Это может вызвать проблемы в сфере защиты прав и интересов потерпевших. При оценке преимуществ и недостатков различных подходов к ответственности, необходимо учитывать потенциальные последствия и воздействие на общество. Ожидаемая польза от стимулирования развития инновационных технологий необходима для продвижения общества вперед, однако это должно сопровождаться механизмами, которые за-

щищают права и интересы всех заинтересованных сторон. Как предпринимателей, предоставляющих услуги, товар, так и потребителей.

Субсидиарная ответственность означает, что одно лицо может нести ответственность за действия, совершенные другим лицом. Это применяется, например, в случае несовершеннолетних, работников или агентов. Для применения субсидиарной ответственности требуется, чтобы между лицами существовали отношения, например, родитель-ребенок, работник-работодатель или агент-принципал. Противоправные действия должны происходить в рамках этих отношений. Однако, применительно к использованию систем искусственного интеллекта, субсидиарная ответственность может быть более сложной. Обычно системы искусственного интеллекта рассматриваются как объекты, а не субъекты. В этом случае, системы искусственного интеллекта должны иметь определенные активы, чтобы нести ответственность, и, если активов недостаточно, ответственность может возлагаться на лицо, в чьих интересах использовалась система искусственного интеллекта. Ограничение субсидиарной ответственности на определенную сферу деятельности агента может быть и преимуществом, и недостатком. Это позволяет лучше приспосабливаться к конкретным ситуациям, но также может возникнуть проблема, когда действия систем искусственного интеллекта не являются явным нарушением данной сферы. В краткосрочной перспективе, когда системы искусственного интеллекта работают в узкоограниченных сферах, применение субсидиарной ответственности может быть менее актуальным и сложным.

В строгой ответственности важным будет то, что предварительно определенный субъект несет ответственность за действия искусственного интеллекта без учета обстоятельств или виновности. Примерами строгой ответственности являются причинение вреда в результате опасной деятельности или из-за дефекта товара. Преимущество строгой ответственности состоит в том, что она обеспечивает ясность и пред-

сказуемость в определении ответственного лица в случае происшествий. Это выгодно для потерпевших, так как они не должны устанавливать виновную сторону. Вспомним про беспилотные транспортные средства, а также дроны, роботы-хирурги. Они могут считаться источниками повышенной опасности, а их использование может нести повышенный риск для окружающих. В соответствии с ч. 1 ст. 1079 ГК РФ вред, причиненный жизни или здоровью граждан деятельностью, создающей повышенную опасность для окружающих (источником повышенной опасности, например, транспортным средством), возмещается владельцем источника повышенной опасности независимо от его вины [2, ч. 1 ст. 1079 ГК РФ]. Когда причиной вреда стала ошибка системы искусственного интеллекта, либо работы или услуги, связанным с обеспечением функционирования, он подлежит возврату или возмещению средств по ст. 1095 ГК РФ. По закону Российской Федерации ответственность за сбой и причинение вреда системы искусственного интеллекта несет владелец, либо изготовитель, субъект, оказавший услугу.

Существуют отрицательные стороны у такого подхода, ведь если покупатель искусственного интеллекта будет нести безусловную ответственность за системы, безопасность которых от него не зависят, то будет слишком высокий риск использования такого товара. Здесь мы предлагаем возложить ответственность не на владельцев, а на операторов, которые обеспечивают функционирование систем искусственного интеллекта. Именно эти субъекты в большей мере влияют на реальную работу систем искусственного интеллекта. Ответственность будет на том, кто в большей степени отвечает за обеспечивающий корректный функционал, процесс деятельности и предоставляющим необходимую поддержку систем искусственного интеллекта.

Люди, а не машины, должны тщательно обдумывать образование, досуг и те виды работ, с которыми машины справляются плохо или не справляются вовсе [3, с. 252].

Последний подход видится наиболее вероятным и соответствующим правовой действительности в Российской Федерации.

Библиографический список

1. Mark A. Geistfeld A Roadmap for Autonomous Vehicles: State Tort Liability, Automobile Insurance, and Federal Safety Regulation // California Law Review. - 2017. - Vol. 105:1611. -P. 1650-1655.

2. Гражданский Кодекс Российской Федерации - ч. 1 ст. 1079 от 26.01.1996.

3. Леви М. Ответственность человека // Что мы думаем о машинах, которые думают / Ведущие мировые ученые об искусственном интеллекте. -2017. - С. 252-253.

THE PROBLEM OF LEGAL RESPONSIBILITY IN THE USE OF ARTIFICIAL

INTELLIGENCE IN BUSINESS

M.R. Gavriilov, Graduate Student Russian State University for the Humanities (Russia, Moscow)

Abstract. The article discusses theoretical approaches to the possibility of applying legal liability to artificial intelligence systems. A comparison is made between three types of legal liability applicable to entrepreneurial activity: strict, subsidiary and guilty. Conclusions aimed at substantiating the possibility of applying legal liability to artificial intelligence are proposed. Keywords: artificial intelligence, subject of legal responsibility.

i Надоели баннеры? Вы всегда можете отключить рекламу.