Научная статья на тему 'Ответственность третьих лиц за совершение юнитами искусственного интеллекта причиняющих вред действий'

Ответственность третьих лиц за совершение юнитами искусственного интеллекта причиняющих вред действий Текст научной статьи по специальности «Право»

CC BY
615
156
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
искусственный интеллект / машинный разум / юнит / киберфизическая система / правосубъектность / генетический поиск / киберфизика / машинный интеллект / интернет-пространство / правовой акт. / artificial intellect / machine mind / unit / cyberphysical system / legal personality / genetic search / cyber physics / computer intelligence / Internet space / legal act.

Аннотация научной статьи по праву, автор научной работы — Петр Мечиславович Морхат

Автор в статье рассматривает ответственность третьих лиц за совершение юнитами искусственного интеллекта причиняющих вред действий.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Responsibility of third parties for making units of artificial intelligence harmful actions

The author of the article examines the responsibility of third persons for committing units artificial intelligence harmful activities.

Текст научной работы на тему «Ответственность третьих лиц за совершение юнитами искусственного интеллекта причиняющих вред действий»

УДК 347 ББК 67

DOI 10.24411/2312-0444-2018-10051

ОТВЕТСТВЕННОСТЬ ТРЕТЬИХ ЛИЦ ЗА СОВЕРШЕНИЕ ЮНИТАМИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ПРИЧИНЯЮЩИХ ВРЕД ДЕЙСТВИЙ

Петр Мечиславович МОРХАТ,

судья Арбитражного суда Московской области, преподаватель института повышения квалификации Московского государственного юридического университета имени О.Е. Кутафина, кандидат юридических наук E-mail: pmorhat@mail.ru

Научная специальность: 12.00.03 — гражданское право; предпринимательское право;

семейное право; международное частное право

Аннотация. Автор в статье рассматривает ответственность третьих лиц за совершение юнитами искусственного интеллекта причиняющих вред действий.

Ключевые слова: искусственный интеллект, машинный разум, юнит, киберфизическая система, правосубъектность, генетический поиск, киберфизика, машинный интеллект, интернет-пространство, правовой акт.

Annotation. The author of the article examines the responsibility of third persons for committing units artificial intelligence harmful activities.

Keywords: artificial intellect, machine mind, unit, cyberphysical system, legal personality, genetic search, cyber physics, computer intelligence, Internet space, legal act.

Использование автономных юнитов искусственного интеллекта детерминирует возникновение новых проблем и сложностей в рамках существующих моделей ответственности, которые, главным образом, основаны на концепции причинно-следственной связи между действием (или бездействием) и его последствиями. В случае, когда использование подобных машин приводит к совершению серьезного сбоя, ошибки, возникает вопрос: что именно стало причиной случившегося: изначальные дефекты сложного оборудования или некорректное его программирование и обучение?1 В большинстве случаев разумно и обоснованно привлечение к ответственности за ошибки, совершенные юнитом искусственного интеллекта, разработчиков, создателей и программистов такого юнита. Но не в ситуациях, когда юнит искусственного интеллекта начинает функционировать таким образом, как невозможно было предсказать ранее, в особенности, если такой юнит взаимодействует с другими агентами в так

называемом «Интернете вещей»2, самообучается и за счет этого тоже.

При ограничении возможности потребителей (эксплуатантов юнита искусственного интеллекта) принимать меры предосторожности, вероятно, бремя ответственности перейдет (должно быть перенесено) на плечи производителей, особенно в ситуациях, когда, с точки зрения управления рисками, производители находятся в более благоприятном положении, чем потребители. Во многих подобных ситуациях наблюдение за всеми пользователями и в случае необходимости вмешательство могут оказаться неосуществимыми или чрезмерно затратными для производителей.

Следовательно, важно обеспечение того, чтобы сами пользователи технологий и юнитов искусственного интеллекта были в достаточной степени заинтересованы принимать меры предосторожности и вкладываться в собственное обучение в этой области. В ситуациях, когда внешние факторы оказывают значительное вли-

№ 3/2018

яние, регулирующие органы могут посчитать необходимым потребовать прохождение такого обучения пользователями технологий и юнитов искусственного интеллекта. Например, может потребоваться получение специального водительского удостоверения для управления беспилотным автомобилем. Или же, в частности врачам, может потребоваться прослушать минимальное количество уроков по работе с робото-технической системой, прежде чем они будут допущены к проведению некоторых типов процедур для пациентов3.

Сущность автономности юнита искусственного интеллекта как раз означает, что введение каких-то определенных данных и программирование такого юнита определенным образом не обязательно приводит к конкретному результату в ответ на заданные обстоятельства (введенные команды)4.

В пункте «2» введения к Резолюции Европейского Парламента вместе с рекомендациями Комиссии по гражданско-правовому регулированию в сфере робототехники Европейского Парламента от 16 февраля 2017 г. «Нормы гражданского права о робототехнике»5 подчеркивается, что роботы сейчас способны не просто выполнять определенный круг действий, которые обычно присущи и типичны для человека, но и способны учиться на собственном опыте и принимать квази-независимые решения, что делает их все более похожими на агентов, взаимодействующих с окружающей средой и способных значительно ее изменять; и в таком контексте проблема определения юридической ответственности за вредные действия робота становится решающей.

Сложный и полиморфный характер таких систем не позволяет четко определять ответственность за сбои подобных программ. Кроме того, если говорить, например, о сложном оборудовании, оснащенном искусственным интеллектом и используемом в военных целях, то принятие решений таким оборудованием, вероятно, будет распределено между несколькими разными программами (разрабатываемыми, возможно, разными незнакомыми друг с другом программистами) и процессорами на основании данных, получаемых от датчиков различных типов. Принятие решений таким оборудованием будет зависеть от обстановки, в которой оно используется, от контекста, а также от возлагаемых на него задач. И в данном случае нецелесообразно и некорректно возлагать ответственность на проектировщиков и разработчиков6.

Кроме того, существует и подлежит принятию во внимание очень серьезная проблема, связанная с существенной уязвимостью юнитов искусственного интеллекта от взлома (несанкционированного вскрытия) и перепрограммирования злоумышленниками. Это обстоятельство весьма усложняет установление лица, ответственного за вредные действия такой системы.

Помимо всего прочего, на сегодня нет внятных (законодательно урегулированных или даже просто научно обоснованных — на уровне пра-вопонимания) ответов на вопрос о том, кто, на каких основаниях, при каких условиях, в какой мере и в каком порядке должен нести ответственность за ущерб (и возмещать ущерб), причиненный или спровоцированный:

■ ошибкой (невиновным деянием), совершенной юнитом искусственного интеллекта, например, если робот-диагност поставил неверный диагноз, в результате чего пострадал человек-пациент, или иным дефектом его функционирования;

■ производственными дефектами юнита искусственного интеллекта или его актуа-торов (физически осязаемых исполнительных механизмов);

■ взломом и / или несанкционированным перепрограммированием программной составляющей юнита искусственного интеллекта;

■ поведением юнита искусственного интеллекта, аналогичным человеческому сумасшествию;

■ непринятием юнитом искусственного интеллекта мер по предотвращению самоубийства человека, которые потенциально могли быть реализованы (если на месте этого юнита был бы другой человек);

■ действиями двух юнитов искусственного интеллекта, которым их статус позволяет выступать истцами в суде и которые встретились как разные стороны дела, по совместному злоупотреблению правом в судебном процессе, тем самым парализуя деятельность судебной инстанции; аналогичными ситуациями в других сферах;

■ самостоятельным отключением себе юни-том искусственного интеллекта части своих программных и аппаратных функций, блокирующих возможность причинения вреда человеку;

■ произвольным созданием юнитом искусственного интеллекта по своему усмотрению робота, способного причинить вред человеку и предназначенного для этой цели;

№ 3/2018

■ несанкционированным самопроизвольным образованием несколькими юнитами искусственного интеллекта коллективного (интегрального) сетевого искусственного суперразума с полным или существенно значимым выходом из-под контроля человека.

Таким образом, применительно к юнитам искусственного интеллекта объективно очень много вопросов, требующих незамедлительного урегулирования.

1 Buyers J. Liability Issues in Autonomous and Semi-Autonomous systems [Вопросы ответственности применительно к автономным и полуавтономным системам] / Osborne Clarke LLP, 2015. 8 p. P. 1 // http://www.osbor-neclarke.com/media/filer_public/c9/73/c973bc5c-cef0-4e4 5-8554-f6f90f396256/itech_law.pdf

2 Artificial Intelligence and the Legal Profession [Искусственный интеллект и юридическая практика] / The Law Society's Horizon Scanning programme. 2017. 14 p. P. 11 // https://www.lawsociety.org.uk/support-services/

documents/AI-and-the-legal-profession-horizon-scanning-report/

3 Galasso A., Hong L. Punishing Robots: Issues in the Economics of Tort Liability and Innovation in Artificial Intelligence [Наказывая роботов: проблемы экономики гражданско-правовой ответственности и инновации в сфере искусственного интеллекта]. 10 p. P. 5—6 // http://www.nber.org/chapters/c14035.pdf

4 Beard J.M. Autonomous weapons and human responsibilities [Автономное оружие и ответственность человека] // Georgetown Journal of International Law. 2014. Vol. 45. P. 617—681. P. 651 // https://www.law. georgetown.edu/academics/law-journals/gjil/recent/ upload/zsx00314000617.PDF

5 European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)) [Резолюция Европейского Парламента вместе с рекомендациями Комиссии по гражданско-правовому регулированию в сфере робототехники Европейского Парламента от 16.02.2017 г. «Нормы гражданского права о робототехнике»] // http:// www.europarl.europa.eu/sides/getDoc.do?pubRef=-//ep// text+ta+p8-ta-2017-0051+0+doc+xml+v0//en

6 Beard J.M. Указ. соч.

ИЗДАТЕЛЬСТВО «ЮНИТИ-ДАНА» ПРЕДСТАВЛЯЕТ

Московская академия Следственного комитета Российской Федерации

Взаимодействие следователя с правоохранительными органами и органами дознания при раскрытии и расследовании преступлений

Взаимодействие следователя с правоохранительными органами и органами дознания при раскрытии и расследовании преступлений: учеб. пособие для студентов вузов, обучающихся по направлению подготовки «Юриспруденция» / A.M. Багмет, В.В. Бычков. — М.: ЮНИТИ-ДАНА, 2018. — 343 с.

Раскрыты понятия и системы правоохранительных органов и органов дознания, рассмотрены особенности взаимодействия следователя с данными органами при раскрытии и расследовании конкретных видов преступлений.

Пособие подготовлено на основе федеральных, ведомственных и межведомственных нормативных актов с изменениями и дополнениями по состоянию на 1 ноября 2017 г.

Для курсантов, слушателей, студентов, аспирантов и преподавателей образовательных учреждений высшего и среднего профессионального образования, осуществляющих подготовку по направлению подготовки «Юриспруденция», специальности «Правоохранительная деятельность», а также научных и практических работников правоохранительных органов.

№ 3/2018

i Надоели баннеры? Вы всегда можете отключить рекламу.