DOI 10.24411 /2076-1503-2020-10483 СВИРИДОВА Екатерина Александровна,
удК 347 195(045) кандидат юридических наук, доцент,
Д ' ( ' доцент Департамента правового регулирования
экономической деятельности Финансового университета при Правительстве Российской Федерации, e-mail: [email protected]
ПРОБЛЕМА ОТВЕТСТВЕННОСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ЧЕРЕЗ ПРИЗМУ КОНЦЕПЦИИ ГРАЖДАНСКО - ПРАВОВОЙ ОТВЕТСТВЕННОСТИ ФРАНЦИИ
Аннотация. Проблема определения субъекта гражданско-правовой ответственности за вред, причиненный искусственным интеллектом, тесно связана с вопросом определения правосубъектности искусственного интеллекта. Создание специального правового режима для искусственного интеллекта могло бы решить сразу несколько проблем, включая определение субъекта гражданско-правовой ответственности. Основные концепции правосубъектности искусственного интеллекта заключаются в приравнивании его к статусу юридического лица (Marshall S. Willick, Murielle Cahen, Г.П. Бутюгов, В.В. Зайцев) или рассмотрении его как особого субъекта, наделенного специальным статусом (Alain Bensoussan). В отношении деликтной ответственности искусственного интеллекта рассматривается возможность применения концепции ответственности без вины за действия третьих лиц. Представляется преждевременным говорить о договорной ответственности искусственного интеллекта в связи с отсутствием у последнего статуса субъекта права.
Ключевые слова: искусственный интеллект, договорная ответственность, де-ликтная ответственность, вина, третьи лица, причинитель вреда.
Ekaterina A. SVIRIDOVA,
Ph.D. in law science, associate professor, Department of legal regulation of economic activity, Financial University under the Government of the Russian Federation
THE PROBLEM OF THE RESPONSIBILITY F ARTIFICIAL INTELLIGENCE THROUGH THE CONCEPT OF FRENCH CIVIL LIABILITY
Annotation. The problem of determining the subject of civil liability for damage caused by artificial intelligence is closely related to the question of determining the legal personality of artificial intelligence. The creation of a special legal regime for artificial intelligence could solve several problems at once, including the definition of the subject of civil liability. The basic concepts of the legal personality of artificial intelligence are to equate it with the status of a legal entity (Marshall S. Willick, Murielle Cahen, G.P. Butyugov, V.V. Zaytsev) or to consider it as a special entity endowed with special status (Alain Bensoussan). With regard to tort liability of artificial intelligence, consideration is being given to the possibility of applying the concept of liability without blame for the actions of third parties. It seems premature to talk about the contractual responsibility of artificial intelligence due to the latter's lack of status as a subject of law.
Key words: artificial intelligence, contractual liability, tort liability, wines, third parties, causing
harm.
Искусственный интеллект может существовать в двух формам - телесной (материальной) и бестелесной. Телесный искусственный интеллект имеет материаль-
ную форму воплощения, например, форму человекоподобного робота. Бестелесный искусственный интеллект проявляется не в объекте, а в услуге, использующей искусственный интеллект.
ОБРАЗОВАНИЕ И ПРАВО № 4 • 2020
Например, сервисы chatbot, представляющие собой программное обеспечение, созданное для имитации естественного разговора.
Кроме того, можно разделить искусственный интеллект на символической, включающий алгоритмы с набором заранее определённых логических инструкций (такие алгоритмы делают умозаключения на основе известных фактов и правил), и машинное обучение (machine learning), имитирующее механизм обучения человеческого мозга. Именно такой искусственный интеллект быстро становится самостоятельным в процессе обучения и принятия решений, и поэтому контроль за его развитием и определение его ответственности является актуальной проблемой.
Концепция искусственного интеллекта как субъекта права
Еще в 1983 году американский юрист Маршалл С. Уиллик (Marshall S. Willick) предложил рассматривать умные компьютеры наравне с человеком в качестве субъектов права. По его словам, очень сложно провести грань между работой, проделанной компьютерной программой, и результатом, полученным в процессе действий человека. Компьютеры способны выполнять физические и умственные «человеческие» функции, что может потребовать юридического признания компьютеров как субъектов права [8, c.5].
Уиллик полагал, что искусственный интеллект может быть признан такой же юридической фикцией как и юридическое лицо. По мнению автора, существует три основных критерия, определяющих, может ли субъект быть признан юридическим лицом: лицо должно обладать организационным единством, преследующим законный интерес; оно должно иметь конкретную цель; оно должно придавать достаточную ценность преследуемой цели. Компьютер может удовлетворять всем указанным критериям. Таким образом, искусственный интеллект должен обладать правосубъектностью.
Французский адвокат Alain Bensoussan придерживается концепции наделения искусственного интеллекта особым статусом специального субъекта. По мнению юриста, если робот способен создавать произведения, аналогичные созданным человеком по эмоциональной силе, нет необходимости проводить различие между произведением, созданными искусственным интеллектом и произведением человека, требуется наделить роботов собственной правосубъектностью. Более того, поскольку искусственный интеллект становится все более автономным и способен
ОБРАЗОВАНИЕ И ПРАВО № 4 • 2020
самостоятельно реагировать на изменение внешних факторов в непредвиденных обстоятельствах, Alain Bensoussan предлагает создать отдельную отрасль права - право роботов [3]. Таким образом, предлагается наделить робота юридическим статусом, признав его уникальным субъектом, возникшим в результате взаимодействия с человеком. Так же, как юридическое лицо признается субъектом права, необходимо разработать новое понятие субъекта-робота для наделения его правами и обязанностями, которые приравнивают его к физическому лицу. Статус, который становится еще более оправданным, когда роботы становятся все более свободными от внешнего воздействия.
Юрист в сфере цифрового права Murielle Cahen разделяет позицию о придании искусственному интеллекту статуса юридического лица. По ее мнению, принятие адаптированного правового статуса, сопоставимого со статусом юридического лица, является решением проблемы автономии роботов, которые приобретают все большую степень свободы и самостоятельности [6]. Действия сильного искусственного интеллекта не зависят от вмешательства человека и в случае нарушения прав остро встает вопрос ответственности.
Г.П. Бутюгов и В.В. Зайцев отмечают, что наделение искусственного интеллекта правовым статусом юридического лица наиболее удобно в силу применения к нему тех же подходов (обязательная регистрация в реестре, коммерческий/ некоммерческий характер и т.д.) [1].
По мнению Jean-René Binet, не любой искусственный интеллект можно признать юридическим лицом. Только самые совершенные автономные роботы, обладающие необходимыми способностями для самообучения и принятия самостоятельных решений с учетом внешних факторов, могут быть наделены правосубъектностью [4, c.6].
Вместе с тем существуют и противники данной теории. Так, Alexandra Bensamoun и Grégoire Loiseau полагают, что наделение искусственного интеллекта самостоятельным юридическим статусом является безосновательным и преждевременным [2]. Mathieu Bourgeois отмечает неоправданный риск, присущий такому подходу, поскольку он предполагает наделение правосубъектностью объекта, наделенного запрограммированным искусственным интеллектом [7].
Идея правосубъектности искусственного интеллекта была предложена в резолюции Европейского парламента в 2017 году, где сказано, что установление в конечном итоге специальной правосубъектности для роботов необходимо для того, чтобы по крайней мере самые сложные автоном-
ные системы могли считаться ответственными электронными субъектами, обязанными возместить любой ущерб, причиненный третьим лицам1.
Однако, наделение искусственного интеллекта правосубъектностью потребует определения признаков искусственного интеллекта, который может обладать статусом субъекта права, чтобы отграничить его от искусственного интеллекта таковым не признаваемого. Однако решение данного вопроса позволит определить режим гражданско - правовой ответственности, применяемый к искусственному интеллекту.
Концепция гражданско - правовой
ответственности в доктрине и законодательстве Франции
На необходимость решения вопросов в сфере гражданско - правовой ответственности искусственного интеллекта обратила внимание Европейская комиссия по правовым вопросам. В ее отчете 2017 года содержатся рекомендации по применению норм гражданского права в области робототехники. Принимая во внимание то влияние, которое оказывает развития робототехники и искусственного интеллекта на условия труда, комиссия отмечает, что повсеместное внедрение искусственного интеллекта может вызвать новые задачи в области гражданско - правовой ответ-ственности2.
Гражданский кодекс Франции устанавливает режим договорной и внедоговорной гражданско-правовой ответственности. Наряду с общими положениями, установленными в Гражданском кодексе Франции, существуют специальные законы, регламентирующие отдельные виды ответственности. Основной функцией гражданско-правовой ответственности является возмещение причиненных убытков. Традиционным основанием применения гражданско-правовой ответственности является наличие доказанной вины. Во французской правовой доктрине существенное значение фактора вины для привлечения виновного лица к ответственности подвергается критическому осмыслению с конца XIX века. Это связано с преобразованиями в обществе, в результате которых появились новые виды убытков. Кроме того, возрастание роли человеческой
1 Résolution du Parlement européen du 16 févr. 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique, 2015/2013(INL) [Электронный ресурс] URL: https://www. europarl.europa.eu/doceo/document/TA-8-2017-0051_ FR.html (дата обращения: 20.03.2020).
2 Rapport de la Commission des affaires juridiques 27 janvier 2017 [Электронный ресурс]. URL: http://www. europarl.europa.eu/doceo/document/A-8-2017-0005_ FR.html?redirect (дата обращения: 06.12.2019).
личности привело к необходимости обеспечения физической, моральной и материальной безопасности людей.
Вопрос ответственности за действия искусственного интеллекта имеет решающее значение. Как телесный искусственный интеллект в форме роботов и робототехники, так и бестелесная форма искусственного интеллекта вполне способны причинить ущерб, как владельцам такого искусственного интеллекта, так и его пользователям.
Если лицо виновно в причинении вреда, оно должно нести персональную ответственность за причиненный ущерб. Статья 1382 Гражданского кодекса Франции предусматривает, что виновный в причинении вреда другому лицу в любом случае обязан возместить ущерб потерпевшему.
Следует различать ответственность договорную и ответственность деликтную. Данные виды ответственности служат разным целям. Общей чертой для обоих видов ответственности является возмещение ущерба. При этом договорная ответственность направлена на возмещение ущерба вследствие неисполнения или ненадлежащего исполнения договора, а деликтная ответственность - на возмещение ущерба потерпевшему в отсутствие договора, связывающего потерпевшего и виновного.
Если предположить, что в основе решения, принимаемого искусственным интеллектом, всегда лежит человеческий фактор, ответственность позволяет учитывать большое количество ответственных лиц.
Во французском законодательстве понятие вины не содержится, однако ее определение сформулировано в доктрине. Согласно мнению М. Р1апю1, вина является намеренным нарушением обязательства [10].
Таким образом, факт, порождающий ответственность, основывается на субъективном поведении лица, причинившего ущерб. В основе ответственности лежит вина. В гражданском праве Франции простой проступок является достаточным основанием для привлечения к гражданско-правовой ответственности за совершенное деяние, иначе говоря, неосторожность или неосмотрительность характеризуют вину, которая может быть вмененена причинителю ущерба.
Применение норм об ответственности к искусственному интеллекту в судебной практике
Деликтная ответственность наступает за совершение противоправного действия или бездействия. Так, Кассационный суд в решении по делу Вгап1у от 27 февраля 1951 года, признал
ОБРАЗОВАНИЕ И ПРАВО № 4 • 2020
вину за профессиональное бездействие1. Деликт-ная ответственность подразумевает наличие намерения причинить вред, которое направлено на достижение результата - причинение ожидаемого вреда и связанных с ним негативных последствий. Применительно к искусственному интеллекту гражданско-правовая ответственность за умышленное виновное деяние может наступить, если человек сознательно поставил искусственный интеллект в положение причинителя вреда. Это предполагает, что человек осознавал возможность наступления вреда. Так, Кассационный суд в решении от 30 июня 2011 года расценил как намерение причинить ущерб факт включения автономной газонокосилки в общественном саду2.
Следует уточнить, что большинство случаев причинения вреда искусственным интеллектом не связано с умыслом и недобросовестным поведением человека. Так, Кассационный суд в решении от 19 июня 2013 года указал, что функция Google Suggest поисковой системы Google позволяет совершать автоматический ввод искомых терминов, выдавая список аналогичных запросов3. Эта функция основана на машинном обучении, которое является результатом обработки запросов пользователей в рамках схожей тематики, что позволяет предложить пользователю сети наиболее подходящие ему термины. В данном случае лионская гарантийная компания обвинила Google в нанесении ей публичного оскорбления в связи с тем, что при вводе во франкоязычную версию поисковой строки слов «лионская г», Google выдавал в качестве предложенных вариантов «лионская гарантийная афера». Таким образом, эта компания напрямую ассоциировалась с термином «аферист» и «мошенник». В решении от 14 декабря 2011 года Апелляционный суд Парижа постановил, что выражение «лионская гарантийная афера» соответствует выражению мысли, которая стала возможной только благодаря реализации функции машинного обучения. Применение этого технологического процесса является всего лишь способом организации и представления мыслей, с
1 Cour de cassation, civile, Chambre civile 1, 27 février 2007, 06-10.393 [Электронный ресурс]. URL:https:// www.legifrance.gouv. fr/affichJuriJudi.do?oldAction=rechEx pJuriJudi&idTexte=JURITEXT000017637987&fastReqId=6 68799953&fastPos=1 (дата обращения: 06.12.2019).
2 Cour de cassation, civile, Chambre civile 2, 30 juin 2011, 10-30.838 [Электронный ресурс]. URL:https:// www.legifrance.gouv. fr/affichJuriJudi.do?oldAction=rechJu riJudi&idTexte=JURITEXT000024292681&fastReqId=8661 14909&fastPos=1 (дата обращения: 06.12.2019).
3 Cour de cassation, civile, Chambre civile 1, 19 juin 2013, 12-17.591 [Электронный ресурс]. URL:https:// www.legifrance.gouv. fr/affichJuriJudi.do?oldAction=rechJu riJudi&idTexte=JURITEXT000027596148&fastRe qId=468358130 (дата обращения: 06.12.2019).
помощью которого компания Google систематизирует поисковые запросы в сети Интернет. Данный аргумент не поддержал Кассационный суд, который отметил, что «функция, порождающая опасные сравнения, является результатом автоматического процесса в его деятельности и случайным в выдаваемых результатах поиска. Таким образом, поисковая система отображает ключевые слова, которые в результате являются уникальными и в зависимости от проявления воли разработчика поисковой системы способна выводить соответствующие высказывания или придавать им самостоятельное значение, за пределами выполнения ее единственной функции оказания помощи в поиске. Кассационный суд отменил решение суда апелляционной инстанции и не признал компанию Google ответственной по причине автоматического процесса отображения слов, который является результатом обработки самых частых запросов пользователей сети.
Однако в деле Google Suggest в 2013 году суды стали использовать новые подходы. Так, в решении от 23 октября 2013 года Парижский Верховный суд постановил взыскать с компании Google штраф в размере 4 000 евро за отказ удалить «ассоциированные поисковые запросы». Следует отметить, что Верховный суд Парижа не квалифицировал данное нарушение в качестве оскорбления, а сослался на статьи 1382 и 1383 Гражданского кодекса Франции4.
Суд Европейского союза также принял решение об ответственности разработчика поискового робота Google SPAIN, указав, что если в результате поиска, произведенного от имени конкретного лица, список выданных машиной результатов отображает ссылку на веб-страницу, которая содержит информацию о данном лице, соответствующее лицо может обратиться непосредственно к разработчику а при отсутствии ответа со стороны разработчика - в компетентные органы, с требованием об исключении данной ссылки из перечня выданных машиной результатов5. Данное право поименовано в решении суда Европейского союза от 24 февраля 2017 года как «droit de déréférencement»6. Исходя из анализа французской судебной практики можно сделать вывод, что
4 Tribunal de grande instance de Paris 17ème chambre civile Jugement du 23 octobre 2013 [Электронный ресурс]. URL: https://www.legalis.net/jurisprudences/ tribunal-de-grande-instance-de-paris-17eirie-chaiTibre-civile-jugement-du-23-octobre-2013/ (дата обращения: 06.12.2019).
5 Arrêt de la Cour (grande chambre) du 13 mai 2014 Google Spain SL et Google Inc. contre Agencia Española de Protección de Datos (AEPD) et Mario Costeja González // ECLI:EU:C:2014:317.
6 Conseil d'État, Assemblée, 24/02/2017, 391000 [Электронный ресурс]. URL: https://www.legifrance.gouv.
ОБРАЗОВАНИЕ И ПРАВО № 4 • 2020
судьи признают возможность возмещения ущерба за нарушение таких прав, как право на забвение, droit de déréférencement и право на дефицит информации, но не признают возможность ответственности за небрежность разработчика поисковой системы.
В известном судебном решении от 16 июня 1986 года по делу «Teffain» суд признал ответственность за действия автономных вещей и закрепил общий принцип ответственности владельца материальных предметов за ущерб причиненный ими. В данном деле в результате взрыва котла на буксире один из рабочих погиб. Владелец буксира не был виновен в случившемся взрыве. Суд установил презумпцию вины владельца буксира в целях обеспечения возмещения ущерба.
Одним из предложений преодоления данного несоответствия высказывается использование института опеки и попечительства, в основе которого лежит власть юридическая (власть опекуна, основанная на праве). Предлагается воспринимать владельца робота как родителя несовершеннолетнего ребенка, или как владелец животного [9].
Французская судебная практика разделяет полномочия по контролю над структурой и полномочия по контролю над поведением. Ответственность может быть возложена либо на лицо, контролирующее поведение вещи, либо на лицо, контролирующее структуру вещи в зависимости от неправильного управления или от скрытого дефекта. Французское право обычно признает лицом, контролирующим структуру, производителя, но в отношении искусственного интеллекта неизвестно кто лучше контролирует деятельность искусственного интеллекта - его производитель, заложивший в него основы, либо пользователь, постоянно взаимодействующий с ним и обучающий его.
Деликтная ответственность за действия третьих лиц
Как видно, французское право исходит из возложения ответственности на непосредственного причинителя вреда. В связи с индустриализацией общества во Французский гражданский кодекс была введена статья 1384, согласно п.1 которой ответственность наступает не только за ущерб, причиненный действиями виновного лица, но и за ущерб, причиненный лицами, за действия которых лицо несет ответственность, а также вещами, находящимися под его контролем.
Статья 1384 Французского гражданского кодекса перечисляет случаи привлечения к
fr/affichJuriAdmin.do?&idTexte=CETATEXT000034081835 (дата обращения: 06.12.2019).
деликтной ответственности третьих лиц. Так, отец и мать, поскольку они осуществляют родительские полномочия, несут солидарную ответственность за ущерб, причиненный их несовершеннолетними детьми, проживающими вместе с ними. Кроме того, владельцы и собственники домашних животных отвечают за вред, причиненный их питомцами, а учителя - за вред, причиненный их учениками в период, когда они находились под их наблюдением.
Французское право вплоть до 1997 года исходило из презумпции вины родителей как основания для ответственности за их несовершеннолетних детей. Отсутствие вины являлось основанием для освобождения от ответственности. 19 февраля 1997 года Кассационный суд в деле Bertrand пересмотрел данную концепцию, возложив на родителей полную ответственность. Такая ответственность наступает при соблюдении нескольких условий. Во - первых, вред должен быть причинен несовершеннолетним ребенком. В решении от 9 мая 1984 года суд указал, что родители могут нести ответственность за действия несовершеннолетнего ребенка, являющиеся прямой причиной возникшего ущерба. Для привлечения родителей к ответственности не требуется доказывать наличие вины в форме умыла или неосторожности несовершеннолетнего.
Во - вторых, наличие связи между несовершеннолетним лицом, причинившим вред, и лицом, несущим за него ответственность. Одной заботы о ребенке недостаточно, нужно установить естественную, законную или приемную родственную связь. В случае установления родственной связи по отношению к обоим родителям существует солидарная ответственность, в противном случае единственный родитель будет нести гражданско -правовую ответственность.
В - третьих, учитывается факт осуществления родительских полномочий. Априори ответственность несут оба родителя солидарно, но суд с учетом обстоятельств дела может возложить ответственность только на того родителя, который осуществлял родительские полномочия в отношении своего ребенка.
Думается такой подход французского законодателя вполне можно применить в отношении владельца искусственного интеллекта, возложив на него ответственность за вред причиненный последним. Вина владельца искусственного интеллекта презюмируется, и независимо от наличия вины самого искусственного интеллекта, его владелец несет ответственность в полном объеме за его действия. Так же как ребенок получает от своих родителей знания, опыт и воспитание, искусственный интеллект получает знания от своего создателя, заложившего их в его основу. Как
ОБРАЗОВАНИЕ И ПРАВО № 4 • 2020
ребенок совершенствуется и самообучается в процессе взаимодействия с окружающим миром на основе полученных знаний, так и искусственный интеллект самосовершенствуется на базе заложенных в него сведений.
Особенности договорной
ответственности в праве Франции
В основе договорной ответственности лежит факт неисполнения или ненадлежащего исполнения договорного обязательства. По общему правилу, только стороны договора вправе требовать возмещения убытков в связи с его неисполнением, а третье лицо, не являющееся стороной договора не вправе предъявлять такие требования. Французская правовая доктрина различает обязательства, направленные на результат и обязательство, предусматривающее лишь возможность его достижения. В первом случае должник принимает на себя обязательство достичь конкретного результата, а во втором - сделать все возможное и использовать соответствующие средства для достижения результата. Стороны самостоятельно выбирают сферу действия своих обязательств. Если обязательство заключается в достижении результата, то вина презюмируется до тех пор, пока заявленный результат не будет достигнут. Таким образом, кредитор не должен доказывать наличие вины, ему достаточно представить доказательства факта отсутствия обещанного в договоре результата.
В тех случаях, когда обязательство предусматривает лишь возможность исполнения, вина заключается в том, что должник не использовал все имеющиеся средства для достижения результата. Кредитор должен доказать факт бездействия должника или факт недостаточного использования ресурсов. В отличие от обязательства, направленного на результат, отсутствие которого легко установить в случае невыполнения обещанного результата, в обязательствах, направленных на возможное достижение результата судам надлежит определить наличие вины в поведении должника.
В сфере договорной ответственности встает вопрос, возможно ли привлечь к ответственности автономные машины, с помощью которых договор заключался? Французская судебная практика рассматривала такую возможность в постановлении Кассационного суда от 17 января 1995 года. Согласно обстоятельствам данного дела девушка была ранена неисправным обручем. Поскольку инцидент произошел в школе, родители предъявили требования к производителю, продавцу и образовательному учреждению. Суд отказа в привлечении к ответственности школы на том основании, что обязанность образовательного учрежде-
ОБРАЗОВАНИЕ И ПРАВО № 4 • 2020
ния по обеспечению безопасности является просто обязательством, направленным на возможное достижение результата и что вина не была установлена. Кассационная инстанция отменила данное решение в связи с тем, что «согласно договору, школа была обязана обеспечивать безопасность своих учеников, образовательное учреждение несет ответственность за причиненный ущерб не только при наличии вины, но и в результате ненадлежащего выполнения своих договорных обязательств.
По мнению Charlotte Troi, договорная ответственность не может быть применена к искусственному интеллекту, поскольку эта ответственность лежит на стороне договора, а не на искусственном интеллекте, который стороной договора не является [12]. В рамках заключенного договора стороны могут включить положения, содержащие описание возможностей искусственного интеллекта и рисков, связанных с поддержкой этой технологии. Такая оговорка позволит сторонам не брать на себя обязательства гарантировать то, что робот не сможет выполнить.
Выводы
Анализ литературы, посвященной вопросу ответственности за вред, причиненный искусственным интеллектом, позволяет выделить несколько точек зрения относительно субъекта такой ответственности.
Так, высказывается предположение о возложении ответственности на субъекта интеллектуальных прав на программное обеспечение. Законодательство Франции и России на сегодняшний день не предусматривают норм об ответственности обладателя интеллектуальных прав на искусственный интеллект. В отношении программного обеспечения искусственного интеллекта такое лицо выступает в качестве его разработчика, обладающего правом запрещать всем третьим лицам использовать это программное обеспечение без его согласия, а также правом извлекать выгоду от его использования в форме получения доходов, в том числе за счет лицензионных платежей. В этой связи некоторые авторы предлагают возложить ответственность правообладателя компьютерной программы, положенной в основу искусственного интеллекта, исходя из функции контроля, которую он осуществляет в отношении такой программы [11].
В качестве аргументов против данной концепции высказывается ряд ученых. В частности, A. Bonnet полагает, что правообладатель обладает монополией только в отношении разработанного им программного обеспечения и может запретить только его использование, а не искусственного интеллекта в целом [5]. Кроме того, создание
является разовым актом, в то время как, развиваясь, искусственный интеллект может менять заданный компьютерный алгоритм. В этом случае на основе уже созданной программы в результате ее модификации возникнет новый объект интеллектуальной собственности, в отношении которого у правообладателя программного обеспечения уже не будет интеллектуальных прав. К тому же компьютерные коды могут быть изменены пользователями. Возложение ответственности только на разработчика программного обеспечения может привести в таких случаях к необходимости нести ответственность без вины за действия третьих лиц.
Вторым субъектом, на которого может быть возложена ответственность за действия искусственного интеллекта может выступить производитель объекта, управляемого искусственным интеллектом. Во Французском гражданском кодексе понятие производителя содержится в статье 1386-6, согласно которой производителем является изготовитель товаров, сырья, составных частей. Данное понятие относится скорее к материальной производственной сущности, и потому может применяться только к телесному искусственному интеллекту (умным роботам). Возложение ответственности на производителя основано на том факте, что именно он в качестве конечного сборщика робота осуществляет полный контроль над будущим поведением последнего. Вместе с тем, термин производитель или изготовитель в широком смысле может включает в себя также разработчика программного обеспечения.
Третьим вариантом может стать модель ответственности, установленная для поставщика, продавца товаров. Согласно законодательству о защите право потребителей продавец несет ответственность за недостатки товара. Статья 1386-7 Гражданского кодекса Франции возлагает на этих субъектов субсидиарную ответственность. Преимуществом такого подхода является то, что продавца легко идентифицировать в гражданском обороте, что позволило бы быстро и легко определить ответчика, что особенно важно при подаче исков от имени граждан. С другой стороны, продавца или торгового посредника трудно привлечь к ответственности за вред, причиненный бестелесным искусственным интеллектом, доведенным до всеобщего сведения и находящимся в открытом доступе в сети Интернет. В данном случае целесообразнее говорить об ответственности разработчика искусственного интеллекта. Думается, применительно к сфере искусственного интеллекта нецелесообразно возлагать окончательную и полную ответственность на продавца, который не принимал участия в создании робота.
Кроме того, существует владелец самого искусственного интеллекта, под которым предлагается понимать лицо, получающее доход от предоставления услуг, оказываемых искусственным интеллектом. Именно в этом статусе компания Google проиграла в деле Google Suggest. Владелец будет отвечать за действия искусственного интеллекта на том же основании, что и работодатель за действия своего работника, либо владелец источника повышенной опасности.
Что касается владельца устройства, управляемого искусственным интеллектом, то он может рассматриваться в качестве потенциального субъекта ответственности за действия телесного искусственного интеллекта, интегрированного в материальную оболочку.
Наконец, важную роль в использовании искусственного интеллекта играет его пользователь. Именно пользователь взаимодействует с искусственным интеллектом, дает ему новые знания и учит принимать решения при выборе поведения. Если искусственный интеллект причинит вред на основе умозаключений, которые явились следствием взаимодействия с пользователем, то вполне вероятно, что способности принимать соответствующие решения, определяющие дальнейшее поведение искусственного интеллекта, напрямую зависят от знаний, заложенных в него пользователем (действует принцип «искусственный интеллект есть отражение личности его пользователя»).
Список литературы:
[1] Бутюгов Г.П., Зайцев В.В. Искусственный интеллект как юридическое лицо // Материалы межвузовской научно-практической конференции с международным участием «Юриспруденция 2.0: новый взгляд на право». Российский университет дружбы народов, 8 декабря 2017.
[2] Bensamoun Alexandra, Loiseau Grégoire. L'intelligence artificielle : faut-il légiférer? // RD -Recueil Dalloz, 2017. No. 11. P. 581
[3] Bensoussan, Alain. Point de vue : Plaidoyer pour un droit des robots : de la ''personne morale'' à la ''personne robot'' // La Lettre des Juristes d'affaires, 2013. No.1134.
[4] Binet, Jean-René. Personnalité juridique des robots : une voie à ne pas suivre. // Droit de la famille, 2017. No. 6. P. 6
[5] Bonnet, Adrien. La responsabilité du fait de l'intelligence artificielle. Master 2 Droit privé général Dirigé par Monsieur le professeur Yves Lequette. Université Panthéon-Assas, 2015.
[6] Cahen, Murielle. Le droit des robots. [Электронный ресурс] URL: https://www.murielle-cahen. com/publications/robot.asp (дата обращения: 12.03.2020).
ОБРАЗОВАНИЕ И ПРАВО № 4 • 2020
[7] Loiseau Grégoire, Bourgeois Mathieu. Du robot en droit à un droit des robots. // La Semaine Juridique, 2014. No. 48. P. 2162-2167.
[8] Marshall, Willick S. Artificial intelligence: Some legal approaches and implications // AI Magazine, 1983. Vol. 4, No.2. P. 5.
[9] Mendoza-Caminade, A. Le droit confronté à l'intelligence artificielle des robots : vers l'émergence de nouveaux concepts juridiques? // Recueil Dalloz, 2016. No. 8. P. 445.
[10] Planiol, Marcel. Traité élémentaire de droit civil conforme au programme officiel des Facultés de droit. Onix, 2011.
[11] Tricoire, E. La responsabilité du fait des choses immatérielles. Dalloz, 2008. 983 pp.
[12] Troi, Charlotte. Le Droit à l'épreuve de l'intelligence artificielle. Master Droit du patrimoine. Université de La Réunion, 2017.
Spisok literatury:
[1] Butiugov G.P., Zaitsev V.V. Iskusstvennyi intellekt kak iuridicheskoe litso // Materialy mezhvu-zovskoi nauchno-prakticheskoi konferentsii s mezh-dunarodnym uchastiem «lurisprudentsiia 2.0: novyi vzgliad na pravo». Rossiiskii universitet druzhby nar-odov, 8 dekabria 2017. (in Russ).
[2] Bensamoun Alexandra, Loiseau Grégoire. L'intelligence artificielle : faut-il légiférer? // RD -Recueil Dalloz, 2017. No. 11. P. 581. (in French).
[3] Bensoussan, Alain. Point de vue : Plaidoyer pour un droit des robots : de la "personne morale'' à
la ''personne robot'' // La Lettre des Juristes d'affaires, 2013. No.1134. (in French).
[4] Binet, Jean-René. Personnalité juridique des robots : une voie à ne pas suivre. // Droit de la famille, 2017. No. 6. P. 6. (in French).
[5] Bonnet, Adrien. La responsabilité du fait de l'intelligence artificielle. Master 2 Droit privé général Dirigé par Monsieur le professeur Yves Lequette. Université Panthéon-Assas, 2015. (in French).
[6] Cahen, Murielle. Le droit des robots. [Электронный ресурс] URL: https://www.muri-elle-cahen.com/publications/robot.asp (дата обращения: 12.03.2020). (in French).
[7] Loiseau Grégoire, Bourgeois Mathieu. Du robot en droit à un droit des robots. // La Semaine Juridique, 2014. No. 48. P. 2162-2167. (in French).
[8] Marshall, Willick S. Artificial intelligence: Some legal approaches and implications // AI Magazine, 1983. Vol. 4, No.2. P. 5. (in French).
[9] Mendoza-Caminade, A. Le droit confronté à l'intelligence artificielle des robots : vers l'émergence de nouveaux concepts juridiques? // Recueil Dalloz, 2016. No. 8. P. 445. (in French).
[10] Planiol, Marcel. Traité élémentaire de droit civil conforme au programme officiel des Facultés de droit. Onix, 2011. (in French).
[11] Tricoire, E. La responsabilité du fait des choses immatérielles. Dalloz, 2008. 983 pp. (in French).
[12] Troi, Charlotte. Le Droit à l'épreuve de l'intelligence artificielle. Master Droit du patrimoine. Université de La Réunion, 2017. (in French).
ЮРКОМПАНИ
www. law-books, ru
л_
-V.
Юридическое издательство
«ЮРКОМПАНИ»
Издание учебников, учебных и методических пособий, монографий, научных статей.
Профессионально.
В максимально короткие сроки.
Размещаем в РИНЦ, Е-ИЬгагу.
Г
ОБРАЗОВАНИЕ И ПРАВО № 4 • 2020