DOI: 10.24412/2076-1503-2023-6-217-224 NIION: 2018-0076-6/23-437 MOSURED: 77/27-023-2023-6-437
БОГДАНОВ Дмитрий Евгеньевич,
доктор юридических наук, профессор кафедры гражданского права Московского государственного юридического университета имени О.Е. Кутафина (МГЮА), профессор кафедры гражданского права и процесса Северо-Западного института (филиала) Университета имени О.Е. Кутафина (МГЮА), е-mail: [email protected]
БОГДАНОВА Светлана Геннадьевна,
кандидат юридических наук, доцент, доцент кафедры «Безопасность в цифровом мире» Московского государственного технического университета
им. Н.Э. Баумана, е-mail: [email protected]
ОПРЕДЕЛЕНИЕ МОДЕЛИ ОТВЕТСТВЕННОСТИ ЗА ВРЕД, ПРИЧИНЕННЫЙ ИСПОЛЬЗОВАНИЕМ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИЙСКОМ И ЗАРУБЕЖНОМ ПРАВЕ
Аннотация. Технодетерменизм определяет основную задачу для российской науки гражданского права при анализе вопросов, связанных с развитием технологий искусственного интеллекта. Данная задача связана с поиском ответа на вопрос о необходимости внесения изменений в российское законодательство в целях его адаптации к новым технологическим вызовам либо о возможности эффективного применения действующих норм права к регулированию «инновационных» гражданских отношений. Технологии искусственного интеллекта порождают серьезный вызов перед иностранной доктриной гражданского права применительно к проблеме определения модели ответственности за вред, причиненный такими технологиями. В иностранной литературе предлагается использовать различные модели ответственности, основанные на презумируемой вине деликвента или строгой (безвиновной) ответственности в целях возмещения вреда, причиненного технологией искусственного интеллекта. Российское законодательство готово к вызовам технологической революции применительно к вопросам возмещения вреда, причиненного использованием технологии искусственного интеллекта. В российском законодательстве традиционно используются такие общие (абстрактные) категории, как источник повышенной опасности, а также деятельность, создающая повышенную опасность для окружающих. Учитывая, что в России не предусмотрен исчерпывающий перечень видов деятельности, создающих повышенную опасность для окружающих, вредоносная деятельность по использованию технологий искусственного интеллекта охватывается данной категорий если она отвечает критерием повышенной опасности. Если вред был причинен исключительно по причине сбоя в алгоритме управления беспилотным транспортным средством, возможно применение стандарта строгой (безвиновной) ответственности за вред, причиненный дефектными товарами (работами, услугами). Если конкретная система «слабого» искусственного интеллекта не представляла повышенной опасности, вред может быть возмещен по правилам генерального деликта, основанного на модели презумируемой вины Ключевые слова: искусственный интеллект; деликт; вред; ответственность; безвиновная ответственность; деятельность, создающая повышенную опасность для окружающих; ответственность за дефектные товары; презумируемая вина.
BOGDANOV Dmitry Evgenievich,
Doctor of Law, Professor of the Department of Civil Law of the Kutafin Moscow State Law University (MSLA), Professor of the Department of Civil Law and Procedure of the North-Western Institute (branch) Kutafin Moscow State Law University (MSLA)
ОБРАЗОВАНИЕ И ПРАВО № 6 • 2023
BOGDANOVA Svetlana Gennadievna,
PhD in Law, Associate Professor, Associate Professor of the Department "Security in the Digital World" of the Bauman Moscow State Technical University
SEARCH FOR A MODEL OF LIABILITY FOR HARM CAUSED BY THE USE OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES IN RUSSIAN AND FOREIGN LAW
Annotation. Technodeterminism defines the main task for the Russian science of civil law. This task raises questions related to the development of artificial intelligence technologies. The task will help answer the question: " Is it necessary to make changes to Russian legislation in order to adapt it to new technological challenges?" And also, the solution of this problem is connected with the possibility of effective application of existing legal norms to the regulation of "innovative" civil relations. Artificial intelligence technologies pose a serious challenge to the foreign doctrine of civil law in relation to the problem of determining the model of liability for harm caused by such technologies. In foreign literature, it is proposed to use various models of liability in order to compensate for the harm caused by artificial intelligence technology: liability based on the presumed fault of the delinquent or strict (innocent) liability. In this area, Russian legislation is ready for the challenges of the technological revolution. Russian legislation traditionally uses general (abstract) categories, namely the source of increased danger and activities that create increased danger to others. Given that Russia does not provide an exhaustive list of activities that create an increased danger to others, malicious activity involving the use of artificial intelligence technologies is covered by this category if it meets the criterion of increased danger. If the damage was caused solely because of a failure in the control algorithm of an unmanned vehicle, it is possible to apply the standard of strict (innocent) liability for damage caused by defective goods (works, services). If a particular system of "weak" artificial intelligence did not pose an increased danger, the damage can be compensated according to the rules of the general tort based on the model of presumed guilt
Key words: artificial intelligence; tort; harm; liability; innocent liability; activities that create increased danger to others; liability for defective goods; presumed guilt.
В научной литературе отмечается, что бурное развитие новых технологий имеет настолько большой потенциал, что неминуемо приведет к четвертой индустриальной (промышленной) революции [5]. Поэтому вновь актуальным становится философский и социологический концепт технологического детерминизма, согласно которому «технические средства производства, а также научно обоснованные технологические знания представляют собой основополагающий фактор, определяющий социальное бытие и устанавливающий векторы социального развития» [1, с. 195-196].
К числу прорывных технологий, кардинальным образом влияющих на бытие человека, является технология искусственного интеллекта (Artificial intelligence). Следует отметить, что данную технологию не следует мифологизировать и наделять сверхспособностями. Как указывает Пройдаков Э.М. искусственный интеллект - это технология, включающая набор средств, позволяющих компьютеру на основании накопленных знаний давать ответы на поставленные вопросы, а также делать на основе полученных данных экспертные выводы, получать знания, которые в него
не закладывались разработчиками. Системы искусственного интеллекта (ИИ) автор определяет как компьютерные системы, использующие в своей работе технологии искусственного интеллекта. Особенностью таких систем является то, что до получения результата неизвестен алгоритм решения задачи. Системы искусственного интеллекта условно делятся на два класса: сильный (универсальный) ИИ и слабый (прикладной) ИИ. Универсальный ИИ по своим возможностям может быть сопоставим с человеческим интеллектом. Все остальные системы ИИ, который используются в настоящее время, являются слабым ИИ [4].
Таким образом, сильный ИИ - это пока сфера научной футурологии. Поэтому с некоторой долей иронии следует воспринимать попытки отдельных современных юристов сформулировать определение «искусственного разума», то есть систему ИИ, которая будет воспринимать себя как собственное «Я», способное к самосознанию и самоидентификации как целостной и самостоятельной части мироздания, обладающей творческим мышлением, возможностью адаптации к изменяющимся условиям внешней среды [3].
ОБРАЗОВАНИЕ И ПРАВО № 6 • 2023
В целях демистификации технологии ИИ следует указать, что программный код, даже обладающий возможностью саморазвития (машинного обучения), все равно изначально задан человеком. Именно человек ставит цель перед технологией ИИ, поскольку технология не обладает возможностью самостоятельного целеполагания.
На это обращает внимание академик РАН В.П. Чехонин, поскольку технология ИИ вторична, так как она работает по алгоритмам, которые закладывает человек. Идут разработки искусственного интеллекта, способного на неожиданные, не поддающейся стандартной логике решения. Но даже в этом случае программу с возможным всплеском креатива пишет ее создатель. Программист-нейрофизиолог предполагает те действия искусственного интеллекта, которые выглядят, как его собственные, разумные решения. Человек не может заложить в машину алогичное поведение1.
Отмеченный технодетерменизм предопределяет основную задачу для науки гражданского права при анализе вопросов, связанных с развитием технологий искусственного интеллекта. Данная задача связана с поиском ответа на вопрос о необходимости внесения изменений в гражданское законодательство в целях его адаптации к новым технологическим вызовам либо о возможности эффективного применения действующих норм права к регулированию «инновационных» гражданских отношений, связанных с использованием технологий искусственного интеллекта.
Следует отметить, что технология ИИ уже имеет свое легальное определение в российской правовой системе. Так, в Указе Президента РФ от 10.10.2019 N 4902 технология искусственного интеллекта определяется как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений».
Для сравнения, представляет интерес определение системы ИИ, предложенное недавно
Европейской Комиссией в своем проекте Акта об искусственном интеллекте. Согласно статье 3 указанного проекта, под системой искусственного интеллекта понимается программное обеспечение, разработанное с использованием определенных методов и подходов, способное для достижения установленных человеком целей генерировать такие результаты, как контент, прогнозы, рекомендации или решения, которые оказывают влияние на среду, с которой они взаимодействует3. В Приложении № 1 проекта Акта об искусственном интеллекте к методам разработки программного обеспечения искусственного интеллекта относятся, в частности, машинное обучение (включая глубокое обучение); логические и основанные на знаниях подходы; статистические подходы, байесовские методы и др.4
Заслуживает также внимания определение системы искусственного интеллекта, которое было сформулировано в Резолюции Европарла-мента от 20.10.2020, посвященной вопросам определения режима гражданско-правовой ответственности, связанной с использованием искусственного интеллекта5. Согласно ст. 3 указанной Резолюции под системой искусственного интеллекта понимается система, основанная на программном обеспечении или встроенная в аппаратное обеспечения соответствующего устройства, способная имитировать интеллект путем сбора и обработки информации, анализа и интерпретации окружающей среды, обладающая некоторой степенью автономности при достижении определенных целей.
Способность технологии ИИ имитировать когнитивные функции человека с учетом возможности ее «креативного» автономного функционирования, порождают риск причинения вреда при ее использовании. Следует учитывать, что только после совершения деликта станет известным
1 URL: https://scientificrussia.ru/articles/seroe-veshchestvo-budet-N-iskusstvennyj-inteNekt-upravlyat-lyudmi (дата обращения 01.02.2023)
2 Указ Президента РФ от 10.10.2019 N 490 «О развитии искусственного интеллекта в Российской Федерации»
3 Proposal for a Regulation laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union legislative acts. Brussels, 21.4.2021 URL: https://eur-lex.europa.eu/legal-content/EN/ TXT/?uri=CELEX:52021PC0206 (дата обращения 01.02.2023)
4 ANNEXES to the Proposal for a Regulation of the European Parliament and of the Council LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACT URL: https://eur-lex. europa.eu/legal-content/EN/
TXT/?uri=CELEX:52021PC0206 (дата обращения 01.02.2023)
5 European Parliament resolution of 20 October 2020 with recommendations to the Commission on a civil liability regime for artificial intelligence (2020/2014(INL)) URL: https://www.europarl.europa.eu/doceo/document/ TA-9-2020-0276_EN.html#top (дата обращения 01.02.2023)
ОБРАЗОВАНИЕ И ПРАВО № 6 • 2023
алгоритм, послуживший причиной вредоносного функционирования системы искусственного интеллекта. Данное обстоятельство должно учитываться при определении модели ответственности за вред, причиненный использованием технологий искусственного интеллекта.
В настоящее время во всех правовых системах осуществляется поиск справедливой модели ответственности за вред, причиненный использованием технологии искусственного интеллекта. Например, применительно к сфере Common Law рассматриваются возможности использования уже имеющихся правил, в частности, об ответственности за вред, причиненный: дефектными товарами (Product liability); особо (аномально) опасными видами деятельности (Abnormally dangerous activities); неосторожным (виновным) деликтом (Negligence). В науке высказываются позиции как в пользу строгого стандарта ответственности (strict liability), так и виновного стандарта ответственности (fault). Предлагается заменить ответственности специальными компенсационными схемами, имеющими обязательный характер [11].
Однако в литературе указывается на недостатки существующих в англо-саксонском праве моделей деликтной ответственности, применительно к проблеме возмещения вреда, причиненного технологией искусственного интеллекта.
Так, Омри Рахум-Твайг отмечает, что возникают сложности с применением категории «продукт» (product) в случае причинения вреда использованием технологии искусственного интеллекта. Если в товар (продукт) встроена система искусственного интеллекта (например, беспилотное транспортное средство), возможно возложение на деликтвента строгой ответственности за дефектный товар (product liability). Однако в эпоху «экономики доступа» (access economy) многие блага предоставляются потребителям в качестве «услуг» (services). Переход от «владения» (ownership) к доступу, связан с возможностью причинения вреда, который не охватывается доктриной ответственности за дефектные товары (product liability). В результате названный автор предлагает свой концепт ответственности за вред, причиненный искусственным интеллектом -модель презумируемой виновной ответственности с «безопасной гаванью» (presumed negligence with safe harbor) [10].
Следует отметить, что в гражданском законодательстве России уже предусмотрена «безопасная гавань» для информационных посредников (ст. 1253.1 ГК РФ). В названной норме установлен виновный стандарт ответственности хостинг-провайдеров и других информационных посредников. Поскольку информационные
посредники не отвечают за содержание контента, размещенного на их хостинге третьими лицами. Посредники не обязаны осуществлять активный мониторинг размещаемого контента. Они освобождаются от ответственности перед правообладателем, если после получения от него уведомления о нарушении прав удалили контрафактный контент или приняли иные меры для прекращения интеллектуальных прав. Таким образом, информационные посредники могут укрыться в безопасной гавани, поскольку законодательство основывается на презумпции незнания ими фактов нарушения интеллектуальных прав [8]. Аналогичные правила предусмотрены и в иностранном законодательстве1.
Если у информационных посредников, по общему правилу, отсутствует обязанность по мониторингу контента [14], то Омри Рахум-Твайг предлагает возложить на операторов искусственного интеллекта обязанность по активному мониторингу его функционирования, как условие помещения их в «безопасную гавань». Помимо названной обязанности, автор также указывает на необходимость соблюдения операторами обязанностей по постоянной технической поддержке и устранению недостатков в алгоритмах, а также обязательное включение в изначально программируемый алгоритм возможности «экстренной» остановки работы искусственного интеллекта [10].
Представляет интерес, что модель ответственности, основанной на презумируемой вине, предусмотрена в Резолюции Европарламента от 20.10.2020. Указанная Резолюция дифференцирует системы искусственного интеллекта на высоко рисковые (high risk) и не порождающие таких рисков. Соответственно, оператор высокорискованной ИИ-системы несет строгую (безвиновную) ответственность за любой вред, причиненный физической или виртуальной деятельностью, а также устройствами или процессами, управляемыми такой ИИ-системой (ст. 4 Резолюции от 20.10.2020).
Согласно ст. 8 Резолюции от 20.10.2020 оператор системы ИИ, которая не относится к высоко рисковым системам ИИ, не несет ответственности, если он может доказать, что вред был причинен без его вины, в частности:
а) система ИИ была активирована без ведома оператора, несмотря на то что, им были предприняты все разумные и необходимые меры, чтобы избежать такой активации;
(b) оператором была проявлена должная осмотрительность, в частности, была использована система ИИ, соответствующая поставлен-
1 Digital Millennium Copyright Act 1998; eCommerce Directive (EC) 2000/31)
ОБРАЗОВАНИЕ И ПРАВО № 6 • 2023
ным задачам, осуществлялась ее надлежащая эксплуатация путем регулярной установки доступных обновлений.
В европейской научной литературе, предшествующей принятию Резолюции от 20.10.2020 неоднократно высказывалась позиция о том, что в сфере ответственности за вред, причиненный искусственным интеллектом, недопустимо применение исключительного виновного стандарта ответственности или, наоборот, исключительного строгого (безвиновного) стандарта деликтной ответственности. Высказывался тезис о «секторальной» модели строгой ответственности за вред, причиненный деятельностью, связанной с использованием искусственного интеллекта [7,9].
Указанная «секторальность» моделей ответственности, связанная с дифференцированием искусственного интеллекта на опасный и «безопасный», обусловлена конфликтом интересов потерпевших, заинтересованных в возмещении причиненного вреда и деликвентов, заинтересованных в развитии технологий. Именно на данное обстоятельство указывается во введении к Директиве от 20.10.2020. Таким образом, Директива от 20.10.2020 демонстрирует своеобразный подход к дистрибутивной (распределяющей) справедливости в сфере деликтной ответственности, поскольку на первый план выводятся интересы не потерпевших, а бизнес-сообщества. Это выражается как в ограничении сферы безвиновной ответственности за вред, причиненный искусственным интеллектом. Так и в ограничении размера невиновно причиненного вреда предельными суммами. Например, в ст. 5 Директивы от 20.10.2020 установлены пределы возмещения вреда, причиненного жизни или здоровью потерпевшего, суммой в 2 миллиона евро. В отношении вреда, причиненного имуществу потерпевшего или доказанным им экономическим потерям, установлен предел в 1 миллион евро.
В этой связи Энрике С. Антунеш отмечает, что концепция параллельных режимов ответственности является краеугольным камнем, основой Резолюции от 20.10.2020. Однако названный автор указывает на непоследовательность данного подхода. Поскольку в сфере ответственности за вред, причиненный эксплуатацией транспортных средств, отсутствуют параллельные режимы. Строгий безвиновный стандарт ответственности установлен независимо от того, причинен ли вред новым или старым транспортным средством, используемым в личных или коммерческих целях и др. Отсутствуют параллельные режимы и в сфере ответственности за вред, причиненный дефектными товарами (product liability), поскольку такая ответственность является строгой (безвиновной) [12].
ОБРАЗОВАНИЕ И ПРАВО № 6 • 2023
В этой связи необходимо определить возможность использования в России общего или секторального подхода в отношении безвиновной (строгой) ответственности за вред, причиненный использованием технологии искусственного интеллекта.
Следует отметить, что Гражданский кодекс России оказался наиболее подготовленным к вызовам технологической революции по сравнению с кодексами европейских стран. Данное обстоятельство обусловлено тем, что в российском законодательстве традиционно используются такие общие (абстрактные) категории, как источник повышенной опасности, а также деятельность, создающая повышенную опасность для окружающих (ст. 1079 ГК РФ). Учитывая, что в ст. 1079 ГК РФ не предусмотрен исчерпывающий перечень видов деятельности, создающих повышенную опасность для окружающих (отсутствует numerus clausus), вредоносная деятельность по использованию технологий искусственного интеллекта охватывается данной нормой если она отвечает критерием повышенной опасности.
На абстрактный характер правил ст. 1079 ГК РФ указывает Верховный Суд Российской Федерации, определяя критерии повышенной опасности того или иного вида деятельности. Согласно его руководящим разъяснениям, по смыслу статьи 1079 ГК РФ, источником повышенной опасности следует признать любую деятельность, осуществление которой создает повышенную вероятность причинения вреда из-за невозможности полного контроля за ней со стороны человека. Учитывая, что названная норма не содержит исчерпывающего перечня источников повышенной опасности, суд, принимая во внимание особые свойства предметов, веществ или иных объектов, используемых в процессе деятельности, вправе признать источником повышенной опасности также иную деятельность, не указанную в перечне1.
Таким образом, в российском праве предусмотрена общая «генеральная» норма, устанавливающая строгую ответственность деликвента (независимо от его вины) за вред, причиненный любой деятельностью, создающей повышенную опасность для окружающих. Как верно отмечается учеными компаративистами, данная норма является уникальной по сравнению с другими право-порядками [2].
Поэтому не следует недооценивать генеральный характер отечественной модели ответ-
1 Пункт 18 Постановления Пленума Верховного Суда РФ от 26.01.2010 N 1 "О применении судами гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоровью гражданина"
ственности за вред, причиненный деятельностью, создающей повышенную опасность для окружающих. Как верно отмечает С.Г. Яшнова, для большинства стран Европы характерен не генеральный, а партикулярный подход в сфере возмещение вреда, причиненного деятельностью, создающей повышенную опасность для окружающих. Норма российского законодательства об данной ответственности, является самой объёмной и содержательной в сравнении с аналогичным образцами в законодательстве других стран (например, Италия, Португалия) [6, с. 18-19].
Действительно, для большинства современных юрисдикций характерен подход, основанный на партикуляризации строгой (безвиновной) ответственности за вред, причиненный деятельностью, создающей повышенную опасность для окружающих. В качестве примера можно указать на основные европейские правопорядки (ФРГ, Франция, Испания и др.). Так, в указанных право-порядках вопросы строгой ответственности за вред, причиненный транспортным средством, регулируются специальными законами. В Гражданском кодексе Италии имеется норма, устанавливающая ответственность за вред, причиненный опасной деятельностью (ст. 2050), однако, такая ответственность основана на стандарте презуми-руемой вины. Поскольку деликвент, в целях освобождения от ответственности, может доказать, что им были предприняты все необходимые меры для недопущения причинения вреда. При этом, в отношении ответственности за причинение вреда транспортными средствами в ГК Италии предусмотрена специальная (партикулярная) норма (ст. 2054)1.
Следует отметить, что в литературе высказывается достаточно обоснованная позиция, что к отдельным беспилотным транспортным средствам, относящимся к высоко автоматизированным и полностью автоматизированными (4 и 5 класс, согласно классификации SAE International)2, несправедливо применения правил об ответственности за вред, причиненный источником повышенной опасности (ст. 1079 ГК РФ). Поскольку лицо, эксплуатирующее такое беспилотное транспортное средство не участвует в процессе его управления, полностью предопределенным программным кодом (алгоритмом) [2].
Если вред был причинен исключительно по причине сбоя в алгоритме управления беспилотным транспортным средством (изначально заложенной в такой алгоритм ошибки), возможно при-
менение других правил деликтной ответственности. Может быть применен стандарт строгой (безвиновной) ответственности за вред, причиненный дефектными товарами (работами, услугами), предусмотренной ст. 1095 ГК РФ.
Следует отметить, что российская модель «product liability» также отличается своим широким охватом, поскольку правила ст. 1095 ГК РФ не содержат исчерпывающего перечня недостатков товаров, работ или услуг. Безвиновный стандарт ответственности может быть возложен, в том числе, и за дефекты в программном коде, управляющим соответствующим устройством или механизмом. В российском праве отсутствует отмеченная выше проблема, характерная для многих юрисдикций, что программный код не может быть отнесен к «продукту» (товару). Ответственность по ст. 1095 ГК РФ может быть возложена как за недостатки товаров, так и работ (услуг).
Следует также указать на «абсолютизацию» строгой ответственность за вред, причиненный дефектными товарами, работами и услугами в российском праве. Согласно п.4 ст. 14 Закона России «О защите прав потребителей» изготовитель (исполнитель) несет ответственность за вред, причиненный жизни, здоровью или имуществу потребителя в связи с использованием материалов, оборудования, инструментов и иных средств, необходимых для производства товаров (выполнения работ, оказания услуг), независимо от того, позволял уровень научных и технических знаний выявить их особые свойства или нет.
Для сравнения, в статье 6 Директивы ЕС 85/374/EEC от 25 июля 1985 предусмотрено3, что деликвент может освободить себя от ответственности доказав, что состояние научных и технических знаний в момент введения продукта в оборот, не позволяло обнаружить наличие дефекта (the state of art defense) [13].
Проведенный анализ позволяет констатировать, что российское гражданское законодательство полностью готово к вызовам технологической революции применительно к вопросам возмещения вреда, причиненного использованием технологии искусственного интеллекта. Разработчики российского Гражданского кодекса, наполнив его абстрактными нормами, создали возможность для того, чтобы кодекс был готов к встрече с будущим. Любые спорные вопросы, связанные с определением модели ответственности или выбором
1 URL: http://italiantortlaw.altervista.org/civilcode. html (дата обращения 01.02.2023)
2 URL:https://www.autopilotreview.com/self-driv-
ing-cars-sae-levels/ (дата обращения 01.02.2023)
3 Council Directive 85/374/EEC of 25 July 1985 on the approximation of the laws, regulations and administrative provisions of the Member States concerning liability for defective products URL: https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:31985L0374&from=EN (дата обращения 01.02.2023)
ОБРАЗОВАНИЕ И ПРАВО № 6 • 2023
субъекта ответственности могут быть легко разрешены на основе соответствующих разъяснений Верховного Суда РФ без необходимости внесения изменений в Гражданский кодекс России. В случае, если судом будет установлено, что используемая конкретная система «слабого» искусственного интеллекта не представляла повышенной опасности для окружающих, вред может быть возмещен, в том числе, и по правилам генерального деликта, основанного на модели презумируемой вины (ст. 1064 ГК РФ).
Список литературы:
[1] Баринова С. Г. Технологический детерминизм и технологический тип детерминации // Вестник Красноярского государственного аграрного университета. 2010. №9. С. 195-201.
[2] Ли Чжеву, Менг Сунгу. Внедоговорная ответственность за вред, причиненный беспилотными транспортными средствами // Закон. 2020. N 3. С. 49 - 56.
[3] Писаренко М.С. К вопросу об искусственном интеллекте и его сущности // Вопросы российской юстиции. 2020. № 10. С. 44-54.
[4] Пройдаков Э.М. Современное состояние искусственного интеллекта // Науковедческие исследования. 2018. №2018. С. 129-153.
[5] Тарасов И.В. Индустрия 4.0: понятие, концепции, тенденции развития // Стратегии бизнеса. 2018. № 5. С. 43-49.
[6] Яшнова С.Г. Ответственность за вред, причиненный источником повышенной опасности в гражданском праве России и стран западной Европы. Автореферат диссертации на соискание ученой степени кандидата юридических наук. М., 2014. 24 - с.
[7] Borghetti, Jean-Sébastien, Civil Liability for Artificial Intelligence: What Should its Basis Be? (June 1, 2019). La Revue des Juristes de Sciences Po, juin 2019, n°17 ISSN 2111-4293, 94-102, Available at SSRN: https://ssrn.com/ abstract=3541597
[8] Kuczerawy A. The Power of Positive Thinking: Intermediary Liability and the Effective Enjoyment of the Right to Freedom of Expression // JIPITEC. 2017. Vol 8. Pp. 226 -237.
[9] Lemann, Alexander, Autonomous Vehicles, Technological Progress, and the Scope Problem in Products Liability (September 1, 2019). 12 Journal of Tort Law 157 (2019), Marquette Law School Legal Studies Paper No. 19-14, Available at SSRN: https:// ssrn.com/abstract=3457381 or http://dx.doi. org/10.2139/ssrn.3457381
[10] Rachum-Twaig, Omri, Whose Robot Is It Anyway?: Liability for Artificial-Intelligence-Based Robots (February 21, 2019). University of Illinois Law
ОБРАЗОВАНИЕ И ПРАВО № 6 • 2023
Review, Vol. 2020, Forthcoming, Available at SSRN: https://ssrn.com/abstract=3339230
[11] Smith, Bryant Walker, Automated Driving and Product Liability (October 1, 2016). Bryant Walker Smith, Automated Driving and Product Liability, 2017 MICH. ST. L. REV. 1, Available at SSRN: https://ssrn. com/abstract=2923240
[12] Sousa Antunes, Henrique, Civil Liability Applicable to Artificial Intelligence: A Preliminary Critique of the European Parliament Resolution of 2020 (December 5, 2020). Available at SSRN: https:// ssrn.com/abstract=3743242
[13] Sterrett, Lauren, Product Liability: Advancements in European Union Product Liability Law and a Comparison between the EU and U.S. Regime (2015). 23 Mich. St. Int'l L. Rev. 885 (2015), Available at SSRN: https://ssrn.com/ abstract=2900507
[14] Ullrich C. Standards for Duty of Care? Debating Intermediary Liability from a Sectoral Perspective. JIPITEC. 2017. Vol. 8. Pp. 111 -127. (In Eng.)
Spisok literatury:
[1] Barinova S. G. Tekhnologicheskij determin-izm i tekhnologicheskij tip determinacii // Vestnik Krasnoyarskogo gosudarstvennogo agrarnogo uni-versiteta. 2010. №9. S. 195-201.
[2] Li CHzhevu, Meng Sungu. Vnedogovornaya otvetstvennost' za vred, prichinennyj bespilotnymi transportnymi sredstvami // Zakon. 2020. N 3. S. 49 - 56.
[3] Pisarenko M.S. K voprosu ob iskusstven-nom intellekte i ego sushchnosti // Voprosy rossijskoj yusticii. 2020. № 10. S. 44-54.
[4] Projdakov E.M. Sovremennoe sostoyanie iskusstvennogo intellekta // Naukovedcheskie issle-dovaniya. 2018. №2018. S. 129-153.
[5] Tarasov I.V. Industriya 4.0: ponyatie, kon-cepcii, tendencii razvitiya // Strategii biznesa. 2018. № 5. S. 43-49.
[6] YAshnova S.G. Otvetstvennost' za vred, prichinennyj istochnikom povyshennoj opasnosti v grazhdanskom prave Rossii i stran zapadnoj Evropy. Avtoreferat dissertacii na soiskanie uchenoj stepeni kandidata yuridicheskih nauk. M., 2014. 24 - s.
[7] Borghetti, Jean-Sébastien, Civil Liability for Artificial Intelligence: What Should its Basis Be? (June 1, 2019). La Revue des Juristes de Sciences Po, juin 2019, n°17 ISSN 2111-4293, 94-102, Available at SSRN: https://ssrn.com/abstract=3541597
[8] Kuczerawy A. The Power of Positive Thinking: Intermediary Liability and the Effective Enjoyment of the Right to Freedom of Expression // JIPITEC. 2017. Vol 8. Pp. 226 -237.
[9] Lemann, Alexander, Autonomous Vehicles, Technological Progress, and the Scope Problem in Products Liability (September 1, 2019). 12 Journal of Tort Law 157 (2019), Marquette Law School Legal Studies Paper No. 19-14, Available at SSRN: https:// ssrn.com/abstract=3457381 or http://dx.doi. org/10.2139/ssrn.3457381
[10] Rachum-Twaig, Omri, Whose Robot Is It Anyway?: Liability for Artificial-Intelligence-Based Robots (February 21, 2019). University of Illinois Law Review, Vol. 2020, Forthcoming, Available at SSRN: https://ssrn.com/abstract=3339230
[11] Smith, Bryant Walker, Automated Driving and Product Liability (October 1, 2016). Bryant Walker Smith, Automated Driving and Product Liability, 2017
MICH. ST. L. REV. 1, Available at SSRN: https://ssrn. com/abstract=2923240
[12] Sousa Antunes, Henrique, Civil Liability Applicable to Artificial Intelligence: A Preliminary Critique of the European Parliament Resolution of 2020 (December 5, 2020). Available at SSRN: https://ssrn. com/abstract=3743242
[13] Sterrett, Lauren, Product Liability: Advancements in European Union Product Liability Law and a Comparison between the EU and U.S. Regime (2015). 23 Mich. St. Int'l L. Rev. 885 (2015), Available at SSRN: https://ssrn.com/abstract=2900507
[14] Ullrich C. Standards for Duty of Care? Debating Intermediary Liability from a Sectoral Perspective. JIPITEC. 2017. Vol. 8. Pp. 111 -127. (In Eng.)
J
4
ЮРКОМПАНИ
www.law-books.ru
Юридическое издательство
«ЮРКОМПАНИ»
Издание учебников, учебных и методических пособий, монографий, научных статей.
Профессионально.
В максимально короткие сроки.
Размещаем в РИНЦ, Е-ПЬгагу.
Г
ОБРАЗОВАНИЕ И ПРАВО № 6 • 2023