Научная статья на тему 'ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРАВО: ВЫЗОВЫ И ВОЗМОЖНОСТИ САМООБУЧАЮЩИХСЯ АЛГОРИТМОВ'

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРАВО: ВЫЗОВЫ И ВОЗМОЖНОСТИ САМООБУЧАЮЩИХСЯ АЛГОРИТМОВ Текст научной статьи по специальности «Право»

CC BY
732
168
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / АВТОМАТИЗИРОВАННАЯ САМООБУЧАЮЩАЯСЯ СИСТЕМА / ОТВЕТСТВЕННОСТЬ / РЕЗУЛЬТАТЫ ИНТЕЛЛЕКТУАЛЬНОЙ ДЕЯТЕЛЬНОСТИ / ПЕРСОНАЛЬНЫЕ ДАННЫЕ / ЦИФРОВЫЕ КАРТЕЛИ / ARTIFICIAL INTELLIGENCE / AUTOMATED SELF-LEARNING SYSTEM / LIABILITY / INTELLECTUAL PROPERTY RIGHTS / PERSONAL DATA / ALGORITHMIC COLLUSION

Аннотация научной статьи по праву, автор научной работы — Войниканис Е.А., Семенова Е.В., Тюляев Г.С.

Рассматриваются отраслевые правовые риски, ассоциированные с использованием основанных на искусственном интеллекте программ. Приводится классификация междисциплинарных исследований по проблемам применения искусственного интеллекта. Показаны отраслевые вызовы и подходы к решению проблем, которые развитие искусственного интеллекта ставит перед правом на примере институтов публичного и частного права, в частности ответственности, защиты персональных данных, права интеллектуальной собственности. Делается вывод, что развитие искусственного интеллекта требует изменения правового ландшафта.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — Войниканис Е.А., Семенова Е.В., Тюляев Г.С.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ARTIFICIAL INTELLIGENCE AND LAW: CHALLENGES AND POSSIBILITIES OF SELF-LEARNING ALGORITHMS

The paper analyses some legal issues of artificial intelligence. In the first part of the paper authors provide classification and overview of the interdisciplinary research in this field. The next part of the paper illustrates artificial intelligence legal issues and provides approaches to mitigate these challenges. In particular, authors examine artificial intelligence influence on the protection of personal data, intellectual property rights and civil liability. The authors conclude that the development of artificial intelligence requires a change in the legal framework.

Текст научной работы на тему «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРАВО: ВЫЗОВЫ И ВОЗМОЖНОСТИ САМООБУЧАЮЩИХСЯ АЛГОРИТМОВ»

УДК 340.1

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРАВО: ВЫЗОВЫ И ВОЗМОЖНОСТИ САМООБУЧАЮЩИХСЯ АЛГОРИТМОВ

Е. А. Войниканис, Е. В. Семенова, Г. С. Тюляев

Национальный исследовательский университет «Высшая школа экономики» Поступила в редакцию 15 августа 2018 г.

Аннотация: рассматриваются отраслевые правовые риски, ассоциированные с использованием основанных на искусственном интеллекте программ. Приводится классификация междисциплинарных исследований по проблемам применения искусственного интеллекта. Показаны отраслевые вызовы и подходы к решению проблем, которые развитие искусственного интеллекта ставит перед правом на примере институтов публичного и частного права, в частности ответственности, .защиты персональных данных, права интеллектуальной собственности. Делается вывод, что развитие искусственного интеллекта требует изменения правового ландшафта.

Ключевые слова: искусственный интеллект, автоматизированная самообучающаяся система, ответственность, результаты интеллектуальной деятельности, персональные данные, цифровые картели.

Abstract: the paper analyses some legal issues of artificial intelligence. In the first part of the paper authors provide classification and overview of the interdisciplinary research in this field. The next part of the paper illustrates artificial intelligence legal issues and provides approaches to mitigate these challenges. In particular, authors examine artificial intelligence influence on the protection of personal data, intellectual property rights and civil liability. The authors conclude that the development of artificial intelligence requires a change in the legal framework.

Key words: Artificial Intelligence, automated self-learning system, liability, intellectual property rights, personal data, algorithmic collusion.

Передовые методы анализа данных машинного обучения и технологий искусственного интеллекта открыли возможность создания программ, которые в процессе самообучения становятся независимыми от-

своего создателя. Такие программы могут генерировать результаты, ко- 137 торые не охватывались замыслом разработчика, но стали возможны благодаря обобщающей способности лежащего в их основе алгоритма1.

1 Обобщающая способность алгоритма — это способность на основании частных наблюдений делать общие выводы. Данная способность составляет суть машинного обучения (зм. подробнее, например: Обобщающая способность (Generalization ability). URL: https://wiki.loginom.ru/articles/generalization-ability. html (дата обращения: 07.08.2018). См. также: Balcan M. Machine Learning. Generalization Abilities: Sample Complexity Results. URL: https://www.cs.cmu. edu/~ninamf/courses/601sp15/sc-2015.pdf (дата обращения: 07.08.2018).

© Войниканис Е. А., Семенова Е. В., Тюляев Г. С., 2018

Хотя словосочетание «искусственный интеллект» может вызывать ассоциации со сверхспособными роботами-гуманоидами, которые могут спасти или погубить человечество, подобные сценарии все еще являются уделом футурологов2. Дело в том, что «сильный» искусственный интеллект, т. е. интеллект, обладающий сознанием3, до сих пор не создан, так как ни одному алгоритму пока не удалось пройти тест Тьюринга4.

В настоящее время создан лишь «слабый» искусственный интеллект — алгоритм, способный обобщать массив обучающих данных и на основании этого обобщения делать прогнозы относительно ранее неизвестных ему примеров5. Таким образом, для целей данной статьи понятие «искусственный интеллект» (далее — ИИ или автоматизированная самообучающаяся система) используется в смысле, актуальном для настоящего этапа развития науки и техники, а именно как программа, которая, благодаря итеративному обучению на больших массивах данных, способна создавать независимые от замысла разработчиков результаты.

Создание алгоритмом, основанным на ИИ, результатов, которые не охватывались замыслом разработчика, актуализировало дискуссию об общеправовых вопросах, таких как правосубъектность ИИ, дискриминация алгоритмом ИИ людей по различным признакам, ответственность при использовании ИИ. Появились также вопросы, специфичные для отдельных отраслей права, например: кто является правообладателем произведений, созданных ИИ, кто несет ответственность за «цифровые» картели, созданные в автоматическом режиме алгоритмами ИИ без участия человека.

Классификация исследований ИИ: междисциплинарный и отраслевой подходы

-^г Современные исследования рисков применения ИИ могут быть классифицированы на следующие виды:

1. Отраслевые исследования, отражающие возможности и риски им-

^ плементации ИИ в существующие отрасли права — при этом последствия о

138 2 В современных исследованиях данный сценарий раскрывается в политиче-

-ской, философской и этической перспективах (см., например: Helbing D. Societal,

Economic, Ethical and Legal Challenges of the Digital Revolution: From Big Data to Deep Learning // Artificial Intelligence, and Manipulative Technologies (April 14, 2015). URL: http://dx.doi.org/10.2139/ssrn.2594352 (дата обращения: 07.08.2018).

3 См., например: Russel S., Norvig P. Weak AI: Can Machines Act Intelligently? Strong AI: Can Machines Really Think? / Artificial Intelligence. Modern Approach. 3rd Edition. Pearson Education Limited, 2016. P. 1020-1034.

4 См.: Тест Тьюринга — это тест, который используется для определения, обладает ли машина интеллектом. URL: http://www.aiportal.ru/articles/other/turing-test.html (дата обращения: 07.08.2018).

5 Примерами программ, основанных на ИИ, могут быть беспилотные транспортные средства и летательные аппараты, алгоритмы идентификации лиц и распознавания рукописного ввода, голосовые ассистенты.

внедрения ИИ оцениваются с позиций отдельных правовых институтов (ответственность, персональные данные, кибербезопасность и т. д.)6.

2. Инструментальные исследования, направленные на поиск оптимального технологического, экономического и правового ландшафта для Г" использования зарождающихся и существующих ИИ-технологий7. >

3. Комплексный подход к разработке специализированного «права го роботов» с учетом требований кибернетической этики и существующих программных правил, имплементированных в машинные алгоритмы по умолчанию8. н

К первому виду исследований может быть, в частности, отнесена оцен- , ка последствий имплементации автоматизированных систем и пробле- гп мы регулирования ИИ в соответствии с положениями антимонопольного законодательства9, законодательства о защите персональных данных10 и ^

о

7*.

права интеллектуальной собственности11. Например, под вопрос может

быть поставлена целесообразность предоставления роботам (ИИ) прав н

автора при создании результатов интеллектуальной деятельности. Дать §

о

однозначный ответ на данный вопрос затруднительно, в том числе в силу Г

внешних эффектов, связанных с тем, что регулирование ИИ в рамках гГ

одной из отраслей права может сказаться на других отраслях. гГ

Ко второму виду исследований относятся разработки в области регу- ю

лирования автономных и полуавтономных транспортных систем12, авто- я

е

6 См.: Leroux C. et al. Suggestion for a green paper on legal issues in robotics // Contribution to Deliverable D 3.1 (2012) (reviewing six disciplines of the law likely ° to be affected) ; De Cock M., Buning L. Belder and de Bruin R. Mapping the Legal o Framework for the introduction into Society of Robots as Autonomous Intelligent T Systems // The Law of the Future and the Future of Law. The Hague : Hiil, 2012. e

7 См.: Palmerini E. et al. RoboLaw: Towards a European framework for robotics x regulation // Robotics and Autonomous Systems. 2016. Vol. 86. Р. 78—85 ; Palmerini E. 5< The interplay between law and technology, or the RoboLaw project in context. Law u and Technology. The Challenge of Regulating Technological Developments. 2013.

CD

Р. 7-24. л

8 См.: Balkin J. M. The Three Laws of Robotics in the Age of Big Data // Ohio State к Law Journal. 2017. Vol. 78. Forthcoming. Yale Law School, Public Law Research Paper .

No. 592. URL: https://ssrn.com/abstract=2890965 ; Leenes R. E., Lucivero F. Laws on_

Robots, Laws by Robots, Laws in Robots : Regulating Robot Behaviour by Design // J39

Law, Innovation and Technology. 2014. Vol. 6, № 2. Р. 194-222. URL: https://ssrn.-

com/abstract=2546759 (дата обращения: 07.08.2018).

9 См., например: Ezrachi A., Stucke M. E. Artificial Intelligence & Collusion : When Computers Inhibit Competition // Oxford Legal Studies Research Paper. № 18. 2015. URL: http://dx.doi.org/10.2139/ssrn.2591874 (дата обращения: 07.08.2018).

10 См., например: Artificial Intelligence, Robotics, Privacy and Data Protection. Room document for the 38th International Conference of Data Protection and Privacy Commissioners. 2016.

11 См., например: Kalin H. Artificial Intelligence and the Copyright Dilemma (September 1, 2016) // IDEA: The IP Law Review. Vol. 57, № 3. 2017.

12 См.: Peng T. Global Survey of Autonomous Vehicle Regulations // AI Technology & Industry Review. 2018; Medium. URL: https://medium.com/syncedreview/ global-survey-of-autonomous-vehicle-regulations-6b8608f205f9 (дата обращения:

матизированных биржевых консультантов (robo-advisingУ3, банковской деятельности14, применения ИИ в корпоративных процедурах16. Следует отметить, что специализированное регулирование отдельных ИИ-технологий может быть неэффективно в связи с малой изученностью и высокой динамикой развития технологий. В этом случае важно учесть функциональные и институциональные изменения, определяющие применение технологий.

В рамках третьего вида исследований рассматривается определяющий потенциальные регуляторные стратегии вопрос о субъектности ИИ16, о взаимодействии человека и робототехники в процессе принятия решений17. В частности, речь идет об исследовании ИИ с позиций когнитивных наук, способности больших данных и ИИ влиять на решения человека в культурном, экономическом и политическом контексте18. Отдельный блок исследований, осуществляемых на стыке права и нейрона-уки19, направлен на выяснение возможностей ИИ и машинного обучения в юридической аргументации20.

Несмотря на наличие регуляторных инициатив, методологическая неопределенность формирует запрос на проведение междисциплинар-

07.08.2018). Autonomous Vehicles — Self-Driving Vehicles Enacted Legislation // National Conference of State Legislatures. 2018. URL: http://www.ncsl.org/research/ transportation/autonomous-vehicles-self-driving-vehicles-enacted-legislation.aspx (дата обращения: 07.08.2018).

13 См.: Miller R. M. Don't Let Your Robots Grow Up to Be Traders: Artificial Intelligence, Human Intelligence, and Asset-Market Bubbles // Journal of Economic Behavior and Organization, Forthcoming. URL: http://dx.doi.org/10.2139/ssrn.415220 (дата обращения: 07.08.2018).

14 См.: Wall L. D. Some Financial Regulatory Implications of Artificial Intelli-■^r gence // Federal Reserve Bank of Philadelphia. 2017.

о I 15 См.: Möslein F. Robots in the Boardroom: Artificial Intelligence and Corporate

Law (September 15, 2017). in: Woodrow Barfield and Ugo Pagallo (eds), Research oo Handbook on the Law of Artificial Intelligence, Edward Elgar, (2017/18, Forthcom-O ing). URL: http://dx.doi.org/10.2139/ssrn.3037403 (дата обращения: 07.08.2018).

16 О возможности приравнять правовой статус робота к правовому статусу

_человека (см.: Eidenmueller H. The Rise of Robots and the Law of Humans (March

140 26, 2017) // Oxford Legal Studies Research Paper. 2017. № 27. URL: http://dx.doi. -org/10.2139/ssrn.2941001 (дата обращения: 07.08.2018).

17 См.: Solum L. B. Legal Personhood for Artificial Intelligences // North Carolina Law Review. Vol. 70. Р. 1231, 1992. Illinois Public Law Research Paper № 09-13. URL: https://ssrn.com/abstract=1108671 (дата обращения: 07.08.2018).

18 См.: Sunstein C. Of Artificial Intelligence and Legal Reasoning (November 2001). University of Chicago Law School Roundtable, Vol. 8. 2001. URL: http://dx.doi. org/10.2139/ssrn.289789 (дата обращения: 07.08.2018).

19 См.: Kolber A. Will There Be a Neurolaw Revolution? // Indiana Law Journal. 2014. Vol. 89. Р. 807. URL: https://ssrn.com/abstract=2398071 (дата обращения: 07.08.2018).

20 См.: Feteris E. Harm, Law and Argumentation Theory: Theoretical Approaches to Legal Justification (June 21, 2013). URL: http://dx.doi.org/10.2139/ssrn.2283092 (дата обращения: 07.08.2018).

со

ных исследований, нацеленных на выявление оптимальных сценариев использования ИИ человеком.

Отраслевые исследования заострили внимание на правовых рисках, возникающих при использовании алгоритмов ИИ. В связи с этим далее И"1 в статье проводится краткий анализ отраслевых правовых последствий >

применения автоматизированных самообучающихся систем. го

о

Отраслевые риски применения алгоритмов ИИ н

к

Отраслевые правовые риски применения ИИ можно сгруппировать q на два типа в зависимости от этапа жизненного цикла ИИ: с

1. Этап обучения ИИ — правовые риски, возникающие в процессе сбо- Е ра, хранения и анализа данных системами искусственного интеллекта. Например, проблемы защиты персональных данных, используемых при обучении программ ИИ (оценка рисков ex ante). е

2. Этап эксплуатации ИИ — правовые риски, возникающие в процес- е се эксплуатации ИИ. Например, проблемы ответственности, возникаю- о щей в результате использования программ ИИ, вопрос принадлежности , исключительных прав на результаты, созданные ИИ (оценка рисков ex > post). >

Данная классификация является допустимой, так как в настоящее _ время обучение и эксплуатация алгоритма ИИ происходят раздельно: § сначала программа итеративно обучается на наборе данных (этап об- в учения), и лишь по завершению обучения разработчик программы запускает программу в эксплуатацию, например размещает программу в К Play Market или App Store для скачивания пользователями (этап экс- С плуатации). Иными словами, алгоритмы самообучаются до момента экс- В плуатации, а не во время эксплуатации21. Приведенная классификация методологически важна, так как позволяет проиллюстрировать риски, возникающие как на этапе обучения, так и на этапе эксплуатации программы ИИ.

Правовые риски, возникающие на этапе обучения алгоритма ИИ, рассмотрим на примере защиты персональных данных, запрета дискриминации и права интеллектуальной собственности.

Защита персональных данных. Ключевым риском в области защиты-

персональных данных на этапе обучения алгоритма ИИ является воз- 141 можность деанонимизации данных. Алгоритм ИИ обучается на больших массивах данных, которые могут включать деперсонифицированную информацию о людях (пол, возраст, заболевания, рабочий стаж и т. д.). Проблема состоит в том, что ИИ способен при совместном анализе двух и более анонимизированных баз деанонимизировать данные этих баз. Иными словами, алгоритм ИИ может при совместном анализе двух де-анонимизированных баз установить конкретного человека (соотнести

CD X X

CD

л л

CD

21 Применяемые сегодня алгоритмы не обучаются в ходе эксплуатации: разработчик сначала в ходе разработки обучает алгоритм на данных, после чего обученная версия алгоритма используется без каких-либо изменений до тех пор, пока не будет заменена заранее обученной новой версией алгоритма.

данные баз и определить лицо, пол, возраст и заболевания которого попали в эти базы и были анонимными).

Питер Флейшер, консультант по защите персональных данных корпорации Alphabet Inc., отметил, что новой проблемой, связанной с развитием методов машинного обучения, является возможность машин находить способы деанонимизации данных22.

Так, обучение алгоритма ИИ на двух базах данных, содержащих анонимные данные о пациентах, может привести к тому, что алгоритм ИИ сможет установить конкретного пациента. Однако обработка персональных данных допускается только с соблюдением определенных условий (в частности, необходимость получить согласие лица на обработку персональных данных, а также обязанность проинформировать лицо об операторе, который будет обрабатывать персональные данные, и целях сбора данных23). Таким образом, разработчик алгоритма ИИ потенциально может нарушить законодательство о персональных данных, если ИИ сможет деанонимизировать данные24.

В качестве решения можно рекомендовать не использовать одновременно разнородные обучающие выборки, которые содержат анонимизи-рованную информацию различного характера, а также проектировать алгоритмы ИИ таким образом, чтобы они не хранили длительное время собираемые данные, а накапливали только результаты их статистического анонимизированного анализа с целью минимизации юридических рисков, вызванных развитием цифровых технологий.

Запрет дискриминации. Другим риском, возникающим на этапе обучения ИИ, является проблема дискриминации: алгоритм ИИ в процессе обучения может обучиться дискриминировать, например по признакам пола, расы, национальности, вероисповедания25. Данная проблема не ^ эфемерна, а имеет многочисленные примеры на практике. Так, в аме-oi риканском суде при вынесении решений судьи использовали программу ИИ, которая оценивала вероятность рецидива. Было установлено, что '¡т данная программа дискриминировала людей с черным цветом кожи, сч оценивая вероятность рецидива таких людей в два раза выше, чем веро-

142 22 См.: Gardner S. Artificial Intelligence Poses Data Privacy Challenges //

-Bloomberg Law Privacy and Data Security. 2016. URL: https://www.bna.com/artifi-

cial-intelligence-poses-n57982079158/ (дата обращения: 07.08.2018).

23 Данные требования предусмотрены п. 1 ст. 5 Федерального закона от 27 июля 2006 г. № 152-ФЗ (в ред. от 29.07.2017) «О персональных данных». Аналогичные требования содержатся, например, в Art. 6(1)(a) General Data Protection Regulation.

24 Помимо случайной деанонимизации данных, также алгоритмы ИИ могут обучаться целенаправленной деанонимизации (см.: Ohm P. Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization // UCLA Law Review, Vol. 57, p. 1701, 2010).

25 Пункт 2 ст. 19 Конституции РФ запрещает дискриминацию и гарантирует равенство прав и свобод независимо от пола, расы, национальности, языка, происхождения и т. п.

ятность рецидива заключенных с другим цветом кожи26. Другими примерами могут быть алгоритмы ИИ, дискриминирующие людей по признакам пола и возраста, которые используются работодателями при приеме на работу, а банками при выдаче кредита27. Г71

Именно на этапе обучения алгоритма, а не эксплуатации возможно > снизить риск дискриминации. В частности, разработчики из Google Brain ^ Team предложили метод обучения алгоритма, основанный на запрете

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

дискриминации внутри защищенных классов28.

о

Право интеллектуальной собственности. Еще одной проблемой, возникающей на этапе обучения алгоритма, является вопрос о том, кто является правообладателем программы ИИ. Дело в том, что ИИ, как уже было отмечено выше, обучается на больших массивах данных. В ходе обучения происходит подстройка параметров алгоритма под обучающую выборку (т. е. под большой массив данных), и эти подобранные параметры и есть результат процесса обучения (ключевой компонент для успешной е

>

CD

X

эксплуатации ИИ). Поэтому возникает вопрос, является ли созданный о

го

алгоритм ИИ производным произведением от базы данных, на которой , он обучался. Ответ на данный вопрос не является очевидным. Если ал- . горитм ИИ считать производным произведением от базы данных, разра- . ботчику важно получать лицензию на базу данных, допускающую созда ние производных произведений.

На этапе эксплуатации правовые риски применения ИИ проявля- в ются в иных аспектах. Рассмотрим данные риски на примере таких пра вовых институтов, как ответственность за деликты, картельные сговоры с и право интеллектуальной собственности. с

Ответственность .за деликты. Причинение вреда жизни или здо- В ровью в процессе эксплуатации систем ИИ не является редкостью. В настоящее время дискуссии об ответственности за деликты, основанные ранее на сугубо теоретических примерах, основываются на фактах. Так, в 2018 г. беспилотная машина Uber сбила пешехода, переходившего улицу по пешеходному переходу29.

Широко обсуждаются как в доктрине, так и на уровне правительственных органов вопросы, кто является ответственным за причинение вреда жизни или здоровью при эксплуатации ИИ30, в частности можно

5 л

го

CD X I

143

26 URL: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing (дата обращения: 07.08.2018).

27 URL: https://www.theguardian.Gom/inequality/2017/aug/Q8/rise-of-the-racist-robots-how-ai-is-learning-all-our-worst-impulses (дата обращения: 07.08.2018).

28 См.: Hardt M., Price E., Srebro N. Equality of Opportunity in Supervised Learning // Advances in Neural Information Processing Systems. 2016. P. 3315—3323.

29 Uber settles with family of woman killed by self-driving car. URL: https://www. theguardian.com/technology/2018/mar/29/uber-settles-with-family-of-woman-killed-by-self-driving-car (дата обращения: 07.08.2018).

30 European Commission. Workshop on liability in the area of autonomous systems and advanced robots and Internet of Things systems. 2017. URL: https://ec.europa.eu/ digital-single-market/en/news/workshop-liability-area-autonomous-systems-and-ad-vanced-robots-and-internet-things-systems (дата обращения: 07.08.2018) ; Asaro

ли возложить ответственность на разработчика программы ИИ или производителя товара, работающего на основании ИИ? При каких условиях ответственность может быть возложена на пользователя системы ИИ?

Дискутируются вопросы, нужно ли установить исключения, когда разработчик отвечает за вред вне зависимости от вины? Не приведет ли такое объективное вменение и безусловное привлечение к ответственности разработчиков ИИ в случае программного сбоя к нейтрализации стимулирующих инвестиционных мер, принимаемых для поощрения разработок в сфере ИИ (например, налоговых льгот, субсидирования разработок в сфере ИИ)31.

Возникает также вопрос, требуется ли закрепить в законодательстве иммунитеты для пользователя программы, когда пользователь не отвечает за вред, причиненный вследствие того, что он полагался на действия программы ИИ (например, пользователь беспилотного автомобиля, полагающийся на действие автопилота, не должен нести ответственность за вред, причиненный беспилотным транспортным средством)? Таким образом, ключевым становится вопрос о том, насколько адекватно современная правовая система способна реагировать на правонарушения, являющиеся следствием эксплуатации систем ИИ.

В настоящее время универсального ответа на поставленные вопросы не существует. В деле причинения вреда беспилотной машиной Uber стороны заключили мировое соглашение. Однако очевидно, что развитие машинного обучения приоритизирует поиск ответов на данные вопросы.

Ответственность за картельные сговоры. Все чаще для достижения тайных антиконкурентных соглашений используются цифровые технологии. В частности, на более чем 2000 аукционах были выявлены аукционные роботы, ущерб от которых составил десятки миллиардов рублей32.

Действительно, программы часто используются для сговора на торгах: например, создаются аукционные роботы, которые запрограммиро-

OI

Z ваны на минимальное снижение от начальной цены контракта. Все чаще

œ используются также ценовые роботы, которые мониторят цену товара у

5 конкурентов и устанавливают аналогичную цену на свой товар33. В частом

-PM. Robots and responsibility from a legal perspective. Proceedings of the IEEE. 2007

144 Apr 14:20-4 ; Murphy R., Woods D. D. Beyond Asimov: the three laws of responsible

-robotics. IEEE Intelligent Systems. 2009 Jul;24(4) ; Hallevy G. The Criminal Liability

of Artificial Intelligence Entities-From Science Fiction to Legal Social Control // Akron Intellectual Property Journal. 2010.

31 См.: Petit N. Law and Regulation of Artificial Intelligence and Robots — Conceptual Framework and Normative Implications (March 9, 2017). URL: http://dx.doi. org/10.2139/ssrn.2931339 (дата обращения: 07.08.2018).

32 Андрей Цариковский: ФАС скорректирует свою нормативную базу и методы работы. URL: http://emc.fas.gov.ru/press-tsentr/publikatsii/1857-andrej-tsarikov-skij-fas-skorrektiruet-svoyu-normativnuyu-bazu-i-metody-raboty (дата обращения: 07.08.2018).

33 См.: Артемьев И. Ю. Антимонопольное регулирование в цифровую эпоху. Презентация. URL: https://fas.gov.ru/press-center/news/detail.html?id=51715 (дата обращения: 07.08.2018).

ности, ФАС РФ признала LG виновной в координации экономической деятельности реселлеров смартфонов LG, которая осуществлялась в том числе за счет использования ценового алгоритма34.

Однако «цифровые картели» — это явление совершенно нового поряд- F1

ка35. Ариэль Эзрачи, профессор Оксфорда и специалист в антимонополь- >

ном праве, отмечает, что цифровые картели — это картели, которые стали в

следствием использования программ, основанных на ИИ36. H

Ключевой особенностью ИИ является то, что ИИ действует самосто- к

ятельно по независимому от разработчика и пользователя сценарию. В н

аспекте цифровых картелей, основанных на использовании ИИ, это оз- ,

начает, что, так как результат программы ИИ независим от разработчи- m

ков и пользователей программы, заранее сложно предсказать, приведет >

ли использование такой программы к сговору или же будет способство- ^

вать эффективному ведению бизнеса в рамках закона. M

Причем ключевой проблемой для антимонопольного права примени- н тельно к цифровым картелям является то, что цифровые

вают возможность сговора без участия человека, в автоматическом ре- -Q

жиме. Например, два хозяйствующих субъекта начинают использовать ~1

основанную на ИИ программу с целью оптимизации ценообразования >

(например, с целью продавать машины по наиболее эффективной цене). ю

Однако программа ИИ в качестве самой оптимальной стратегии выби- я

рает стратегию поддержания цены на уровне цены конкурентов. Итогом >

является сговор в автоматическом режиме, произошедший без участия ^

самих хозяйствующих субъектов. Я

Ключевой вопрос, связанный с цифровыми картелями, состоит в по- с

иске ответа на вопрос, кто является субъектом ответственности за цифро- S

вые картели, т. е. за сговор в автоматическом режиме. Можно ли считать н

ответственными за сговор разработчиков программы или хозяйствующих й

субъектов, которые ее используют. Можно ли вообще говорить об ответ- и

ственности данных лиц, так как разработчики и субъекты, использую- е

щие подобные программы, могут вовсе не иметь намерения вступить в л

сговор. Поэтому другим сложным вопросом является вопрос о доказыва- т нии намерения лиц вступить в сговор37.

--145

34 URL: https://fas.gov.ru/publications/14676 (дата обращения: 07.08.2018).

35 Algorithmic Collusion: Problems and Counter-Measures — Note by A. Ezrachi & M.E. Stucke. Roundtable on Algorithms and Collusion OECD 2017.

36 См.: Ezrachi A., Stucke M. Two Artificial Neural Networks Meet in an Online Hub and Change the Future (Of Competition, Market Dynamics and Society) (July 1, 2017). Oxford Legal Studies Research Paper No. 24/2017.

37 Антимонопольное регулирование в цифровую эпоху. Как защищать конкуренцию в условиях глобализации и четвертой промышленной революции / под общ. ред. А. Ю. Цариковского, А. Ю. Иванова, Е. А. Войниканис. М., 2018. С. 164. См. также Algorithms and Collusion: Competition Policy in the Digital Age. OECD; Algorithmic Collusion: Problems and Counter-Measures — Note by A. Ezrachi & M. E. Stucke. Roundtable on Algorithms and Collusion OECD 2017 ; Capobianco A., Gonzaga P. Algorithms and competition: Friends or foes? (2017).

Универсального ответа на вопрос о том, кто является ответственным за цифровую картель, возникшую в автоматическом режиме без участия человека, в настоящее время не существует. Вместе с тем совершенно оправданным представляется мнение председателя австралийской антимонопольной комиссии Рода Симсона о том, что от ответственности нельзя уйти, заявив, что «это сделал не я, а мой робот»38.

Цифровые картели, основанные на ИИ, пока еще во многом составляют удел будущего. Вместе с тем ценовые и аукционные роботы активно используются уже сейчас. В связи с этим представляется своевременным и важным разработанный ФАС России пятый антимонопольный пакет, вводящий в правовое поле понятие ценового алгоритма39.

Право интеллектуальной собственности. Если в области антимонопольного права ИИ рассматривается как новый инструмент, который потенциально может способствовать сговору хозяйствующих субъектов и монополизации рынка, то в области права интеллектуальной собственности ИИ рассматривается как новый источник творчества, источник, способный продуцировать новые результаты.

В течение долгого времени программы были лишь инструментом, помогающим автору создать произведение. Однако с развитием машинного обучения ИИ научился продуцировать самые разнообразные результаты: изображения, видео, музыку, дизайн40. Так как результат, полученный ИИ, может быть потенциально охраноспособным, в доктрине обсуждается вопрос о том, за кем следует признать права на результаты, созданные ИИ без вмешательства человека41.

В качестве решений предложены следующие варианты:

1. Признать в качестве правообладателя:

а) автора-разработчика или иного правообладателя программы; ^ b) саму программу, основанную на ИИ; о: с) пользователя.

2. Считать результаты, созданные программой самостоятельно, без ^В вмешательства человека, неохраноспособными.

сч Выбор той или иной модели регулирования прав на результаты, созданные ИИ, должен учитывать как юридико-технические, так и по-

146 -;—

38 Rod Sims. The ACCC's approach to colluding robots. URL: https://www.accc. gov.au/speech/the-accc%E2%80%99s-approach-to-colluding-robots (дата обращения: 07.08.2018).

39 См. законопроект «О внесении изменений в Федеральный закон «О защите конкуренции» и иные законодательные акты Российской Федерации». URL: https://regulation.gov.ru/projects#npa=79428 (дата обращения: 07.08.2018).

40 См.: Guadamuz A. Artificial intelligence and copyright // WIPO Magazine. № 5. 2017.

41 См., например: Shlomit Y., LiuX. When Artificial Intelligence Systems Produce Inventions: The 3A Era and an Alternative Model for Patent Law (March 1, 2017) // Cardozo Law Review, Forthcoming. URL: http://dx.doi.org/10.2139/ssrn.2931828 (дата обращения: 07.08.2018) ; Kalin H. Artificial Intelligence and the Copyright Dilemma (September 1, 2016) // IDEA: The IP Law Review, Vol. 57, № 3, 2017.

литико-экономические аспекты. В частности, пропоненты признания исключительных прав за ИИ предлагают модернизировать ключевую дефиницию права интеллектуальной собственности, распространив понятие «автор» не только на людей, но и на машины42. Признание ИИ ав- Н тором созданного им результата позволит наделить ИИ и исключитель- > ными правами на созданный результат. го

Однако оппоненты подобного подхода считают, что включение ма- Н

шин в число авторов будет иметь негативный эффект, так как внесет еще к

больше неопределенности в процесс правоприменения и породит больше н

вопросов, чем ответов43. Более того, даже если наделить машины права- ,

ми на созданные ими объекты, совершенно не ясно, каким образом ма- m шины будут распоряжаться этими правами.

В доктрине ведутся дискуссии не только об изменении концепции ав- ^

торского права под влиянием ИИ, но и патентного права44. Высказывают- м

ся мнения от умеренных (точечное реформирование патентного права)45, Н

до более радикальных, основанных на кардинальном реформировании §

системы патентного права или отказе от этой системы для изобретений, Н

созданных ИИ46. m

Таким образом, способность алгоритма ИИ создавать результаты, ко- >

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

торые не охватывались замыслом разработчика, ставит общеправовые и ю

отраслевые вызовы. Данные вызовы были продемонстрированы на при- я

мере институтов публичного и частного права (таких как ответственность §

за цифровые картели, защита персональных данных, право интеллекту- ^

альной собственности и др.). Я

Рассмотренные риски применения «слабого» ИИ в настоящее время с

не ведут к революции в мире права47. Однако это не значит, что «слабый» ш

ИИ не требует вовсе никаких изменений правового ландшафта. Напро- н

тив, с нашей точки зрения, в настоящее время необходима филигранная, й

аккуратная настройка правовой системы. В частности, такую настройку и

демонстрирует ФАС России, разработавший пятый антимонопольный ш

л

-^- • • ь

42 См.: Abbott R. I Think, Therefore I Invent: Creative Computers and the Future к of Patent Law // Boston College Law Review, Vol. 57, № 4, 2016 ; Colin R. Davis. An >

Evolutionary Step in Intellectual Property Rights — Artificial Intelligence and Intel-_

lectual Property // Computer Law and Security Review. 2011. 147

43 См.: Kalin H. Artificial Intelligence and the Copyright Dilemma // Op. cit.

44 См.: Shlomit Y., Liu X. When Artificial Intelligence Systems Produce Inventions // Op. cit. ; Abbott R. I Think, Therefore I Invent: Creative Computers and the Future of Patent Law // Op. cit.

45 См.: Abramowicz M. Orphan Business Models: Toward a New Form of Intellectual Property, 124 // Harvard Law Review. 2011.

46 См.: Shlomit Y., Liu X. When Artificial Intelligence Systems Produce Inventions // Op. cit.

47 Еще раз обратим внимание на то, что на данном этапе развития науки и техники существует лишь «слабый» ИИ (т. е. ИИ, который не обладает сознанием), сутью которого является обобщающая способность лежащего в их основе алгоритма, благодаря чему такой ИИ может создавать результаты, которые не охватывались замыслом разработчика.

пакет, учитывающий, в числе прочего, особенности влияния на конкуренцию ценовых роботов (программ, которые могут быть основаны на алгоритмах ИИ).

Быстрое развитие ИИ позволяет сделать вывод об отсутствии единообразных подходов к оценке рисков, связанных с использованием ИИ. Таким образом, авторы приходят к выводу о необходимости формирования междисциплинарного подхода к изучению экономических, правовых, политических и социальных аспектов применения ИИ.

Национальный исследовательский университет «Высшая школа экономики»

Войниканис Е. А., доктор юридических наук, ведущий научный сотрудник Института права и развития «ВШЭ- Сколково»

E-mail: evoinikanis@hse.ru Тел.: 8-495-772-95-90

Семенова Е. В., стажер-исследователь Института права и развития «ВШЭ-Сколково», аспирант Научно-методического центра кафедры ЮНЕСКО по авторскому праву и другим правам интеллектуальной собственности E-mail: evsemenova@hse.ru Тел.: 8-495-772-95-90

Тюляев Г. С., стажер-исследователь Института права и развития «ВШЭ-Сколково», аспирант кафедры теории и истории права E-mail: gtyulyaev@hse.ru Тел.: 8-495-772-95-90

National Research University Higher School of Economics

Voinikanis E. A., Doctor of Legal Sciences, Leading Research Fellow at HSE -Skolkovo Institute for Law and Development

E-mail: evoinikanis@hse.ru Tel.: 8-495-772-95-90

Semenova E. V., Research Assistant at HSE - Skolkovo Institute for Law and Development, Post-graduate Student at Scientific and Methodological Center «UNESCO Chair on Copyright and other Intellectual Property Rights»

E-mail: evsemenova@hse.ru Tel.: 8-495-772-95-90

Tyulyaev G. S., Research Assistant at HSE - Skolkovo Institute for Law and Development, Post-graduate Student at HSE of еру Theory and History of Law Department

E-mail: gtyulyaev@hse.ru Tel.: 8-495-772-95-90

148

i Надоели баннеры? Вы всегда можете отключить рекламу.