Научная статья на тему 'ЭТИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РАЗВИТИИ ПРАВОВЫХ СИСТЕМ СОВРЕМЕННОСТИ'

ЭТИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РАЗВИТИИ ПРАВОВЫХ СИСТЕМ СОВРЕМЕННОСТИ Текст научной статьи по специальности «Право»

CC BY
689
139
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ПРАВОВАЯ СИСТЕМА / ЭТИКА / СРАВНИТЕЛЬНОЕ ПРАВОВЕДЕНИЕ / ЮРИДИЧЕСКАЯ ПРАКТИКА / ПРАВОВАЯ ПОЛИТИКА

Аннотация научной статьи по праву, автор научной работы — Скурко Е.В.

В обзоре рассматриваются этические аспекты применения средств искусственных интеллектуальных систем и их правового регулирования как на международно-правовом уровне, так и в отдельных странах и юрисдикциях. Анализируются ключевые положения Генерального регламента ЕС по защите данных (General Data Protection Regulation, GDRP) 2018 г. и других документов ЕС, в частности резолюции Европейского парламента «Гражданско-правовые нормы о робототехнике» (Resolution on Civil Law Rules on Robotics) 2017 г. и коммюнике Еврокомиссии «О искусственном интеллекте в Европе» (Communication on Artificial Intelligence for Europe) 2018 г., а также вопросы правового регулирования этики ИИ в Китае, США и других странах.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ETHICS OF ARTIFICIAL INTELLIGENCE IN THE DEVELOPMENT OF MODERN LEGAL SYSTEMS

The review examines the ethical aspects of the use of artificial intelligence systems and their legal regulation both at the international legal level and in individual countries and jurisdictions. The key provisions of the EU General data Protection Regulation (GDRP) 2018 and other EU documents are analyzed, in particular, the resolution on civil Law Rules on Robotics 2017 of the European Parliament and the European Commission's communication on Artificial Intelligence for Europe 2018, as well as issues of legal regulation of AI ethics in China, the United States, and other countries.

Текст научной работы на тему «ЭТИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РАЗВИТИИ ПРАВОВЫХ СИСТЕМ СОВРЕМЕННОСТИ»

УДК 340

DOI: 10.31249/rgpravo/2021.01.08

СКУРКО Е В.1 ЭТИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РАЗВИТИИ ПРАВОВЫХ СИСТЕМ СОВРЕМЕННОСТИ. (Обзор).

Аннотация. В обзоре рассматриваются этические аспекты применения средств искусственных интеллектуальных систем и их правового регулирования как на международно-правовом уровне, так и в отдельных странах и юрисдикциях. Анализируются ключевые положения Генерального регламента ЕС по защите данных (General Data Protection Regulation, GDRP) 2018 г. и других документов ЕС, в частности резолюции Европейского парламента «Гражданско-правовые нормы о робототехнике» (Resolution on Civil Law Rules on Robotics) 2017 г. и коммюнике Еврокомиссии «О искусственном интеллекте в Европе» (Communication on Artificial Intelligence for Europe) 2018 г., а также вопросы правового регулирования этики ИИ в Китае, США и других странах.

Ключевые слова: искусственный интеллект; правовая система; этика; сравнительное правоведение; юридическая практика, правовая политика.

SKURKO E.V. Ethics of artificial intelligence in the development of modern legal systems. (Review).

Abstract. The review examines the ethical aspects of the use of artificial intelligence systems and their legal regulation both at the international legal level and in individual countries and jurisdictions. The key provisions of the EU General data Protection Regulation (GDRP) 2018 and other EU documents are analyzed, in particular, the resolution

1 Е.В. Скурко, старший научный сотрудник Отдела правоведения ИНИОН РАН, канд. юрид. наук.

on civil Law Rules on Robotics 2017 of the European Parliament and the European Commission's communication on Artificial Intelligence for Europe 2018, as well as issues of legal regulation of AI ethics in China, the United States, and other countries.

Keywords: artificial intelligence; legal system; ethics; comparative law; legal practice, legal policy.

В последние годы все более остро встает вопрос осмысления этических аспектов применения средств искусственных интеллектуальных систем и их правового регулирования. Ряд публикаций правоведов, посвященных указанной проблематике, рассматривается в данном обзоре.

Наиболее широкий охват проблематики этики использования ИИ в правовой сфере вполне закономерно рассматривается при изучении вопроса в сравнительно-правовом контексте. Так, коллектив исследователей под руководством Анжелы Дейли на базе факультета права Китайского университета Гонконга провел анализ правовой политики различных государств, крупных частных компаний в США, Китае, ЕС, Индии и ряде других стран в отношении этики использования ИИ, введения этических стандартов, которые должны соблюдаться в процессе машинного обучения [1, p. 8]. Речь также идет об объеме и формах правового регулирования, проблемах внедрения ИИ в правовую сферу, правовую систему и юридическую практику.

Искусственный интеллект используется в разных сферах жизнедеятельности - расследование преступлений и юридическая деятельность в целом, расчет рисков ведения бизнеса, автоматическая идентификация, например, системами распознавания лиц и проч. ИИ находит все более широкое применение в различных сферах общественной жизни - страховании, образовании, трудоустройстве, маркетинге, безопасности, управлении и проч. [Ibid.].

Изучая понятие «этика» в связи с ИИ, авторский коллектив под руководством А. Дейли пришел к выводу, что в части, касающейся абстрактных моральных принципов, этика к ИИ неприменима. Напротив, уместна прикладная этика, включающая в себя этику технологий, опирающуюся на этику ИИ. Иными словами, речь в данном случае идет о саморефлексии компьютерных и инженерных наук в той части, в которой они вовлечены в развитие

ИИ либо машинного обучения. Соответственно, основные требования этики ИИ должны представлять, по мнению автора, те моральные цели и допустимые для их достижения средства, которым будут служить разного рода системы и технологии ИИ [1, р. 9].

Вышеизложенное мнение А. Дейли об абстрактных моральных принципах и их действии в случае использования ИИ перекликается с позицией Джошуа П. Дэвиса, профессора и директора Центра права и этики Школы права Университета Сан-Франциско. «В нашем обыденном, - пишет Дэвис, - укоренена мысль, что компьютеры все могут делать лучше, чем мы сами, и быстрее, чем мы ожидали бы. Нам говорят, что скоро они могут стать нашими друзьями и принимать решения о жизни и смерти, управлять нашими машинами, толковать законы и делать прогнозы в правовой сфере. Однако намного сложнее воспринимать компьютеры выносящими субстантивные моральные суждения... Последним бастионом на пути переуступки юридического толкования компьютерам, узурпирующим ответственность и правомочия адвокатов, граждан и даже судей, должно стать признание роли морального суждения, которое является собственно нашим правом» [Ibid., р. 165].

Почему нельзя доверить компьютерам юридическое толкование? Почему не позволить праву функционировать, исключив роль человеческого разума? По мнению Дэвиса, есть причина этому: юридическое толкование время от времени может потребовать морального выбора, опоры на философскую «конечную цель» - и в таком случае путем юридического толкования выносится субстантивное моральное суждение. Компьютеры не способны к моральному выбору, даже если вскоре они обойдут человека в деле достижении таких моральных «конечных целей» [Ibid., р. 185].

На сегодняшний день компьютерная техника в рамках предустановленных разработчиками целей развивается по пути описания либо достижения целей, поставленных перед ней человеком, однако самостоятельного установления целей, к которым следует стремиться человеку, она не формулирует.

Вместе с тем нельзя отрицать, что технологии могут помочь нам продвинуться в нашем собственном понимании юриспруденции и правосудия. Например, в качестве средства поддержки принятия решений компьютерная техника может обогатить нашу соб-

ственную интуицию. «На примере компьютерной техники мы наконец сможем ответить себе на вопрос, как различить правовой позитивизм и естественное право: путем понимания роли морали в толковании закона» [2, p. 219]. В этом смысле технологическое развитие приносит нам пользу, полагает Дж.П. Дэвис.

Важный аспект этики ИИ - уровень ее нормативности. В данном вопросе этическая проблематика весьма варьируется -от неприемлемости каких-то аспектов до желательности - в определенных формах - иных. В целом строгой нормативности в сугубо этических вопросах крайне трудно достичь. Поэтому этика ИИ, по мнению исследователей, должна удовлетворять двум характеристикам: во-первых, она должна оставаться слабо нормативной и не требовать на универсальном уровне определять, что правильно и допустимо, а что - нет, во-вторых, этика ИИ должна быть максимально приближена к объекту, т.е. к своему конкретному оцениваемому предмету [1, p. 9].

В настоящее время сложились различные подходы к правовому регулированию этики ИИ как на международно-правовом уровне, так и в отдельных странах и юрисдикциях. Среди них авторский коллектив под руководством А. Дейли выделяет следующие:

1) на международном уровне наиболее полное руководство по этике ИИ на сегодня разработано Организацией экономического сотрудничества и развития (ОЭСР) и представлено Принципами искусственного интеллекта (OECD Principles on AI (2019);

2) в учреждениях системы ООН активно проходят исследования и мероприятия по вопросам этики ИИ, в том числе вырабатываются различного рода руководящие принципы по проблематике в рамках таких организаций, как ЮНЕСКО, ПРООН и др.;

3) активная работа проводится в Совете Европы и других международных организациях;

4) определенные шаги предпринимаются и со стороны инженерного сообщества - разработчиков ИИ, например, Институт инженеров электротехники и электроники (Institute of Electrical and Electronic Engineers - IEEE), международная некоммерческая ассоциация специалистов в области техники, мировой лидер в области разработки стандартов по радиоэлектронике, электротехнике и аппаратному обеспечению вычислительных систем и сетей, вы-

ступил с Глобальной инициативой по этике автономных и интеллектуальных систем (Global Initiative on Ethics of Autonomous and Intelligent Systems) [1, p. 12].

В плане развития правового регулирования в сфере этики ИИ лидером назвают Европейский союз. Центральным актом, связанным в том числе с проблемой управления и этики ИИ, является Общий / Генеральный регламент по защите данных (General Data Protection Regulation, EU, 2016/679, (GDRP)), вступивший в силу в 2018 г. Сфера действия данного акта, при определенных обстоятельствах, расширяется на организации за пределами Европейского союза [Ibid., p. 13].

Наибольший интерес в указанном документе представляет ст. 21, предусматривающая право на возражение, и ст. 22 об автоматизированном индивидуальном принятии решения. Несмотря на то что вокруг указанных статей ведется широкая дискуссия, в особенности о правоположениях об алгоритмизации принятия решений, а также насколько предлагаемые ИИ решения соответствуют ожиданиям, с ними связанными, нельзя отказать ЕС в целом в прогрессивности развиваемых им подходов [Ibid.].

Среди других, представляющих большой научно-практический интерес документов ЕС можно назвать резолюцию Европейского парламента «Гражданско-правовые нормы о робототехнике» (Resolution on Civil Law Rules on Robotics) 2017 г. Европейская комиссия формулирует в ней задачи и определяет основные направления, по которым следует реализовывать правовую политику ЕС, в том числе в отношении использования ИИ в социально-правовой сфере. По мнению европейских парламентариев, в рамках ЕС должны быть разработаны общие этические принципы, которые надлежит соблюдать в ходе роботизации и автоматизации социально значимых сфер общественной жизни, в особенности медицины и биоэтики. Этические кодексы рекомендовано предложить для инженеров, работающих в сфере робототехники, а также следовать им при проведении научных исследований, лицензировании в сфере дизайна и др. [Ibid.].

В 2018 г. Европейская комиссия выпустила коммюнике «Об искусственном интеллекте в Европе» (Communication on Artificial Intelligence for Europe), в котором представлена «европейская инициатива по искусственному интеллекту», предусматривающая три

основные цели: 1) укрепление технологического и промышленного потенциала ЕС для соответствия требованиям технологий ИИ; 2) подготовка к социально-экономическим изменениям, возникающим вследствие использования ИИ - с фокусом на труд, социальную защиту и образование; 3) гарантии соответствующих этических и правовых мер, опирающихся на европейские ценности и Хартию основных прав ЕС и др. [1, p. 13].

Ведущее место в государственном регулировании ИИ и его этическом содержании занимает также КНР. Так, к 2017 г. КНР превзошла мировых лидеров по инновациям в сфере ИИ; к 2025 г. поставлена задача разработать новые законодательные акты и кодексы этики ИИ, участии КНР в разработке международных стандартов, международном сотрудничестве и законодательства в сфере ИИ [Ibid., p. 21].

Большой вклад в эти процессы вносит научное сообщество Китая. В 2019 г. научным сообществом были разработаны и предложены Пекинские принципы ИИ (Beijing AI Principles), в центре которых стоит проблема развития ИИ, служения его человечеству и природе: снижение рисков безработицы посредством исследования форм координации ИИ и человека; интегрирование политики в сфере ИИ с хозяйственно-экономическим развитием в целом; непрерывное прогнозирование перспектив ИИ и рисков, связанных с их использованием и появлением «глобального ИИ» (Artificial General Intelligence - AGI) и «суперинтеллекта» (Superintelligence) [Ibid.].

В целом из числа исследованных стран и регионов наиболее развиты подходы в оценке вопросов этики ИИ, как уже было отмечено, в ЕС и КНР. Средний уровень развития регулирования вопросов этики ИИ исследователи отдают США. Наименьший -Индии [Ibid., p. 29].

В подходах к этике ИИ исследователи обращают внимание на формирование общих принципов для различных юрисдикций, как то: принципы прозрачности, обоснованности, ответственности и др. [Ibid., p. 30].

Отмечается, что документы, принимаемые по вопросам этики ИИ, как правило, не имеет силы закона [Ibid., p. 31]. Вместе с тем ученые, а также юридическое сообщество США сосредоточивают свои научные интересы на проблеме использования техноло-

гий ИИ в сфере права и юридической практике непосредственно. Так, Хэрри Серден, доцент Школы права Университета Колорадо, исходит из того, что использование инструментария ИИ в сфере права ставит целый комплекс фундаментальных вопросов этики: «По мере того как ИИ становится все более интегрированным в правовую систему, общество начинает сомневаться в том, что базовые правовые ценности остаются надежно защищенными» [4, р. 719].

В ряду наиболее существенных правовых ценностей (для большинства демократий), по мнению Х. Серден, такие как: равенство перед законом; публичность; непредвзятость и независимость в разрешении споров; обоснованность юридических решений; зависимость правовых решений от норм и фактов, а не от социального статуса и властных полномочий; возможность обжалования решений и общественного обсуждения проектов законов; прозрачность материального и процессуального права и др.

Использование ИИ в правовой сфере может сократить либо расширить эти и другие правовые ценности в сравнении с тем, как это сложилось исторически в той или иной правовой системе, а также изменить баланс их соотношения между собой. Не случайно значительное внимание современных исследователей привлекает вопрос: каким образом универсальные правовые ценности могут ненамеренно (или намеренно) быть преобразованными по мере расширения использования ИИ в правовых системах [Ibid., р. 720].

С точки зрения Х. Серден, этические вопросы, возникающие в связи с использованием ИИ, определяются рядом направлений, в том числе критическим. Во-первых, есть существенные опасения о том, что использование ИИ в правовой сфере приведет к негативным последствиям с точки зрения справедливости системы в целом. Однако есть и другая точка зрения - о способности ИИ усилить реализацию желаемых для общественности правовых ценностей, как то, например, снизить предвзятость, сделать систему более доступной, повысить ее эффективность и т.д.

Во-вторых, множество этических вопросов в праве, связанных с внедрением ИИ, в действительности не являются чем-то новыми, они уже возникали раньше в тех или иных формах в правовых структурах. Зачем же тогда, задает вопрос Х. Серден, увязывать их с ИИ? Дело в том, что использование технологий ИИ

в правовой сфере переводит определенные латентные проблемы, существовавшие в ней, в явные. Например, ряд судей являются носителями определенных предубеждений, и лишь применение ИИ в анализе соответствующей правовой информации делает такую предубежденность очевидной и др.

В-третьих, важно не преувеличивать в принципе роль использования ИИ в сфере права, в том числе по сравнению с иными социальными факторами и влияниями. Например, глубинные социальные процессы или действия лоббистов, традиции и политическая власть способны намного существеннее влиять на фундаментальные ценности права, нежели использование технологий искусственного интеллекта.

Х. Серден разделяет пользователей ИИ в правовой сфере на три группы лиц: «администраторы права» (administrators of law), например, судьи, законодатели, полиция; «практики права» (practitioners of law) - адвокаты и юрисконсульты; «пользователи права» (users of law) - рядовые граждане или представители бизнеса и др. Каждая из обозначенных групп играет различную роль в правовой системе и каждая использует ИИ в правовой сфере различным образом.

«Администраторы права», в особенности в сравнении с другими группами, используют ИИ «поливалентно», обладают наибольшим потенциалом влияния на социальную сбалансированность правовой сферы. Ключевая этическая проблема здесь -определение ответственности официальных лиц за принятие решений в связи с использованием ИИ. Так, когда в правовой системе появляются юридически значимые решения, общественность знает, кто - лично или коллективно - такое решение принимал. В случае внедрения технологий ИИ может произойти искусное перенесение ответственности, например со ссылкой на автоматически рекомендованные проекты решений в системах ИИ. Таким образом, ответственность официальных лиц может переноситься, первоначально «списываясь» на правовую систему в целом, а затем, например, на компании-разработчики внедренных в правовую сферу ИИ-технологий и т.п. Именно в этом аспекте Х. Серден усматривает ключевую этическую проблему использования ИИ в правовой сфере применительно к группе «администраторов права».

«Практики права» - практикующие юристы - испытывают тревогу в связи с внедрением ИИ в правовую сферу по иным причинам и в иных вопросах. Так, традиционно юристы привлекаются для оказания помощи в разрешении широкого круга вопросов правового характера физических и юридических лиц, и сегодня многие из них начинают прибегать к ИИ для ряда задач, которыми прежде занимались лично, как то: автоматизированный анализ документов, автоматическое расследование и прогнозирование исхода дела и проч.

По мнению Х. Серден, юристы (и их клиенты), у которых имеется доступ к современным инструментам, основывающимся на технологиях ИИ, при анализе правовой документации и прогнозировании исхода дела получают колоссальные преимущества по сравнению с юристами (и их клиентами), которые такими возможностями не располагают. Такая ситуация, по мнению автора, может приводить к значительным трансформациям, в особенности в перспективе, в связи с доступностью правосудия и отношения к этому вопросу со стороны общественности.

В целом же основной этический вызов, который бросает внедрение ИИ в правовую сферу, - это необходимость установить, каким образом использование ИИ может трансформировать базовые ценности права, и убедиться, что эти ценности не потерпят урона в связи с технологическими трансформациями, а возможно, и будут лишь укрепляться средствами ИИ [4, р. 736].

Дрю Симшо, доцент Правового центра Университета Джорджтауна, полагает, что, ввиду комплексности проблематики этики использования ИИ в сфере права, в особенности на уровне «практики права», необходимо разработать общие правила проведения юридической консультации с использованием ИИ. Это может быть, например, «моральный кодекс» [3].

Применение ИИ существенно укрепляет принцип доступности правосудия. Так, например, в США сегодня очевиден кризис доступности правосудия: «Слишком много людей лишены доступа к юридическим услугам, в которых нуждаются, как правило постольку, поскольку не могут себе этого позволить» [3, р. 179]. И хотя ИИ не может полностью восполнить такого рода системные недостатки, существенный прогресс в указанном направлении вполне может быть достигнут.

Вопрос о том, кем и каким образом услуги на основе ИИ-технологий в правовой сфере должны подлежать регулированию, -крайне важный, однако он не сможет получить полноценного ответа до тех пор, пока влияние ИИ в юридической профессии и сфере права в целом не будет осознано в достаточной степени [3, р. 182]. Это не означает, однако, что шаги к осмыслению отдельных правил и ограничений при использовании ИИ в правовой сфере не могут быть сделаны уже сегодня.

Например, это относится к проблеме «датафикации» (datafication) - сбора и систематизации первичных данных, которые, в особенности в сфере права, с одной стороны, содержат зачастую «чувствительную» для затронутых лиц информацию и не могут свободно распространяться или раскрываться третьим лицам. С другой стороны, именно такие «чувствительные» сведения в итоге могут становиться тем самым основанием и принципиальной информацией для вынесения по тому или иному делу решения: известно, что коммуникации между юристами и их клиентами, включая обсуждение «чувствительных» для клиентов вопросов и секретов, нередко составляют критически важный компонент эффективной и этичной правовой помощи [Ibid., р. 188].

Еще одно справедливое опасение, связанное с использованием ИИ в правовой сфере, состоит в том, что его широкое применение в юридической практике, доступность «робоюриста» лишит работы многих практикующих юристов. В связи с этим Д. Симшо предлагает продумать подходы, гарантирующие правило: интеграция ИИ в юридическую деятельность происходит ответственно и этично для всех известных форм юридической помощи. В этом аспекте юридическое сообщество должно развивать внутренний диалог, разработать правила и руководства, адекватно реагирующие на те вызовы, которые несет с собой использование ИИ в юридической практике. В частности, должны быть определены сферы, например уголовные дела, по которым может быть вынесен приговор и определена мера наказания, либо чувствительные вопросы по депортации и т.п., где профессиональное сообщество однозначно и безоговорочно приняло бы решение о недопустимости применения ИИ вообще.

Было бы правильно, подчеркивает Д. Симшо, привлечь широкую общественность, представителей властей к дискуссии по

проблемам правового регулирования использования ИИ в юридической практике [3, p. 210].

Список литературы

1. Artificial intelligence, governance and ethics: global perspectives / Daly A., Ha-gendorffT., Li H., Mann M., Marda V., Wagner B., Wang W., Witteborn S. -Hong Kong, 2019. - 42 р. - Mode of access : https://papers.ssrn.com/sol3/ papers.cfm?abstract_id=3414805 (дата обращения: 17.10.2020).

2. Davis J.P. Law without mind: AI, ethics, and jurisprudence // California western law review. - San Diego, 2019. - Vol. 5, N 1 - P. 165-219.

3. Simshaw D. Ethical issues in robo-lawyering: The need for guidance on developing and using artificial intelligence in the practice of law // Hastings law journal. - San Francisco, 2018. - Vol. 7, N 1. - P. 173-214.

4. Surden H. Ethics of AI in law: Basic questions // The Oxford handbook of ethics of AI / ed.by Marcus D. Dubber, Frank Pasquale, Sunit Das. - Oxford, 2020. -P. 719-736.

i Надоели баннеры? Вы всегда можете отключить рекламу.