Научная статья на тему 'ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРАВА ЧЕЛОВЕКА: СТРАТЕГИЯ СОВЕТА ЕВРОПЫ'

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРАВА ЧЕЛОВЕКА: СТРАТЕГИЯ СОВЕТА ЕВРОПЫ Текст научной статьи по специальности «Право»

CC BY
355
64
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СОВЕТ ЕВРОПЫ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ПРАВА ЧЕЛОВЕКА / МЕЖДУНАРОДНОЕ ПРАВО

Аннотация научной статьи по праву, автор научной работы — Арзуманян Анна Борисовна

Совет Европы - важнейшая международная организация, которая всегда позиционировала себя как сфокусированная на защите и поощрении прав человека, демократии и верховенстве права. Поэтому неудивительно, что с появлением и развитием новейших информационных технологий, интеллектуальных систем и «умных» роботов Совет Европы занял вполне определенную гуманистическую позицию, суть которой сводится к тому, чтобы не допустить ущемление прав человека, демократических принципов, верховенства права при создании и использовании технологий искусственного интеллекта (ИИ). Настоящая статья посвящена обзору программных документов Совета Европы по вопросам ИИ, принятых в последние годы.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ARTIFICIAL INTELLIGENCE AND HUMAN RIGHTS: COUNCIL OF EUROPE’S STRATEGY

The Council of Europe is a key international organisation which has always positioned itself as an entity focused on protection and promotion of human rights, democracy and the rule of law. Therefore, it is not surprising that the advent and development of the latest information technologies, intelligent systems and «smart» robots made the Council of Europe take a very definite humanistic approach. The main idea is that creation and use of artificial intelligence (AI) technologies must not lead to infringement of human rights, democratic principles and the rule of law. The article reviews the Council of Europe’s policy documents on AI issues adopted in recent years.

Текст научной работы на тему «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРАВА ЧЕЛОВЕКА: СТРАТЕГИЯ СОВЕТА ЕВРОПЫ»

МЕЖДУНАРОДНОЕ ПРАВО

УДК 341.1/8

DOI: 10.18522/2313-6138-2021-8-4-3

Арзуманян Анна Борисовна,

кандидат юридических наук, доцент кафедры международного права, юридический факультет, Южный федеральный университет, 344002, г. Ростов-на-Дону, ул. М. Горького, д. 88, е-mail: rumi12@yandex.ru

Arzumanian, Anna B.,

PhD in Law, Associate Professor, Department of International Law, Law Faculty, Southern Federal University, 88 M. Gorkogo Str., Rostov-on-Don, 344002, Russian Federation, е-mail: rumi12@yandex.ru

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРАВА ЧЕЛОВЕКА:

СТРАТЕГИЯ СОВЕТА ЕВРОПЫ

ARTIFICIAL INTELLIGENCE AND HUMAN RIGHTS: COUNCIL OF EUROPE'S STRATEGY

АННОТАЦИЯ. Совет Европы — важнейшая международная организация, которая всегда позиционировала себя как сфокусированная на защите и поощрении прав человека, демократии и верховенстве права. Поэтому неудивительно, что с появлением и развитием новейших информационных технологий, интеллектуальных систем и «умных» роботов Совет Европы занял вполне определенную гуманистическую позицию, суть которой сводится к тому, чтобы не допустить ущемление прав человека, демократических принципов, верховенства права при создании и использовании технологий искусственного интеллекта (ИИ). Настоящая статья посвящена обзору программных документов Совета Европы по вопросам ИИ, принятых в последние годы.

КЛЮЧЕВЫЕ СЛОВА: Совет Европы; искусственный интеллект; права человека; международное право.

ОБРАЗЕЦ ЦИТИРОВАНИЯ:

Арзуманян А.Б. Искусственный интеллект и права человека: стратегия Совета Европы // Вестник Юридического факультета Южного федерального университета. 2021. Т. 8, № 4. С. 21-25. DOI: 10.18522/2313-6138-2021-8-4-3.

ABSTRACT. The Council of Europe is a key international organisation which has always positioned itself as an entity focused on protection and promotion of human rights, democracy and the rule of law. Therefore, it is not surprising that the advent and development of the latest information technologies, intelligent systems and «smart» robots made the Council of Europe take a very definite humanistic approach. The main idea is that creation and use of artificial intelligence (AI) technologies must not lead to infringement of human rights, democratic principles and the rule of law. The article reviews the Council of Europe's policy documents on AI issues adopted in recent years.

KEYWORDS: Council of Europe; artificial intelligence; human rights; international law.

FOR CITATION:

Arzumanian, A.B. Artificial intelligence and human rights: Council of Europe's strategy. Bulletin of the Law Faculty, SFEDU. 2021. Vol. 8, No. 4. P. 21-25 (in Russian). DOI: 10.18522/2313-6138-2021-8-4-3.

© А.Б. Арзуманян, 2021

Общепризнанным является тот факт, что информационные технологии все больше меняют социальную действительность, и все больше растет зависимость человека от технологий. Право, как и любое иное социальное явление, не остается в стороне от таких трансформаций. Совет Европы постоянно проводит мероприятия, посвященные влиянию искусственного интеллекта на права человека, и к настоящему моменту сформировал солидную базу документов рекомендательного характера, которые демонстрируют его стратегический подход к формированию правовой базы ИИ. Приведем краткий обзор некоторых из них.

26-27 февраля 2019 года в Хельсинки прошла Конференция высокого уровня Совета Европы "Governing the Game Changer" — влияние развития искусственного интеллекта (ИИ) на права человека, демократию и верховенство права. В ней участвовали представители 47 стран, в том числе и России. По итогам конференции сформулированы следующие выводы [4]:

- влияние ИИ на реализацию прав человека носит как позитивный, так и отрицательный характер; его внедрение требует продуманных мер реагирования со стороны правительств;

- ИИ обладает крупным потенциалом для внедрения инноваций, но выгоды от ИИ должны сочетаться с уважением демократических ценностей;

- поскольку ИИ затрагивает все сферы жизни общества, государства и другие заинтересованные стороны должны постоянно обмениваться новыми практиками и информацией для объединения усилий;

- на всем протяжении жизненного цикла ИИ должны оцениваться риски и выгоды его применения для извлечения максимальной пользы от его использования;

- необходимо инвестировать в независимые междисциплинарные исследования с целью оценки влияния ИИ на человека, его права, на демократию и верховенство права;

- разработка и внедрение ИИ требует создания надзорных механизмов и контрольных структур на основе демократических принципов;

- необходимо информировать общественность и вовлекать ее в дискуссии по вопросам о рисках и преимуществах ИИ, развивать навыки по использованию ИИ;

- решающее значение в вопросах обеспечения надлежащей защиты прав человека имеет прозрачность алгоритмов. Алгоритмы не должны ставить под угрозу равенство перед законом;

- общественные отношения, меняющиеся под воздействием ИИ, могут и должны регулироваться основополагающими международными договорами и общепризнанными международными нормами в области прав человека.

По итогам встречи в Хельсинки в мае того же года Совет Европы учредил специальный межправительственный комитет экспертов по искусственному интеллекту (CAHAI). Перед комитетом поставлена задача разработать приемлемые правовые основы для дальнейшего регулирования ИИ, причем эти правовые основы должны базироваться на стандартах Совета Европы в области прав человека, демократических принципах и верховенстве права [2].

В декабре 2020 года Комитет опубликовал Обоснование осуществимости правового регулирования проектирования, разработки и применения ИИ, основанное на стандартах Совета Европы ("Feasibility study on a legal framework on AI design, development and application based on CoE standards") (далее — Обоснование) [6]. Это достаточно объемный документ, анализирующий текущую ситуацию с правовыми рамками ИИ исходя из упомянутых выше стандартов.

Обоснование учитывает уже имеющиеся наработки на уровне международных организаций, а также текущую работу в области регулирования ИИ. В частности, отмечается отсутствие единого подхода к определению самого термина ИИ. Сложность закрепления единой дефиниции видится не только в разности правовых традиций и культур, но и в технической составляющей такого определения. Если свести ее к минимуму, то неизбежно расширительное толкование термина, а если детализировать, возникает риск его быстрого устаревания.

В результате исследователи дают рекомендацию принять технически нейтральный термин, который охватывал бы случаи, непосредственно связанные с потенциальными рисками для прав человека, демократических принципов и верховенства права. Анализируются риски, связанные с обработкой данных, статистическими погрешностями, которые могут преумножаться в самообучаемой системе, непрозрачностью

A.B. ARZUMANIAN. BULLETIN OF THE LAW FACULTY, SFEDU. 2021. Vol. 8, No. 4. P. 21-25

23

систем ИИ. Указывается на оправданность использования риск-ориентированного подхода, но непременно с постоянной оценкой возможных последствий, в том числе тех, вред от которых нельзя восполнить.

Документ отмечает практику работы различных Комитетов Совета Европы в области кибербезопасности, защиты данных, правосудия, а также практику ЕСПЧ, относящуюся к информационным технологиям.

В частности, еще в конце 2018 года Европейской комиссией по эффективности правосудия Совета Европы принята Европейская этическая хартия об использовании ИИ в судебных системах [1]. Она базируется на пяти основных принципах: соблюдения основных прав; недискриминации; качества и безопасности; прозрачности, беспристрастности и достоверности; контроля пользователем.

В январе 2021 года состоялась онлайн-кон-ференция высокого уровня «Права человека в эпоху искусственного интеллекта — Европа как международный законодатель стандартов в области искусственного интеллекта», по итогам которой сформулированы следующие выводы [3]:

- искусственный интеллект представляет собой важную возможность развития для каждого человека и для общества, что поощряется, в частности, Целями Организации Объединенных Наций в области устойчивого развития;

- возросшая зависимость от искусственного интеллекта сопряжена с существенными рисками, в отношении прав человека, демократии и верховенства закона — основных элементов, на которых строятся ценности европейских обществ;

- дискриминация, появление общества наблюдения, ослабление автономии человека, искажение информации, вмешательство в выборы и цифровое исключение являются конкретными проблемами в отношении искусственного интеллекта;

- технико-экономическое обоснование СЛЫЛ1, а также недавние доклады Парламентской Ассамблеи Совета Европы и рекомендации Комиссара по Правам человека, проливают свет на многие такие последствия для отдельных лиц и для общества в целом. Технико-экономическое обоснование СЛЫЛ1 выявило существующие пробелы в действующей

в настоящее время правовой базе в отношении проблем, возникающих в связи с проектированием, разработкой и использованием ИИ;

- надлежащее международное регулирование ИИ, основанное на существующих правовых стандартах, но также дополняющее их, имеет важное значение для обеспечения того, чтобы разработка и использование ИИ укрепляли права человека, демократию и верховенство закона;

- Совет Европы выступает за разработку обязательной горизонтальной правовой базы, закладывающей основы для применения искусственного интеллекта. Разработка отраслевых правовых инструментов должна осуществляться с учетом рисков для прав человека, демократии и верховенства права;

- особые требования к искусственному интеллекту, обеспечивающие прозрачность, качество данных об обучении, автономию человека, достаточные возможности подачи жалоб и средства правовой защиты, а также гарантирующие, среди прочего, эффективные механизмы обеспечения соблюдения, имеют первостепенное значение при разработке элементов будущей правовой основы для ИИ;

- следует поощрять применение ИИ-системы, которые способствуют, укрепляют и усиливают защиту прав человека, демократии и верховенства закона.

- Совет Европы рекомендует рассматривать запрет или мораторий ИИ в качестве последнего средства, если оценка рисков показывает, что применение ИИ может представлять значительные или неизвестные риски для прав человека, демократии или верховенства закона, и если в рамках действующего законодательства не существует надлежащих мер по смягчению таких последствий.

В марте 2021 года Совет Европы принял Декларацию о рисках при принятии решений с использованием компьютера или искусственного интеллекта в области системы социальной защиты [5]. Основные положения Декларации сводятся к следующему.

Системы принятия решений с использованием компьютеров или искусственного интеллекта могут предложить преимущества в виде улучшенного и более быстрого обслуживания для отдельных лиц. Эти системы также могут снизить административные расходы, повысить

прозрачность, помочь в выявлении аномалий или мошенничества и снизить риск коррупции. Однако технология может включать «код», на который полагаются при принятии решений, который в зависимости от ее характеристик или процессов обучения может ошибочно уменьшать или лишать людей прав и льгот, тем самым препятствуя осуществлению их социальных прав. Хотя искусственный интеллект и машинное обучение имеют преимущества для системы, следует обеспечить, чтобы публичные приложения были справедливыми, и чтобы этические ценности применялись ко всем, не вызывая каких-либо различий в отношении социальной сплоченности.

Нерегулируемое развитие таких компьютерных или автоматизированных систем принятия решений в сочетании с отсутствием прозрачности и недостаточным контролем со стороны общественности, а также их включение в управление социальными услугами создают риски. Эти системы могут, если они не будут разработаны и использованы в соответствии с принципами прозрачности и правовой определенности, усилить предвзятость и увеличить риски. Это может привести к более серьезным негативным последствиям для членов сообщества, находящихся в уязвимом положении. В таких обстоятельствах они могут воспроизводить укоренившиеся модели дискриминации, в том числе в отношении женщин, и могут затрагивать людей, занятых на низкоквалифицированной и низкооплачиваемой работе.

Предвзятые и ошибочные автоматизированные решения могут привести к обнищанию, крайней нищете или даже бездомности и нанести серьезный или непоправимый вред заинтересованным лицам.

Если решения исполняются слишком быстро, без учета их последствий, последствия могут быть длительными, а ущерб может сохраниться, даже если ошибка будет исправлена быстро. Результат может противоречить целям Рекомендации Комитета министров государствам-членам о праве на удовлетворение основных материальных потребностей лиц, находящихся в крайне трудных ситуациях, в которой Комитет министров призвал все государства-члены признать индивидуальное, универсальное и подлежащее исполнению право на удовлетворение основных материальных

потребностей (как минимум: питание, одежда, жилье и базовое медицинское обслуживание) для лиц, находящихся в крайне трудных ситуациях, а также Рекомендация Комитета министров государствам-членам об улучшении доступа к социальным правам. Эти решения также поднимут вопросы об уважении положений Европейской социальной хартии.

В этих обстоятельствах могут быть нарушены не только социальные права и не достигнуты соответствующие цели социальной политики, но даже осуществление гражданских и политических прав может быть затронуто или поставлено под угрозу.

Комитет министров обратил внимание государств-членов на:

- возможные риски для прав человека, включая социальные права, которые могут возникнуть в результате использования государственных органов при принятии решений с использованием компьютера или искусственного интеллекта в области социальных услуг, когда не гарантируется квалифицированный надзор, в частности, в отношении управления, присвоения или аннулирования прав, помощи и связанных с ними льгот;

- необходимость обеспечения разработки и внедрения систем принятия решений с использованием компьютеров или искусственного интеллекта в соответствии с принципами правовой определенности, законности, качества данных, недискриминации и прозрачности. Знания и навыки пользователей этих систем должны регулярно совершенствоваться;

- необходимость человеческого надзора за решениями с использованием компьютера или искусственного интеллекта с целью смягчения и/или предотвращения ошибок в управлении, присвоении или аннулировании прав, помощи и связанных с ними преимуществ, которые могут усугубить недостатки и/или лишение гражданских прав;

- необходимость эффективных механизмов защиты уязвимых лиц от серьезного или непоправимого ущерба, включая нищету, крайнюю нищету или бездомность, в результате реализации решений с использованием компьютеров или искусственного интеллекта в области социальных услуг;

- необходимость эффективных процессов ответственности и подотчетности для субъ-

A.B. ARZUMANIAN. BULLETIN OF THE LAW FACULTY, SFEDU. 2021. Vol. 8, No. 4. P. 21-25

25

ектов ИИ, проектирующих, разрабатывающих, развертывающих или оценивающих системы ИИ, когда правовые нормы не соблюдаются или возникает какой-либо несправедливый вред;

- упреждающий подход с целью обеспечения того, чтобы лица, затронутые решениями с использованием компьютеров или искусственного интеллекта в области социальных услуг, в частности лица, находящиеся в ситуации крайней депривации или уязвимости, могли эффективно отстаивать свои права и искать средства правовой защиты. В этой связи заинтересованным лицам должно быть предоставлено разъяснение, адаптированное к конкретному контексту и аудитории. Такое объяснение должно, по крайней мере, содержать необходимые элементы, позволяющие человеку понять и оспорить решение, которое было проинформировано или принято системой искусственного интеллекта и которое существенным образом влияет на правовое положение человека или его жизнь.

Подводя итог, следует отметить, что позиция Совета Европы в отношении ИИ представляется наиболее взвешенной и зрелой с точки зрения гуманистических достижений европейской цивилизации. Однако не все страны, выступающие на передовой информационных технологий, разделяют эту позицию. Существуют серьезные угрозы перекоса в сторону технологических выгод в ущерб соблюдению прав человека, более того, широко известно, что такие случаи уже имели место при использовании ИИ. В этих условиях представляется важным придерживаться разумного баланса, предлагаемого Советом Европы при разработке и внедрении ИИ, в особенности в «чувствительных» к правам человека областях, таких как осуществление правосудия, социальное обслуживание, государственное управление.

Литература

1. Европейская этическая хартия об использовании искусственного интеллекта в судебных системах и окружающих их реалиях: Принята на 31-м пленарном заседании ЕКЭП (Страсбург, 3-4 декабря 2018 года) [Электронный ресурс] // URL: https://rm.coe.int/ru-ethical-charter-en-version-17-12-2018-mdl-06092019-2-/16809860f4

2. CAHAI — Ad hoc Committee on Artificial Intelligence [Electronic resource] // URL: https://www.coe.int/en/web/ artificial-intelligence/cahai

3. Conclusions from the Conference [Electronic resource] // URL: https://germanycoe.de/storage/documents/ Conference_Conclusions.pdf

4. Conclusions from the Conference [Electronic resource] // URL: https://rm.coe.int/conclusions-from-the-con-ference/168093368c

5. Declaration by the Committee of Ministers on the risks of computer-assisted or artificial-intelligence-enabled decision making in the field of the social safety net: Adopted by the Committee of Ministers on 17 March 2021 at the 1399th meeting of the Ministers' Deputies [Electronic resource] // URL: https://search.coe.int/cm/Pages/result_details.aspx?-0bjectId=0900001680a1cb98

6. Feasibility study on a legal framework on AI design, development and application based on CoE standards [Electronic resource] // URL: https://www.coe.int/en/web/artifi-cial-intelligence/cahai

References

1. European ethical Charter on the use of Artificial Intelligence in judicial systems and their environment: Adopted at the 31st plenary meeting of the CEPEJ (Strasbourg, 3-4 December 2018) // URL: https://rm.coe.int/ethical-charter-en-for-publi-cation-4-december-2018/16808f699c [in Russian].

2. CAHAI — Ad hoc Committee on Artificial Intelligence // URL: https://www.coe.int/en/web/artificial-intelligence/cahai

3. Conclusions from the Conference // URL: https://ger-manycoe.de/storage/documents/Conference_Conclusions.pdf

4. Conclusions from the Conference // URL: https:// rm.coe.int/conclusions-from-the-conference/168093368c

5. Declaration by the Committee of Ministers on the risks of computer-assisted or artificial-intelligence-enabled decision making in the field of the social safety net: Adopted by the Committee of Ministers on 17 March 2021 at the 1399th meeting of the Ministers' Deputies // URL: https://search.coe.int/cm/Pages/result_details.aspx?Objec-tId=0900001680a1cb98

6. Feasibility study on a legal framework on AI design, development and application based on CoE standards // URL: https://www.coe.int/en/web/artificial-intelligence/cahai

Поступила в редакцию 15.10.2021 Received October 15, 2021

i Надоели баннеры? Вы всегда можете отключить рекламу.