Научная статья на тему 'Этико-правовые проблемы использования систем искусственного интеллекта'

Этико-правовые проблемы использования систем искусственного интеллекта Текст научной статьи по специальности «Право»

CC BY
648
99
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
ПРАВО / ЭТИКА / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / МАШИННОЕ ОБУЧЕНИЕ / СВЕРХРАЗУМ / LAW / ETHICS / ARTIFICIAL INTELLIGENCE / MACHINE LEARNING / SUPERMIND

Аннотация научной статьи по праву, автор научной работы — Серобян Гагик Ашотович, Яковенко Андрей Александрович

В данной статье рассматриваются одни из самых дискуссионных вопросов на сегодняшний день, а именно: этико-правовые проблемы применения искусственного интеллекта. Проанализированы этико-правовые реалии, проблемы и возможные перспективы их разрешения в будущем.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ETHICAL-LEGAL PROBLEMS OF USING AN ARTIFICIAL INTELLIGENCE SYSTEMS

This article discusses some of the most controversial issues today, namely: the ethical-legal problems of using artificial intelligence. Ethical-legal realities, problems and possible prospects for their resolution in the future are analyzed.

Текст научной работы на тему «Этико-правовые проблемы использования систем искусственного интеллекта»

УДК 34.09 ГРНТИ10.19.01

ЭТИКО-ПРАВОВЫЕ ПРОБЛЕМЫ ИСПОЛЬЗОВАНИЯ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Серобян Гагик Ашотович

Магистрант 1 курса Юридической школы Дальневосточного федерального университета

г. Владивосток serobyan. g@bk. ru

Яковенко Андрей Александрович

Магистрант 1 курса Юридической школы Дальневосточного федерального университета

г. Владивосток andrey. drus@yandex. ru

ETHICAL-LEGAL PROBLEMS OF USING AN ARTIFICIAL INTELLIGENCE SYSTEMS

Gagik A. Serobyan

Master student of Law School, Far Eastern Federal University, Vladivostok

Andrey A. Yakovenko

Master student of Law School, Far Eastern Federal University, Vladivostok

АННОТАЦИЯ

В данной статье рассматриваются одни из самых дискуссионных вопросов на сегодняшний день, а именно: этико-правовые проблемы применения искусственного интеллекта. Проанализированы этико-правовые реалии, проблемы и возможные перспективы их разрешения в будущем.

ABSTRACT

This article discusses some of the most controversial issues today, namely: the ethical-legal problems of using artificial intelligence. Ethical-legal realities, problems and possible prospects for their resolution in the future are analyzed.

Ключевые слова: право; этика; искусственный интеллект; машинное обучение; сверхразум.

Key words: law; ethics; artificial intelligence; machine learning; supermind.

Актуальность темы исследования обусловлена тем, что в условиях интенсивного развития систем искусственного интеллекта (далее - ИИ) возникают правовые проблемы и, как ни странно, не остаются в стороне и этические вопросы использования таких систем. В данном исследовании будут затронуты вопросы, касающиеся этико-правовых проблем использования ИИ.

Сегодня об ИИ говорят везде, где только можно, а самое главное, вопросы, связанные с ИИ, рассматривают не только программисты, которые и являются авторами этого феномена, но также и юристы, которые занимаются разработкой правил «игры» в данном направлении.

Наше исследование разделено на две части. В первой части мы рассмотрим отдельные этические проблемы использования ИИ. Некоторые авторы отмечают, что, этическая сторона вопроса применения систем ИИ вовсе не является следствием развития технологий последних десятилетий [1]. Эти вопросы поднимались во многих классических работах в области машинного интеллекта еще задолго до того, когда это начало пользоваться такой сумасшедшей популярностью.

Алан Тьюринг, известный тем, что предложил эмпирический тест, в одной из своих работ говорил на тему последствий создания так называемых «думающих машин». В частности, он высказывает мнение о том, что якобы «машины не могут делать ошибок» и отмечает, что в сложных машинах ошибки могут быть детерминированы неадекватностью исходных данных, хотя при этом машины максимально точно выполняют все математические операции по их обработке. Подобные доводы активно обсуждаются сегодня, а именно -проблемы достоверности исходных данных [1].

Подобные данные наводят нас на такую мысль, что когда «сверхразумная машина» получает неэтичные или же противоправные исходные данные, то в последствии появляются определенные риски, связанные с тем, что ИИ может совершить общественно опасные действия или же бездействия, угрожающие безопасности общества и государства.

Норберт Винер, являющийся основоположником кибернетики, в своих работах высказывал такую мысль: «Машины могут быть опасны для человека и не предсказуемы» [1].

С таким тезисом трудно не согласиться, особенно учитывая тот факт, что сегодня большой популярностью пользуется нейронные сети, которые способны самообучаться. Раньше мы бы не поверили, что какой-то компьютер способен без вмешательства человека делать что-то кроме заданных ему заранее параметров. Сегодня это уже реальность, и та самая непредсказуемость здесь и появляется, ведь даже сам разработчик не способен узнать, что происходит в «голове» машины. Появляются некие сомнения и с точки зрения этики.

Возможно, эта самая машина, которая способна к самообучению будет использовать неэтичные и аморальные данные при обучении. Не факт, что она не будет это реализовать в повседневной жизни человека, и делать не принятые в том или ином обществе вещи, которые допускаются, скажем так, в иных сообществах людей.

Этические аспекты внедрения и использования систем ИИ носят чрезвычайно важный характер, и вот почему. Отмечается, что «IEEE (Institute of

Electrical and Electronics Engineers) - Институт инженеров электротехники и электроники, с учетом активного внедрения систем ИИ в различные сферы в IEEE запустили глобальную инициативу для исследований в области этики ИИ. Результатом таких исследований должны стать технические нормативные документы, регламентирующие разработку и внедрение систем ИИ с требованиями к их этическому поведению» [1].

Этические вопросы ИИ затрагивает в своей статье - А. Маланов, эксперт развития антивирусных технологий «Лаборатории Касперского». В своей работе автор рассматривает сильный и слабый ИИ. Отмечается, что это абсолютно разные «вещи». Что же понимать под сильным и слабым ИИ?

Сильный ИИ (true, general, настоящий) - это гипотетическая машина, которая способна мыслить и осознавать себя, решать не только узкоспециализированные задачи, но еще и учиться чему-то новому. На первый взгляд кажется, что это что-то из разряда фантастики, но если посмотреть на вещи реально, то уже сейчас есть некие намеки на это, развитие технологий движутся с такой скоростью, что появления так называемого «Сильного ИИ» уже не остается за гранью реальности. Автор приводит в своей работе прогнозы, которые приводили североамериканские и азиатские ученные, выглядят они следующим образом: североамериканские ученые считают, что ИИ превзойдет человека через 74 года, а азиатские полагают, что всего -то уже через 30 лет [4].

Неутешительные данные, но все же нам остается лишь ждать и следить за развитием событий. Стоит отметить, что все мировые новостные источники очень бурно реагируют на подобные новости.

Продолжая наше исследование, перейдем к так называемому «слабому ИИ». А. Маланов приводит следующее определение последнего: слабый ИИ (narrow, поверхностный) - это уже существующие программы для решения вполне определенных задач, таких как распознавание изображений, автовождение, игра в «Го» и т.п. [4].

Чтобы никого не запутать и не вводить в некую неопределенность, отмечается, что Слабый ИИ носит название «машинное обучение» (machine learning), которое находится на слуху у большинства людей.

Касаемо нашего вопроса, а именно - этическая сторона вопроса, в своей работе автор затрагивает Сильный ИИ, который в свою очередь порождает массу этических вопросов. Сильного ИИ стоит еще ждать не скоро, но тем не менее выделяется масса этических проблем.

Выделяется первый класс проблем - мы можем обидеть ИИ. Например:

1) Этично ли мучить ИИ, если он способен чувствовать боль?

2) Нормально ли оставить ИИ без общения на долго, если он способен чувствовать?

3) А можно ли использовать его как домашнее животное? Как раба? А кто это будет контролировать и как? ведь это программа, которая «работает-живет» в вашем «смартфоне».

Ведь сейчас никто не отреагирует на ваше не очень этичное обращение с вашим голосовым помощником, но если вы будете плохо обращаться с собакой, то вы будете привлечены к юридической ответственности. И связано все это не с тем, что она из плоти, а все потому она способна чувствовать. Так вот, не нужно отправлять в «долгий ящик» и тот факт, что это и будет с Сильным ИИ [4].

Второй класс выделяемых автором этических проблем - это ИИ может обидеть нас. Можно обнаружить множество таких примеров в книгах и фильмах.

А. Маланов приводит в пример следующее: «Как нам объяснить ИИ, чего же мы от него хотим? Люди для ИИ - как муравьи для рабочих, строящих плотину: ради великой цели можно и раздавить парочку» [4].

Автор обращает наше внимание на то, что научная фантастика с нами играет «злую шутку». Человечество привыкло к тому, что Терминаторов пока нет, и будут они нескоро. Данный тезис нам показывает хороший пример того, что технологии, которые показываются в фильмах и описываются в книгах далеко не что-то сверхъестественное, а они уже существуют в нашей жизни, стоит только присмотреться.

Ранее нами отмечалось, что нормативная регламентация внедрения и использования систем ИИ несет с собой очень важную составляющую, которая должна привнести некую определенность специалистам, занимающимся разработкой и, что еще более важно - использованием систем ИИ. Делая некий вывод, стоит сказать, что этическая сторона вопроса стоит здесь на ряду и с иными фундаментальными аспектами использования ИИ.

Перейдем ко второй части нашего исследования, а именно -рассмотрению правовых проблем использования систем ИИ. Авторы, выделяя цели правового регулирования технологий ИИ отмечают один из важнейших: ограничение рисков для здоровья или безопасности населения, окружающей среды, а также борьба с этически проблемными действиями, такими, как генные манипуляции [3].

П.М. Морхат, рассматривая в своей работе проблемы правового регулирования искусственного интеллекта акцентирует внимание на следующем: «подходы к правовому регулированию использования и разработки технологий искусственного интеллекта, по сути, обладают в немалой степени той же спецификой, что и подходы к правовому регулированию технологических инноваций в целом, которая, однако, несколько осложнена» [3]. Он приводит также мнение Мишель Гихо, Энн Мэтью и Николя Сузор, которые отмечали, что даже в областях применения наиболее «простых» технологических инноваций правовое регулирование является весьма затруднительным [3]. Мы можем наблюдать, что в обоих случаях отмечается сложность правового регулирования систем ИИ. На наш взгляд правовое регулирование усложняется еще и тем фактором, что методы и способы разработок и применения систем ИИ постоянно совершенствуются и принятые нормативные акты могут затруднять и создавать некие барьеры в развитии систем ИИ.

Немаловажным тезисом, который приведен в вышеупомянутой работе является: «на плечи законодателя ложится решение проблемы обеспечения баланса, с одной стороны, между интересами общества, которые заключаются в использовании как можно большего потенциала новых технологий, которые

могут обеспечить решение различных проблем как отдельных индивидов, так и целого общества, а с другой стороны - необходимостью минимизации негативных последствий использования инновационных технологий» [3].

Более того, Николас Петит предложил несколько основных подходов правового регулирования разработки и применения технологий ИИ [3].

Первый подход - формальный, который подразумевает рассматривать «тот факт, подпадают ли под действие существующего законодательства ИИ и робототехника».

Второй подход - это технологический, суть которого сводится к тому, что предварительно необходимо определить наличие создаваемых использованием интеллекта новых проблем и последующем измерении правовой необходимости в специальной регламентации таких новых проблем [3].

Николас Петит выделяет технологический подход как наиболее эффективный [3]. На наш взгляд, действительно, стоит отдать преимущественное положение технологическому подходу в рассмотрении как наиболее практико-ориентированного регулирования использования ИИ.

Более того, сложность при формировании нормативной базы заключатся в том, что законодатель будет ограничен в своей осведомленности о системах ИИ. Развитие систем ИИ сейчас очень быстротечно и очень сложно предугадать, какого уровня развитие достигнет в ближайшем будущем. Предполагается, что правовое регулирование использования систем ИИ может быть эффективным и наиболее продуманным, при соблюдении следующих правил [2]:

1) Обеспечение сертификации систем ИИ и запрет на производство и применение несертифицированных систем. Такой подход прежде всего может послужить стимулом для потенциальных разработчиков делать шаги и вкладывать определенные ресурсы в сторону обеспечения безопасности систем ИИ;

2) Применение механизмов солидарной ответственности за использование несертифицированных систем искусственного интеллекта;

3) Государственное финансирование исследований в области безопасности систем искусственного интеллекта с одновременным установлением санкций в отношении разработчиков, игнорирующих результаты таких исследований;

4) Установление необходимости утверждения систем искусственного интеллекта соответствующим профильным органом публичной власти, процесс которого будет включать в себя несколько этапов тщательного тестирования на предмет безопасности, по аналогии с обеспечением, к примеру, безопасности лекарственных средств.

Подводя промежуточные итоги нашего исследования, отметим, что взгляды на современные технологии очень неоднозначны. Правовое регулирование в данной сфере только на стадии формирования и сложно сказать, с какими трудностями может столкнуться законодатель. Мир разработок стабильно меняется. Одни «тренды» появляются, другие - теряют актуальность, третьи - трансформируются.

Тем не менее, этико-правовые проблемы использования такого феномена как искусственный интеллект уже существуют сейчас и над ними необходимо очень серьёзно поработать, дабы исключить наступления каких бы то ни было последствий от допущенных ошибок.

Список литературы

1. Карпов В.Э., Готовцев В.М., Ройзензон Г.В. К вопросу об этике и системах искусственного интеллекта // Философия и общество. 2018. №2 (87). С. 84-105.

2. Понкин И.В., Редькина А.И. Искусственный интеллект с точки зрения права // Вестник РУДН. Серия: Юридические науки. 2018. №1. С. 91-109.

3. Морхат П.М. К вопросу о специфике правового регулирования искусственного интеллекта и о некоторых правовых проблемах его применения в отдельных сферах // Закон и право. 2018. №6. С. 63-67.

4. Этические вопросы искусственного интеллекта // Режим доступа: https://habr.com/company/kaspersky/blog/421791/ (дата обращения: 29.11.2018).

i Надоели баннеры? Вы всегда можете отключить рекламу.