Научная статья на тему 'ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В УГОЛОВНОМ ПРАВЕ РФ'

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В УГОЛОВНОМ ПРАВЕ РФ Текст научной статьи по специальности «Право»

CC BY
390
98
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
ПРЕСТУПЛЕНИЯ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / БИОМЕТРИЧЕСКАЯ СИСТЕМА АУТЕНТИФИКАЦИИ / БЕСПИЛОТНЫЙ АВТОМОБИЛЬ / IT-ТЕХНОЛОГИИ / CRIMES / ARTIFICIAL INTELLIGENCE / BIOMETRIC AUTHENTICATION SYSTEM / UNMANNED VEHICLE / IT TECHNOLOGIES

Аннотация научной статьи по праву, автор научной работы — Процай Анастасия Сергеевна

В данной статье анализируются проблемные аспекты, связанные с развитием уголовно-правового регулирования отношений, которые так или иначе связаны с искусственным интеллектом.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ARTIFICIAL INTELLIGENCE IN THE CRIMINAL LAW OF THE RF

This article analyzes the problematic aspects related to the development of criminal law regulation of relations, which in one way or another are associated with artificial intelligence.

Текст научной работы на тему «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В УГОЛОВНОМ ПРАВЕ РФ»

ВОПРОСЫ

российской юстиции УДК 343

Процай Анастасия Сергеевна Новосибирский государственный университет экономики и управления

Россия, Новосибирск ekaterina.protsai2017@yandex.ru Protsai Anastasia Sergeevna Novosibirsk State University of Economics and Management

Novosibirsk, Russia

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В УГОЛОВНОМ ПРАВЕ РФ Аннотация: В данной статье анализируются проблемные аспекты, связанные с развитием уголовно-правового регулирования отношений, которые так или иначе связаны с искусственным интеллектом.

Ключевые слова: преступления, искусственный интеллект, биометрическая система аутентификации, беспилотный автомобиль, IT-технологии.

ARTIFICIAL INTELLIGENCE IN THE CRIMINAL LAW OF THE RF Annotation: This article analyzes the problematic aspects related to the development of criminal law regulation of relations, which in one way or another are associated with artificial intelligence.

Key words: crimes, artificial intelligence, biometric authentication system, unmanned vehicle, IT technologies.

Искусственный интеллект (ИИ) в последнее время быстро развивается, не проходит и месяца без сообщений о прорывах в сфере ИИ, поэтому появляется необходимость законодательного закрепления данных достижений. Уже сейчас появляются вопросы, на которые нет однозначного ответа:

-Во-первых, терминология - нет единого мнения, что понимать под словосочетанием «искусственный интеллект»;

-Во-вторых, можно ли признать за искусственным интеллектом качества субъекта права?

-Наконец, кто будет нести ответственность за вред, причиненный при использовании искусственного интеллекта (изобретатель, инженер-программист, производитель, сама система искусственного интеллекта)?

Что же понимать под ИИ? Искусственный интеллект - это машина или такая система, которая умеет имитировать поведение человека, для того чтобы выполнять задачи, и постепенно обучаться, используя накопленную информацию [9, с. 6].

Взаимодействие искусственного интеллекта и человека содержит в себе угрозы безопасности человека, а также общества и государства. В связи, с чем в Уголовный кодекс Российской Федерации необходимо внести новый состав преступления, который установил бы ответственность за применение искусственного интеллекта в преступных целях, а также ответственность за допущение ошибки в процессе создания искусственного интеллекта, что привело к совершению преступления. Например, в 2018 году беспилотный автомобиль одноименного мобильного приложения — Uber Technologies Inc., созданное американской международной компанией, сбил девушку в американском штате Аризона из-за программной ошибки [10, с. 273]. В Вене в 2019 году беспилотный автобус Navya совершил наезд на пешехода. В данных ситуации в Великобритании и ФРГ [3; 11, с. 430] поступили идеи поступать так:

-Ответственность несет компания производителя, в следующем случае, если авария произошла по причине сбоя в программе. Например, компания Volvo заявила, что понесут ответственность за ДТП с участием беспилотных автомобилей их марки.

-Ответственность несет владелец авто, в том случае, если беспилотный автомобиль не застрахован, а также, если уровень автоматизации низок.

В 2013 году студенту из Техаса удалось «распечатать» полноценный пистолет из пластмассы - Liberator («Освободитель») [5]. А потом выложил чертежи в свободный доступ в интернете, и в соответствии с этим чертежом в 2014 году японец распечатал сразу несколько пистолетов и выложил в сеть видео с пистолетом. Его задержали, и выяснилось, что как минимум два пистолета могли действительно убить человека. Из данного примера следует, что приобрести пистолет можно без лицензии, стоит лишь иметь 3D-принтер. Исходя из приведенных выше примеров, в законодательстве необходимо предусмотреть вопросы уголовной ответственности в подобных ситуациях.

Что касается применения ИИ в здравоохранении, то существует ряд проблем, например, медицинская халатность. Поскольку роботы - это новая технология, то, если обратиться к статистике, за восемь лет работы роботов-хирургов было зарегистрировано 144 смерти пациентов и 1 391 травм [2], можно прийти к выводу, что у роботов бывают сбои в программах, нарушение стандартов оказания медицинской помощи и тд. В данной ситуации, кто понесет ответственность за халатность? Данный вопрос стоит урегулировать в законодательстве. А также особое внимание стоит уделить защите персональных данных пациентов в телемедицине, поскольку этим может воспользоваться злоумышленник. Например, зная о какой-либо болезни, будет шантажировать разглашением ее широкому кругу лиц.

Существует такой вид преступности, как использование ИИ для внедрения вредоносного кода в финансовых операциях, для того, чтобы считать необходимую информацию. Согласно статистическим данным Juniper Research на 2018 год мошенничества, которые, так или иначе, связанны с онлайн -платежами составляет $48 млрд [6]. В 2016 году, например, только семь из тридцати платежных сервисов, которые построены на технологии блокчейн в США, соответствовали требованиям компьютерной безопасности. Важно отметить, что многие из этих платежных систем являются конъектурными и создавались с целью получения сиюминутных денежных средств, задачи безопасности уходили на второй план. У данной системы есть недостатки при

построении параллельных ветвей в блокчейн или блокирования сделок с использованием банковского счета. Такие интеллектуальные вредоносные программы могут использовать методы глубокого обучения нейронных сетей для предварительного анализа и последующего взлома и перепрограммирования платежных протоколов такого типа [1, с. 380].

Нейронные сети, которые подделывают отпечатки пальцев человека, преображают изображение личности, с преступной целью получить доступ к какой-либо информации, должны нести уголовную ответственность [8]. Посредством видео-сообщений или голосовых сообщений ИИ может помочь преступникам санкционировать денежные переводы, имитируя манеру речи или образ человека, от которого зависит принятие решения. В 2017 году появился новый вид киберпреступности с искусственным интеллектом - дипфейки. Особенностью такого вида преступления является видео, в котором лицо одного человека заменено на другое. Это придумано для порчи репутации человека, а также выманивании денег. В июне 2020 года был проведен конкурс, на котором требовалось создать такую программу, которая смогла бы распознать поддельные видео. К сожалению, самой высокой точностью распознания было 65%, что говорит о трудности раскрытия такого преступления [7]. Таким образом, следует предусмотреть отдельную квалификацию такого вида мошенничества.

Таким образом, поскольку совершение преступления через цифровое пространство набирает обороты, и способствует виновному достижение преступной цели, тем самым повышая общественную опасность совершенного преступления. В связи с этим представляется необходимым в УК РФ урегулировать отношения, которые так или иначе связаны с искусственным интеллектом.

Список литературы:

1. Вепрев С.Б., Нестерович С.А. О некоторых криминальных направлениях в использовании искусственного интеллекта. Международный научный журнал «ВЕСТНИКНАУКИ» № б (15) Т.2, 2019, С.377-383.

2. Дорогова А.Ваш доктор не будет человеком. Как искусственный интеллект меняет медицину // URL: https://futurist.ru/articles/1452-vash-doktor-ne-budet-chelovekom-kak-iskusstvenniy-intellekt-menyaet-meditsinu.

3. Кто отвечает если беспилотный автомобиль попадет в аварию. URL: https://bespilot.com/chastye-voprosy/kto-otvechaet-esli-ba-popadet-v-avariyu

4. Ларина Е.С. Овчинский В.С. Искуственный интеллект. Большие данные. («Коллекция Изборского клуба») М: Книжный мир, 2018. С. 416

5. Пистолет через ЗD-пpинтep: Что нужто знать upo напечатанное 3D-оружие? // URL: https://lastday.club/ pistolet-cherez-3d-printer-chto-nuzhno-znat-pro-3d-oruzhie/

6.Потери от мошенничества с онлайн-платежами // URL: https://www.tadviser.ru/index.php

7. Рамис Гомиев.Как преступники могут использовать искусственный интеллект? // Hi-News.ru.07.08.2020 URL: https://hi-news.ru/technology/kak-prestupniki-mogut-ispolzovat-iskusstvennyi-intellekt-samyi-opasnyi-variant.html

8. Херн А. Поддельные отпечатки пальцев могут имитировать реальные в биометрических системах/ URL: https://www.theguardian.com/technology/2018/nov/15/fakefingerprints-can-imitate-real-fingerprints-in-biometric-systems

9. Филипова И.А. Правовое регулирование искусственного интеллекта: учебное пособие Нижний Новгород: Нижегородский госуниверситет, 2020. С. 90.

10. Kingston J.K. Artificial Intelligence and Legal Liability. Research and Development in Intelligent Systems XXXIII: Incorporating Applications and Innovations in Intelligent Systems XXIV. Conference Paper. Cambridge, 2016, с. 269279.

ВОПРОСЫ

российской юстиции

11. Gless S., Silverman E., Weigend T. If Robots cause harm, Who is to blame? Self-driving Cars and Criminal Liability // New Criminal Law Review: In International and Interdisciplinary Journal. 2016. Vol. 19, I. 3, P. 412-436.

i Надоели баннеры? Вы всегда можете отключить рекламу.