Возможности и ограничения нормативного регулирования уголовной ответственности за применение технологий искусственного интеллекта в области медицины
Абоян Агавни Арменаковна,
студент Юридической школы Дальневосточного федерального университета
E-mail: aboian.aa @ students.dvfu.ru Парин Дмитрий Витальевич,
студент Юридической школы Дальневосточного федерального университета
E-mail: [email protected]
В условиях сложившейся социально-экономической действительности в XXI веке наблюдается тенденция к развитию информационных технологий, оцифровыванию всех сфер жизнедеятельности человека и компьютеризации общественных отношений с целью улучшения качества жизни человека. Сфера оказания медицинской помощи и медицинских услуг не стала из этого исключением. На сегодняшний день наблюдается стремительное внедрение искусственного интеллекта в медицинскую деятельность, и, как следствие, появление новых общественных отношений, нуждающихся в правовом регулировании. Наиболее острым является вопрос определения субъекта, который должен понести уголовную ответственность в случае совершения преступления искусственным интеллектом. В статье рассматривается возможность признания последнего субъектом преступления, а также проблемы такого признания. Авторы приходят к выводу, что на данном этапе развития искусственный интеллект уже представляет собой в ряде случаев реальную угрозу для общества, в связи с чем уголовно-правовое регулирование должно быть адаптировано под новые реалии посредством оперативного нормативного реагирования, а именно, путём внесения изменений в действующий Уголовный кодекс Российской Федерации, направленных на конструирование уголовно-правовых норм таким образом, чтобы они охватывали противоправные деяния, осуществляемые с использованием искусственного интеллекта.
Ключевые слова: искусственный интеллект, субъект преступления, субъективная сторона, ятрогенные преступления, медицинское уголовное право.
S2
см см о см I—
Использование искусственного интеллекта в жизни человека становится повсеместным. Направление медицины и здравоохранения уже сегодня считается одним из самых перспективных с точки зрения эффективного внедрения искусственного интеллекта.
Применение искусственного интеллекта в медицине повышает массовость, эффективность и скорость лечения заболеваний посредством использования кибернетического подхода [3]. Сегодня искусственный интеллект уже внедрён в работу в Google и в IBM для оценки состояния пациента и предварительной диагностики; искусственный интеллект MedWhat сегодня уже заменяет личного доктора - это мобильное приложение с распознаванием речи, в котором говорящий чат-бот может ответить на любые вопросы пациента, имеющие медицинский характер, а также контролировать состояние последнего.
В контексте сказанного выше следует констатировать, что любой узкоспециализированный искусственный интеллект потенциально может совершить общественно-опасное деяние в своей сфере деятельности, причинив вред жизни и здоровью пациента. Так, противоправная деятельность в здравоохранении может возникнуть вследствие ненадлежащего поведения автономного медицинского оборудования.
Подтверждение данных слов можно обнаружить в следующем примере, приведённом зарубежными исследователями [6, с. 84]: в медицинское учреждение поступил ребёнок с высокой температурой, обезвоживанием и общей слабостью. Диагностика проводилась полностью автономным медицинским искусственным интеллектом, специально предназначенным для осуществления таких функций. Пациенту был диагностирован грипп и назначено лечение в виде использования анальгетиков и инфузии жидкостей. Медицинский персонал при этом руководствовался назначенным лечением и действовал в строгом соответствии с ним, однако через пять часов ребёнок скончался. В результате вскрытия выяснилось, что причиной смерти стала тяжёлая бактериальная инфекция - диагноз искусственного интеллекта оказался ошибочным.
Тем не менее положительные аспекты использования искусственного интеллекта в сфере медицины сегодня очевидны, а это, в свою очередь, свидетельствует о том, что применение специализированной робототехники в данной сфере будет стремительно продолжать развиваться с каждым новым днём, поэтому правовое регулирование этих
вопросов должно быть на шаг впереди момента их возникновения.
На сегодняшний день в УК РФ, исходя из объекта преступлений, совершаемых в процессе оказания медицинской помощи и медицинских услуг, можно выделить круг, так называемых, ятроген-ных преступлений, к числу которых относятся, например, причинение смерти по неосторожности вследствие ненадлежащего исполнения лицом своих профессиональных обязанностей, причинение тяжкого вреда по неосторожности вследствие тех же действий, заражение другого лица ВИЧ-инфекцией вследствие ненадлежащего исполнения лицом своих профессиональных обязанностей, халатность - ст. 109 УК РФ, ст. 118 УК РФ, ч. 4 ст. 122 УК РФ и ст. 293 УК РФ соответственно [2, с. 29].
Необходимо отметить, что указанные составы предусматривают наличие специального субъекта преступления, который является более узкой категорией по отношению к субъекту преступления в целом. В частности, если субъектом преступления является вменяемое физическое лицо, достигшее установленного возраста, то специальным субъектом данных составов является то же лицо, только дополнительно наделённое определёнными обязанностями ввиду своего профессионального статуса. Иными словами, искусственный интеллект не может подпадать под категорию специального субъекта просто по той причине, что не является сегодня в системе уголовного права России субъектом преступления в целом. Кроме того, следует отметить, что медицинские работники, руководствовавшиеся при исполнении своих обязанностей лечением, назначенным искусственным интеллектом, и причинившие вследствие этого тяжкий вред либо смерть пациенту, не могут быть привлечены к ответственности, если в их обязанности не входила дополнительная проверка поставленного диагноза. В данном случае речь будет идти о невиновном причинении вреда.
Помимо указанных выше составов, следует также отметить преступные деяния в сфере медицины, предусмотренные ст. 124 УК РФ (неоказание помощи больному) и ст. 238 УК РФ (оказание услуг, не отвечающих требованиям безопасности жизни или здоровья потребителей), объективная сторона которых может быть реализована искусственным интеллектом. Сегодня предлагается при участии искусственного интеллекта в совершении данных преступлений возлагать ответственность на медицинское учреждение, от имени которого искусственным интеллектом было осуществлено действие в виде оказания медицинской услуги или бездействие в виде неоказания помощи больному. Однако ввиду невозможности привлечения к уголовной ответственности юридических лиц, подобный механизм представляется несоответствующим принципам уголовного права, поскольку общественные отношения, складывающиеся в сфере охраны жизни и здоровья человека в таких проявлениях, представляют собой высшую ценность,
в связи с чем находятся под охраной уголовного закона.
Актуальным на сегодняшний день является следующий вопрос: кто во всех вышеуказанных случаях будет нести ответственность за общественно-опасное деяние, совершённое автономной системой, поскольку причиной наступления вреда здоровью пациента либо его смерти является именно действие или бездействие робота?
Одним из камней преткновения в вопросе о признании искусственного интеллекта субъектом преступления и о привлечении его к уголовной ответственности является отсутствие возможности установить субъективную сторону совершённого противоправного деяния, иными словами факт отсутствия у последнего сознания. Однако следует отметить, что на сегодняшний день в связи с развитием технологий искусственного интеллекта наблюдается «рост уровня его сознания», что подтверждается следующим фактом: в медицинской сфере искусственный интеллект способен осуществлять функции робота-психотерапевта.
Так, в настоящее время наблюдается стремительный рост рынка искусственного интеллекта в области психического здоровья, главными игроками в котором стали Universal Health Services, Magellan Health Inc. и другие. Искусственный интеллект сегодня предлагают внедрить в область психиатрии как средство оперативного выявления психически больных людей и предотвращения их появления путём отнесения лиц к «группе риска развития психического расстройства» и предварительного назначения им препаратов.
Учёные в области психиатрической медицины аргументируют своё мнение о внедрении в эту сферу искусственного интеллекта тем, что на сегодня не имеется ни единого медицинского теста, позволяющего подтвердить какое-либо психическое расстройство, и психиатры в буквальном смысле методом голосования вводят в существование диагнозы, основанные главным образом на видах поведения, определённых произвольным образом.
Кроме того, в 2017 г. японская компания NTT Resonant разработала искусственный интеллект Oshi-el, который по сей день работает в качестве онлайн-психолога, выслушивает людей и даёт им рекомендации. Oshi-el постоянно обучается, поэтому его советы не являются шаблонными, а основаны на приобретённом опыте, ввиду чего исследователи убеждены, что искусственный интеллект не всегда система, основывающая свои выводы исключительно на алгоритмах [4].
Однако данные доводы следует опровергнуть. Группа исследователей из Колорадского университета в Боулдере, считающая язык важнейшим направлением распознавания психического состояния пациента, долгое время работает над применением машинного обучения в психиатрии, чтобы использовать мобильное приложение на основе речи, которое позволит классифицировать состояние психического здоровья пациента. Данное приложение побуждает пациентов выполнить ряд повторя-
5 -о
сз
<
ющихся вербальных упражнений, например рассказывать историю и отвечать на вопросы о своём эмоциональном состоянии. Затем искусственный интеллект производит оценку этих звуковых сигналов на наличие признаков психического расстройства, анализируя, как они соотносятся с реакциями индивидуума, наблюдавшимися в прошлом, а также сравнивая эти записи с реакциями широкого круга пациентов [5]. Питер Фольц, профессор-исследователь Института когнитивистики, приводит такой пример: если фразы и высказывания выбиваются из логических установившихся схем, это может быть критическим симптомом при шизофрении [7]. Изменения в тоне голоса или темпе речи могут указывать на манию или депрессию, а провалы в памяти могут сигнализировать о когнитивных и психических проблемах.
IBM сегодня также создаёт автоматизированное приложение для анализа речи, которое работает с мобильного устройства. Приняв примерно минуту речевых данных, система использует преобразование текста в речь, продвинутую аналитику, машинное обучение, технологии обработки естественного языка и вычислительную биологию для того, чтобы в режиме реального времени предоставить отчёт о психическом здоровье пациента.
Все приведённые примеры свидетельствуют о том, что искусственный интеллект способен проводить психиатрические исследования, основываясь лишь на определённых алгоритмах («норма» тембра или тона голоса). Анализируя полученные данные, робот способен увидеть отклонение от нормальных стандартов, на основании чего и заключаются поставленные им диагнозы.
Не рассуждая о рациональности внедрения искусственного интеллекта в рассматриваемую область медицины, отметим, психические отклонения во многом возникают из-за гнетущей, лишённой радости и иных положительных эмоций атмосферы, а искусственный интеллект - это всегда некрофилия, в том значении, что это форма без души.
В связи с изложенным выше нет оснований утверждать о том, что искусственный интеллект может обладать сознанием, позволяющим определить субъективную сторону совершённых при его участии преступлений.
При причинении смерти посредством установления диагноза искусственным интеллектом будет вставать вопрос о виновности иных лиц в таком поведении искусственного интеллекта. Разумеется, в большинстве случаев, разработчики и обладатели искусственного интеллекта не стремятся причинить какой-либо вред человеку. Однако самообучаемость программ может привести к неожиданной деятельности, наносящей какой-либо вред, даже если производителями такой вариант развития £ событий намеренно не предусматривался и вовсе £ не учитывался. В этом случае следует вынужден-g но констатировать, что возникает «правовая ло-~ вушка»: привлечь к уголовной ответственности ис-z кусственного интеллекта мы ещё не можем ввиду
отсутствия у него необходимых для субъекта преступления характеристик, а привлечь к ответственности иных лиц в этом случае мы не можем ввиду отсутствия состава преступления.
Таким образом, вышесказанное свидетельствует о том, что на данном этапе искусственный интеллект уже представляет собой в ряде случаев угрозу для общественных отношений, в связи с чем уголовно-правовое регулирование, находящееся сегодня на начальной стадии развития, должно быть адаптировано под новые реалии, что требует формирования соответствующей правовой политики, разработки особой концепции опережающего правового развития общества и правового моделирования принципиально новых отношений [1].
Литература
1. Мамычев А.Ю., Мирошниченко О.И. Моделируя будущее права: проблемы и противоречия правовой политики в сфере нормативного регулирования систем искусственного интеллекта и роботизированных технологий // Правовая политика и правовая жизнь. 2019. № 2. С. 125133.
2. Медицинское уголовное право / отв. ред. А.И. Рарог. Москва: Проспект, 2022. 576 с.
3. Решение Суда по интеллектуальным правам от 26 июля 2021 г. по делу № СИП-351/2021. Доступ из справ.-правовой системы «Гарант» (дата обращения: 06.04.2022).
4. Японские исследователи разработали искусственный интеллект Oshi-el: Новости науки и техники, кибернетические организмы, технологии будущего // URL: https://kiborg.pro/ iskusstvennyj-intellekt/yaponskie-issledovateli/ (дата обращения: 06.04.2022).
5. Ducharme, Jamie. 2019. «Artificial Intelligence Could Help Solve America's Impending Mental Health Crisis.» New York Times, November 20, 2019.
6. Hallevy, Gabriel. 2013. When Robots Kill: Artificial Intelligence Under Criminal Law. Boston: Northeastern University Press.
7. iStock-Jackie, Niam. 2019. «AI in psychiatry: detecting mental illness with artificial intelligence.» Health Europa, November 19, 2019.
POSSIBILITIES AND LIMITATIONS OF REGULATORY REGULATION OF CRIMINAL LIABILITY FOR THE USE OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES IN THE FIELD OF MEDICINE
Aboyan A.A., Parin D.V.
Far Eastern Federal University
In the conditions of the current socio-economic reality in the XXI century, there is a trend towards the development of information technologies, digitization of all spheres of human activity and computerization of public relations in order to improve the quality of human life. The sphere of medical care and medical services has not become an exception to this. To date, there has been a rapid introduction of artificial intelligence systems into medical activities, and at the same time, the emergence of new public relations in need of
legal regulation. The most acute is the issue of determining the subject who should be criminally liable in the case of a crime committed by an artificial intelligence system. The article considers the possibility of recognizing artificial intelligence as the subject of a crime, the problems of such recognition. The authors come to the conclusion that at this stage of development, artificial intelligence already poses a real threat to society in some cases, and therefore criminal law regulation should be adapted to new realities through prompt regulatory response, namely, by introducing amendments to the current Criminal Code of the Russian Federation aimed at constructing criminal lawlegal norms in such a way that they cover illegal acts carried out using artificial intelligence.
Keywords: artificial intelligence, the subject of the crime, the subjective side, iatrogenic crimes, medical criminal law.
Reference
1. Mamychev A. Yu., Miroshnichenko O.I. Modeling the future of law: problems and contradictions of legal policy in the field of
regulatory regulation of artificial intelligence systems and robotic technologies // Legal Policy and Legal Life. 2019. No. 2. P. 125133.
2. Medical criminal law / otv. ed. A.I. Rarog. Moscow: Prospekt, 2022. 576 p.
3. Judgment of the Intellectual Property Rights Court dated July 26, 2021 in case No. SIP-351/2021. Access from the legal reference system "Garant" (date of access: 04/06/2022).
4. Japanese researchers developed artificial intelligence Oshi-el: News of science and technology, cybernetic organisms, technologies of the future // URL: https://kiborg.pro/iskusstvennyj-intellekt/yaponskie-issledovateli/ (accessed: 04/06/2022).
5. Ducharme, Jamie. 2019. "Artificial Intelligence Could Help Solve America's Impending Mental Health Crisis." New York Times, November 20, 2019.
6. Hallevy, Gabriel. 2013. When Robots Kill: Artificial Intelligence Under Criminal Law. Boston: Northeastern University Press.
7. iStock-Jackie, Niam. 2019. "AI in psychiatry: detecting mental illness with artificial intelligence." Health Europa, November 19, 2019.