DOI: 10.17803/1729-5920.2023.205.12.113-123
А. А. Шутова
Казанский инновационный университет имени В.Г. Тимирясова г. Казань, Российская Федерация
Особенности квалификации преступлений, совершаемых лицами, использующими технологии искусственного интеллекта в здравоохранении
Резюме. Признавая положительные возможности технологий искусственного интеллекта в здравоохранении, а также современные направления их использования, автор выделяет основные формы реализации цифровой инновации: физическая форма в виде медицинского робота и интеллектуальная форма в виде программного обеспечения, зарегистрированные в качестве медицинских изделий. Констатируется, что правовые вопросы, связанные с привлечением к ответственности за действия, связанные с использованием интеллектуальных систем в здравоохранении, приведшие к негативным последствиям, в том числе причинению вреда жизни и здоровью пациентов, на данный момент не решены. Текущее состояние правового регулирования в России приводит к тому, что ответственность за вред, причиненный жизни и (или) здоровью граждан при оказании им медицинской помощи, возлагается на медицинскую организацию и на медицинского работника, использующего системы искусственного интеллекта или медицинскую робототехнику, оснащенную цифровыми технологиями. В свою очередь, создатели систем, а также лица, обучающие систему, функционирующую на основе искусственного интеллекта (разработчики систем искусственного интеллекта), к ответственности не привлекаются. Рассматриваются проблемы квалификации преступлений, совершаемых медицинскими работниками, использующими технологии искусственного интеллекта в здравоохранении. Установлено то, что медицинский работник может быть субъектом преступлений, предусмотренных частью 2 ст. 109 и частью 2 ст. 118 УК РФ, но не статьей 238 УК РФ, при оказании им медицинской помощи с использованием искусственного интеллекта. Кроме того, сформулированы правила квалификации преступлений, совершаемых иными субъектами (оператор информационных систем) при использовании технологий искусственного интеллекта. Ключевые слова: здравоохранение; искусственный интеллект; машинное обучение; медицинский работник; медицинское изделие; пациент; преступление; робототехника; уголовная ответственность; цифровые технологии
Для цитирования: Шутова А. А. Особенности квалификации преступлений, совершаемых лицами, использующими технологии искусственного интеллекта в здравоохранении. Lexrussica. 2023. Т. 76. № 12. С. 113-123. DOI: 10.17803/1729-5920.2023.205.12.113-123
Albina A. Shutova
Kazan Innovative University named after V.G. Timiryasov Kazan, Russian Federation
Abstract. Recognizing positive possibilities of artificial intelligence technologies in healthcare, as well as current ways to use them, the author identifies the main forms of implementation of digital innovation: physical form
© Шутова А. А.,2023
Features of Classification of Crimes Committed by Persons using Artificial Intelligence Technologies in Healthcare
LEX IPS»
in the form of a medical robot and intellectual form in the form of software, registered as medical devices. It is stated that the legal issues related to bringing to justice for actions related to the use of intelligent systems in healthcare, which led to negative consequences, including harm to the life and health of patients, have yet to be resolved. According to the current legal regulation in Russia it is a medical organization and a medical professional using artificial intelligence systems or medical robotics equipped with digital technologies who are held liable for the harm caused to the life and (or) health of citizens while providing them with medical care. In turn, system developers, as well as those who train a system based on artificial intelligence (developers of artificial intelligence systems), are not held liable. The problems of classification of crimes committed by medical professionals using artificial intelligence technologies in healthcare are considered. A medical worker providing medical care using artificial intelligence may be the subject of a crime under Part 2 of Article 109 and part 2 of Article 118 of the Criminal Code of the Russian Federation, but not under Article 238 of the Criminal Code of the Russian Federation. In addition, the rules for the classification of crimes committed by other entities (the operator of information systems) using artificial intelligence technologies are formulated.
Keywords: healthcare; artificial intelligence; machine learning; medical worker; medical device; patient; crime; robotics; criminal liability; digital technologies
Cite as: Shutova AA. Features of Classification of Crimes Committed by Persons using Artificial Intelligence Technologies in Healthcare. Lexrussica. 2023;76(12):113-123. (In Russ.). DOI: 10.17803/1729-5920.2023.205.12. 113-123
Введение
Искусственный интеллект активно врывается во многие сферы жизнедеятельности человека, при этом не обделяя вниманием и сферу здравоохранения. Передовые алгоритмы и большие наборы данных теперь используются в процессе оказания медицинской помощи пациентам1. Неоспоримый факт, что в ближайшее десятилетие внедрение технологий искусственного интеллекта вызовет изменение парадигмы в оказании медицинской помощи2. В Российской Федерации уже зарегистрированы в качестве медицинских изделий различные системы с искусственным интеллектом и их количество будет только увеличиваться. Так, разработаны и зарегистрированы такие медицинские изделия,
которые используются для диагностики3, лечения4, профилактики5 и в целом для автоматизации учреждений системы здравоохранения6. Технологии искусственного интеллекта реализуются в двух основных направлениях. Первое включает в себя физическую форму реализации цифровой инновации в медицине посредством разработки медицинских изделий, к примеру медицинских роботов7, оснащенных системами искусственного интеллекта. Второе направление подразумевает под собой виртуальную форму, которая включает в себя электронные медицинские карты и активное руководство врачами данной технологией в качестве программного обеспечения в принятии решения или в качестве дополнительного источника информации (системы поддержки принятия клинических решений).
Capelli G., Verdi D., Frigerio I., Rashidian N. White Paper : Ethics and Trustworthiness of Artificial Intelligence in Clinical Surgery // Artificial intelligence surgery. 2023. Vol. 3. № 2. P. 111-122.
SunartiS., Fadzlul Rahman F., Naufal M., Risky M., Febriyanto K., Masnina R. Artificial intelligence in healthcare: opportunities and risk for future // Gaceta Sanitaria. 2021. Vol. 35. № 1. P. S67-S70.
Hereditary Cancer Screening and Risk Reduction Software // URL: https://onqueta.com/ ; ТОП-3 — умный цифровой помощник врача на базе ИИ // URL: https://sbermed.ai/diagnostic-center/our-algorithms/top-3/ ; Искусственный интеллект для дистанционной диагностики и мониторинга заболеваний // URL: https:// medicase.pro (дата обращения: 20.06.2023).
Сабина AI — ваш ИИ друг // URL: https://sabina-ai.com/ (дата обращения: 19.06.2023).
URL: https://medicase.pro // (дата обращения: 22.06.2023).
URL: https://rosmed.info/about ; http://muscles.ai/ (дата обращения: 20.07.2023).
Шутова А. А. Незаконное применение медицинских роботов: уголовно-правовая оценка и криминологические риски // Вестник Удмуртского университета. Серия «Экономика и право». 2021. Т. 31. № 3. С. 515-521.
1
2
3
4
5
6
7
Постановка проблемы
До настоящего времени остаются нерешенными вопросы правовой регламентации ответственности за вред, причиненный жизни или здоровью пациента (или иным объектам правовой охраны) в результате ошибки в диагностике, неисправности технологии искусственного интеллекта или первоначального использования неточных (или неподходящих) данных для обучающей базы данных. Возникают вопросы о наличии в действиях разработчиков подобных цифровых технологий признаков состава преступления при наступлении негативных последствий, об определении ответственности медицинского работника при неверном диагнозе, приведшем к смерти пациента, или если лечение было вызвано сбоем в системе или ошибкой ввода данных. К примеру, когда система искусственного интеллекта определяет инфекционное заболевание и рекомендует курс лечения и лекарство, а оказывается, что у пациента аллергия на такого рода лекарства. В результате система не замечает опухоль при рентгенологическом сканировании.
Кроме того, важным представляется решение вопроса, связанного с определением того, достаточно ли действующих норм для возложения ответственности на субъектов за ущерб, причиненный медицинскими роботами, оснащенными искусственным интеллектом, способными выполнять диагностику.
Стоит поддержать мнение автора, которая полагает, что «именно специфические характеристики технологий искусственного интеллекта, такие как автономность и самообучаемость, обуславливают особенности правового регулирования отношений в сфере их разработки и применения»8.
Текущая модель правового регулирования
В Российской Федерации субъектом оказания медицинской помощи является не лечащий врач, а непосредственно медицинская органи-
зация (ст. 98 Федерального закона от 21.11.2011 № 323-ф3 «Об основах охраны здоровья граждан в Российской Федерации»9). Вред, причиненный жизни и (или) здоровью граждан при оказании им медицинской помощи, возмещается медицинскими организациями. Однако возмещение вреда не освобождает медицинских работников от привлечения к ответственности (ст. 1085 и 1087 Гражданского кодекса РФ10). В связи с этим ответственность в Российской Федерации возлагается на 2 субъектов: медицинскую организацию (к которой предъявляются требования по наличию лицензии) и на медицинского работника, использующего системы искусственного интеллекта или медицинскую робототехнику, оснащенную цифровыми технологиями. Законодательством предусмотрена возможность подачи гражданско-правового иска к медицинской организации, а при наличии признаков состава преступления медицинский работник может подлежать уголовной ответственности.
Однако возложение ответственности, в том числе уголовной, только на медицинских работников (а не на разработчиков, тестиров-щиков и лиц, занимающихся техническим обслуживанием, ремонтом и т.д.) может повлечь негативное отношение и неодобрение со стороны медицинского сообщества, которое в этом случае будет считать себя сильно уязвимым и ущемленным в правах. В свою очередь, медицинские организации могут отказаться от внедрения искусственного интеллекта в клиническую практику под страхом привлечения их к административной ответственности, а их сотрудников — к уголовной.
Перспективная модель правового регулирования
В процессе выработки оптимальной модели юридической ответственности за вред, причиненный в результате использования технологий искусственного интеллекта в здравоохранении, возникнет резонный вопрос: каким образом можно привлечь к ответственности создателей
8 Ерахтина О. С. Подходы к регулированию отношений в сфере разработки и применения технологий искусственного интеллекта: особенности и практическая применимость // Journal of Digital Technologies and Law. 2023. № 1 (2). С. 421437.
9 Федеральный закон от 21.11.2011 № 323-ф3 «Об основах охраны здоровья граждан в Российской Федерации» // СЗ РФ. 2011. № 48. Ст. 6724.
10 Часть вторая Гражданского кодекса Российской Федерации от 26.01.1996 № 14-ФЗ // СЗ РФ. 1996. № 5. Ст. 410.
да трэж
или лиц, обучающих систему, функционирующую на основе искусственного интеллекта (разработчика систем искусственного интеллекта), если Росздравнадзор одобрил данное медицинское изделие и провел все виды испытаний. В процессе регистрации медицинского изделия участвует множество субъектов (лица, участвующие в контроле медицинского изделия; аккредитованная организация, проводящая его технические испытания; спонсор клинического исследования; другие лечебные учреждения, вовлеченные в исследование), следовательно, государство декларирует невозможность причинения им вреда в результате использования. Однако для того, чтобы убедиться, что системы искусственного интеллекта надежны и безопасны для пациентов и медицинских работников, понадобится немало времени, при этом исключить однозначно возможность причинения ими вреда, как мы полагаем, нельзя. Кроме того, составы преступлений, закрепляющих ответственность подобных субъектов (разработчиков, лиц, участвующим в контроле, проводящих технические испытания, и др.) как специальных субъектов, уголовным законодательством России на данный момент не предусмотрены.
Представляется, что с учетом новизны представленной цифровой технологии, отсутствия эффективного пострегистрационного контроля за медицинскими изделиями, оснащенными системами искусственного интеллекта, не стоит исключать риск вреда, который может быть причинен в результате использования на различных этапах жизненного цикла медицинского изделия.
В связи с этим нам видится достаточно перспективным и важным разработать особый (специальный) порядок регистрации медицинских изделий, оснащенных технологиями искусственного интеллекта, выделив его в постановлении Правительства РФ от 27.12.2012 № 1416 «Об утверждении Правил государственной регистрации медицинских изделий»11. Учитывая особый статус технологий искусственного интеллекта как разновидности медицинских изделий, их цифровую природу, высокий риск опасностей от их применения, а также в целях дифференциации уголовной ответственности и возможности привлечения к ответственности конкретных субъектов, непосредственно участвующих в обороте медицинского изделия
на основе искусственного интеллекта, предлагаем сформировать особый (специальный) порядок регистрации, который будет включать возложение персональной ответственности не на должностных лиц организации, осуществляющих деятельность на основе лицензии, а на конкретных физических лиц, которые подписывали (утверждали) итоговый документ на каждом из этапов оборота медицинского изделия. Это позволит сформировать правовой режим безопасного оборота медицинских изделий, оснащенных технологиями искусственного интеллекта, возложить персональную (в том числе уголовную) ответственность на субъектов, вовлекаемых в оборот медицинского изделия на всех этапах жизненного цикла, а также сформировать уголовно-правовые запреты неправомерных действий, что обеспечит охрану наивысших ценностей (жизнь и здоровье граждан) средствами уголовного закона.
Несомненно, мы понимаем, что достаточно сложно отграничить вред, который был причинен в результате применения медицинского робота, от некачественно оказанной медицинской помощи, в результате которой наступили негативные последствия, и для подобного обстоятельства следует проводить дорогостоящие экспертизы, в том числе компьютерные. Однако их проведение будет необходимым и позволит установить лиц, от действий (бездействия) которых могли наступить негативные последствия, позволит пациентам (и их близким) быть защищенными с точки зрения оказания им медицинской помощи, повысит доверие к медицине, а также в целом увеличит потенциал юридической ответственности и неотвратимости наказания.
Квалификация преступлений, совершаемых медицинскими работниками, использующими технологии искусственного интеллекта
Далее рассмотрим вопросы квалификации преступлений, совершаемых медицинскими работниками, которые при использовании медицинских изделий, оснащенных технологиями искусственного интеллекта, могут причинить вред жизни и здоровью пациентов. Достаточно часто медицинские работники привлекаются к ответственности за неосторожное причинение
11 Постановление Правительства РФ от 27.12.2012 № 1416 «Об утверждении Правил государственной регистрации медицинских изделий» // СЗ РФ. 2013. № 1. Ст. 14.
вреда жизни или тяжкого вреда здоровью пациентов вследствие ненадлежащего исполнения профессиональных обязанностей (ч. 2 ст. 109, ч. 2 ст. 118 УК РФ). Несомненно, наиболее важным является установление прямой причинно-следственной связи между деянием медицинского работника при оказании им медицинской помощи и наступившими последствиями. Следовательно, необходимо будет устанавливать, какие стандарты, порядки оказания медицинской помощи, а также клинические рекомендации нарушил медицинский работник в процессе лечения12 с использованием технологий искусственного интеллекта. Так, если врач выбирает лечение, которое не соответствует стандартам оказания медицинской помощи, в результате которого пациент погибает, то в действиях виновного содержатся признаки состава преступления, предусмотренного частью 2 ст. 109 УК РФ.
Проблема также осложнена тем, что действующие стандарты оказания помощи пациентам не предусматривают использования искусственного интеллекта в целях реализации задач, возложенных на цифровое здравоохранение. Искусственный интеллект может просматривать снимки мозга людей, страдающих потерей памяти, и определять, у кого разовьется полномасштабная болезнь Альцгеймера, а у кого нет13. Вероятно, что, когда эти технологии станут более доступными, каждая из них может стать частью стандарта лечения пациентов.
Полагаем, что необходимо разработать и включить в действующие стандарты оказания помощи пациентам использование технологий искусственного интеллекта в целях реализации задач, возложенных на цифровое здравоохранение. Однако указать, что решающая роль остается за медицинским работником, а данные, полученные с помощью систем искусственного интеллекта, носят рекомендательный характер и не могут быть использованы медицинским работником как единственный объективный источник информации; непосред-
ственное решение о постановке диагноза или выборе метода лечения, назначении лекарства остается именно за врачом. Разработка стандартов применения искусственного интеллекта позволит медицинским работникам стандартизировать процесс оказания помощи, в случае отклонения от предписаний подобных документов — привлекать к ответственности, в том числе к уголовной, за их несоблюдение, частичное соблюдение, игнорирование и т.д. Стоит согласиться с мнением эксперта о том, что с внедрением искусственного интеллекта в медицинскую практику врачи должны знать, как закон будет возлагать ответственность за травмы, возникающие в результате взаимодействия между алгоритмами и практикующими врачами14.
Полагаем, что также стоит рассмотреть перспективную ситуацию, при которой технологии искусственного интеллекта и их результаты будут использоваться в клинической медицине. При этом медицинские работники, руководствовавшиеся назначенным технологией искусственного интеллекта лечением и причинившие вследствие этого пациенту тяжкий вред здоровью либо смерть по неосторожности, не привлекаются к ответственности, если в их должностные обязанности (определенные стандартами оказания медицинской помощи) не входила дополнительная проверка поставленного цифровой технологией диагноза. Подобные ситуации следует рассматривать как невиновное причинение вреда (ст. 28 УК РФ). Однако в случае возложения на медицинского работника обязанности — путем указания в нормативных правовых актах Минздрава России — проверки результатов (данных, метода лечения), полученных с использованием технологии искусственного интеллекта, ее игнорирование приведет к привлечению работника к уголовной ответственности при наступлении последствий в виде причинения пациенту тяжкого вреда здоровью или смерти по неосторожности.
12 Малюгин С. В., Винокурова А. А. Клинические рекомендации в системе регламентации оказания медицинской помощи в современной России: теоретическое представление и практические аспекты // Lex russica. 2023. Т. 76. № 7. С. 28-47 ; Шутова А. А. Привлечение медицинских работников к уголовной ответственности за несоблюдение положений документов, регламентирующих порядок оказания медицинской помощи // Вестник Академии Следственного комитета Российской Федерации. 2020. № 4 (26). С. 64-68.
13 Разработан точный метод предсказания болезни Альцгеймера // URL: https://lenta.ru/news/2021/09/05/ neuro/ (дата обращения: 12.07.2023).
14 Maliha G., Gerke S., Cohen I. G., Parikh R. B. Artificial Intelligence and Liability in Medicine: Balancing Safety and Innovation // Milbank Q. 2021. Vol. 99. № 3. P. 629-647.
LEX RUSSCA
Кроме того, при наступлении негативных последствий в результате применения медицинским работником цифровой технологии будет достаточно проблематично установить причинно-следственную связь и выявить истинную причину, приведшую к подобному результату. Однако причинно-следственная связь должна быть доказана в случаях ответственности за качество продукции. Например, в недавнем случае робот «Да Винчи» отображал несколько сообщений об ошибках, и ни хирургическая бригада, ни представитель компании не смогли заставить робота работать, поэтому хирург использовал лапароскопическое оборудование вместо робота в оставшейся части операции. В результате у пациента возникли осложнения, которые, как он утверждал, были вызваны неисправностью робота и ошибкой хирурга15. Полагаем, что, когда медицинский робот выходит из строя, хирург должен использовать знания и навыки, необходимые для завершения процедуры без его использования, что может стать проблемой, если медицинский работник редко, если вообще когда-либо, выполнял процедуру самостоятельно без роботизированного изделия. В какой-то момент в стандарте медицинской помощи может быть указано, что медицинская манипуляция (процедура) прекращается до тех пор, пока медицинский робот не будет отремонтирован, вместо того чтобы рисковать осложнениями, выполняя процедуру так, как врачи-хирурги лишь смутно знают или помнят (при отсутствии у него навыка).
Таким образом, медицинский персонал, злоупотребляющий технологиями или использующий их небрежно, несет такую же ответственность за причинение вреда, как и врач, использующий нечистые инструменты или забывающий их в теле пациента, что приводит к негативным последствиям16.
Достаточно часто в судебно-следственной практике можно заметить, что сходные по объективным и субъективным признакам составы преступлений подлежат квалификации по разным уголовно-правовым нормам: ч. 2 ст. 109 УК РФ (или ч. 2 ст. 118 УК РФ) и п. «в» ч. 2 ст. 238 УК РФ.
Подобная юридическая оценка приводит к отсутствию единообразного подхода к квалификации сходных между собой деяний, а также абсолютно разным наказаниям, применяемым за их совершение (ч. 2 ст. 109 УК РФ — преступление небольшой тяжести и п. «в» ч. 2 ст. 238 УК РФ — преступление тяжкое). Такое состояние дел связано с тем, что медицинскую помощь, исходя из ст. 2 Федерального закона № З23-Ф3, рассматривают как медицинскую услугу, являющуюся одним из видов иных оказываемых населению услуг. Следовательно, на данный момент происходит смешение лечения пациентов с оказанием услуг потребителям.
Кроме того, различие между данными составами преступлений заложено и в их элементах. В первую очередь разграничение следует проводить по объекту преступления. Применительно к ч. 2 ст. 109 УК РФ (или ч. 2 ст. 118 УК РФ) непосредственным объектом являются общественные отношения, направленные на охрану жизни или здоровья человека. В свою очередь, непосредственным объектом преступления, предусмотренного статьей 238 УК РФ, является не здоровье человека, а здоровье населения — общественные отношения, складывающиеся по поводу правильной организации здравоохранения, направленной на обеспечение благополучия граждан в целом. Различия наблюдаются также и в видовом и родовом объектах преступлений.
Представленные составы преступлений различаются и по фигуре потерпевшего. Так, для ст. 238 УК РФ характерен потребитель в качестве потерпевшего, которому оказываются услуги, не отвечающие требованиям безопасности жизни или здоровья. В свою очередь, для ст. 109 и 118 УК РФ потерпевшим выступает человек, которому причиняется тяжкий вред здоровью или смерть. Полагаем, что пациент и потребитель — это разные категории, на которых распространяет свое действие разное законодательство. Таким образом, применение ст. 238 УК РФ возможно при системном характере медицинских нарушений, когда существует угроза жизни или здоровью неопределенного круга лиц. В таких случаях последствия настигают
15 Rajih E., Tholomier C., Cormier B., Samouëlian V., Warkus T., Liberman M., Widmer H., Lattouf J. B., Alenizi A. M., Meskawi M., Valdivieso R., Hueber P. A., Karakewicz P. I., El-Hakim A., Zorn K. C. Error reporting from the da Vinci surgical system in robotic surgery: A Canadian multispecialty experience at a single academic centre // Canadian Urological Association Journal. 2017. Vol. 11. № 5. P. E197-E202.
16 Пациент получил компенсацию за забытый в нем хирургами инструмент // URL: https://rg.ru/2019/10/21/ pacient-poluchil-kompensaciiu-za-zabytyj-v-nem-hirurgami-instrument.html (дата обращения: 14.06.2023).
определенного пациента, однако вред потенциально мог быть причинен любому пациенту.
Кроме того, преступления, предусмотренные статями 109 и 238 УК РФ, различаются по форме вины. При квалификации ненадлежащего оказания медицинской помощи выбор статьи зависит от психического отношения виновного к своему деянию и наступившим последствиям. Нормы ст. 109 и 118 УК РФ предполагают неосторожную форму вины, в то время как пункт «в» ч. 2 ст. 238 УК РФ характеризуется умышленной формой вины, то есть должен быть установлен умысел на оказание услуг, не отвечающих требованиям безопасности жизни или здоровья потерпевшего17. Несомненно, в данном случае имеет место двойная форма вины.
Полагаем, что стоит учитывать тот факт, что медицинский работник не имеет лицензии на осуществление медицинской деятельности, она выдается медицинской организации, с которой он вступает в трудовые отношения, или индивидуальному предпринимателю, а также договоры возмездного оказания услуг заключаются от имени организации. В результате конкретный медицинский работник не является стороной договора оказания услуги, который заключается между организацией и непосредственно пациентом.
Кроме того, исходя из конструкции уголовно-правовой нормы, вытекает резонный вопрос о том, какие требования безопасности жизни или здоровья устанавливаются к медицинским услугам?
Согласно действующему законодательству установлен государственный контроль за качеством и безопасностью медицинской деятельности (ст. 87 Федерального закона № З23-Ф3), а медицинские изделия подлежат мониторингу безопасности. Согласно приказу Минздрава РФ от 31.07.2020 № 787н «Об утверждении Порядка организации и проведения ведомственного контроля качества и безопасности медицинской деятельности» к безопасности медицинской деятельности следует отнести соблюдение медицинскими организациями безопасных условий труда, требований по безопасному применению и эксплуатации медицинских изделий и
их утилизации (уничтожению). Нарушение требований охраны труда, в том числе в процессе оказания медицинской помощи, влечет квалификацию по ст. 143 УК РФ при наличии признаков состава преступления. Следовательно, по ст. 238 УК РФ подлежат квалификации нарушения безопасности при использовании медицинских изделий, а также нарушения в процессе их утилизации (уничтожения).
В связи с этим полагаем, что обязанности медицинского работника, оказывающего медицинскую помощь, подлежат квалификации по ст. 238 УК РФ только в результате небезопасного использования медицинских изделий. Иные противоправные действия медицинского работника, которые привели к негативным последствиям в результате ненадлежащего исполнения или неисполнения им должностных обязанностей, влекут ответственность по иным составам преступлений (к примеру, предусмотренных статьями 109 или 118 УК РФ).
Полагаем, что сложившийся в судебно-след-ственной практике подход о весьма вольной и широкой трактовке требований безопасности применительно к медицинской деятельности не выдерживает критики. Следовательно, любое несоблюдение врачом стандартов оказания медицинской помощи, клинических рекомендаций или иных правовых актов оценивается как нарушение безопасности оказания медицинской помощи, создающее опасность для здоровья и жизни пациентов. Однако такая оценка, как представляется, меняет законодательное содержание уголовно-правового запрета. В связи с этим дискуссионным представляется вынесение приговора по ст. 238 УК РФ в отношении медицинских работников при неверном определении степени тяжести состояния ребенка и необоснованном направлении его на амбулаторное лечение, что привело к запоздалой госпитализации в медицинский стационар и его последующей смерти от полиорганной недостаточности вследствие генерализированной вирусной инфекции (п. «б», «в» ч. 2 ст. 238 УК РФ)18, при непринятии акушером-гинекологом своевременного решения об операции во время родов, непроведении УЗИ и кардиотокографии, назначении вредной для
17 Постановление Пленума Верховного Суда РФ от 25.06.2019 № 18 «О судебной практике по делам о преступлениях, предусмотренных статьей 238 Уголовного кодекса Российской Федерации» // Российская газета. 2019. 3 июля.
18 Определение СК по уголовным делам Шестого кассационного суда общей юрисдикции от 17.03.2022 по делу № 7У-2677/2022/77-1378/2022.
LEX 1Р?Ж
плода родостимуляции, проведении кесарева сечения с большим запозданием, в результате чего ребенок родился в тяжелом состоянии (ч. 1 ст. 238 УК РФ). Ненадлежащее оказание медицинской помощи можно квалифицировать по ст. 238 УК РФ только в том случае, когда помимо дефекта оказания медицинской помощи имело место еще и нарушение требований безопасности.
По статье 238 УК РФ за ненадлежащее оказание медицинской помощи должно нести ответственность лицо, принявшее решение об оказании медицинской помощи в нарушение требований безопасности. Это могут быть должностные лица (главные врачи, начальник медицинской службы, заведующие отделением и др.), лица, выполняющие управленческие функции, не относящиеся к должностным, а также врачи или иные медицинские работники, принимающие решения об оказании услуги, не соответствующей требованиям безопасности. Например, лица, принимающие решение об использовании для вакцинации некачественной вакцины или умышленно использующие незарегистрированное медицинское изделие(при проведении дистанционной лучевой терапии произошло сдавливание тела пациента между столом и коллиматором гамма-терапевтического аппарата, в результате чего ему были причинены телесные повреждения, от которых он скончался. Данный аппарат не зарегистрирован на территории России и представлял прямую угрозу жизни и здоровью пациентов)19.
Под безопасностью медицинской помощи понимается отсутствие недопустимого риска, связанного с возможностью нанесения ущерба (ОСТ 91500.01.0005-2001 «Отраслевой стандарт. Термины и определения системы стандартизации в здравоохранении», принят и введен в действие приказом Минздрава России от 22.01.2001 № 1220). Согласно данному определению, медицинская услуга (медицинская манипуляция) не должна иметь недопустимого (необоснованного) риска, который может привести к нанесению ущерба. Однако медицинская помощь уже подразумевает под собой определенный риск. Законом РФ от 07.02.1992 № 2300-1 «О защите прав потребителей»21
установлено, что безопасность услуги подразумевает безопасность услуги для жизни и здоровья, имущества потребителя и окружающей среды при обычных условиях, а также безопасность процесса выполнения работы (оказания услуги). Требования к безопасности должны быть установлены каким-либо нормативным актом. Для медицинской помощи регламенты, устанавливающие критерии безопасности, не выработаны.
Представляется, что практика привлечения к ответственности медицинских работников по ст. 238 УК РФ начала складываться в связи с тем, что согласно ст. 78 УК РФ лицо освобождается от уголовной ответственности, если со дня совершения преступления истекло 2 года после совершения преступления небольшой тяжести и 10 лет после совершения тяжкого преступления. В связи с этим по причине необходимости проведения значительного количества медицинских экспертиз, в том числе повторных, если предварительное следствие по уголовному делу, возбужденному по ч. 2 ст. 109 или ч. 2 ст. 118 УК РФ, не «успевает» привлечь медицинского работника к ответственности в течение двух лет, то по ходатайству потерпевшего или по собственной инициативе следователь может переквалифицировать действия медицинского работника на п. «в» ч. 2 ст. 238 УК РФ, срок давности по которому позволит направить дело в суд.
Кроме того, на врача налагается обязанность по информированию пациента о рисках оказанной медицинской помощи (услуги) с применением технологии искусственного интеллекта. Если медицинский работник не уведомляет пациента в достаточной мере о рисках и ограничениях, связанных с медицинским изделием, то он может подлежать ответственности, и указанное обстоятельство будет рассматриваться как одно из доказательств неисполнения медицинским работником возложенных на него обязанностей по информированию пациента. Несомненно, производители медицинских изделий с технологиями искусственного интеллекта обязаны надлежащим образом предупреждать врачей, которые будут использовать указанные устройства, о рисках, связанных с их
19 Медицинская палата Челябинской области // URL: http://www.medpalata74.ru/novosti/18-novosti-natsionalnoj-meditsmskoj-palaty/1427-v-otvete-za-uslugu-pnmeneme-stati-238-uk-rf-v-otnoshemi-meditsinskikh-rabotnikov (дата обращенияб 12.06.2023).
20 СПС «Гарант» (текст приказа официально опубликован не был).
21 Российская газета. 1992. 7 апреля.
продукцией. Врачи также должны раскрывать указанные сведения пациентам.
Квалификация преступлений, совершаемых иными субъектами, вовлеченными в оборот медицинского изделия, оснащенного технологией искусственного интеллекта
Оператор информационных систем также может подлежать уголовной ответственности за последствия использования технологий искусственного интеллекта. К примеру, если в результате действий оператора произошло незаконное распространение персональных данных пациентов, подпадающее под признаки состава преступления (ст. 137 УК РФ). Неприкосновенность частной жизни защищает личную идентичность и репутацию (благодаря установлению права на забвение, одним из элементов которого является неприкосновенность частной жизни)как в реальной, так и в виртуальной личной жизни22. Следует согласиться с мнением специалистов, полагающих, что медицинские изделия, оснащенные технологиями искусственного интеллекта, и медицинские роботы функционируют, собирая, аккумулируя и обрабатывая большие массивы личных данных, в том числе медицинских23.
Возможны и ситуации, связанные с неправомерным доступом к информации, находящейся в медицинском роботе или ином медицинском изделии, оснащенном технологией искусственного интеллекта, повлекшим изменение его функций, захват и отказ обслуживания и т.д. Несомненно, искусственный интеллект может быть использован при совершении преступлений злоумышленниками, то есть как средство достижения противоправных целей. Система искусственного интеллекта, используемая для оказания медицинской помощи населению, может быть подвержена перепрограммированию, заражению вирусом. В результате неправомерных действий может быть изменен алгоритм.
В этом случае при наличии умысла на причинение вреда здоровью или жизни граждан действия подобных лиц следует квалифицировать как совокупность преступлений в сфере компьютерной информации (гл. 28 УК РФ) и уголовно наказуемых деяний против личности (гл. 16 УК РФ).
Среди авторов присутствует мнение, согласно которому если в результате применения систем искусственного интеллекта будет причинен вред, к примеру, жизни человека в результате допущенной при проектировании алгоритма ошибки, то к ответственности следует привлечь разработчика алгоритма. В этом случае специалисты предлагают квалифицировать деяния по п. «в» ч. 2 ст. 238 УК РФ24. Однако полагаем, что текущее правовое регулирование не позволит привлекать к уголовной ответственности подобных субъектов по той причине, что юридические лица не могут быть субъектами преступлений и медицинские изделия были зарегистрированы Росздравнад-зором, следовательно, выпущены на коммерческий рынок.
Продавец медицинских изделий, оснащенных технологиями искусственного интеллекта, несет ответственность в том случае, если он вносит изменения в само медицинское изделие, оснащенное технологией искусственного интеллекта, не соответствующие требованиям безопасности его эксплуатации, указанным в ст. 238 УК РФ, и впоследствии сбывает его. При продаже продавец не предоставляет полную и достоверную информацию о медицинском изделии, в том числе о противопоказаниях к применению для некоторых категорий граждан.
Заключение
Итак, у технологий искусственного интеллекта в здравоохранении есть большой потенциал к развитию. Однако в связи с новым характе-
22 Фаллетти Э. Алгоритмическая дискриминация и защита неприкосновенности частной жизни // Journal of Digital Technologies and Law. 2023. Vol 1. № 2. С. 387-420.
23 Бегишев И. Р. Уголовно-правовая охрана общественных отношений, связанных с робототехникой М. : Общество с ограниченной ответственностью «Проспект», 2022. 384 с. ; Он же. Проект федерального закона «Об обороте роботов, их составных частей (модулей)» // Актуальные проблемы экономики и права. 2021. Т. 15, № 2. С. 379-391 ; Камалова Г. Г. Некоторые вопросы уголовно-правовой ответственности в сфере применения систем искусственного интеллекта и робототехники // Вестник Удмуртского университета. Серия «Экономика и право». 2020. Т. 30. № 3. С. 382-388.
24 Петрикова С. В.,Лаврушкина А. А. Субъективная сторона состава преступления при причинении вреда здоровью искусственным интеллектом // Социально-политические науки. 2021. Т. 11. № 6. С. 156-161.
LEX IPS»
ром данной цифровой инновации говорить о ее безопасности достаточно рано. Такие технологии, как искусственный интеллект, являются важным фактором риска. Чтобы максимально использовать потенциал цифровой инновации, необходимо определить риски ответственности, чтобы все субъекты понимали свою ответственность и юридические последствия, когда технология неизбежно причиняет вред.
Правовое регулирование фактически оказалось в состоянии, не позволяющем при наступлении негативных последствий в виде причинения вреда жизни и здоровью паци-
ентов привлекать субъектов, вовлекаемых в процесс разработки, клинических испытаний, к уголовной ответственности (кроме медицинских работников). Поэтому предлагается внести изменения в действующее позитивное правовое регулирование, которое персонализирует ответственность субъектов, вовлекаемых в процесс разработки и применения технологий искусственного интеллекта в медицине.
Предлагаются правила квалификации преступлений, совершаемых в результате применения технологий искусственного интеллекта в сфере здравоохранения.
СПИСОК ЛИТЕРАТУРЫ
Бегишев И. Р. Проект федерального закона «Об обороте роботов, их составных частей (модулей)» // Актуальные проблемы экономики и права. 2021. Т. 15. № 2. С. 379-391.
Бегишев И. Р. Уголовно-правовая охрана общественных отношений, связанных с робототехникой М. : Проспект, 2022. 384 с.
Ерахтина О. С. Подходы к регулированию отношений в сфере разработки и применения технологий искусственного интеллекта: особенности и практическая применимость // Journal of Digital Technologies and Law. 2023. Т. 1. № 2. С. 421-437.
Камалова Г. Г. Некоторые вопросы уголовно-правовой ответственности в сфере применения систем искусственного интеллекта и робототехники // Вестник Удмуртского университета. Серия «Экономика и право». 2020. Т. 30. № 3. С. 382-388.
Малюгин С. В., Винокурова А. А. Клинические рекомендации в системе регламентации оказания медицинской помощи в современной России: теоретическое представление и практические аспекты // Lex russica. 2023. Т. 76. № 7. С. 28-47.
Петрикова С. В., Лаврушкина А. А. Субъективная сторона состава преступления при причинении вреда здоровью искусственным интеллектом // Социально-политические науки. 2021. Т. 11. № 6. С. 156-161.
Фаллетти Э. Алгоритмическая дискриминация и защита неприкосновенности частной жизни // Journal of Digital Technologies and Law. 2023. Vol. 1. № 2. P. 387-420.
Шутова А. А. Незаконное применение медицинских роботов: уголовно-правовая оценка и криминологические риски // Вестник Удмуртского университета. Серия «Экономика и право». 2021. Т. 31. № 3. С. 515-521.
Шутова А. А. Привлечение медицинских работников к уголовной ответственности за несоблюдение положений документов, регламентирующих порядок оказания медицинской помощи // Вестник Академии Следственного комитета Российской Федерации. 2020. № 4 (26). С. 64-68.
Capelli G., Verdi D., Frigerio I., Rashidian N. White Paper : Ethics and Trustworthiness of Artificial Intelligence in Clinical Surgery // Artificial intelligence surgery. 2023. Vol. 3. № 2. P. 111-122.
Maliha G., Gerke S., Cohen I. G., Parikh R. B. Artificial Intelligence and Liability in Medicine: Balancing Safety and Innovation // Milbank Quarterly. 2021. Vol. 99. № 3. P. 629-647.
Rajih E., Tholomier C., Cormier B., Samouëlian V., Warkus T., Liberman M., Widmer H., Lattouf J. B., Alenizi A. M., Meskawi M., Valdivieso R., Hueber P. A., Karakewicz P. I., El-Hakim A., Zorn K. C. Error reporting from the da Vinci surgical system in robotic surgery: A Canadian multispecialty experience at a single academic centre // Canadian Urological Association Journal. 2017. Vol. 11. № 5. P. E197-E202.
SunartiS., Fadzlul Rahman F., Naufal M., Risky M., Febriyanto K., Masnina R. Artificial intelligence in healthcare: opportunities and risk for future // Gaceta Sanitaria. 2021. Vol. 35. № 1. P. S67-S70.
REFERENCES
Begishev IR. Criminal law protection of public relations related to robotics. Moscow: Prospekt Publ.; 2022. (In Russ.).
Begishev IR. Draft federal law «On the turnover of robots and their component parts (modules)». Aktualnye problemy ekonomiki i prava [Actual Problems of Economics and Law]. 2021;15(2):379-391. (In Russ.).
Capelli G, Verdi D, Frigerio I, Rashidian N. White Paper: Ethics and Trustworthiness of Artificial Intelligence in Clinical Surgery. Artificial intelligence surgery. 2023;3(2):111-122.
Erakhtina OS. Approaches to regulating relations in the field of development and application of artificial intelligence technologies: Features and practical applicability. Journal of Digital Technologies and Law. 2023;1-2:421-437. (In Russ.).
Falletti E. Algorithmic discrimination and protection of privacy. Journal of Digital Technologies and Law. 2023;1(2):387-420. (In Russ.).
Kamalova GG. Some issues of criminal liability in the field of application of artificial intelligence and robotics systems. Vestnik Udmurtskogo universiteta. Seriya «Ekonomika i pravo» [Bulletin of the Udmurt University. Economics and Law Series]. 2020;30(3):382-388. (In Russ.).
Maliha G, Gerke S, Cohen IG, Parikh RB. Artificial Intelligence and Liability in Medicine: Balancing Safety and Innovation. Milbank Quarterly. 2021;99(3):629-647.
Malyugin SV, Vinokurova AA. Clinical guidelines in the system of medical care in modern russia: theoretical statement and practical aspects. Lex russica. 2023;76;7:28-47. (In Russ.).
Petrikova SV, Lavrushkina AA. The subjective side of the corpus delicti in the case of harm to health by artificial intelligence. Sotsialno-politicheskie nauki. 2021. 11(6):156-161. (In Russ.).
Rajih E, Tholomier C, Cormier B, Samouëlian V, Warkus T, Liberman M, Widmer H, Lattouf JB, Alenizi AM, Meskawi M, Valdivieso R, Hueber PA, Karakewicz PI, El-Hakim A, Zorn KC. Error reporting from the da Vinci surgical system in robotic surgery: A Canadian multispecialty experience at a single academic centre. Canadian Urological Association Journal. 2017;11(5):197-202.
Shutova AA. Bringing medical workers to criminal responsibility for non-compliance with the provisions of documents regulating the procedure for providing medical care. Vestnik Akademii Sledstvennogo komiteta Rossiyskoy Federatsii. 2020;4(26):64-68. (In Russ.).
Shutova AA. Illegal use of medical robots: Criminal law assessment and criminological risks. Vestnik Udmurtskogo universiteta. Seriya «Ekonomika i pravo» [Bulletin of the Udmurt University. Economics and Law Series]. 2021;31(3):515-521. (In Russ.).
Sunarti S, Fadzlul Rahman F, Naufal M, Risky M, Febriyanto K, Masnina R. Artificial intelligence in healthcare: opportunities and risk for future. Gaceta Sanitaria. 2021;35(1):S67-S70.
ИНФОРМАЦИЯ ОБ АВТОРЕ
Шутова Альбина Александровна, кандидат юридических наук, старший научный сотрудник Научно-исследовательского института цифровых технологий и права, доцент кафедры уголовного права и процесса Казанского инновационного университета имени В.Г. Тимирясова д. 42, Московская ул., г. Казань 420111, Российская Федерация [email protected]
INFORMATION ABOUT THE AUTHOR
Albina A. Shutova, Cand. Sci. (Law), Senior Researcher, Scientific Research Institute of Digital Technologies
and Law, Associate Professor, Department of Criminal Law and Procedure,
Kazan Innovative University named after V.G. Timiryasov
42, Moskovskaya St., Kazan 420111, Russian Federation
Материал поступил в редакцию 6 августа 2023 г. Статья получена после рецензирования 15 сентября 2023 г. Принята к печати 15 ноября 2023 г.
Received 06.08.2023. Revised 15.09.2023. Accepted 15.11.2023.