Научная статья С. 92-100
УДК 343.2/.7
DOI: 10.47475/2311-696Х-2023-38-3-92-100
ПРИМЕНЕНИЕ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СФЕРЕ ЗДРАВООХРАНЕНИЯ: УГОЛОВНО-ПРАВОВЫЕ ДЕВИАЦИИ
Альбина Александровна Шутова
Казанский инновационный университет им. В.ГГТимирясова (ИЭУП), Казань, Россия [email protected] ф https://orcid.org/0000-0003-3015-3684
Аннотация. В работе поднимаются вопросы, связанные с выбором наиболее эффективной модели уголовно-правовой охраны общественных отношений, сопряженных с применением технологий искусственного интеллекта в сфере здравоохранения, а также осуществляется критический анализ выработанных и имеющихся в правовой науке подходов. С учетом особой значимости сферы здравоохранения, в первую очередь направленной на охрану жизни и здоровья граждан, правовой режим уголовно-правовой охраны на данный момент требует своевременной трансформации и выработки наиболее эффективной модели. Полагаем, что цифровые технологии и инновации должны не только способствовать позитивному развитию сферы здравоохранения, но и вызывать доверие у пациентов и медицинских работников, а также не провоцировать опасения по поводу их применения. Сложившийся правовой механизм может привести к тому, что медицинские организации могут отказаться от внедрения технологий искусственного интеллекта в клиническую практику под страхом привлечения их к административной ответственности, а их сотрудников — к уголовной. На основе изложенного предлагается выбор оптимальной модели уголовно-правовой охраны здравоохранительных общественных отношений, осложненных применением искусственного интеллекта.
Ключевые слова: искусственный интеллект, машинное обучение, этика, право, ответственность, здоровье граждан, уголовно-правовая охрана, робот, робототехника
Финансирование: статья подготовлена при стипендиальной поддержке Казанского инновационного университета имени В. Г. Тимирясова (ИЭУП).
Для цитирования: Шутова А. А. Применение технологий искусственного интеллекта в сфере здравоохранения: уголовно-правовые девиации // Правопорядок: история, теория, практика. 2023. № (3). С. 92-100. DOI: 10.47475/2311-696Х-2023-38-3-92-100
Research article
APPLICATION OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES IN THE SPHERE OF HEALTH: CRIMINAL LEGAL DEVIATIONS
Albina A. Shutova
Kazan Innovation University named after V. G. Timiryasov (IEUP), Kazan, Russia
[email protected] © https://orcid.org/0000-0003-3015-3684
Abstract. The paper raises questions related to the choice of the most effective model of criminal law protection of public relations associated with the use of artificial intelligence technologies in the field of healthcare, as well as a critical analysis of the approaches developed and available in legal science. Taking into account the special importance of the healthcare sector, primarily aimed at protecting the life and health of citizens, the legal regime of criminal law protection at the moment
© А. А. Шутова
requires timely transformation and the development of the most effective model. We believe that digital technologies and innovations should not only contribute to the positive development of the healthcare sector, but also inspire confidence among patients and medical workers, and also not provoke fears about their use. The current legal mechanism may lead to the fact that medical organizations may refuse to introduce artificial intelligence technologies into clinical practice under fear of bringing them to administrative responsibility, and their employees to criminal liability. Based on the foregoing, it is proposed to choose the optimal model for the criminal law protection of public health relations complicated by the use of artificial intelligence.
Keywords: artificial intelligence, machine learning, ethics, law, responsibility, citizens' health, criminal law protection, robot, robotics
Financing: The article was prepared with scholarship support from the Innovative University named after V. G. Timiryasov (IEML).
For citation: Shutova AA. Application of artificial intelligence technologies in the sphere of health: criminal legal deviations. Pravoporyadok: istoriya, teoriya, praktika [Legal and Order: History, Theory, Practice]. 2023;(3):92-100. DOI: 10.47475/2311-696X-2023-38-3-92-100 (In Russ.)
Введение
Система здравоохранения подвержена кардинальным изменениям вследствие процессов форсированной цифровизации в обществе. Медицина является, несомненно, одной из самых важных сфер по причине ее направленности на охрану наиболее значимых благ — жизни и здоровья граждан посредством использования новых инновационных подходов, нацеленных на предоставление рациональных и эффективных моделей для оказания медицинской помощи. В этом ключе применение технологий искусственного интеллекта можно назвать новым революционным решением в традиционной системе здравоохранения.
Однако в результате использования технологий искусственного интеллекта возникли опасения по поводу того, что наукоемкие цифровые технологии станут новым источником ошибок и утечек данных, которые могут иметь разрушительные последствия для пациентов и в целом для системы здравоохранения [1]. Цифровые инновации в медицине имеют огромные перспективы, но для их реализации необходимы соответствующие правила, сводящие к минимуму сопутствующие риски и угрозы.
Одними из актуальных вопросов современности являются: роль и место технологий искусственного интеллекта, используемых в сфере здравоохранения, перспективы их использования, выработка эффективной модели правового регулирования, а также возможность признания искусственного интеллекта, физически воплощенного в единице робототехники, объектом и (или) субъектом преступного правоотношения [2, с. 94-95]. Представленные направления в исследовании и последующем правовом регулировании,
несомненно, важны, так как достижения в области развития искусственного интеллекта могут быть использованы для совершения преступлений, представляя прямую угрозу охраняемым правам и интересам человека, общества и государства.
Описание исследования
Искусственный интеллект — это термин, используемый для описания способности компьютерной программы выполнять задачи, связанные с человеческим интеллектом, такие как рассуждение и обучение [3, с.31]. По мнению исследователей, искусственный интеллект может изменить здравоохранение, производя новые и важные идеи из огромного количества цифровых данных, созданных во время оказания медицинской помощи [4]. Многие специалисты полагают, что искусственный интеллект в целом окажет положительное влияние на систему здравоохранения, повысив точность диагнозов и эффективность оказания медицинской помощи [5]. Специалистами установлено то, что во многих задачах искусственный интеллект превосходит людей [6]. В некоторых областях медицинской диагностики, разработки лекарств и проведения лечения и хирургии представляется, что искусственный интеллект будет лучше, чем обученные медицинские работники [7].
Однако имеется и крайне противоположная точка зрения, согласно которой «системы искусственного интеллекта негативным образом окажут влияние на отношения между пациентом и медицинским работником, будут способствовать снижению квалификации последних, поставят неправильный диагноз или из-за ошибок в процессе принятия решений ненадлежащим образом вылечат пациентов» [8, с. 44].
Третья позиция авторов сводится к одновременному признанию перспектив технологий искусственного интеллекта и сохранению опасений по поводу их использования. Указанные соображения подчеркивают необходимость в нормативных правовых актах использовать потенциальные преимущества технологий искусственного интеллекта при минимизации любых сопутствующих рисков. Подобные инновации необходимы, если общество хочет реализовать результаты медицинских инноваций и избежать их негативного влияния. По мере того, как технологии искусственного интеллекта развиваются быстрыми темпами, специалисты из разных дисциплин формулируют опасения в отношении их использования, связанные с возможным причинением вреда здоровью пациентов, которые потребуют надлежащих правовых мер.
Несмотря на то, что в целях внедрения и развития технологий искусственного интеллекта в Российской Федерации вводятся экспериментальные правовые режимы, конкретное правовое регулирование ответственности за причинение вреда искусственным интеллектом действующим отечественным законодательством не предусмотрено. Об отсутствии правового регулирования технологий искусственного интеллекта и робототехники и решения вопроса ответственности за причинение вреда с их использованием прямо указано в распоряжении Правительства Российской Федерации от 19 августа 2020 г. № 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года»1.
Применение технологий искусственного интеллекта в здравоохранении вызывает множество вопросов, связанных с выбором оптимальной модели правового регулирования, возложением юридической ответственности на субъектов, вовлеченных в процесс их использования (разработчики, медицинские работники, их эксплуатирующие), а также проблем обезличивания персональных данных пациентов и предоставление искусственному интеллекту доступа к ним. При этом учитывая особую ценность жизни и здоровья граждан, мерам уголовной ответственности, призванным охранять наиболее важные общественные отношения, будет отдаваться превалирующее значение.
1 Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года : распоряжение Правительства РФ от 19 августа 2020 г. № 2129-р // Собрание законодательства РФ. 2020. № 35. Ст. 5593.
На данный момент стоит констатировать то, что системы искусственного интеллекта в здравоохранении в Российской Федерации применяются:
1. Как программное обеспечение (далее — ПО) с применением систем искусственного интеллекта, в этом случае ПО регистрируется как медицинское изделие;
2. Искусственный интеллект может быть составной частью и (или) принадлежностью медицинского робота, в этом случае роботизированное изделие признается медицинским изделием. При этом ПО уже не регистрируется, а является составной частью медицинского изделия.
С 2021 года активно разрабатываются национальные стандарты по использованию систем искусственного интеллекта в клинической медицине. На данный момент принято более 18 стандартов2.
Таким образом, технологии искусственного интеллекта в медицине могут быть применены:
— в качестве физических объектов в роботизированной хирургии, в которой медицинский робот оснащен технологиями искусственного интеллекта, являющиеся его неотъемлемой частью;
— виртуально (в качестве ПО) отдельно от робота в виде киберфизической и иных «искусственных» систем [9, с. 82].
Необходимо отметить, что в Роздрав-надзоре зарегистрированы следующие медицинские изделия, использующие технологию искусственного интеллекта: ПО Webiomed
2 ГОСТ Р 59921.1-2022. Системы искусственного интеллекта в клинической медицине. Часть 1. Клиническая оценка : национальный стандарт Российской Федерации (утв. и введен в действие приказом Федерального агентства по техническому регулированию и метрологии от 28 июня 2022 г. № 545-ст) ; ГОСТ Р 59921.2-2021. Системы искусственного интеллекта в клинической медицине. Часть 2. Программа и методика технических испытаний : национальный стандарт Российской Федерации (утв. и введен в действие приказом Федерального агентства по техническому регулированию и метрологии от 2 декабря 2021 г. № 1670-ст) ; ГОСТ Р 59921.3-2021. Системы искусственного интеллекта в клинической медицине. Часть 3. Управление изменениями в системах искусственного интеллекта с непрерывным обучением : национальный стандарт Российской Федерации (утв. и введен в действие приказом Федерального агентства по техническому регулированию и метрологии от 2 декабря 2021 г. № 1671-ст) ; ГОСТ Р 59921.5-2022. Системы искусственного интеллекта в клинической медицине. Часть 5. Требования к структуре и порядку применения набора данных для обучения и тестирования алгоритмов : национальный стандарт Российской Федерации (утв. и введен в действие приказом Федерального агентства по техническому регулированию и метрологии от 31 марта 2022 г. № 180-ст).
предназначено для автоматического анализа обезличенных медицинских данных с целью прогнозирования возможного развития заболеваний и их осложнений1; ПО Care Mentor AI помогает врачам-рентгенологам определять наличие у пациентов признаков злокачественных новообразований, туберкулеза пневмонии и других социально-значимых патологий2.
Модели уголовной ответственности за вред, причиненный в результате эксплуатации систем искусственного интеллекта
Первая модель — наделение систем искусственного интеллекта правосубъектностью, в результате чего появляется возможность рассматривать их как полноправных субъектов уголовной ответственности.
Исследование вопросов, связанных с выбором оптимальной модели правового регулирования, возложением ответственности на субъекты, вовлеченные в процесс его использования, в последнее время уделяется значительное внимание. И если ученых-правоведов значительным образом смущает рассмотрение его в качества субъекта преступления и установления субъективной стороны состава преступления, невозможности реализации многих институтов уголовного закона в отношении них, то зарубежные специалисты предлагают весьма интересные модели юридической ответственности систем искусственного интеллекта.
В уголовно-правовой науке имеются абсолютно противоположные точки зрения о возможности привлечения к уголовной ответственности искусственного интеллекта. Стоит согласиться с авторами, полагающими то, что «вопрос о привлечении искусственного интеллекта к уголовной ответственности за совершение преступления неразрывно связан с наделением его правосубъектностью» [10, с. 569]. Одни специалисты предлагают признать его субъектом преступления, а следовательно, применить к нему меры уголовной ответственности, а другие — об абсолютной невозможности применить к нему меры уголовно-правового воздействия [11, с. 24-25].
1 Система «Webiomed» стала первой Российской разработкой в области искусственного интеллекта для здравоохранения, зарегистрированной как медицинское изделие // Webiomed. URL: https://webiomed.ru/ novosti/sistema-webiomed-stala-pervoi-rossiiskoi-razrabot-koi-v-oblasti-iskusstvennogo-intellekta/ (дата обращения: 28.06.2023).
2 URL: https://roszdravnadzor.gov.ru/services/
misearch (дата обращения: 28.06.2023).
Выработано несколько подходов к совершенствованию правового регулирования в указанной области:
— признание искусственного интеллекта самостоятельным субъектом права и личностью [12, с. 120-125];
— признание искусственного интеллекта юридическим лицом [13, с. 24]. Так, в некоторых юридических исследованиях содержатся предложения по внедрению законодательства о преследовании роботов в случае совершения ими преступления, где в качестве наказания для таких систем предусматривается «перепрограммирование» или уничтожение программы [14, с. 171-201];
— наделение искусственного интеллекта признаками вещи [15];
— возможности наделения искусственного интеллекта правовым статусом домашних животных [16, с. 47-48];
— признание искусственного интеллекта искусственным лицом [17, с. 476].
К этому следует добавить, что существует и иная точка зрения, выраженная в разработанном в последнее время в Совете Федерации Федерального Собрания Российской Федерации законопроекте о правовом регулировании отношений в сфере оборота роботов, согласно которой целесообразно на территории нашей страны вовсе запретить оборот роботов, обладающих возможностью самостоятельного принятия решений и способных действовать на основании самостоятельно сформулированного поведенческого алгоритма3.
Полагаем, что на данном этапе наделять технологии искусственного интеллекта в здравоохранении правосубъектностью юридически нецелесообразно [18, с. 378]. Несомненно, стоит полагать, что в результате деятельности программы может быть причинен вред жизни или здоровью пациентов или иным объектам уголовно-правовой охраны, в то время, как производитель сделал все возможное, работник, который его эксплуатировал, не нарушал соответствующих правил при применении, но в процессе самообучения программа выдала нежелательные действия.
Вторая модель — возложение мер уголовной ответственности на пользователя систем искусственного интеллекта — на медицинскую организацию и медицинского работника, их эксплуатирующих (текущая модель правового регулирования).
3 В Совфеде разработали законопроект, описывающий взаимоотношения робота и человека в РФ // ТАСС. URL: https://tass.ru/obschestvo/13243537 (дата обращения: 28.06.2023).
Несомненно, стоит повторить то, что искусственный интеллект при функционировании и реализации своей деятельности может причинить ущерб гражданам, обществу и в целом государству. Общеправовой подход, признанный всем мировым сообществом, гласит, что ущерб, причинённый незаконными действиями других, должен быть возмещен правонарушителем или лицом, ответственным за действия нарушителя.
В отличие от других зарубежных стран в Российской Федерации субъект оказания медицинской помощи — не врач, а непосредственно медицинская организация (статья 98 Федерального закона от 21 ноября 2011 г. № 323-03 «Об основах охраны здоровья граждан в Российской Федерации»1). Вред, причиненный жизни и (или) здоровью граждан при оказании им медицинской помощи, возмещается медицинскими организациями. Однако возмещение вреда не освобождает медицинских работников от привлечения к ответственности (статьи 1085 и 1087 Гражданского кодекса Российской Федерации2). В связи с этим ответственность в Российской Федерации возлагается на двух субъектов: медицинскую организацию (к которой предъявляются требования по наличию лицензии) и возможность подачи гражданско-правового иска, а также на медицинского работника, эксплуатирующего системы искусственного интеллекта или медицинскую робототехнику. В данном случае при наличии признаков состава преступления медицинский работник может подлежать уголовной ответственности.
Однако возложение ответственности, в том числе уголовной только на медицинских работников может повлечь негативное отношение и неодобрение со стороны медицинского сообщества, которые будут считать себя сильно уязвимыми и ущемленными. В свою очередь медицинские организации могут отказаться от внедрения искусственного интеллекта в клиническую практику под страхом привлечения их к административной ответственности, а их сотрудников — к уголовной. Поэтому полагаем, что такой подход не выдерживает критики и нуждается в конкретизации.
Третья модель — возложение мер уголовной ответственности на создателей систем
1 Об основах охраны здоровья граждан в Российской Федерации : Федеральный закон от 21 ноября 2011 г. № 323-Ф3 // Собрание законодательства РФ. 2011. № 48. Ст. 6724.
2 Гражданский кодекс Российской Федерации (часть
вторая) : от 26.01.1996 № 14-ФЗ // Собрание законодательства РФ. 1996. № 5. Ст. 410.
искусственного интеллекта или лиц, обучающих систему, функционирующую на основе искусственного интеллекта (разработчика систем искусственного интеллекта).
Установление мер уголовно-правового реагирования за деяния разработчиков и создателей систем искусственного интеллекта может повлечь отказ производителей от разработки и создания систем искусственного интеллекта и тем самым может снизить инвестиционную привлекательность. Чрезмерно обременительные правила могут ограничить развитие инноваций, сводя к минимуму потенциал искусственного интеллекта для реализации преимуществ, связанных со здоровьем. В то же время отсутствие регулирования могут привести к широкомасштабному ущербу, что снизит доверие к рассматриваемой цифровой технологии, связанному со здоровьем (со стороны самих пациентов и медицинских работников), и, возможно, к гораздо более жесткому регулированию.
В этом плане представляется схожим опыт США, в законодательстве которого определено то, что производитель не привлекается к ответственности, если программное обеспечение на основе искусственного интеллекта было проверено и одобрено Управлением по санитарному надзору за качеством пищевых продуктов и медикаментов США3.
В процессе выработки оптимальной модели юридической ответственности возникнет резонный вопрос: почему привлекаются к ответственности создатели или лица, обучающие систему, функционирующую на основе искусственного интеллекта (разработчика систем искусственного интеллекта), если Росздравнадзор одобрил данное медицинское изделие. В процессе регистрации медицинского изделия принимало участие множество субъектов (лица, участвующие в контроле, аккредитованная организация, проводящая технические испытания, спонсор клинического исследования, другие лечебные учреждения, вовлеченные в исследование).
В связи с этим в России сложился подход, согласно которому в настоящий момент указанные субъекты ответственности не подлежат. Медицинские изделия, разработанные для их последующего применения, обязательно подлежат государственной регистрации в Росздравнадзоре. Регистрация
3 Artificial Intelligence and Machine Learning in Software as a Medical Device // U. S. Food and Drug Administration. URL: https://www.fda.gov/medical-devices/ software-medical-device-samd/artificial-intelligence-and-ma-chine-learning-software-medical-device (дата обращения: 28.06.2023).
и выдача свидетельства о регистрации является подтверждением (фиксацией) факта безопасности и качества медицинского изделия (программное обеспечение с системами искусственного интеллекта). Однако в связи с тем, что регистрационные действия, в которые вовлекаются субъекты контроля и надзора, фактически являются монополией государственных органов, то и говорить о возможном (перспективном) привлечении их к уголовной ответственности не целесообразно. Медицинская организация провела клинические испытания, но в процессе эксплуатации медицинского изделия, оснащенного системами искусственного интеллекта, был причинен вред здоровью человека. Для подобного обстоятельства следует проводить дорогостоящие экспертизы.
Оператор информационных систем может подлежать уголовной ответственности за последствия использования технологий искусственного интеллекта. К примеру, если в результате действий оператора произошло незаконное распространение персональных данных пациентов, подпадающее под признаки состава преступления (ст. 137 УК РФ).
Е. П. Третьякова предполагает, что «на уровне законодательства должен быть установлен единственный субъект ответственности или же вопрос должен разрешаться в судебной плоскости с детальным установлением причинной связи между ошибкой робота и причинением вреда» [19, с. 57]. Так, исследователь предлагает «использовать повышенную ответственность для разработчиков медицинских изделий» [19, с. 58].
При условии причинения тяжкого вреда здоровью и неосторожной формы вины действия разработчиков целесообразно квалифицировать по п. «в» ч. 2 ст. 238 УК РФ [20, с. 158]. Однако полагаем, что действующее состояние правового регулирования в сфере здравоохранения не позволяет говорить о возложении ответственности на данных субъектов.
Четвертая модель — распределение мер уголовной ответственности по жизненному циклу систем искусственного интеллекта (производитель, медицинский работник учреждения или иные субъекты, вовлеченные в процесс эксплуатации системы искусственного интеллекта в медицине).
Несомненно, при данной модели уголовной ответственности возникнут сложности определения того, на каком этапе возникла проблема, которая привела к негативному результату, и кто виновен. Большое значение будет отдаваться установлению добросовестности субъектов в процессе эксплуатации
систем искусственного интеллекта (правильно ли применяли медицинское изделие, оснащенное искусственным интеллектом, не было ли модификации, была ли действительная необходимость в его применении в конкретной ситуации, загрузили ли все обновления). Полагаем, что представленный подход требует тщательного и детального правового регулирования, которое на данный момент отсутствует.
Схожей позиции придерживается Евро-парламент, согласно Резолюции которого от 16 февраля 2017 г. 2015/2013 (ШЬ) «Гражданско-правовые нормы о робототехнике» ответственность может возлагаться на одного из агентов (производитель, оператор, владелец или пользователь ИИ)1.
Согласно положениям отечественного законодательства любые медицинские изделия, разработанные для их последующего применения, подлежат государственной регистрации в Росздравнадзоре. Регистрация и выдача свидетельства о регистрации является подтверждением (фиксацией) факта безопасности и качества медицинского изделия. Однако в связи с тем, что регистрационные действия, в которые вовлекаются субъекты контроля и надзора, фактически являются монополией государственных органов, то и говорить о возможном (перспективном) привлечении их к уголовной ответственности на данный момент нельзя2. Пунктом 3 постановления Правительства Российской Федерации от 27 декабря 2012 г. № 1416 «Об утверждении Правил государственной регистрации медицинских изделий»3 установлено, что государственную регистрацию медицинский изделий осуществляет Росздравнадзор. Государственная регистрация проводится «...на основании результатов технических испытаний, токсикологических исследований, клинических испытаний, представляющих собой формы оценки соответствия медицинских
1 European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)) // European Parliament. URL: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EN.html (дата обращения: 28.06.2023).
2 Согласно постановлению Правительства Российской Федерации от 1 сентября 2020 г. № 1335 «О внесении изменения в пункт 2 Правил государственной регистрации медицинских изделий», от регистрации освобождены медицинские изделия, которые предназначены для использования на территории международного медицинского кластера (ММК) или на территориях инновационных научно-технологических центров.
3 Об утверждении Правил государственной регистрации медицинских изделий : постановление Правительства Российской Федерации от 27 декабря 2012 г. № 1416 // Собрание законодательства РФ. 2013. № 1. Ст. 14.
изделий с учетом классификации в зависимости от потенциального риска их применения, и экспертизы качества, эффективности и безопасности медицинских изделий с учетом классификации в зависимости от потенциального риска их применения...»1.
С учетом инновационного характера указанной новой цифровой технологии однозначно исключить ситуацию, связанную с тем, что в процессе эксплуатации медицинского изделия, оснащенного системами искусственного интеллекта, был причинен вред, несмотря на то, что были проведены технические, токсикологические и клинические испытания и было получено регистрационное удостоверение на медицинское изделие, невозможно.
Несомненно, представляется достаточно сложным отграничить вред, который наступил в результате применения медицинского робота, от некачественно оказанной медицинской помощи, в результате которой наступили негативные последствия и для подобного обстоятельства следует проводить дорогостоящие экспертизы, в том числе компьютерные. Однако их проведение будет необходимым и позволит установить лиц, от действий (бездействия) которых могли наступить негативные последствия, позволит пациентам быть защищенными с точки зрения оказания им медицинской помощи, повысит доверие к медицине, а также в целом увеличит потенциал юридической ответственности и неотвратимости наказания.
Учитывая особый статус систем искусственного интеллекта, реализуемого в форме медицинских изделий, их цифровую природу, высокий риск их применения, а также в целях дифференциации ответственности и возможности привлечения к уголовной ответственность конкретных субъектов, непосредственно участвующих в эксплуатации систем, предлагаем сформировать особый (специальный) порядок регистрации медицинских изделий с системами искусственного интеллекта, выделив его в постановлении Правительства Российской Федерации от 27 декабря 2012 г. № 1416 «Об утверждении Правил государственной регистрации медицинских изделий»2. Особый (специальный) порядок регистрации медицинских изделий с системами искусственного интеллекта будет включать возложение персональной ответственности не на юридических
1 Об утверждении Правил государственной регистрации медицинских изделий : постановление Правительства Российской Федерации от 27 декабря 2012 г. № 1416.
2 Там же.
лиц — организаций, осуществляющих деятельность на основе лицензии, а на конкретных физических лиц, которые подписывали (утверждали) итоговый документ на каждом из этапов оборота. Поддерживаем мнение специалистов, которые считают, что требования к разработке и применение искусственного интеллекта должны быть разработаны в каждой сфере с учетом своей специфики [21, с. 423]. Указанное обстоятельство позволит сформировать правовой режим безопасного оборота медицинских изделий, возложить персональную (в том числе уголовную) ответственность на субъектов, эксплуатирующих технологии искусственного интеллекта, а также сформировать уголовно-правовые запреты неправомерным действиям, что позволит охранять наивысшие ценности (жизнь и здоровье граждан) средствами закона.
Подобная модель ответственности предопределит судьбу будущих решений и доверие медицинского сообщества к этим решениям, при ином подходе — они могут саботировать его применение. Большое значение отдается и доверию пациентов к применению технологий искусственного интеллекта в отношении них [22, с. 327].
Заключение
Несомненно, технологии развиваются быстрее, чем нормативные и этические аспекты [23, с. 574]. В здравоохранении, в котором ставится под охрану жизнь и здоровье пациентов, права врачебного сообщества должны быть несомненно соблюдены, а цифровым технологиям предоставлено необходимая «свобода» в развитии. В связи с этим большую роль следует отдать пострегистрационному мониторингу и формированию указанной системы. Полагаем, что действующий подход уголовно-правового реагирования на негативные реакции придется трансформировать в связи с тем, что защите от цифровых девиаций подлежат наиболее важные общественные отношения (жизнь и здоровье пациентов). При этом правовой режим безопасного оборота медицинских изделий с использованием технологий искусственного интеллекта позволит возложить уголовную ответственность на субъектов, вовлекаемых в общественные отношения на всех этапах жизненного цикла искусственного интеллекта. Следует согласиться с мнением авторов, которые утверждают, что «трансформация нормативного регулирования и уголовно-правовой охраны общественных отношений, возникающих в связи с созданием и применением технологий искусственного интеллекта, неизбежно
повлечет и необходимость в выработке и за- определения понятия «искусственный интел-креплении в федеральном законодательстве лект»» [24, с. 87].
Список источников
1. Da Silva, M., Horsley, T., Singh, D. et al. Legal concerns in health-related artificial intelligence: a scoping review protocol // Systematic Reviews. 2022. No. 11. Art. 123. DOI: https://doi.org/10.1186/s13643-022-01939-y
2. Хамидуллина Е. В. Искусственный интеллект в медицине: правовые и этические аспекты // Медицинское право: теория и практика. 2022. № 3-4 (17-18). С. 92-96.
3. Морхат П. М. К вопросу об определении понятия искусственного интеллекта // Право и государство: теория и практика. 2017. №. 12 (156). С. 25-32.
4. Fosch-Villaronga, E., Khanna, P., Drukarch, H. et al. The Role of Humans in Surgery Automation // Int J of Soc Robotics. 2023. No. 15. Pp. 563-580. DOI: https://doi.org/10.1007/s12369-022-00875-0
5. Topol E. High-performance medicine: the convergence of human and artificial intelligence // Nat Med. 2019. No. 25. Pp. 44-56.
6. Secinaro S., Calandra D., Secinaro A. et al. The role of artificial intelligence in healthcare: a structured literature review // BMC Med Inform Decis Mak. 2021. Vol. 21, no. 1. P. 125. DOI: https://doi.org/10.1186/ s12911-021-01488-9
7. Davenport T., Kalakota R. The potential for artificial intelligence in healthcare // Future Healthc J. 2019. Vol. 6, no. 2. Pp. 94-98. DOI: https://doi.org/10.7861/futurehosp.6-2-94
8. Смышляев А. В., Мельников Ю. Ю., Шахабов И. В. Телемедицинские технологии как инструмент повышения доступности медицинской помощи для населения на современном этапе: ключевые проблемы и перспективы развития // Главврач. 2020. № 5. С. 44-48.
9. Лаптев В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. С. 79-102.
10. Хисамова З. И., Бегишев И. Р. Уголовная ответственность и искусственный интеллект: теоретические и прикладные аспекты // Всероссийский криминологический журнал. 2019. Т. 13, № 4. С. 564-574.
11. Иващенко М. А. Новые формы организованной преступности : автореф. дис. ... канд. юрид. наук. Москва, 2022. 34 с.
12. Дремлюга Р. И., Дремлюга О. А. Искусственный интеллект — субъект права: аргументы за и против // Правовая политика и правовая жизнь. 2019. №. 2. С. 120-125.
13. Гаджиев Г. А. наблюдается ли робот-агент? (Поиск правовых форм для регулирования цифровой экономики) // Журнал российских прав. 2018, № 1. С. 15-30.
14. Hallevy G. The Criminal Liability of Artificial Intelligence Entities — from Science Fiction to Legal Social Control // Akron Intellectual Property Journal. 2010. Vol. 4, iss. 2. Pp. 171-201.
15. Лаптев В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. C. 79-102.
16. Медведев А. И. Концепция правосубъектности искусственного интеллектав российской юридической науке: критический анализа // Научный компонент. 2022. № 1 (13). C. 40-55.
17. Мосечкин И. Н. Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления // Вестник Санкт-Петербургского университета. Право. 2019. 10 (3). С. 461-476.
18. Филипова И. А., Коротеев В. Д. Будущее искусственного интеллекта: объект или субъект права? // Journal of Digital Technologies and Law. 2023. Т. 1. №2. С. 359-386.
19. Третьякова Е. П. Использование искусственного интеллекта в здравоохранении: распределение ответственности и рисков // Цифровое право (Digital Law Journal). 2021. Т. 2, №4. С. 51-60.
20. Петрикова С. В., ЛаврушкинаА. А. Субъективная сторона состава преступления при причинении вреда здоровью искусственным интеллектом // Социально-политические науки. 2021. Т. 11, №. 6. С. 156-161.
21. Ерахтина О. С. Подходы к регулированию отношений в сфере разработки и применения технологий искусственного интеллекта: особенности и практическая применимость // Journal of Digital Technologies and Law. 2023. Т. 1, №2. С. 421-437.
22. Галлезе-Нобиле К. Правовые аспекты использования искусственного интеллекта в телемедицине // Journal of Digital Technologies and Law. 2023. Т. 1, № 2. С. 314-336.
23. ШутоваА. А. Криминальные риски оборота медицинских роботов // Russian Journal of Economics and Law. 2023. Т. 17, № 3. С. 571-585. DOI: https://doi.org/10.21202/2782-2923.2023.3.571-585
24. Бегишев И. Р., Латыпова Э. Ю., Кирпичников Д. В. Искусственный интеллект как правовая категория: доктринальный подход к разработке дефиниции // Актуальные проблемы экономики и права. 2020. Т. 14, № 1. С. 79-91. DOI: http://dx.doi.Org/10.21202/1993-047X.14.2020.1.79-91
КОНФЛИКТ ИНТЕРЕСОВ CONFLICT OF INTEREST
Конфликт интересов отсутствует. There is no conflict of interest.
Дата поступления статьи / Received: 02.07.2023. Дата рецензирования статьи / Revised: 07.07.2023. Дата принятия статьи к публикации / Accepted: 20.08.2023.