Научная статья на тему 'ЭТИЧЕСКИЕ ПРИНЦИПЫ СОЗДАНИЯ И ПРИМЕНЕНИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ЗДРАВООХРАНЕНИИ'

ЭТИЧЕСКИЕ ПРИНЦИПЫ СОЗДАНИЯ И ПРИМЕНЕНИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ЗДРАВООХРАНЕНИИ Текст научной статьи по специальности «Прочие медицинские науки»

CC BY
18
6
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Правоприменение
ВАК
Ключевые слова
Здравоохранение / цифровая медицина / искусственный интеллект / медицинская этика / медицинский работник / медицинское изделие / право / разработчик / цифровые технологии / этика / этический принцип / Healthcare / digital medicine / artificial intelligence / medical ethics / medical worker / medical product / law / developer / digital technologies / ethics / ethical principle

Аннотация научной статьи по прочим медицинским наукам, автор научной работы — Шутова Альбина Александровна, Бегишев Ильдар Рустамович

Значительное влияние цифровых технологий на сферу здравоохранения предопреде-лило необходимость формирования комплексной системы правового регулирования отношений, связанных с созданием и применением технологий искусственного интел-лекта, в том числе сквозь призму профессиональной этики, поскольку использование этических принципов в медицине традиционно имеет большое значение для меди-цинского сообщества. Предложенные этические принципы создания и применения технологий искусственного интеллекта могут быть использованы в процессе совер-шенствования законодательства в условиях цифровой трансформации системы здра-воохранения.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ETHICAL PRINCIPLES FOR THE CREATION AND APPLICATION OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES IN HEALTHCARE

The subject of the study is the norms of current legislation regulating the creation and ap-plication of artificial intelligence technology in healthcare, including acts of technical regu-lation, as well as available scientific research by domestic and foreign scientists in the field presented. In recent years, foreign experts have conducted a significant amount of research on the development of ethical principles for the use of artificial intelligence in healthcare. However, these works tend to be abstract and do not explain what justifies and justifies their recommendations and how these recommendations should be used in practice. In turn, in the Russian Federation at the moment there is a small number of domestic studies devoted to a comprehensive study of ethical principles that should guide subjects engaged in the creation and use of medical devices based on artificial intelligence technologies, which confirms the relevance and significance of our research. Objective: to develop a system of ethical principles for the creation and application of arti-ficial intelligence technologies in the field of healthcare, which will serve as the basis for the legal regulation of public relations in the presented area. Methods: the methodological basis of the system of ethical principles for the creation and application of artificial intelligence technologies was made up of general scientific and pri-vate scientific methods of scientific cognition, including analysis, synthesis, deduction, in-duction, classification, analogy and comparison. Results: to the attention of lawyers, scientists and practitioners, medical professionals, members of clinical ethics committees, medical ethics specialists, representatives of law–making bodies, government departments, the business community and public organiza-tions, patients, as well as a wide range of readers interested in the digital transformation of the healthcare system, ethical principles for the creation and application of artificial health technologies are proposed intelligence in healthcare, which can serve as the basis for the formation of an appropriate system of legal regulation. The stated goal has been achieved, which is confirmed by the development of a system of ethical principles that serve as the basis for the development of a system of legal regulation of artificial intelligence technolo-gies in healthcare. The developed ethical principles can be used to further improve domes-tic legislation, and also lay the foundation for further research.

Текст научной работы на тему «ЭТИЧЕСКИЕ ПРИНЦИПЫ СОЗДАНИЯ И ПРИМЕНЕНИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ЗДРАВООХРАНЕНИИ»

УДК 34:004:34.096:004.8

DOI 10.52468/2542-1514.2024.8(1).34-43

ЭТИЧЕСКИЕ ПРИНЦИПЫ СОЗДАНИЯ И ПРИМЕНЕНИЯ ТЕХНОЛОГИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ЗДРАВООХРАНЕНИИ*

А .А. Шутова, И.Р. Бегишев

Казанский инновационный университет имени В.Г. Тимирясова, г. Казань, Россия

Информация о статье

Дата поступления -06 декабря 2023 г. Дата принятия в печать-29 декабря 2023 г. Дата онлайн-размещения -20 марта 2024 г.

Ключевые слова

Здравоохранение, цифровая медицина, искусственный интеллект, медицинская этика, медицинский работник, медицинское изделие, право, разработчик, цифровые технологии, этика, этический принцип

Значительное влияние цифровых технологий на сферу здравоохранения предопределило необходимость формирования комплексной системы правового регулирования отношений, связанных с созданием и применением технологий искусственного интеллекта, в том числе сквозь призму профессиональной этики, поскольку использование этических принципов в медицине традиционно имеет большое значение для медицинского сообщества. Предложенные этические принципы создания и применения технологий искусственного интеллекта могут быть использованы в процессе совершенствования законодательства в условиях цифровой трансформации системы здравоохранения.

ETHICAL PRINCIPLES FOR THE CREATION AND APPLICATION OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES IN HEALTHCARE*

Albina A. Shutova, Ildar R. Begishev

Kazan Innovative University named after V.G. Timiryasov, Kazan, Russia

Article info

Received -2023 December 06 Accepted -

2023 December 29 Available online -

2024 March 20

Keywords

Healthcare, digital medicine, artificial intelligence, medical ethics, medical worker, medical product, law, developer, digital technologies, ethics, ethical principle

The subject of the study is the norms of current legislation regulating the creation and application of artificial intelligence technology in healthcare, including acts of technical regulation, as well as available scientific research by domestic and foreign scientists in the field presented. In recent years, foreign experts have conducted a significant amount of research on the development of ethical principles for the use of artificial intelligence in healthcare. However, these works tend to be abstract and do not explain what justifies and justifies their recommendations and how these recommendations should be used in practice. In turn, in the Russian Federation at the moment there is a small number of domestic studies devoted to a comprehensive study of ethical principles that should guide subjects engaged in the creation and use of medical devices based on artificial intelligence technologies, which confirms the relevance and significance of our research.

Objective: to develop a system of ethical principles for the creation and application of artificial intelligence technologies in the field of healthcare, which will serve as the basis for the legal regulation of public relations in the presented area.

Methods: the methodological basis of the system of ethical principles for the creation and application of artificial intelligence technologies was made up of general scientific and private scientific methods of scientific cognition, including analysis, synthesis, deduction, induction, classification, analogy and comparison.

* Исследование выполнено при стипендиальной поддержке Казанского инновационного университета имени В.Г. Тимирясова.

** The research was carried out with the scholarship support of the Kazan Innovation University named after V.G. Timiryasov.

34 -

Law Enforcement Review 2024, vol. 8, no. 1, pp. 34—43

Правоприменение 2024. Т. 8, № 1. С. 34-43

ISSN 2658-4050 (Online) -

Results: to the attention of lawyers, scientists and practitioners, medical professionals, members of clinical ethics committees, medical ethics specialists, representatives of lawmaking bodies, government departments, the business community and public organizations, patients, as well as a wide range of readers interested in the digital transformation of the healthcare system, ethical principles for the creation and application of artificial health technologies are proposed intelligence in healthcare, which can serve as the basis for the formation of an appropriate system of legal regulation. The stated goal has been achieved, which is confirmed by the development of a system of ethical principles that serve as the basis for the development of a system of legal regulation of artificial intelligence technologies in healthcare. The developed ethical principles can be used to further improve domestic legislation, and also lay the foundation for further research.

1. Введение

Несомненно, в связи с форсированной цифро-визацией всех сторон общественной жизни, сфера здравоохранения не осталась стоять в стороне и стала тоже подверженной внедрению технологий искусственного интеллекта в клиническую практику и в науку. В некоторых областях медицинской диагностики, разработки лекарств и проведения лечения, в том числе хирургии, представляется, что искусственный интеллект будет лучше, чем обученные медицинские работники. В связи с достаточно новым характером представленной сквозной инновационной технологии возникает масса вопросов, в том числе касающихся правовой оценки действия систем и тех, кто будет нести ответственность в случае причинения вреда [1, с. 129].

Однако, как и практически каждая цифровая технология, искусственный интеллект настолько расширяет свои возможности в медицине, начиная от оценки риска возникновения заболевания у пациента и эффективности выбранного лечения и заканчивая помощью в уходе за больными пациентами и автоматизацией учреждений системы здравоохранения, что правовое регулирование не может на надлежащем уровне эффективно воздействовать на складывающиеся общественные отношения и сформировать правовой режим. Полагаем, что такое состояние дел нельзя признать удовлетворительным. Цифровые инновации в медицине дают огромные надежды, но для ее реализации в здравоохранении необходимы соответствующие правила, сводящие к минимуму сопутствующие риски и угрозы.

В связи с тем, что нормативное регулирование технологий искусственного интеллекта повлечет внесение кардинальных изменений в действующее законодательство, предлагаем сформировать и рассмотреть этические принципы, которые могут послужить основой для создания и развития системы пра-

вового регулирования технологий искусственного интеллекта в здравоохранении.

Значительно увеличилось количество этических принципов искусственного интеллекта, выработанных международными организациями, государственными и научно-исследовательскими институтами, стандартов и рекомендаций, что послужило основой для их научного осмысления [2, с. 178] и создало дискуссию. Некоторые специалисты выделяют четыре принципа биомедицинской этики применительно к разработке и применению систем искусственного интеллекта в медицине [3]. Несмотря на имеющиеся точечные исследования, посвященные этическим принципам применения технологии искусственного интеллекта в зарубежных странах [4, p. 750], они не характеризуются комплексностью и системностью, не выделяется субъектный состав, подобную проблему мы попытались решить в рамках данного исследования. Зарубежные авторы выделяют шесть ключевых этических характеристик: справедливость, прозрачность, надежность, подотчетность, конфиденциальность и сочувствие, - которые считаются важными и выделяются в исследованиях, посвященных искусственному интеллекту в сфере здравоохранения [5, p. 1090; 6, p. 5520; 7, p. 360; 8, p. 495].

2. Общие положения

Прежде чем технологии искусственного интеллекта можно будет использовать в здравоохранении, мы должны убедиться, что разработчики технологий и медицинские организации соблюдают соответствующие этические нормы и правила при создании и применении в клинической практике указанных технологий.

Нам представляется, что, исходя из значительного количества субъектов, которые вовлекаются в процесс создания (разработки) и внедрения медицинских изделий на основе технологий искусствен- 35

ного интеллекта, этические принципы должны пронизывать две большие группы субъектов применительно к определенной стадии жизненного цикла искусственного интеллекта:

1) этические принципы субъектов, осуществляющих деятельность по созданию медицинских изделий на основе технологий искусственного интеллекта;

2) этические принципы субъектов, осуществляющих деятельность по применению медицинских изделий на основе технологий искусственного интеллекта.

На данный момент стоит констатировать то, что системы искусственного интеллекта (интеллектуальные медицинские технологии, т. е. основанные на искусственном интеллекте) в здравоохранении в Российской Федерации применяются:

1) как программное обеспечение (далее - ПО) с применением систем искусственного интеллекта -в этом случае ПО регистрируется как медицинское изделие;

2) как составная часть и (или) принадлежность медицинского робота - в этом случае роботизированное изделие признаётся медицинским изделием, при этом ПО уже не регистрируется, а является составной частью медицинского изделия.

В случае, если системы искусственного интеллекта являются ПО, то выступают медицинским изделием. Вышесказанное подтверждается законодательным определением термина «медицинское изделие», содержащимся в Федеральном законе от 21 ноября 2011 г. № 323-ф3 «Об основах охраны здоровья граждан в Российской Федерации»1, в котором к разновидности медицинских изделий относится специальное ПО.

Именно поэтому полагаем, что медицинские изделия на основе технологий искусственного интеллекта должны разрабатываться, производиться и применяться исключительно в целях оказания медицинской помощи населению [9, с. 877].

Этические принципы применения технологий искусственного интеллекта в здравоохранении дают четкие нравственные ориентиры профессиональной деятельности медицинских работников, призваны способствовать консолидации, повышению доверия к цифровой технологии, повышению авторитета медицины и в целом врачебной деятельности, развитию медицины в России и во всем мире.

3. Этические принципы создания технологий искусственного интеллекта в здравоохранении

Рассматриваемые далее в п. 3 и 4 принципы создания технологий искусственного интеллекта в здравоохранении включены авторами в предлагаемый ими Проект Этического кодекса субъектов, осуществляющих деятельность по созданию, применению и утилизации медицинских изделий на основе технологий искусственного интеллекта [9], и являются своеобразным комментарием к нему.

Полагаем, что в качестве важных этических принципов, на которых должно базироваться правовое регулирование создания медицинских изделий на основе технологий искусственного интеллекта в здравоохранении, стоит отметить:

3.1. Принцип созидательности. Медицинские изделия на основе технологии искусственного интеллекта должны быть направлены на принесение пользы обществу и гражданам [10]. Полагаем, что недостаточно, чтобы подобные цифровые изделия использовались только для принесения пользы конкретной организации и ее обогащения. Данный принцип также поднимает проблему социального разрыва, который угрожает обществу после развития технологии искусственного интеллекта. Во всех странах мира с каждым развитием, открытием и изобретением люди сталкиваются с ростом социального неравенства и уменьшением социальной справедливости. Хотя в целом цифровые технологии улучшают доступ к дополнительной информации о науке, мировых событиях, изменении климата и политике во всем мире, они усугубляют социальное неравенство, так как ведут к увеличению разрыва между развивающимися и развитыми странами [11].

Представленный принцип подразумевает стремление гарантировать то, что медицинские изделия, оснащенные технологией искусственного интеллекта, способствуют благополучию пациентов и общества в целом, стимулируя его устойчивое развитие.

3.2. Принцип безопасности. Разработчики медицинских изделий, оснащенных технологией искусственного интеллекта, должны постоянно следить за всеми инструментами искусственного интеллекта в медицине, чтобы убедиться, что они работают должным образом и не причиняют вреда конкретному пациенту. Некоторые специалисты выделяют вопрос безопасности медицинских изделий на основе ис-

1 Собрание законодательства Российской Федерации. 2011. № 48. Ст. 6724.

кусственного интеллекта как главенствующий [12, с. 45].

Внедрение в повседневную клиническую практику медицинских изделий на основе технологий искусственного интеллекта должно следовать принципам доказательной медицины с учетом использования методов проверки и надежности их работы. Клинические исследования медицинских изделий, оснащенных технологией искусственного интеллекта, с привлечением человека как субъекта исследования следует проводить в соответствии с этическими принципами, обеспечивающими права, безопасность и благополучие людей, в том числе основанными на Хельсинкской декларации Всемирной ме-

w 2

дицинскои ассоциации2.

3.3. Принцип алгоритмической прозрачности.

Технологии искусственного интеллекта должны быть понятны разработчикам, медицинским работникам, пациентам и регулирующим органам в отношении использования решений, доверия к ним и исходным данным.

Медицинские изделия на основе искусственного интеллекта должны быть разработаны таким образом, чтобы позволять медицинским работникам впоследствии объяснять полученные данные и интерпретировать их результаты.

Несомненно, предвзятость, вызванная человеком, намеренно или непреднамеренно создается разработчиками, поскольку люди всегда находятся под влиянием своих собственных моральных представлений и соответствующих интересов, что воздействует на обучение данных [13] и в целом негативным образом отражается на качестве и эффективности оказываемой медицинской помощи. В свою очередь предвзятость с правовой и этической точек зрения может повлечь дискриминацию или нарушение прав личности [14, p. 46].

Достаточная информация должна быть опубликована или задокументирована до разработки или развертывания технологии искусственного интеллекта. Необходимо, чтобы такая информация способствовала обсуждениям того, как эта технология разработана и как ее следует или не следует использовать.

3.4. Принцип равенства и запрета на дискриминацию. Алгоритмы искусственного интеллекта должны обучаться на достаточном наборе полных и репрезентативных (непредвзятых) данных. Необхо-

2 Хельсинкская декларация Всемирной медицинской ассоциации. Этические принципы проведения медицинских

димо избегать введение предвзятости, включая дискриминацию [15] по социальным, тендерным, этническим, религиозным признакам, в алгоритмы принятия решений и использовать возможные способы избегания предвзятости.

Медицинские изделия на основе искусственного интеллекта должны проходить рандомизированные клинические испытания, что является самым убедительным источником медицинских доказательств.

3.5. Принцип ответственности. Ответственностью заинтересованных сторон является применение медицинских изделий на основе технологии искусственного интеллекта по назначению и в рамках заявленных условий. Все случаи некорректных срабатываний систем искусственного интеллекта должны быть зафиксированы, и в дальнейшем проведен их мониторинг для рассмотрения вопроса о привлечении к ответственности.

Профессиональная деятельность медицинских работников направлена на излечение больных, а с другой - она связана с причинением вреда здоровью пациентам в случае неквалифицированной работы медицинского персонала [16, с. 110], в том числе применяющего технологии искусственного интеллекта в своей деятельности.

3.6. Принцип послерегистрационного мониторинга. После регистрации и вывода медицинских изделий, оснащенных технологией искусственного интеллекта, на рынок должен осуществляться мониторинг их безопасности, цель которого - выявление и предотвращение побочных действий или нежелательных реакций, которые могут возникать при применении.

Мониторинг, к примеру, может осуществляться Федеральной службой по надзору в сфере здравоохранения (далее - Служба). Если сведения о нежелательных реакциях подтверждаются. Служба разрабатывает программу мероприятий, которые направлены на повышение безопасности подобных медицинских изделий. Если производитель не проводит необходимые мероприятия, Служба принимает решение об изъятии медицинского изделия, оснащенного технологией искусственного интеллекта, из обращения.

3.7. Принцип подконтрольности. Медицинские изделия на основе технологий искусственного ин-

исследований с участием человека в качестве субъекта. URL: https://gkb81.ru/ki-docs/md/helsinki-declar.pdf.

теллекта должны проходить строгий контроль на соответствие требованиям безопасности и надежности.

Технологии искусственного интеллекта должны подвергаться контролю со стороны регулирующих органов, который охватывает проектирование, настройку и работу алгоритмов [17].

4. Этические принципы применения технологий искусственного интеллекта в здравоохранении

4.1. Принцип созидания. Главенствующий принцип, пронизывающий технологию насквозь и заключающийся в том, что медицинские работники должны использовать медицинские изделия, оснащенные технологией искусственного интеллекта, исключительно в целях оказания медицинской помощи пациентам.

4.2. Принцип безопасности. Содержание представленного принципа заключается в том, что применение медицинских изделий на основе технологий искусственного интеллекта должно быть надежным и безопасным, а получаемые на их основе результаты не должны быть направлены на причинение вреда жизни и здоровью пациентам и другим охраняемым интересам.

4.3. Принцип запрета на полную автоматизацию. Окончательное решение о лечении (о постановке диагноза, назначении лечения) принимается медицинским работником и после обсуждения пациента с учетом его состояния, истории его болезни, имеющихся вариантов, его предпочтений и существующих рисков.

Медицинские изделия на основе технологий искусственного интеллекта облегчат принятие решений о постановке диагноза и проведении лечения медицинскими работниками, но не заменят их целиком в связи с тем, что такие компьютерные системы уязвимы для угроз кибербезопасности. Должна быть предусмотрена возможность отмены человеком и (или) предотвращения принятия юридически значимых решений и действий систем искусственного интеллекта там, где это разумно применимо.

4.4. Принцип добровольного информированного согласия пациента. Применение данного принципа состоит в том, что медицинские работники и медицинские организации обязаны информировать пациента о преимуществах использования медицинских изделий, оснащенных технологией искусственного интеллекта, при этом запрашивать его согласие.

Доктрина добровольного информирования согласия пациентов должна строиться на следующих принципах:

- предоставление достоверных сведений о медицинской манипуляции (вмешательстве);

- раскрытие объективных сведений о здоровье пациента и о его состоянии;

-добровольное согласие пациента;

- обеспечение информированного раскрытия информации;

- предоставление информации о соответствующих рисках и потенциально вредных последствиях.

Медицинским работником должны быть предоставлены достоверные данные о том, как работает технология, и объяснена связь между данными конкретного пациента и массивом данных, которые алгоритм использует для «обучения». Медицинские работники обязаны информировать пациента о праве на отказ от использования технологий искусственного интеллекта.

Специалисты указывают на то, что пациенты имеют право на получение информации о своем диагнозе, состоянии здоровья, процессе лечения, терапевтическом успехе, результатах анализов, расходах, доле медицинского страхования или другой медицинской информации, и любое согласие должно быть конкретным для каждой цели. Обеспокоенность по этому поводу также возросла с ростом использования искусственного интеллекта в приложениях здравоохранения [18].

Медицинским работникам запрещено принуждать пациента на применение технологии искусственного интеллекта. Медицинский работник должен убедиться в том, что пациент удовлетворен полученной им информацией.

Стоит полагать то, что пациенты вступают в контакт с врачами в моменты своей жизни, когда они наиболее уязвимы, очень важно помнить об этом [19]. Медицинским работникам запрещено принуждать пациента применять медицинские изделия на основе технологий искусственного интеллекта в отношении него, если это не продиктовано условиями крайней необходимости.

4.5. Принцип информирования о криминальных рисках. Медицинские работники обязаны проводить оценку риска применения медицинских изделий на основе технологий искусственного интеллекта, связанного с заболеванием и предлагаемым лечением пациента. Риски атак на кибербезопас-ность в медицине, которые могут привести к выставлению неточного или ложного диагноза, ввода смертельной дозы лекарств, должны быть обязательно озвучены пациенту. После информирования паци-

ента о возможных рисках и до начала лечения медицинскому работнику необходимо получить согласие пациента на продолжение варианта лечения и включить эти сведения в информированное согласие пациента. И.А. Филиппова в своем исследовании указывает на то, что угроза безопасности мозговых им-плантов (нейрочипов) станет следствием распространения нейротехнологий на практике, что создаст проблему обеспечения безопасности лиц, использующих нейротехнологии. В целом цифровые преступления могут быть совершены в целях получения информации о банковских счетах, манипулирования нейропротезом для причинения вреда третьему лицу [20, с. 42].

4.6. Принцип обеспечения конфиденциальности и неприкосновенности частной жизни пациента. Искусственный интеллект позволяет анализировать большие объемы данных (Big Data) в режиме реального времени, предоставляя прогнозы, которые могут поддержать решения врача [21].

Персональные данные пациента, собранные в процессе оказания медицинской помощи, оснащенной технологией искусственного интеллекта, не должны передаваться без согласия пациента или в случаях, когда это требуется или разрешено законом.

Если персональные данные передаются или иным образом используются для исследований искусственного интеллекта, они должны быть обезличены, чтобы невозможно было восстановить личность пациента.

Авторы отмечают значительное количество угроз, которые возникают в связи с обработкой персональных данных, что требует повышенного внимания и контроля со стороны государства. Так, указывается, что клинические данные, собранные роботами, могут быть взломаны и использованы в злонамеренных целях, сводящих к минимуму конфиденциальность и безопасность [22].

4.7. Принцип защиты прав пациентов. Пациенты должны понимать, что их права и свободы защищены от незаконного использования медицинских изделий на основе технологий искусственного интеллекта, не соответствующих стандартам оказания медицинской помощи.

Если медицинские изделия на основе технологий искусственного интеллекта используются согласно действующим стандартам и наносят вред людям или ущерб собственности, то медицинские работники не несут ответственности за произошедшее.

Наступление негативных последствий должно минимизироваться за счет усилий, сопоставляемых с

ожидаемым последствием реализации этих рисков. Медицинский работник имеет право на защиту своих прав и интересов.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

4.8. Принцип эмпатии. Медицинские работники обязаны предоставлять надлежащую компетентную медицинскую помощь пациентам с пониманием, переживанием и уважением к состоянию их здоровья, а также к их правам и свободам. Медицинские работники должны полагать то, что у технологии искусственного интеллекта отсутствуют контекстные знания и способности считывать социальные чувства, поэтому важное значение в общении с пациентом отдается медицинскому работнику.

4.9. Принцип прозрачности и объяснимости. При использовании медицинских изделий на основе технологий искусственного интеллекта медицинский работник должен быть в состоянии интерпретировать основу, на которой был достигнут результат, взвесить возможность алгоритмической предвзятости и вынести клиническое суждение о полученных результатах. Стоит поддержать мнение зарубежных специалистов, полагающих то, что доверие к работе алгоритмов искусственного интеллекта и возможность взаимодействовать с ними повысят уверенность пациентов, необходимую для совместного принятия решений. Более того, прозрачность модели помогает прояснить вопросы моральной и юридической ответственности в случае ошибок [23, р. 20].

4.10. Принцип стимулирования развития технологий заключается в том, что медицинские организации и их руководители должны стремиться поощрять и стимулировать разработку, внедрение и развитие безопасных и этичных решений в сфере технологий искусственного интеллекта в целях оказания медицинской помощи. Необходимо в том числе финансовое стимулирование того, чтобы медицинские работники стали заинтересованными в изучении искусственного интеллекта и информатики в медицине.

5. Выводы

Несомненно, каждый из принципов создания и применения технологий искусственного интеллекта заслуживает самостоятельного изучения. Например, Ю.С. Харитонова посвятила значительную публикацию изучению принципа прозрачности искусственного интеллекта [24, р. 340].

В представленном исследовании нами была лишь лаконично обозначена система этических принципов, которая может послужить отправной точкой для трансформации правового регулирования представленных отношений в Российской Федерации.

Сформулированные принципы создания и применения технологий искусственного интеллекта, по нашему мнению, в целом должны способствовать росту общественного доверия к цифровым технологиям в медицине.

Стоит поддержать мнение тех авторов, которые считают, что любые цифровые технологии как объекты исследования представляют собой сложный комплексный феномен, включающий различные технологические, этические и юридические аспекты [25, р. 106].

Применение данных этических принципов со стороны медицинского сообщества и разработчиков медицинских изделий на основе технологий искусственного интеллекта до момента создания благоприятной и эффективной системы правового регулирования цифровой технологии позволит укрепить авторитет медицинских работников, повысить доверие пациентов к технологиям искусственного интеллекта и предотвратить потенциальные негативные последствия.

СПИСОК ЛИТЕРАТУРЫ

1. Черных Е. Е. Искусственный интеллект в здравоохранении России: современное состояние и уголовно-правовые риски / Е. Е. Черных // Вестник Санкт-Петербургского университета МВД России. - 2020. - № 4 (88). -С. 127-131. - DOI: 10.35750/2071-8284-2020-4-127-131.

2. Лизикова М. С. Этические и правовые вопросы развития искусственного интеллекта / М. С. Лизикова //Труды Института государства и права Российской академии наук. - 2022. - Т. 17, № 1. - С. 177-194. - DOI: 10.35427/2073-4522-2022-17-1-lizikova.

3. Stone E. G. Evidence-Based Medicine and Bioethics: Implications for Health Care Organizations, Clinicians, and Patients / E. G. Stone // The Permanente Journal. - 2018. - Vol. 22, iss. 4. - P. 18-30. - DOI: 10.7812/TPP/18-030.

4. Currie G. Ethical principles for the application of artificial intelligence (AI) in nuclear medicine / G. Currie, K. E. Hawk, E. M. Rohren // European Journal of Nuclear Medicine and Molecular Imaging. - 2020. - Vol. 47. - P. 748752. - DOI: 10.1007/s00259-020-04678-1.

5. Blobel B. Autonomous Systems and Artificial Intelligence in Healthcare Transformation to 5P Medicine -Ethical Challenges / B. Blobel, P. Ruotsalainen, M. Brochhausen, F. Oemig, G. A. Uribe // Studies in health technology and informatics. - 2020. - Vol. 270. - P. 1089-1093. - DOI: 10.3233/SHTI200330.

6. Bukowski M. Implementation of eHealth and AI integrated diagnostics with multidisciplinary digitized data: are we ready from an international perspective? / M. Bukowski, R. Farkas, O. Beyan, L. Moll, H. Hahn, F. Kiessling, T. Schmitz-Rode // European Radiology. - 2020. - Vol. 30, iss. 10. - P. 551^5524. - DOI: 10.1007/s00330-020-06874-x.

7. Floridi L. Key Ethical Challenges in the European Medical Information Framework / L. Floridi, C. Luetge, U. Pa-gallo, B. Schafer, P. Valcke, E. Vayena, J. Addison, N. Hughes, N. Lea, C. Sage, B. Vannieuwenhuyse, D. Kalra // Minds and Machines. - 2019. - Vol. 29, iss. 3. - P. 355-371. - DOI: 10.1007/s11023-018-9467-4.

8. Reddy S. A governance model for the application of AI in health care / S. Reddy, S. Allan, S. Coghlan, P. Cooper // Journal of the American Medical Informatics Association. - 2020. - Vol. 27, iss. 3. - P. 491-497. - DOI: 10.1093/ jamia/ocz192.

9. Шутова А. А. Проект Этического кодекса субъектов, осуществляющих деятельность по созданию, применению и утилизации медицинских изделий на основе технологий искусственного интеллекта /А. А. Шутова, И. Р. Бегишев// Russian Journal of Economics and Law. - 2023. - T. 17, № 4. - C. 873-881. - DOI: 10.21202/27822923.2023.3.873-881.

10. Beil M. Ethical considerations about artificial intelligence for prognostication in intensive care / M. Beil, I. Proft, D. van Heerden, S. Sviri, P. V. van Heerden // Intensive care medicine experimental. - 2019. - Vol. 7, iss. 1. -Art. 70. - DOI: 10.1186/s40635-019-0286-6.

11. Nordling L. A fairer way forward for AI in health care / L. Nordling // Nature. - 2019. - Vol. 573, iss. 7775. -P. 103—105. - DOI: 10.1038/d41586-019-02872-2.

12. Афанасьева E. H. Искусственный интеллект и «большие данные» в здравоохранении: области применения и гражданско-правовое ре^лирование/Е. Н. Афанасьева//Юридическая наука и практика. - 2020. -Т. 16, № 3. - С. 40-49. - DOI: 10.25205/2542-0410-2020-16-3-40-49.

13. Zhang J. Ethics and governance of trustworthy medical artificial intelligence / J. Zhang, Z. M. Zhang // BMC Medical Informatics and Decision Making. - 2023. - Vol. 23, iss. 1. - Art. 7. - DOI: 10.1186/s12911-023-02103-9.

40 -

Law Enforcement Review 2024, vol. 8, no. 1, pp. 34—43

Правоприменение

2024. Т. 8, № 1. С. 34-43

ISSN 2658-4050 (Online) -

14. Gallese Nobile C. Regulating Smart Robots and Artificial Intelligence in the European Union / C. Gallese Nobile // Journal of Digital Technologies and Law. - 2023. - Vol. 1, no. 1. - P. 33-61. - DOI: 10.21202/jdtl.2023.2.

15. Siala H. SHIFTing artificial intelligence to be responsible in healthcare: A systematic review / H. Siala, Y. Wang // Social Science & Medicine. - 2022. - Vol. 296. - Art. 114782. - DOI: 10.1016/j.socscimed.2022.114782.

16. Кобец П. H. Правовые основы привлечения к уголовной ответственности медицинских работников за совершение противоправных деяний в советский и постсоветский периоды / П. Н. Кобец// Russian Journal of Economics and Law. - 2022. - T. 16, № 1. - C. 106-121. - DOI: 10.21202/2782-2923.2022.1.106-121.

17. Mittelstadt B. D. The ethics of algorithms: Mapping the debate / B. D. Mittelstadt, P. Allo, M. Taddeo, S. Wachter, L. Floridi // Big Data & Society. - 2016. - Vol. 3, no. 2. - Art. 1. - DOI: 10.1177/2053951716679679.

18. Markose A. Medical ethics / A. Markose, R. Krishnan, M. Ramesh // Journal of Pharmacy and Bioallied Sciences. - 2016. - Vol. 8, no. 1. - P. 1^. - DOI: 10.4103/0975-7406.191934.

19. Naik N. Legal and Ethical Consideration in Artificial Intelligence in Healthcare: Who Takes Responsibility? / N. Naik, B. M. Z. Hameed, D. K. Shetty, D. Swain, M. Shah, R. Paul, K. Aggarwal, S. Ibrahim, V. Patil, K. Smriti, S. Shetty, B. P. Rai, P. Chlosta, B. K. Somani // Frontiers in Surgery. - 2022. - Vol. 9. - Art. 862322. - DOI: 10.3389/fsurg.2022.862322.

20. Филипова И. А. Нейротехнологии в праве и правоприменении: прошлое, настоящее и будущее / И. А. Филипова // Правоприменение. - 2022. - Т. 6, № 2. - С. 32^9. - DOI: 10.52468/2542-1514.2022.6(2).32-49.

21. Bellini V. Understanding basic principles of Artificial Intelligence: a practical guide for intensivists / V. Bellini, M. Cascella, F. Cutugno, M. Russo, R. Lanza, C. Compagnone, E. G. Bignami // Acta bio-medica: Atenei Parmensis. -2022. - Vol. 93, no. 5. - Art. e2022297. - DOI: 10.23750/abm.v93i5.13626.

22. Farhud D. D. Ethical Issues of Artificial Intelligence in Medicine and Healthcare / D. D. Farhud, S. Zokaei // Iranian Journal of Public Health. - 2021. - Vol. 50, iss. 11. - P. i-v. - DOI: 10.18502/ijph.v50i11.7600.

23. London A. J. Artificial Intelligence and Black-Box Medical Decisions: Accuracy versus Explainability / A. J. London // The Hastings Center report. - 2019. - Vol. 49, no. 1. - P. 15-21. - DOI: 10.1002/hast.973.

24. Kharitonova Yu. S. Legal Means of Providing the Principle of Transparency of the Artificial Intelligence / Yu. S. Kharitonova // Journal of Digital Technologies and Law. - 2023. - Vol. 1, no. 2. - P. 337-358. - DOI: 10.21202/ jdtl.2023.14.

25. Gulyaeva P. S. Medical nanorobots in the focus of law / P. S. Gulyaeva // Journal of Digital Technologies and Law. - 2023. - Vol. 1, no. 1. - P. 89-122. - DOI: 10.21202/jdtl.2023.4.

REFERENCES

1. Chernykh E.E. Artificial intelligence in the Russian healthcare sector: current situation and criminal and legal risks. Vestnik Sankt-Peterburgskogo universiteta MVD Rossii = Vestnik of St. Petersburg University of the Ministry of Internal Affairs of Russia, 2020, no. 4 (88), pp. 127-131. DOI: 10.35750/2071-8284-2020-4-127-131. (In Russ.).

2. Lizikova M.S. Ethical and Legal Issues of Artificial Intelligence Development. Trudy Instituta gosudarstva i prava Rossiiskoi akademii nauk = Proceedings of the Institute of State and Law of the RAS, 2022, vol. 17, no. 1, pp. 177—194. DOI: 10.35427/2073-4522-2022-17-1-lizikova. (In Russ.).

3. Stone E.G. Evidence-Based Medicine and Bioethics: Implications for Health Care Organizations, Clinicians, and Patients. The Permanente Journal, 2018, vol. 22, iss. 4, pp. 18-30. DOI: 10.7812/TPP/18-030.

4. Currie G., Hawk K.E., Rohren E.M. Ethical principles for the application of artificial intelligence (AI) in nuclear medicine. European Journal of Nuclear Medicine and Molecular Imaging, 2020, vol. 47, pp. 748-752. DOI: 10.1007/ s00259-020-04678-1.

5. Blobel B., Ruotsalainen P., Brochhausen M., Oemig F., Uribe G.A. Autonomous Systems and Artificial Intelligence in Healthcare Transformation to 5P Medicine - Ethical Challenges. Studies in health technology and informatics, 2020, vol. 270, pp. 1089—1093. DOI: 10.3233/SHTI200330.

6. Bukowski M., Farkas R., Beyan O., Moll L., Hahn H., Kiessling F., Schmitz-Rode T. Implementation of eHealth and AI integrated diagnostics with multidisciplinary digitized data: are we ready from an international perspective?. European Radiology, 2020, vol. 30, iss. 10, pp. 551^5524. DOI: 10.1007/s00330-020-06874-x.

7. Floridi L., Luetge C., Pagallo U., Schafer B., Valcke P., Vayena E., Addison J., Hughes N., Lea N., Sage C., Van-nieuwenhuyse B., Kalra D. Key Ethical Challenges in the European Medical Information Framework. Minds and Machines, 2019, vol. 29, iss. 3, pp. 355-371. DOI: 10.1007/s11023-018-9467-4.

Правоприменение

2024. Т. 8, № 1. С. 34—43

- ISSN 2542-1514 (Print)

8. Reddy S., Allan S., Coghlan S., Cooper P. A governance model for the application of AI in health care. Journal of the American Medical Informatics Association, 2020, vol. 27, iss. 3, pp. 491-497. DOI: 10.1093/jamia/ocz192.

9. Shutova A.A., Begishev I.R. Draft of an Ethical Code of subjects implementing activity of creating, applying and utilizing medical products based on artificial intelligence technologies. Russian Journal of Economics and Law, 2023, vol. 17, no. 4, pp. 873-881. DOI: 10.21202/2782-2923.2023.3.873-881.

10. Beil M., Proft I., van Heerden D., Sviri S., van Heerden P. V. Ethical considerations about artificial intelligence for prognostication in intensive care. Intensive care medicine experimental, 2019, vol. 7, iss. 1, art. 70. DOI: 10.1186/s40635-019-0286-6.

11. Nordling L. A fairer way forward for AI in health care. Nature, 2019, vol. 573, iss. 7775, pp. 103-105. DOI: 10.1038/d41586-019-02872-2.

12. Afanasyeva E.N. Artificial Intelligence and Big Data in Healthcare: Applications and Legal Regulation. Yuridicheskaya nauka ipraktika = Juridical Science and Practice, 2020, vol. 16, no. 3, pp. 40-49. DOI: 10.25205/25420410-2020-16-3-40-49. (In Russ.).

13. Zhang J., Zhang Z.M. Ethics and governance of trustworthy medical artificial intelligence. BMC Medical Informatics and Decision Making, 2023, vol. 23, iss. 1, art. 7. DOI: 10.1186/s12911-023-02103-9.

14. Gallese Nobile C. Regulating Smart Robots and Artificial Intelligence in the European Union. Journal of Digital Technologies and Law, 2023, vol. 1, no. 1, pp. 33-61. DOI: 10.21202/jdtl.2023.2.

15. Siala H., Wang Y. SHIFTing artificial intelligence to be responsible in healthcare: A systematic review. Social Science & Medicine, 2022, vol. 296, art. 114782. DOI: 10.1016/j.socscimed.2022.114782.

16. Kobets P.N. Legal Bases for Prosecution of Medical Staff for illegal Acts during the Soviet and Post-Soviet Periods. Russian Journal of Economics and Law, 2022, vol. 16, no. 1, pp. 106-121. DOI: 10.21202/2782-2923.2022. 1.106-121. (In Russ.).

17. Mittelstadt B.D., Allo P., Taddeo M., Wachter S., Floridi L. The ethics of algorithms: Mapping the debate. Big Data & Society, 2016, vol. 3, no. 2, art. 1. DOI: 10.1177/2053951716679679.

18. Markose A., Krishnan R., Ramesh M. Medical ethics. Journal of Pharmacy and Bioallied Sciences, 2016, vol. 8, no. 1, pp. 1^. DOI: 10.4103/0975-7406.191934.

19. Naik N., Hameed B.M.Z., Shetty D.K., Swain D., Shah M., Paul R., Aggarwal K., Ibrahim S., Patil V., Smriti K., Shetty S., Rai B.P., Chlosta P., Somani B.K. Legal and Ethical Consideration in Artificial Intelligence in Healthcare: Who Takes Responsibility?. Frontiers in Surgery, 2022, vol. 9, art. 862322. DOI: 10.3389/fsurg.2022.862322.

20. Filipova I.A. Neurotechnologies in law and law enforcement: past, present and future. Pravoprimenenie = Law Enforcement Review, 2022, vol. 6, no. 2, pp. 32-49. DOI: 10.52468/2542-1514.2022.6(2).32-49.

21. Bellini V., Cascella M., Cutugno F., Russo M., Lanza R., Compagnone C., Bignami E.G. Understanding basic principles of Artificial Intelligence: a practical guide for intensivists. Acta bio-medica: Atenei Parmensis, 2022, vol. 93, no. 5, art. e2022297. DOI: 10.23750/abm.v93i5.13626.

22. Farhud D.D., Zokaei S. Ethical Issues of Artificial Intelligence in Medicine and Healthcare. Iranian Journal of Public Health, 2021, vol. 50, iss. 11, pp. i-v. DOI: 10.18502/ijph.v50i11.7600.

23. London A.J. Artificial Intelligence and Black-Box Medical Decisions: Accuracy versus Explainability. The Hastings Center report, 2019, vol. 49, no. 1, pp. 15-21. DOI: 10.1002/hast.973.

24. Kharitonova Yu.S. Legal Means of Providing the Principle of Transparency of the Artificial Intelligence. Journal of Digital Technologies and Law, 2023, vol. 1, no. 2, pp. 337-358. DOI: 10.21202/jdtl.2023.14.

25. Gulyaeva P.S. Medical nanorobots in the focus of law. Journal of Digital Technologies and Law, 2023, vol. 1, no. 1, pp. 89—122. DOI: 10.21202/jdtl.2023.4.

ИНФОРМАЦИЯ ОБ АВТОРАХ

Шутова Альбина Александровна - кандидат юридических наук, старший научный сотрудник Научно-исследовательского института цифровых технологий и права, доцент кафедры уголовного права и процесса

INFORMATION ABOUT AUTHORS

Albina A. Shutova — PhD in Law; Senior Researcher, Institute of Digital Technologies and Law; Associate Professor, Department of Criminal Law and Procedure

Kazan Innovative University named after V.G. Timiryasov

42, Moskovskaya ul., Kazan, 420111, Russia

E-mail: shutova1993@inbox.ru

RSCI SPIN-code: 5235-4319; AuthorlD: 835100

Казанский инновационный университет имени В. Г. Тимирясова

420111, Россия, г. Казань, ул. Московская, 42

E-mail: shutova1993@inbox.ru

SPIN-код РИНЦ: 5235-4319; AuthorlD: 835100

Бегишев Ильдар Рустамович - доктор юридических наук, доцент, заслуженный юрист Республики Татарстан, главный научный сотрудник Научно-исследовательского института цифровых технологий и права, профессор кафедры уголовного права и процесса

Казанский инновационный университет имени В. Г. Тимирясова

420111, Россия, г. Казань, ул. Московская, 42

E-mail: begishev@mail.ru

SPIN-код РИНЦ: 8859-9395; AuthorlD: 595003

БИБЛИОГРАФИЧЕСКОЕ ОПИСАНИЕ СТАТЬИ

Шутова A.A. Этические принципы создания и применения технологий искусственного интеллекта в здравоохранении / A.A. Шутова, И.Р. Бегишев // Правоприменение. - 2024. - Т. 8, № 1. - С. 34-43. -DOI: 10.52468/2542-1514.2024.8(1).34-43.

Ildar R. Begishev - Doctor of Law, Associate Professor, Honored Lawyer of the Republic of Tatarstan; Chief Researcher, Institute of Digital Technologies and Law; Professor, Department of Criminal Law and Procedure Kazan Innovative University named after V.G. Timiryasov

42, Moskovskaya ul., Kazan, 420111, Russia

E-mail: begishev@mail.ru

RSCI SPIN-code: 8859-9395; AuthorlD: 595003

BIBLIOGRAPHIC DESCRIPTION

Shutova A.A., Begishev I.R. Ethical principles for the creation and application of artificial intelligence technologies in healthcare. Pravoprimenenie = Law Enforcement Review, 2024, vol. 8, no. 1, pp. 34-43. DOI: 10.52468/2542-1514.2024.8(1).34-43. (In Russ.).

i Надоели баннеры? Вы всегда можете отключить рекламу.