ШЖ1
Научная статья УДК 343 .2/ .7
DOI: 10.47475/2411-0590-2023-10-4-492-502
Виктимность пациентов и риски применения технологии искусственного интеллекта в здравоохранении
Альбина Александровна Шутова
Казанский инновационный университет имени В. Г. Тимирясова (ИЭУП),
Казань, Россия
https://orcid.org/0000-0003-3015-3684
Аннотация. Технологии искусственного интеллекта вызывают все больший интерес в области медицины и являются одним из ключевых направлений цифровой трансформации здравоохранения . По мнению ряда экспертов, медицинских работников и разработчиков цифровых технологий, применение медицинских изделий, оснащенных технологиями искусственного интеллекта, поднимет здравоохранение на высокий уровень, что приведет к улучшению принятия клинических решений, качественному анализу цифровых изображений, прогнозированию и контролю правильности назначаемого лечения .
Однако неудачи, связанные с применением медицинских изделий, оснащенных системами искусственного интеллекта, могут иметь серьезные последствия как для клинических результатов, так и для пациентов . Эти последствия могут подорвать доверие общества к технологиям искусственного интеллекта и в целом к учреждениям системы здравоохранения . С учетом определенной новизны технологических решений, данные о клинической эффективности и безопасности продуктов, оснащенных искусственным интеллектом, считаются на данный момент недостаточными .
В представленной публикации поднимается два важных вопроса . В первой части исследования описываются основные физические, социальные и психические характеристики (свойства) пациентов, которые повышают вероятность того, что они окажется в роли жертвы при возникновении криминогенной ситуации в сфере оказания инновационных медицинских услуг. Во второй части исследования определяются риски применения технологий искусственного интеллекта в здравоохранении, вызывающие наибольшее беспокойство как у пациентов, так и у лиц, эксплуатирующих инновационные технологии .
Ключевые слова: искусственный интеллект в здравоохранении, цифровая медицина, цифровая преступность, машинное обучение, современные вызовы, этика
Для цитирования: Шутова А . А . Виктимность пациентов и риски применения технологии искусственного интеллекта в здравоохранении // Виктимология . 2023 . Т. 10, № 4 . С . 492-502. DOI: 10.47475/2411-0590-2023-10-4-492-502
V
© А .А .Шутова
Research article
Patient Victimhood and the Risks of Using Artificial Intelligence Technology in Healthcare
Albinа А. Shutova
Kazan Innovative University named V. G. Timiryasov (IEML), Kazan, Russian, [email protected] (g https://orcid.org/0000-0003-3015-3684
Abstract. Artificial intelligence technologies are of increasing interest in the field of medicine and are one of the key areas for the digital transformation of healthcare . According to a number of experts, medical professionals and digital technology developers, the use of medical devices equipped with artificial intelligence technologies will raise healthcare to a high level, which will lead to improved clinical decision-making, high-quality analysis of digital images, prediction and control of the correctness of the prescribed treatment .
However, failures associated with the use of medical devices equipped with artificial intelligence systems can have serious consequences for both clinical outcomes and patients . These consequences could undermine public confidence in artificial intelligence technologies and health care institutions in general . Given the certain novelty of technological solutions, data on the clinical efficacy and safety of products equipped with artificial intelligence are currently considered insufficient
This publication raises two important issues . The first part of the study describes the main physical, social and mental characteristics (properties) of patients that increase the likelihood that they will be victimized in the event of a crime situation in innovative health care services . The second part of the study identifies the risks of using AI technologies in health care that are of greatest concern to both patients and those exploiting innovative technologies .
Keywords: artificial intelligence in healthcare, digital medicine, digital crime, machine learning, modern challenges, ethics
For citation: Shutova AA . Patient Victimhood and the Risks of Using Artificial Intelligence Technology in Healthcare . Viktimologiya [Victimology] . 2023;10(4):492-502 . DOI: 10.47475/24110590-2023-10-4-492-502 (In Russ .)
Введение
Несомненно, потенциал применения технологий искусственного интеллекта в здравоохранении безграничен . Стоит согласиться с мнением авторов, полагающих, что искусственный интеллект может значительно продвинуться к цели сделать здравоохранение более персонализированным, прогнозирующим, профилактическим и интерактивным [1] . Так, в Московском центре инновационных технологий в здравоохранении нейросети проанализировали уже более 10 млн лучевых исследований, при этом точность
работы алгоритма составила 65 %*. В целом можно констатировать, что цифровые технологии ускоряют получение результатов для пациентов и экономят время для врачей при описании медицинских изображений.
Несмотря на все положительные стороны цифровой технологии в медицине, у многих пациентов есть опасения,
1 Московские нейросети проанализировали 10 миллионов лучевых исследований // Сайт Москвы . URL: https://www.mos .ru/news/item/125459073/ (дата обращения: 20.06.2023) .
связанные с безопасностью систем искусственного интеллекта в здравоохранении, а также потенциальным увеличением расходов на оказанную им медицинскую помощь, риском утечки их персональных данных. Подобные опасения со стороны пациентов в целом могут ограничить потенциал применения технологий искусственного интеллекта в здравоохранении По мнению некоторых исследователей, внедрение подобных цифровых систем в клиническую медицинскую практику отстает из-за отсутствия доверия пациентов к ней [2; 3] .
Искусственный интеллект представляет собой способность компьютеров выполнять задачи, обычно связанные с человеческим интеллектом [4], при этом он может повлиять на множество пациентов, изменив при этом традиционные методы медицинской практики
Интерес к применению технологий искусственного интеллекта в здравоохранении продолжает расти благодаря успехам, связанным с чат-ботами, диагностическими инструментами и рентгенологическим анализом изображений [5]. Искусственный интеллект может учиться на больших данных (таких как непередаваемые хранилища неструктурированной информации, хранящейся в электронной медицинской карте) более эффективно, чем медицинские работники, а также технология может извлекать соответствующую информацию из данных в автономном режиме или в режиме реального времени, чтобы помочь повысить эффективность организации и помочь врачам принимать обоснованные решения в режиме реального времени; системы искусственного интеллекта могут выполнять предопределенные задачи с большей точностью [6] .
Однако опасения пациентов по поводу использования технологий искусственного интеллекта в медицине могут стать серьезным препятствием для распространения и использования этих инструментов в будущем в клинической медицине . Следует констатировать, что переживания пользователей медицинских услуг имеют право на существование и обусловлены имеющимися рисками, сопровождающими
внедрение нового инновационного технологического решения в клиническую медицину
Описание исследования
Исследования применения технологий искусственного интеллекта в иных сферах жизнедеятельности граждан показали, что граждане склонны по-разному относиться к указанным технологиям, при этом такие факторы, как освещение в средствах массовой информации и достаточно молодой характер технологии играют ключевую роль в формировании общественного мнения [7] . Именно поэтому технологии должны быть интегрированы в здравоохранение таким образом, чтобы способствовать общественному доверию и смягчать широко распространенные опасения и страхи у пациентов
Более того, поскольку пользователи являются заказчиками медицинских услуг, многие инновации в области искусственного интеллекта требуют тщательного определения их потребностей, ценностей и приоритетов и это, несомненно, важно для обеспечения того, чтобы эти достижения были не только хорошо восприняты, но и реализованы таким образом, чтобы технологии способствовали улучшению их состояния здоровья
Даже в ситуациях, когда пациенты не взаимодействуют напрямую с технологиями искусственного интеллекта, они по-прежнему несут риск причинения вреда здоровью или жизни, если внедрение будет выполнено неправильно или с нарушением стандартов и действующих правил в сфере здравоохранения .
Препятствия для успешного внедрения любых информационных технологий в сферу здравоохранения, особенно технологий искусственного интеллекта, возникают на всех уровнях применения цифровой инновации, включая разработку технологий, сбор персональных данных, клиническое применение, безопасность технологии в здравоохранении, а также этико-социальные проблемы
Приложения с искусственным интеллектом, являющиеся медицинскими изделиями, используют преимущества
клинических данных и вычислительной мощности для принятия решений, основанных на фактических данных. Это поднимает новые этические вопросы, связанные с прозрачностью использования данных, ответственностью за управление данными
Виктимность пациентов связана с отсутствием у них как знаний, так и опыта в сфере оказания инновационных медицинских услуг, осложнённых системами искусственного интеллекта . Согласимся с мнением В . Б . Хазизулина о том, что большинство граждан не имеют представлений о том, что следует понимать под медицинской помощью, не располагает специфическими предметными теоретико-прикладными знаниями, не осознают проводимые с ним медицинские манипуляции, возможные риски [8, с . 109-110] . Несомненно, со временем отношение пациентов к технологиям скорее всего изменится, так как интерес к получению инженерно-технического образования в ближайшее время будет скорее всего расти1 . В целом, каждый человек должен больше узнать о технологиях и особенно об искусственном интеллекте, поскольку предполагается, что в последующие годы он повлияет на жизнь каждого, а не только врачей и пациентов [9, с . 396] .
Кроме того, пациенты являются весьма уязвимыми (по причине болезненного физиологического или психологического состояния) . Пациент приходит к врачу в состоянии болезни, поэтому он вынужден довериться другому человеку для выбора наиболее эффективного лечения [10] . Это достаточно значимый фактор, повышающий виктимность пациентов в процессе оказания помощи, поскольку в ситуациях, в которых причиняется вред жизни или здоровью пациента, болезненное состояние пациента осложняет установление прямой причинно-следственной связи, обусловившей наступление негативных последствий, в том числе предусмотренных
1 В России вырос прием в вузы на инженерные специальности // РИА Новости . URL: https://ria . ru/20230130/inzhener-1848288163.html (дата обращения: 20.06. 2023) .
ст. 109 и 118 Уголовного кодекса Российской Федерации2 .
На пациентов оказывает значительное влияние осознание того, что правовое регулирование ответственности за вред, причиненный технологиями искусственного интеллекта, на надлежащем уровне не выработано . Многие граждане убеждены, что медицина является рискованным видом деятельности, а деятельность медицинского работника стоит рассматривать как источник повышенной опасности [11, с . 158] . Не все граждане осознают риск новой технологии, которая еще достаточно мало тестировалась на людях, возможность назначения ошибочного лечения или постановки неверного диагноза.
Неудачи, которые наступили в результате использования технологий искусственного интеллекта в медицине, также могут подорвать доверие пациентов к системе цифрового здравоохранения и в целом к данной инновации [12] .
Пациенты могут переживать за то, что не будут услышаны, поскольку для них крайне важно такое качество, как эмпа-тия, которую им могут предоставить медицинские работники и которая скорее всего будет отсутствовать у медицинских роботов или иных изделий, оснащенных технологиями искусственного интеллекта Между тем эмпатия является краеугольным камнем медицины и незаменима в таких областях, как акушерство и педиатрия [13] . Взгляды и ценности, а также создание у пациентов ощущения, что их уважают и воспринимают всерьез, считаются необходимыми для поддержания доверительных отношений [14] . Однако многие специалисты полагают, что внедрение искусственного интеллекта может в целом негативным образом оказать влияние на отношения между пациентом и врачом [15, с . 159-160]. Как пишут зарубежные исследователи, в настоящее время пациенты не чувствуют себя комфортно с автономными хирургическими роботами, управляемыми искусственным
2 Уголовный кодекс Российской Федерации : от 13 июня 1996 г. № 63-Ф3 // Собрание законодательства РФ . 1998. № 22 . Ст. 2332.
интеллектом . Для этих целей необходимы дальнейшие исследования среди более разнородных групп населения, чтобы продемонстрировать обобщаемость этих результатов [16] . Кроме того, по мнению авторов, есть множество публикаций, констатирующих, что многие из исследований содержат многообещающие заявления производителей об эффективности, однако единицы предоставляют заслуживающие доверия доказательства клинической эффективности и безопасности [17, с . 26] .
В связи с этим за последние несколько лет в мире со стороны регуляторов, надзорных органов, экспертов и профессиональных сообществ активизировалась дискуссия о необходимости оптимального регулирования вопросов ответственного отношения к разработке и применению технологий искусственного интеллекта в сфере здравоохранения .
Предлагаем подробно рассмотреть риски применения технологии искусственного интеллекта в здравоохранении, вызывающие особые опасения как у наиболее уязвимой и виктимной группы — пациентов, так и медицинских работников, непосредственно эксплуатирующих технологии искусственного интеллекта
1. Потребности пациентов в сфере оказания медицинских услуг уникальны и не могут быть адекватно удовлетворены алгоритмами технологии. Существуют проблемы разработки алгоритмов, которые могут привести к ошибкам и негативным последствиям В настоящее время отсутствие доверия к системам искусственного интеллекта является существенным недостатком внедрения этой технологии в здравоохранение . Среди этих факторов надежность, которая относится к тому, может ли технология искусственного интеллекта выполнять задачу последовательно, может иметь особое значение в здравоохранении из-за изменений в надежности искусственного интеллекта при наличии новых данных. Надежность технологии искусственного интеллекта зависит от пользовательских и входных данных. Учитывая, что система искусственного интеллекта может быть
обучена с использованием недостаточных и субъективных данных из нескольких источников, искусственный интеллект может генерировать неверные результаты, о которых медицинский работник может не знать . Эти опасения снижают доверие пользователей и пациентов к системам искусственного интеллекта
В связи с этим полагаем, что и люди, и технологии искусственного интеллекта способны совершать ошибки, которые могут привести к негативным последствиям, причинить вред жизни или здоровью граждан . Степень достоверности, необходимая для наиболее точных клинических решений, зависит от возможностей человека-пользователя и системы искусственного интеллекта Именно поэтому при разработке медицинских изделий, оснащенных технологиями искусственного интеллекта, для достижения оптимального уровня доверия необходимо соблюдать справедливость, прозрачность и надежность [18, с . 350] .
Кроме того, свойства алгоритмов машинного обучения несут в себе риск предвзятости данных, которые могут несправедливо повлиять на членов определенных групп, отличающихся по полу, расе и другим признакам . Например, в исследовании, в котором применялось машинное обучение для обнаружения рака кожи, для обучения модели использовалось менее 5 % данных темнокожих пациентов, что потенциально могло привести к предвзятости в отношении темнокожих пациентов [19] . Несоответствие между распределением обучающих данных и желаемым справедливым распределением, может привести к неверным результатам и выводам Необходимо собрать объективные данные, которые не будут содержать в себе сведения относительно одной расы, возраста, пола, иначе результат будет необъективным [20] .
Достижение справедливости за счет осведомленности или прозрачности технологии также может повысить доверие со стороны граждан В зависимости от доступности и качества данных система искусственного интеллекта может хорошо выполнять одни задачи и плохо выполнять другие На наш взгляд, прозрачность
способствует пониманию не только принципов работы алгоритмов искусственного интеллекта, но и алгоритмических предубеждений и недоверия из-за недостаточного представления специфики технологии и ее возможностей [21, с . 323] . Искусственный интеллект должен быть прозрачной технологией, которая может помочь медицинским работникам прийти к клинически значимым объяснениям результатов применения искусственного интеллекта и сделать обоснованные умозаключения .
Технологии должны быть надежными . Недостаточные или ошибочные данные могут снизить надежность технологии
2. Системы на основе искусственного интеллекта вызывают опасения
в отношении безопасности и конфиденциальности данных пациентов
Технологии искусственного интеллекта увеличивают существующие риски кибер-безопасности, потенциально угрожая неприкосновенности частной жизни и конфиденциальности данных пациентов [12] . Поскольку медицинские записи и данные важны, злоумышленники часто пытаются неправомерными способами получить их На данный момент активно ведутся споры о том, насколько этично можно использовать искусственный интеллект в медицинских учреждениях, поскольку не существует универсальных рекомендаций по его использованию Поскольку обучать систему приходится на большом количестве данных пациентов, возникает вопрос, связанный с обезличиванием персональных данных Несомненно, сохранение конфиденциальности медицинских данных имеет решающее значение
3. Высокая стоимость медицинских услуг, оснащенных технологиями искусственного интеллекта, и право выбора пациентом метода оказания помощи (традиционного или высокотехнологического) Пациенты должны иметь право выбирать, использовать ли инструменты искусственного интеллекта или иметь возможность отказаться от его использования .
Граждане также обеспокоены возможными дополнительными расходами на здравоохранение в связи с форсированной цифро-визацией здравоохранения и за счет каких средств будут покрываться расходы на помощь, оказываемую с использованием новых технологий? Будут ли подобные услуги входить в систему обязательного государственного медицинского страхования?
В целом цифровые технологии могут сделать здравоохранение более эффективным и, следовательно, менее дорогим . Однако на первоначальных этапах развития технологии беспокойство граждан будет связано с высокими затратами на разработку и развертывание инноваций, внедрением их в практику
По мнению некоторых исследователей, доверие как клиницистов, так и пациентов к цифровой технологии может быть подорвано участием коммерческих компаний в их разработке [22]
Другая проблема заключается в том, что, если алгоритм искусственного интеллекта рекомендует лечение, которое является слишком дорогим для пациента, тогда имеет ли он право на выбор традиционного и, следовательно, более дешевого метода?
4. Социальные вопросы
Многие медицинские работники убеждены в том, что искусственный интеллект в здравоохранении может лишить их работы . Однако данная точка зрения во многом основана на неверном истолковании искусственного интеллекта в его различных проявлениях . Потребуется достаточно времени (а возможно это не произойдёт никогда) для того, чтобы цифровая технология развилась до уровня, на котором она сможет успешно заменить медицинский персонал . Именно поэтому полагаем, что появление технологии в медицине не означает, что занятость отпадет, а скорее означает то, что медицинских работников нужно будет обучить
Однако когда дело доходит до последствий и эффективности искусственного интеллекта, наивность может привести к нереалистичным ожиданиям . Общественность может разочароваться в технологии, если его возможности будут переоценены
5. Правовое регулирование ответственности за вред, причиненный в результате применения технологии искусственного интеллекта
Искусственный интеллект вызывает глубокую озабоченность в отношении ответственности за вред, причиненный в результате его использования . В соответствии с существующим правовым регулированием медицинские работники привлекаются к ответственности только в том случае, если они отклоняются от медицинской процедуры (манипуляции), регламентированной стандартами оказания помощи . Тем не менее клиницисты будут нести ответственность, если они будут следовать рекомендациям цифровой технологии, если они отличаются от стандартного процесса оказания помощи и негативно влияют на результаты лечения пациентов . Что это будет означать для системы искусственного интеллекта и не пошатнётся ли доверие к инновации со стороны пользователей? Ожидается, что медицинские работники, использующие системы искусственного интеллекта, будут использовать их для поддержки принятия решений, а не в качестве замены принятия собственного решения . В этом смысле медицинские работники несут ответственность за любые ошибки, которые могут произойти, поскольку окончательное решение остается за ними, а не за технологией . Тогда в каком качестве технологии могут помочь врачам и смогут ли они использовать и оценивать надежность системы искусственного интеллекта?
6. Проблемы разработки алгоритмов в сфере здравоохранения
Алгоритмы на основе искусственного интеллекта, которые предназначены для клинической интерпретации, требуют надлежащей проверки либо на аппаратном, либо на программном уровне, поскольку они используются медиками для лечения и ухода за пациентами, для принятия решений в диагностике и связанном с ним лечении .
Для снижения рисков применения технологии искусственного интеллекта в здравоохранении, вызывающие особые опасения как у наиболее уязвимой и виктимной группы — пациентов, так и медицинских
работников, непосредственно эксплуатирующих технологии искусственного интеллекта, предлагаем:
1. Важно, чтобы пациенты были хорошо проинформированы о реальных возможностях технологий искусственного интеллекта в здравоохранении. В связи с этим технологии искусственного интеллекта должны быть прозрачны, пациентам должны предоставляться объективные и достоверные данные в отношении возможных ограничений и потенциальных преимуществ Необходимо предоставлять пациентам возможность отказаться от применения систем искусственного интеллекта в медицине, если у них имеются опасения или сомнения .
2 . Поставщики медицинских услуг, оснащенных технологиями искусственного интеллекта, должны быть обучены и иметь твердые знания в отношении оказываемой ими медицинской помощи с использованием инновационных цифровых технологий
3 . Медицинские работники должны быть готовы ответить на любые вопросы пациентов об использовании медицинских услуг с использованием искусственного интеллекта Сюда входит объяснение того, почему врачи используют технологии искусственного интеллекта в конкретном случае, как они функционируют и каковы ожидаемые результаты . Предпринимая эти шаги, поставщики медицинских услуг могут помочь повысить доверие пациентов к здравоохранительным технологиям искусственного интеллекта, что необходимо для успешного внедрения этой цифровой инновации в здравоохранении
4. Пациентам должны быть предоставлены гарантии конфиденциальности данных. Меры по обеспечению конфиденциальности и безопасности данных должны быть надежными
5. Технологии искусственного интеллекта должны быть использованы в соответствии с этическими принципами и только при наличии надежной доказательной базы в поддержку их использования
Выводы
Это особенно верно в отношении сектора здравоохранения, где участие пациентов считается одним из наиболее важных
факторов, определяющих качество медицинской помощи . Если люди не увидят, что взаимодействие с приложениями—медицинскими изделиями, содержащими технологии искусственного интеллекта, полезными, подобные приложения могут остаться неиспользованными
Таким образом, понимание движущих сил принятия решений и барьеров, которые приводят к принятию или отказу от применения цифровой инновации в процессе оказания медицинской помощи, имеет основополагающее значение для медицинских работников и больниц, которые планируют внедрить или расширить присутствие технологии во время оказания медицинской помощи
Несовершенство правового регулирования, несовместимость с техническими и этическими ценностями может быть причиной отказа от применения технологии
искусственного интеллекта в здравоохранении
Таким образом, существуют различные риски, связанные с внедрением медицинских изделий, оснащенные искусственным интеллектом . Перед широким внедрением искусственного интеллекта в медицине необходимы дополнительные исследования для выявления проблем, которые могут вызвать опасения при внедрении и использовании подобных приложений . Полагаем, что медицинскому работнику данные, полученные с использованием технологии искусственного интеллекта, могут быть использованы как дополнительный источник информации . Пациенты, конечно, будут полагаться на точность этих инструментов, но их доверие будет зависеть от суждения врача, который интерпретирует эти выводы и включит их в свои собственные клинические суждения
Список источников
1 . Khan B ., Fatima H . , Oureshi A . , Kumar S ., Hanan A ., Hussain J . & Abdullah S . Drawbacks of Artificial Intelligence and Their Potential Solutions in the Healthcare Sector // Biomedical Materials & Devices . 2023. Vol . 1 . P. 731-738 . DOI: https://doi . org/10. 1007/s44174-023-00063-2
2 . Rajpurkar P. , Chen E . , Banerjee O . , Topol E . J . AI in health and medicine // National Library of Medicine. 2022 . Vol . 28, no . 1 . P. 31-38 . DOI: https://doi. org/10,1038/s41591-021-01614-0
3 . Singh R . P. , Hom G . L . , Abramoff M . D . , Campbell J . P. , Chiang M . F . Current challenges and barriers to real-world artificial intelligence adoption for the healthcare system, provider, and the patient // Transl . Vis . Sci . Technol . 2020. Vol . 9, no . 2 . P. 45 . DOI: https://doi . org/10 ,1167/tvst . 9. 2 .45
4 . Kaplan A ., Haenlein M . Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence . Bus Horiz . 2019 . Vol . 62, no . 1 . P. 15-25 . DOI: https://doi . org/10 . 1016/j .bushor.2018.08.004
5 . Dreyer K . , Allen B . Artificial intelligence in health care: brave new world or golden opportunity? // J Am CollRadiol . 2018 . Vol. 15, no. 4 . P. 655-657. DOI: https://doi. org/10 .1016/j.jacr. 2018 . 01 .010 .S1546-1440(18)30032-2
6 . Asan O . , Bayrak A . E . , Choudhury A . Artificial Intelligence and Human Trust in Healthcare: Focus on Clinicians // J Med Internet Res . 2020. Vol . 22, no . 6 . Art . e15154 . DOI: https://doi . org/10 . 2196/15154
7. Esmaeilzadeh P. , Mirzaei T., Dharanikota S . Patients' Perceptions Toward Human-Artificial Intelligence Interaction in Health Care: Experimental Study // J Med Internet Res . 2021 . Vol . 23, no . 11 . Art. e25856. DOI: https://doi. org/10.2196/25856
8 . Хазизулин В . Б . Пациент как элемент механизма оказания медицинской помощи // Вик-тимология . 2023 . Т.10, № 1 . С . 107-114 . DOI: https://doi . org/10.47475/2411-0590-2023-10111
9 . Власенкова А . О . , Гузнова А . Д . , Прокин А . А . Тенденции развития мобильных приложений // E-Scio . 2023. №. 5 (80) . С . 388-396.
10 . Hatherley J . J . Limits of trust in medical AI // J Med Ethics . 2020;46(7):478-481. DOI: https:// doi. org/10 ,1136/medethics-2019-105935
11 . Муллахметова Н . Е . Виктимологические аспекты ятрогенных преступлений // Викти-мология . 2022. Т. 9, № 2 . С . 157-165 . DOI: https://doi . org/10.47475/2411-0590-2022-19203
12 . Ouinn T. P., Senadeera M ., Jacobs S ., Coghlan S . , Le V. Trust and medical AI: the challenges we face and the expertise needed to overcome them // J Am Med Inform Assoc . 2021;28(4):890-894. DOI: https://doi. org/10,1093/jamia/ocaa268
13 . Lemogne C . L'empathie en médecine, necessaire mais non dénuée de risques [Empathy in medicine, necessary but not free from risks] // Rev Prat . 2015 . Vol. 65, no. 8 . P. 1027-1030. PMID: 26749697
14 . Calnan M . , Rowe R . Researching trust relations in health care: Conceptual and methodological challenges - an introduction // J Health Organ Manag. 2006. Vol . 20 . P. 349-358. DOI: https://doi . org/10.1108/14777260610701759
15 . Дмитриева Е . В . Коммуникационное взаимодействие врача и пациента в условиях цифрового здравоохранения // Коммуникология. 2020. T. 8, №. 3 . С . 150-162. DOI: https://doi . org/10.21453/2311-3065-2020-8-3-150-162
16 . Parry M . W. , Markowitz J . S . , Nordberg C. M . Patient Perspectives on Artificial Intelligence in Healthcare Decision Making: A Multi-Center Comparative Study // JOIO. 2023. Vol . 57 . P. 653-665 . DOI: https://doi. org/10.1007/s43465-023-00845-2
17 . Гусев А . В ., Астапенко Е . М ., Иванов И . В ., Зарубина Т. В ., Кобринский Б . А . Принципы формирования доверия к системам искусственного интеллекта для здравоохранения // Вестник Росздравнадзора. 2022. № 2 . С . 25-33 .
18 . Харитонова Ю . С . Правовые средства обеспечения принципа прозрачности искусственного интеллекта // Journal of Digital Technologies and Law. 2023. T. 1, № 2 . С . 337-358 . DOI: https:// doi. org/10,21202/jdtl .2023 .14
19. Kleinberg G ., Diaz M . J ., Batchu S ., Lucke-Wold B . Racial underrepresentation in dermatological datasets leads to biased machine learning models and inequitable healthcare // J Biomed Res (Middlet) . 2022 . Vol . 3, no . 1 . P. 42-47. PMID: 36619609; PMCID: PMC9815490
20 . Basu K ., Sinha R ., Ong A ., Basu T. Artificial Intelligence: How is It Changing Medical Sciences and Its Future? // Indian J Dermatol. 2020. Vol. 65, no. 5 . P. 365-370. DOI: https://doi.org/10 ,4103/ijd. IJD_421_20
21 . Галлезе-Нобиле К. Правовые аспекты использования искусственного интеллекта в телемедицине . Journal of Digital Technologies and Law. 2023 . T. 1 . № 2 . С . 314-336. DOI: https://doi . org/10,21202/jdtl.2023 .13
22 . Hallowell N ., Badger S ., Sauerbrei A . "I don't think people are ready to trust these algorithms at face value": trust and the use of machine learning algorithms in the diagnosis of rare disease // BMC MedEthics . 2022 . Vol. 23 . Art . 112 . DOI: https://doi.org/10 ,1186/s12910-022-00842-4
1 . Khan B ., Fatima H ., Oureshi A. , Kumar S ., Hanan A ., Hussain J . & Abdullah S . Drawbacks of Artificial Intelligence and Their Potential Solutions in the Healthcare Sector. Biomedical Materials & Devices . 2023;1:731-738. DOI: https://doi.org/10,1007/s44174-023-00063-2
2 . Rajpurkar, P. , Chen, E ., Banerjee, O . & Topol, E . J . AI in health and medicine . Nat. Med. 2022 . 28(1):31-38. DOI: https://doi .org/10,1038/s41591-021-01614-0
3 . Singh RP, Hom GL, Abramoff MD, Campbell JP & Chiang MF. Current challenges and barriers to real-world artificial intelligence adoption for the healthcare system, provider, and the patient . Transl. Vis. Sci. Technol. 2020;9(2):45 . DOI: https://doi.org/10 . 1167/tvst .9. 2 .45
4 . Kaplan A, Haenlein M . Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence . Bus Horiz. 2019;62(1):15-25 . DOI: https:// doi. org/10 . 1016/j .bushor.2018.08.004
References
5 . Dreyer K, Allen B . Artificial intelligence in health care: brave new world or golden opportunity? J Am CollRadiol. 2018;15(4):655-657. DOI: https://doi .org/10 .1016/j .jacr.2018 .01 .010 ,S1546-1440(18)30032-2
6 . Asan O, Bayrak AE, Choudhury A . Artificial Intelligence and Human Trust in Healthcare: Focus on Clinicians . J Med Internet Res. 2020;22(6):e15154 . DOI: https://doi . org/10 .2196/15154
7. Esmaeilzadeh P, Mirzaei T, Dharanikota S . Patients' Perceptions Toward Human-Artificial Intelligence Interaction in Health Care: Experimental Study. J Med Internet Res. 2021;23(11):e25856. DOI: https://doi . org/10.2196/25856
8 . Khazizulin VB . Patient as an element of the mechanism for providing medical care . Viktimologiya [Victimology] . 2023;10(1):107-114. (In Russ .) DOI: https://doi. org/10.47475/2411-0590-2023-10111
9. Vlasenkova AO, Guznova AD, Prokin AA . Trends in the development of mobile applications . E-Scio. 2023;(5):388-396. (In Russ .)
10 . Hatherley JJ . Limits of trust in medical AI . J Med Ethics. 2020;46(7):478-481. DOI: https://doi . org/10 ,1136/medethics-2019-105935
11 . Mullakhmetova NE . Victimological aspects of iatrogenic crimes . Viktimologiya [Victimology]. 2022;9(2):157-165. (In Russ .) DOI: https://doi. org/10.47475/2411-0590-2022-19203
12 . Quinn TP, Senadeera M, Jacobs S, Coghlan S, Le V. Trust and medical AI: the challenges we face and the expertise needed to overcome them . J Am Med Inform Assoc. 2021;28(4):890-894. DOI: https://doi . org/10.1093/jamia/ocaa268
13 . Lemogne C . L'empathie en médecine, necessaire mais non dénuée de risques [Empathy in medicine, necessary but not free from risks] // Rev Prat . 2015 .Vol . 65, no . 8 . P. 1027-1030. PMID: 26749697.
14 . Calnan M, Rowe R . Researching trust relations in health care: conceptual and methodological challenges-introduction . J Health Organ Manag. 2006;20:349-358 . DOI: https://doi . org/10 1108/14777260610701759
15 . Dmitrieva EV Patient — Health Care Provider Communication in the Digital Era . Communicolo-gy. 2020;8(3):150-162. (In Russ .) DOI: https://doi . org/10.21453/2311-3065-2020-8-3-150-162
16 . Parry MW, Markowitz JS, Nordberg CM . et al. Patient Perspectives on Artificial Intelligence in Healthcare Decision Making: A Multi-Center Comparative Study. JOIO. 2023;57:653-665 . DOI: https:// doi. org/10.1007/s43465-023-00845-2
17 . Gusev AV, Astapenko EM, Ivanov IV, Zarubina TV, Kobrinsky BA . Principles of building trust in artificial intelligence systems for healthcare . Vestnik Roszdravnadzora [Bulletin of Roszdravnadzor]. 2022;(2):25-33. (In Russ .)
18 . Kharitonova YuS . Legal means of ensuring the transparency principle of artificial intelligence . Journal of Digital Technologies and Law. 2023;1(2):337-358. (In Russ .) DOI: https://doi. org/10.21202/ jdtl.2023.14
19. Kleinberg G, Diaz MJ, Batchu S, Lucke-Wold B . Racial underrepresentation in dermatological datasets leads to biased machine learning models and inequitable healthcare . J Biomed Res (Middlet). 2022;3(1):42-47. PMID: 36619609; PMCID: PMC9815490.
20 . Basu K, Sinha R, Ong A, Basu T. Artificial Intelligence: How is It Changing Medical Sciences and Its Future? Indian J Dermatol. 2020;65(5):365-370. DOI: https://doi. org/10 ,4103/ijd. IJD_421_20
21 . Gallese-Nobile K . Legal aspects of the use of artificial intelligence in telemedicine . Journal of Digital Technologies and Law. 2023;1(2):314-336. (In Russ .) DOI: https://doi . org/10,21202/jdtl .2023 .13
22 . Hallowell, N ., Badger, S ., Sauerbrei, A . et al. "I don't think people are ready to trust these algorithms at face value": trust and the use of machine learning algorithms in the diagnosis of rare disease . BMCMedEthics. 2022;23:Art .112 . DOI: https://doi . org/10 ,1186/s12910-022-00842-4
ИНФОРМАЦИЯ ОБ АВТОРЕ
Шутова Альбина Александровна
Кандидат юридических наук, старший научный сотрудник, Научно-исследовательский институт цифровых технологий и права; доцент кафедры уголовного права и процесса, Казанский инновационный университет им. В .Г.Ти-мирясова (ИЭУП) .
420111, Казань, ул . Карла Фукса, д . 2А.
shutova1993@inbox . ги
о^0000-0003-3015-3684
КОНФЛИКТ ИНТЕРЕСОВ
Конфликт интересов отсутствует.
INFORMATION ABOUT THE AUTHOR Albina A. Shutova
Candidate of Legal Sciences, Senior Researcher, Research Institute of Digital Technologies and Law; Associate Professor, Department of Criminal Law and Process, Kazan Innovative University named V. G. Timiryasov (IEML) .
2 Karla Fuksa str. , lit . A, Kazan 420111, Russia .
shutova1993@inbox . ru,
https://orcid . org/0000-0003-3015-3684
CONFLICT OF INTEREST
There is no conflict of interest.
Дата поступления статьи / Received: 26.06.2023 .
Дата рецензирования статьи / Revised: 20.10.2023.
Дата принятия статьи к публикации / Accepted: 20.10.2023.