Научная статья на тему 'ПРАВОВЫЕ ПРОБЛЕМЫ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СФЕРЕ ЗДРАВООХРАНЕНИЯ'

ПРАВОВЫЕ ПРОБЛЕМЫ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СФЕРЕ ЗДРАВООХРАНЕНИЯ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
1084
233
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / МЕДИЦИНСКАЯ ПОМОЩЬ / ЗДРАВООХРАНЕНИЕ / МЕДИЦИНСКИЕ ИССЛЕДОВАНИЯ / "ЧЕРНЫЙ ЯЩИК" ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Иванова А.П.

В обзоре рассматривается проблемы использования искусственного интеллекта в различных областях медицины, таких как диагностика заболеваний, рекомендации по их лечению и административная деятельность в здравоохранении. Анализируются перспективы развития ИИ, противоречивые взгляды и потенциальные подводные камни при его внедрении.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

LEGAL PROBLEMS OF THE USE OF ARTIFICIAL INTELLIGENCE IN HEALTHCARE

The review examines the problems of using artificial intelligence in various fields of medicine, such as diagnosis of diseases, recommendations for their treatment, and administrative activities in healthcare. The article analyzes the prospects for AI development, conflicting views, and potential pitfalls in its implementation.

Текст научной работы на тему «ПРАВОВЫЕ ПРОБЛЕМЫ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СФЕРЕ ЗДРАВООХРАНЕНИЯ»

УДК 349

DOI: 10.31249/rgpravo/2021.01.16

ИВАНОВА А.П 1 ПРАВОВЫЕ ПРОБЛЕМЫ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СФЕРЕ ЗДРАВООХРАНЕНИЯ. (Обзор).

Аннотация. В обзоре рассматривается проблемы использования искусственного интеллекта в различных областях медицины, таких как диагностика заболеваний, рекомендации по их лечению и административная деятельность в здравоохранении. Анализируются перспективы развития ИИ, противоречивые взгляды и потенциальные подводные камни при его внедрении.

Ключевые слова: искусственный интеллект; медицинская помощь; здравоохранение; медицинские исследования; «черный ящик» искусственного интеллекта.

IVANOVA A.P. Legal problems of the use of artificial intelligence in healthcare. (Review).

Abstract. The review examines the problems of using artificial intelligence in various fields of medicine, such as diagnosis of diseases, recommendations for their treatment, and administrative activities in healthcare. The article analyzes the prospects for AI development, conflicting views, and potential pitfalls in its implementation.

Keywords: artificial intelligence; medical care; health care; medical research; «black box» of artificial intelligence.

Главные проблемы в системах здравоохранения большинства государств на сегодняшний день - это доступность, качество

1 А.П. Иванова, младший научный сотрудник Отдела правоведения ИНИОН

РАН.

и стоимость медицинской помощи. С целью преодоления данных проблем ученые стали активно разрабатывать инновационные технологии искусственного интеллекта. С появлением Интернета, беспроводных технологий, передовых вычислительных алгоритмов, интеграции мобильных устройств в уход за пациентами в секторе здравоохранения произошла настоящая революция [6, р. 439]. На сегодняшний день в медицинских учреждениях искусственный интеллект используется для повышения эффективности и качества ухода за пациентами, а также широко применяется в медицинских исследованиях.

Примерно 86% медицинских работников используют в своей практике хотя бы одну из форм ИИ [3, р. 1]. В будущем предполагается, что медицинские работники смогут перейти исключительно к выполнению задач и проектов, опирающихся на уникальные человеческие навыки, такие как эмпатия, убеждение и способность к интеграции, а всю остальную работу будут выполнять автоматизированные системы [2, р. 97]. Однако использование технологии ИИ в сфере здравоохранения неизбежно создает риски, поскольку не все возможные последствия использования новой технологии можно заранее предвидеть и спрогнозировать.

Высокоинтеллектуальные машины и искусно сделанные роботы выполняют сложнейшие задачи, которые ранее могли выполняться исключительно людьми. ИИ использует технологии, основанные на обработке больших объемов данных и распознавании паттернов в этих данных. Это позволяет машинам «учиться на опыте» и впоследствии выполнять самые сложные задачи. В сфере здравоохранения ИИ опирается на прогностические алгоритмы, которыми руководствуются врачи в своей медицинской практике

[3, р. 2].

Благодаря своей способности определять вероятности для реляционных наборов данных ИИ подходит для решения самых сложных задач в области здравоохранения. ИИ может значительно модернизировать уход на дому для пожилых людей, сокращая расходы на дома престарелых и улучшая качество жизни пожилых людей. Также ИИ может автоматизировать определенные медицинские задачи, освобождая время занятых врачей для более сложных случаев [6, р. 440].

Повышенная производительность новых форм ИИ стала причиной быстрых изменений в сфере здравоохранения. Однако результаты, полученные с помощью этих новых форм ИИ, особенно нейронных сетей, могут быть трудно интерпретируемы, не в последнюю очередь из-за их возрастающей сложности и способности к бесконтрольному или неограниченному обучению. Эти алгоритмы называются «черным ящиком» ИИ, потому что детали их работы не всегда понятны человеческому уму [5, р. 26].

«Нейронные сети», лежащие в основе алгоритмов «черного ящика» ИИ, структурированы на основе человеческого мозга, ввиду этого они могут самостоятельно обучаться, принимать решения и давать точные ответы. Но несмотря на способность технологии ИИ обеспечить точные ответы и помочь в повышении доступности и качества ухода за пациентами, она не может продемонстрировать, каким образом и на основании чего она формировала свои выводы, в отличие от лечащего врача [3, р. 3].

Ввиду этого возникает серьезная проблема объяснимости (интерпретируемости) результатов работы алгоритма. Если алгоритм объясним, то человек может знать, как алгоритм делает то, что он делает, включая то, какие значения он кодирует. В настоящее время менее объяснимые алгоритмы являются более точными, и не ясно, всегда ли точность и объяснимость противоречат друг другу или возможно иметь и то и другое. Конечно, объяснения врачей неидеальны, но они юридически, морально и профессионально ответственны за эти решения и, как правило, способны дать некоторые объяснения. Автоматизированные системы, напротив, могут генерировать индивидуальные диагностические, прогностические и управленческие решения, которые тем не менее не могут быть объяснены. Я. Батхи в связи с этим отметил, что проблема «черного ящика» представляет непосредственную угрозу для вины и причинно-следственной связи как условий привлечения к ответственности за правонарушение [1, р. 892].

В качестве решения проблемы «черного ящика» ИИ предлагается установление минимального уровня прозрачности используемых алгоритмов. Вместе с тем подобное решение, по мнению Я. Батхи, является проблематичным ввиду множества причин. Во-первых, уровень прозрачности алгоритмов ИИ неизбежно уменьшается с возрастанием сложности их работы. Введение минималь-

ных требований к прозрачности фактически станет препятствием для развития и совершенствования технологий ИИ. Во-вторых, сложная система регулирования может повлечь за собой значительные издержки для новых участников рынка ИИ. Уже сейчас данные технологии находятся в руках всего лишь нескольких крупных компаний. Введение требований к прозрачности работы алгоритмов ИИ значительно усилит монополизацию рынка [1, p. 930].

Искусственный интеллект используется для обработки и анализа результатов тестов пациентов, сбора данных в ходе интервью с пациентами, использования данных для определения соответствующих диагнозов и предоставления вариантов лечения, а также для мониторинга пациентов после проведения соответствующего лечения. Например, «система поддержки принятия решений» DXplain, разработанная в Лаборатории компьютерных наук Массачусетской больницы общего профиля, предоставляет список возможных диагнозов после ввода симптомов в компьютерную систему DXplain. Данная система определяет диагноз, используя базу данных о болезнях и клинических результатах. Это пример «метода машинного обучения», который использует базовые правила обучения для поиска закономерностей в огромных объемах данных.

Помимо методов машинного обучения ИИ используется в медицине и в других формах, например в роботизированных системах. Одной из наиболее распространенных роботизированных систем, используемых в медицине, является роботизированная хирургическая система da Vinci. Она позволяет хирургам выполнять более точные движения и минимально инвазивные разрезы, которые были бы невозможны при полностью ручном подходе, т.е. улучшает качество медицинской помощи при проведении некоторых видов операций [3, p. 5]. Хирургические процедуры с использованием роботизированной хирургии проводятся в гинекологической хирургии, хирургии предстательной железы и хирургии головы и шеи [2, p. 95].

Искусственный интеллект и алгоритмы машинного обучения все больше влияют на процессы принятия решений, диагностики и лечения пациентов в сфере здравоохранения. Связи этих алгоритмов с данными пациентов позволяют врачам идентифицировать

болезнь и лечить пациентов со значительно большей точностью, чем когда-либо прежде. По словам Ш. Томас, внедрение ИИ в медицинскую диагностику и принятие решений может значительно сократить количество медицинских ошибок и ошибочных диагнозов [3, р. 6].

Однако прогнозы, основанные на сложных связях между данными пациента и рекомендуемым лечением, в большинстве случаев даются практически без объяснения причин. Ввиду этого возникают проблемы в случае привлечения медицинских работников к ответственности за медицинскую халатность. Например, когда врач ставит неправильный диагноз или прописывает неправильное лечение, основываясь на использовании технологии ИИ и алгоритмов машинного обучения, возникают сомнения по поводу того, кто должен нести ответственность за медицинскую ошибку -производитель технологии или же врач, лечащий пациента с помощью искусственного интеллекта.

Как правило, ответственность за врачебные ошибки квалифицируется как халатность. Когда речь идет о врачебной ошибке, ответственность врача определяется исходя из представления о нем как о доверенном специалисте. Это означает, что лечащий врач несет полную ответственность за свои решения и, таким образом, если оказываемая помощь будет признана безрассудной или небрежной, то врач будет привлечен к ответственности. При вынесении судебных определений по искам о деликтах, связанных с врачебной ошибкой, важное значение приобретают экспертные заключения, касающиеся обычной практики в конкретной области медицины.

Однако становится проблематичным применять существующие стандарты деликтной ответственности для определения ответственности врача, совершившего ошибку при использовании технологии ИИ. Алгоритмы, применяемые в технологиях ИИ, начинают иметь более высокие показатели точности, чем врачи. Ввиду этого кажется несправедливым привлечение врача к ответственности за то, что он следовал рекомендациям автоматизированной системы.

В то же время даже в случае использования технологий ИИ окончательное решение принимает врач. С точки зрения данной позиции в ситуациях с использованием указанных технологий мо-

гут быть применимы традиционные теории деликтной ответственности, поскольку принятие решений в первую очередь осуществляется врачом, а не технологией ИИ [3, p. 9].

Следовательно, другие типы теорий деликтной ответственности могут быть применимы к искусственному интеллекту в медицине в случаях, когда традиционная структура ответственности врача за халатность и врачебную ошибку не может быть применима. Один из вариантов заключается в применении доктрины «respondeat superior» («отвечает старший») для установления субсидиарной ответственности работодателя врача, если врач действует в рамках своей трудовой деятельности и одновременно совершает небрежное действие, связанное с использованием технологии ИИ или алгоритмов машинного обучения. В соответствии с этой теорией руководители больниц и госпиталей также могут нести ответственность за неспособность должным образом обучать и/или контролировать сотрудников при использовании технологии ИИ.

Более того, в соответствии с действующим законодательством об ответственности производителя за произведенную продукцию создатель ИИ потенциально может нести ответственность за медицинскую ошибку, связанную с применением технологии ИИ. Такая возможность основана на принципе ответственности производителя за произведенные продукты, согласно которому причинение вреда при использовании продукта является доказательством некоторого дефекта в нем. Если вред причинен по причине производственного дефекта алгоритмов ИИ, существующие правила об ответственности чаще всего возлагают «вину» на его создателей. Однако зачастую нелегко понять, каким образом эти алгоритмы приходят к свои выводам, поэтому определить наличие вины самого пользователя или производителя представляется проблематичным. Поскольку поведение продвинутого ИИ не является полностью предсказуемым и представляет собой результат взаимодействия между несколькими человеческими и нечеловеческими агентами, составляющими социотехническую систему, трудно определить причинно-следственную связь между причиненным ущербом и действиями конкретного человека или юридического лица. Существующего законодательства недостаточно для того, чтобы гарантировать пользу ИИ [4, p. 8].

До настоящего времени суды во всем мире не сформулировали четкого подхода к определению ответственности, связанной с созданием автоматизированных информационных систем. Этот подход во многом будет зависеть от стандартов, установленных профессиональным сообществом [4, р. 7].

Кроме возникновения проблем с определением лица, несущего ответственность за работу ИИ, его использование может существенным образом повлиять на уровень человеческого потенциала. Во-первых, врачи, скорее всего, потеряют навыки, которые они не используют регулярно, например навыки распознавания и диагностирования заболеваний [5, р. 29]. Во-вторых, уклон в сторону автоматизации означает, что люди будут склонны соглашаться с решениями автоматизированных систем, даже если они ошибочны [Ibid., p. 30].

Еще одной проблемой, связанной с использованием ИИ в сфере здравоохранения, является проблема сохранения конфиденциальности персональных данных пациентов. Основой работы ИИ являются данные. Для эффективной работы ИИ должен постоянно получать высококачественные наборы данных, что неизбежно затрагивает конфиденциальность персональных данных пациентов. На сегодняшний день в сфере защиты персональных данных существует ряд основополагающих принципов. Одним из таких принципов является принцип минимизации данных - концепция, согласно которой данные не должны собираться, использоваться или храниться дольше, чем требуется для достижения целей их обработки. Кроме того, субъект персональных данных должен быть изначально извещен о целях обработки персональных данных. Однако ИИ создает серьезные проблемы для минимизации данных ввиду следующего: 1) центральным фактором успеха в работе ИИ является максимизация данных, а не их минимизация; 2) зачастую в работе ИИ не всегда заранее известно, какие элементы данных будут полезны для принятия конкретного решения; 3) данные, собранные и обработанные ранее, могут быть чрезвычайно полезны для будущей работы ИИ, ввиду этого нельзя изначально указать цели обработки персональных данных [6, р. 441]. Одним из решений данной проблемы может стать обезличивание персональных данных. Однако ИИ может повторно идентифицировать пациентов из обезличенных наборов данных.

Как было указано ранее, ИИ функционирует только тогда, когда ему предоставляется устойчивый поток данных в значительных объемах. Обычно эти данные собираются в наборах «больших данных» или больших агрегированных базах данных, хранящихся у облачного провайдера. Для заполнения базы данных организации часто также закупают обезличенные наборы данных, например у страховых организаций или используют общедоступные наборы данных. Когда эти наборы данных объединяются и запускается утилита ИИ, любой пациент со значительной вероятностью может быть повторно идентифицирован [6, р. 443]. Если алгоритмы станут неотъемлемой частью медицинской помощи и врачи станут зависимы от этих систем для принятия решений, пациенты, которые не делятся своими медицинскими данными, могут не получить надлежащее лечение [5, р. 29].

Существенной и отчетливо наблюдаемой проблемой для систем машинного обучения является необъективность результатов, возникающая из-за предвзятости обучающих данных. Системы машинного обучения в здравоохранении могут быть подвержены алгоритмической предвзятости и предсказывать большую вероятность заболевания, основываясь лишь на данных, касающихся пола и расы пациента, которые на самом деле не являются причинными факторами [2, р. 97].

Таким образом, использование технологии ИИ в сфере здравоохранения неизбежно создает риски, поскольку не все возможные последствия использования новой технологии можно предвидеть. Самая большая проблема заключается не в том, будут ли эти технологии достаточно эффективными, а в том, будет ли надлежащим образом обеспечено их внедрение в повседневную медицинскую практику [Ibid., р. 97].

Для того чтобы использование ИИ было успешным, руководители систем здравоохранения, врачи и разработчики должны осознавать, что оказание медицинской помощи с использованием ИИ является не только технической, но также и этической, юридической и социальной проблемой. Исследования показывают, что общественность готова поддержать использование медицинских данных для технологического развития, но при условии строгого соблюдения конфиденциальности, надлежащего контроля и управления, гарантированного использования данных в обще-

ственных интересах [5, p. 30]. Необходимы инвестиции в технологии, направленные на снижение идентифицируемости данных, которые защищают неприкосновенность частной жизни пациентов и одновременно поощряют использование и обмен данными [6, p. 443].

Список литературы

1. Bathaee Y. The artificial intelligence black box and the failure of intent and causation // Harvard journal of law & technology. - Cambridge, 2018. - Vol. 31, N 2. -P. 889-938.

2. Kalakota R., Davenport T. The potential for artificial intelligence in healthcare // Future healthcare journal. - London, 2019. - Vol. 6, N 2. - P. 94-98.

3. Kamensky S. Artifificial Intelligence and Technology in Health Care : Overview and Possible Legal Implications // DePaul journal of health care law. - Chicago, 2020. - Vol. 21, N 3. - P. 1-18.

4. Magrani E. New perspectives on ethics and the laws of artificial intelligence // Internet policy review. - Berlin, 2019. - Vol. 8, N 3. - P. 1-19.

5. The ethical, legal and social implications of using artificial intelligence systems in breast cancer care / M.S. Carter, W. Rogers, K.T. Win, H. Frazer, B. Richards, N. Houssami // The breast. - Elsevier, 2020. - Vol. 49. - P. 25-32.

6. Tschider C.A. The healthcare privacy-artificial intelligence impasse // Santa Clara high technology law journal. - Santa Clara, 2020. - Vol. 36, N 4. - P. 439-443.

i Надоели баннеры? Вы всегда можете отключить рекламу.