ЭТИЧЕСКАЯ СОСТАВЛЯЮЩАЯ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ЗДРАВООХРАНЕНИИ
А.В. Васильев, студент
А.В. Свищёв, старший преподаватель
МИРЭА - Российский технологический университет
(Россия, г. Москва)
DOI:10.24412/2500-1000-2024-11-2-157-160
Аннотация. В статье рассматривается этическая составляющая, связанная с применением персональных данных пользователя с участием искусственного интеллекта, в сфере здравоохранения. Искусственный интеллект представляет собой мощный инструмент для анализа данных, управления, автоматизации процессов, а также диагностики, однако использование ИИ провоцирует ряд вопросов, связанных с этикой и безопасностью данных. Также в статье затрагиваются основные риски и противоречия, связанные с этикой, с которыми сталкиваются разработчики и пользователи ИИ в медицинских системах. Рассматриваются вопросы конфиденциальности данных, а также способы разрешения существующих проблем для обеспечения доверительного использования новых и полезных технологий в чувствительных областях.
Ключевые слова: медицина, здравоохранение, искусственный интеллект, конфиденциальность данных, этика.
Искусственный интеллект (ИИ) - это термин, применяемый к машине или программному обеспечению, который относится к способности имитировать разумное поведение человека, производить быстрые вычисления, решать неформализованные и нестандартные проблемы проблем и давать оценку новым данным на основе ранее оцененных [1].
Использование искусственного интеллекта стремительно расширяется и охватывает самые разные области человеческой жизни, включая такие критически важные области,
как здравоохранение. Ввиду того, что данная отрасль оказывает значительное влияние на жизнь и благополучие людей, внедрение новых технологий в нее требует особого внимания.
Объем мирового рынка ИИ в здравоохранении неуклонно растет, что виднно на одной статистике Соединенных Штатов Америки, во всем остальном мире наблюдается аналогичная картина - рынок ИИ в сфере медицины развивается и расширяется [2].
Рис. 1. Прогноз объема рынка ИИ в здравоохранении США
В медицине ИИ помогает в диагностике, прогнозировании и персонализированном лечении, что, в свою очередь, позволяет посмотреть на каждый конкретный случай с альтернативной точки зрения, отличной от точки зрения лечащего врача.
Во-первых, ИИ-технологии помогают в диагностике, позволяя врачам быстрее и точнее распознавать патологии, а также редкие и трудно диагностируемые заболевания. Во-вторых, ИИ можно использовать в качестве инструмента для прогнозирования, что позволяет предсказать интенсивность развития болезни и оптимизировать процесс лечения пациента. В-третьих, ИИ-системы применяются в качестве поддержки при принятии решений врачами, предлагая персонализированные варианты лечения на основании проанализированных данных из большого числа случаев.
Это значит, что уменьшается вероятность того, что какой-либо важный фактор будет упущен из виду или не принят во внимание. Таким образом, ИИ является помощником и улучшает качество лечения [3].
Ввиду перечисленных преимуществ ИИ в данной области становится ясно, что таким инструментом нужно пользоваться. В качестве примера рассмотрим IBM Watson - суперкомпьютер, имеющий подразделение Watson Health, основное направление деятельности которого именно использование в медицинских целях. Компьютер был обеспечен огромных количеством данных: энциклопедиями, базами научных статей, а также, что самое важное, -медицинскими картами и снимками. На текущий момент Watson Health применяется в диагностировании онкологических заболеваний, а также, например, в поиске признаков порока сердца на УЗИ.
Фактически, роль искусственного интеллекта в здравоохранении заключается в анализе данных о здоровье пациентов, улучшении диагностики и результатов, а также в содействии ускорению исследовательской деятельности в области здравоохранения.
Как уже было сказано, ИИ в здравоохранении использует большие объемы данных пациентов. Основная проблема заключается в защите конфиденциальности этих данных:
1. Риски утечки
Данные пациентов являются персональными, а их утечка может привести к последстви-
ям, включая нарушения действующего законодательства.
2. Согласие на использование данных
Пациенты должны быть осведомлены о том, что их данные будут использоваться для обучения ИИ, поэтому необходимы прозрачные механизмы информированного согласия.
Помимо этого, в медицине требуется высокий уровень доверия, а значит врачи должны понимать логику, стоящую за тем или иным предлагаемым ИИ решением, а так как ИИ основан на сложной модели, достигнуть объ-яснимости может быть сложно. Отсутствие прозрачности может снизить доверие со стороны медицинских работников и пациентов, так как решения могут показаться необоснованными [3].
Для пациентов крайне важен факт непредвзятости используемых методов, ведь может быть такая ситуация, что алгоритм обучен на данных, которые в значительной степени представлены одной группой, например, по этническому принципу или социально-экономическому статусу, что противоречит принципу равенства в здравоохранении [4].
Важным моментом также является вопрос несения ответственности. Если ИИ сделает ошибку, кто будет нести ответственность -разработчики, поставщики услуг здравоохранения или сами пользователи системы? Соответственно, необходимо вести работу, направленную на создание законодательной базы для контроля вопросов, связанных с искусственным интеллектом. Не помешает также принятие единых международных стандартов, регулирующих применение ИИ в сфере здравоохранения с целью восполнения юридических пробелов в трансграничном использовании ИИ.
Вышеперечисленные проблемы требуют решения, исправления или минимизации, а значит нужно принимать какие-либо решения в этом направлении.
Для защиты данных пациентов необходимо предусмотреть такие методы обезличивания данных, которые бы не позволяли идентифицировать пациента, но и не влияли на моменты, которые могли бы быть полезными для обучающегося алгоритма. Ввиду того, что ИИ - это дополнительный канал взаимодействия с данными, то повышается риск утечки. Соответственно, для передачи таких данных нуж-
но предусмотреть методы шифрования, которые позволят защититься от несанкционированного доступа.
Только уполномоченные на то лица должны иметь возможность просматривать или использовать данные для работы с ИИ, а для этого нужна многоуровневая аутентификация и регулярный аудит доступа для поддержания безопасности.
Для понимания пользователем следует ввести дополнительные согласия, которые будут содержать информацию о том, какие данные используются, на протяжении какого времени они будут храниться и для какой конкретной задачи будут использоваться. Более того, такие согласия должны носить регулярный характер для предоставления пациенту возможности пересмотра своего мнения.
Вопросы касающиеся понимания и прозрачности требуют особого внимания. Важно, чтобы алгоритмы ИИ были «объяснимыми», это может быть достигнуто за счет создания прозрачных моделей ИИ, таких как метод LIME (Local Interpretable Model-agnostic Explanations), которые объясняют, какие факторы повлияли на результат анализа данных. Помимо этого, чтобы принимать обоснованные решения и использовать рекомендации
ИИ с уверенностью, должны быть сотрудники, понимающие основные принципы работы с искусственным интеллектом. Для этого помогут специальные образовательные программы для медицинских работников [5].
Вопросы обеспечения непредвзятости могут быть решены посредством контроля наборов данных, используемых для обучения алгоритмов, а также интегрировать в работу ИИ процедуры регулярного тестирования для своевременного нахождения ошибок для определенной группы пациентов.
Для контроля с юридической стороны необходимо разработать нормативные акты, регулирующие использование искусственного интеллекта в здравоохранении. Данные законы должны предусматривать ответственность сторон, связанных с применением ИИ, включая разработчиков, медицинские учреждения и поставщиков ИТ-услуг.
Таким образом, внедрение искусственного интеллекта в медицинскую сферу имеет огромный потенциал, однако сопровождается рядом этических проблем, решение которых требует не только технических усилий, но и широких нормативных и юридических мер, а также вовлечения пациентов и медицинских работников в процесс принятия решений.
Библиографический список
1. Ethical Issues of Artificial Intelligence in Medicine and Healthcare. - [Электронный ресурс]. -Режим доступа: https://pmc.ncbi.nlm.nih.gov/articles/PMC8826344/ (дата обращения: 07.11.2024).
2. Artificial Intelligence (AI) in Healthcare Market Size Expected to Reach USD 613.81 Bn by 2034. - [Электронный ресурс]. - Режим доступа: https://www.globenewswire.com/news-release/2024/08/12/2928598/0/en/Artificial-Intelligence-AI-in-Healthcare-Market-Size-Expected-to-Reach-USD-613-81-Bn-by-2034.html (дата обращения: 07.11.2024).
3. Аверьянова О.А. Искусственный интеллект в условиях современной медицины / О.А. Аверьянова, В.И. Коршак // Естественные и математические науки в современном мире. -2016. - №5 (40). - С. 36.
4. Алексеева, М.Г. Искусственный интеллект в медицине / М.Г. Алексеева, А.И. Зубов, М.Ю. Новиков // Международный научно-исследовательский журнал. - 2022. - № 7-2(121). -С. 10-13. - DOI 10.23670/IRJ.2022.121.7.038. - EDN JMMMDF.
5. Standards in Artificial Intelligence in Healthcare. - [Электронный ресурс]. - Режим доступа: https://tadviser.com/index.php/Article:Standards_in_Artificial_Intelligence_in_Healthcare (дата обращения: 07.11.2024).
- TexnuHecKue uayHU -
THE ETHICAL COMPONENT OF THE USE OF ARTIFICIAL INTELLIGENCE
IN HEALTCARE
A.V. Vasilyev, Graduate Student
A.V. Svishchev, Senior Lecturer
MIREA - Russian Technological University
(Russia, Moscow)
Abstract. The article examines the ethical component associated with the use of user's personal data with the participation of artificial intelligence in the field of healthcare. Artificial intelligence is a powerful tool for data analysis, management, process automation, and diagnostics, but the use of AI provokes a number of issues related to data ethics and security. The article also addresses the main ethical risks and contradictions faced by AI developers and users in medical systems. The issues of data confidentiality are considered, as well as ways to resolve existing problems to ensure the trustful use of new and useful technologies in sensitive areas.
Keywords: medicine, healtcare, artificial intelligence, data privacy, ethics.