ЭТИЧЕСКИЕ ПРОБЛЕМЫ РАЗВИТИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ЗДРАВООХРАНЕНИИ
А.В. ГУСЕВ1, Д.Е. ШАРОВА2
1 ООО «К-Скай», г. Петрозаводск, Россия; ФГБУ «Центральный научно-исследовательский институт организации и информатизации здравоохранения» Минздрава России,
г. Москва, Россия;
2 ГБУЗ г. Москвы «Научно-практический клинический центр диагностики и телемедицинских технологий Департамента здравоохранения города Москвы», г. Москва, Россия.
v//////////////////////////^^^^
УДК: 614.2 DOI: 10.21045/2782-1676-2023-3-1-42-50
Аннотация
Разработка и внедрение программного обеспечения (ПО) на основе технологий искусственного интеллекта (ИИ) является одним из основных направлений цифровой трансформации здравоохранения. Глобальный рынок систем ИИ для медицины и здравоохранения, а также научные исследования в этой сфере являются главными отраслевыми драйверами. Вместе с этим в профессиональном медицинском сообществе растет озабоченность относительно безопасности и эффективности ПО на основе ИИ при его внедрении в практику. Проблемы ответственного отношения выходят на первый план при обсуждении темпов развития отрасли ИИ. Целью работы стал анализ существующих этических проблем внедрения ИИ в здравоохранении и формирование первоочередных задач по их преодолению.
Ключевые слова: цифровое здравоохранение, искусственный интеллект, машинное обучение, системы поддержки принятия врачебных решений, этика, ответственное отношение.
Для цитирования: ГусевА.В., ШароваД.Е. Этические проблемы развития технологий искусственного интеллекта в здравоохранении //Общественное здоровье. 2023, 3(1):42-50. DOI: 10.21045/2782-1676-2023-3-1-42-50. Контактнаяинформация: ГусевАлександр Владимирович, e-mail: [email protected] Конфликтинтересов: Авторы статьи подтверждаютотсутствие конфликта интересов. Статья поступила в редакцию: 15.10.2022. Статья принята к печати: 28.02.2023. Дата публикации: 25.03.2023.
UDC: 614.2 DOI: 10.21045/2782-1676-2023-3-1-42-50
ETHICAL PROBLEMS IN THE DEVELOPMENT OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES IN HEALTHCARE A.V. Gusev1, D.E. Sharova 2
1 K-SkAI LLC, Petrozavodsk, Russia; Russian Research Institute of Health, Ministry of Health of the Russian Federation, Moscow, Russia;
2 Research and Practical Clinical Center for Diagnostics and Telemedicine Technologies, Moscow, Russia. Abstract
The development and implementation of software based on artificial intelligence (AI) technologies is one of the main directions of the digital transformation in healthcare. The global market for AI systems in medicine as well as research in this area are the main industry drivers. At the same time there is a growing concern in the medical professional community about the safety and effectiveness of AI-based software when it is put into practice. Responsibility issues come to the fore when discussing the pace of development of the AI industry.
The aim of the work was to analyze the existing ethical problems of AI implementation in healthcare and to formulate priorities for overcoming them.
Key words: digital health, artificial intelligence, machine learning, clinical decision support system, ethics, responsible attitude.
For citation: GusevA.V., Sharova D.E. Ethical problems in the development of artificial intelligence technologies in healthcare // Public health. 2023; 3(1):42-50. DOI: 10.21045/2782-1676-2023-3-1-42-50. Forcorrespondence: Alexander V. Gusev, e-mail: [email protected] Conflictofinterest: The authors of the article confirm the absence of a conflict of interest.
© A.B. Гусев,Д.Е. Шарова, 2023 г.
ВВЕДЕНИЕ
Разработка и внедрение различного программного обеспечения (ПО) на основе технологий искусственного интеллекта (ИИ) является одним из ключевых направлений цифровой трансформации здравоохранения во всем мире [1, 2].
Основными технологическими предпосылками к применению технологий ИИ в здравоохранении являются: быстрое накопление цифровых данных, в т.ч. благодаря внедрению систем ведения электронных медицинских карт и развитию носимых медицинских устройств, постоянное совершенствование средств и методов машинного обучения, позволяющих создавать высокоточные алгоритмы для автоматической интерпретации медицинской информации, высокая доступность облачных сервисов и необходимой инфраструктуры [1].
Важнейшим глобальным драйвером развития отрасли ИИ для здравоохранения являются инвестиции и рост рынка, который по итогам 2021 г. составил 8,19 млрд. долл. Прогнозируется, что к концу 2022 г. он вырастет до 10,11 млрд. долл. при среднегодовом темпе роста 23,46%, а к 2026 г. увеличится до 49,10 млрд. долл. [3].
Венчурные инвесторы и профессиональные инвестиционные фонды постоянно увеличивают финансирование новых разработок. По данным СВ Insights [4], в 2021 г. объём суммарных инвестиций в компании, предлагающие здравоохранению решения на основе ИИ, составил
12,2 млрд. долл. Для сравнения, в 2020 г. эта цифра равнялась 6,627 млрд. долл., в 2019 г. — 4,129 млрд. долл., а в 2018 г. — 2,7 млрд. долл. (рис. 1).
Вторым по значимости драйвером развития ИИ-отрасли являются научные исследования. Первые публикации по теме применения технологий ИИ для решения задач здравоохранения появились в рецензируемой научной медицинской литературе в 50х годах прошлого века. Долгое время динамика исследований была довольно медленной, однако начиная с 2017 г. мы наблюдаем существенный рост публикаций, в которых изучались или применялись различные технологии ИИ, включая машинное обучение (рис. 2).
Проникновение ИИ затрагивает в настоящее время практически все направления работы медицинских организаций и органов управления и надзора в сфере здравоохранения, а также все основные нозологические группы. Лидирующими направлениями применения ИИ являются: медицинская диагностика и анализ изображений, прогнозная клиническая и управленческая аналитика, системы поддержки принятия врачебных решений, анализ данных носимых устройств, телемедицина, мониторинг пациентов с хроническими неинфекционными заболеваниями, виртуальные ассистенты, включая робот-ас-систированную хирургию, помощь в решении проблем психического здоровья и т.д. [5].
Утвержденная Указом Президента РФ № 490 «Национальная стратегия развития искусственного интеллекта на период до
Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 2015 2015 2015 2015 2016 2016 2016 2016 2017 2017 2017 2017 2018 2018 2018 2018 2019 2019 2019 2019 2020 2020 2020 2020 2021 2021 2021 2021
Рис. 7. Динамика венчурного инвестирования в системы искусственного интеллекта для медицины и здравоохранения в 2015-2021 гг., по данным СВ Insights
Рис. 2. Динамика рецензируемых научных публикаций, в которых изучались или использовались технологии искусственного интеллекта в 1951-2021 гг., поданным РиЬМеб
2030 года» определяет здравоохранение как приоритетную отрасль для исследований, разработок и внедрения технологий ИИ, которые должны способствовать реализации стратегических целей и задач, таких как сокращение заболеваемости и смертности, рост ожидаемой продолжительности жизни и т.д. [6].
В Российской Федерации уже несколько лет формируется свой сегмент рынка ИИ для здравоохранения. В настоящее время он представлен свыше 40 специализированными компаниями-разработчиками, 65% из которых заняты в сфере анализа медицинских изображений с использованием технологий
компьютерного зрения. Выручка российских ИИ-компаний постоянно увеличивается, что свидетельствует о том, что предлагаемые продукты находят своего потребителя (рис. 3).
В 2019-2022 гг. Министерством здравоохранения РФ и Росздравнадзором совместно с отраслевыми экспертами была обновлена нормативно-правовая база для проведения независимых клинических испытаний и регистрации ИИ-систем как медицинских изделий. Благодаря этому в России на конец 2021 г. было выдано 11 регистрационных удостоверений на программные медицинские изделия на основе ИИ [7].
2017 2018 2019 2020 2021
Рис. 3. Динамика выручки российских разработчиков системы искусственного интеллекта для медицины и здравоохранения в 2017-2021 гг., млн. руб., по данным автора
Рис. 4. Число индексируемых публикаций в базе научной информации Scopus, которые были опубликованы российскими авторами на стыке медицины и искусственного интеллекта за последние 10 лет.
Активно развивается техническое регулирование в сфере систем ИИ для клинической медицины, по итогам 2021 г. было утверждено 6 первых национальных стандартов [8].
Растут российские научные исследования и публикации в сфере ИИ для медицины (рис. 4).
Вместе с этим, в российском медицинском сообществе, а также среди экспертов по исследованиям и разработкам в сфере ИИ, как и во всем мире, нарастает озабоченность вопросами, связанными с доверием к решениям на основе ИИ при их внедрении в практическом здравоохранении.
Целью работы стал анализ существующих этических проблем внедрения цифровых продуктов, созданных с использованием ИИ, в здравоохранении и формирование первоочередных задач по их преодолению.
МАТЕРИАЛЫ И МЕТОДЫ
Мы провели систематический обзор публикаций, посвященных проблематике ответственного отношения при использовании ИИ в медицине и здравоохранении, а также проблемам этического характера, возникающим при создании систем ИИ, подготовке их к выпуску на рынок и внедрении. Для этого мы использовали базы данных PubMed и еЫЬгагу, проанализировали материалы российских конференций по теме ИИ в медицине
и здравоохранении. В ходе этой работы мы выявили 3380 различных публикаций и документов, рассматривающих тематику исследования. В ходе изучения абстрактов и кратких аннотаций мы отобрали только те работы, в которых были получены выводы о выявленных проблемах этичного применения ИИ в медицине, а также содержались предложения по их преодолению. Таким образом, в окончательные материалы исследования были включены 58 работ, включая научные публикации, доклады на конференциях и документы национальных регуляторов.
ПОЛУЧЕННЫЕ РЕЗУЛЬТАТЫ
Первые исследования и публикации по теме этических проблем, связанных с потенциально широким внедрением ИИ в практическую медицину, появились в рецензируемой научной медицинской литературе в начале 1990-х г., но существенный рост начался лишь в 2019 г. За последние 3 года (2019-2021 г.) объем публикаций по данной теме превысил показатель за предыдущие 30 лет (рис. 5).
В России о важности обсуждения и разрешения этических вопросов, связанных с ИИ, в том числе в сфере здравоохранения, впервые начали говорить на прошедшей в ноябре 2019 г. конференции по искусственному интеллекту «Al Journey». Выступая на ней,
Рис. 5. Динамика рецензируемых научных публикаций, в которых исследовались этические проблемы применения искусственного интеллекта в медицине и здравоохранении в 1989-2021 гг., по данным РиЬМеб
Президент РФ Владимир Путин предложил разработать этические нормы взаимодействия человека с искусственным интеллектом: «Сейчас во всем мире разворачивается дискуссия о социальных аспектах и последствиях использования искусственного интеллекта, это очень важная тема. Предлагаю профессиональному сообществу, компаниям подумать над формированием свода этических правил взаимодействия человека с искусственным интеллектом» [9].
В 2021 и 2022 г. Центральный научно-исследовательский институт организации и информатизации здравоохранения (ЦНИИОИЗ)
Минздрава России провел несколько специализированных семинаров по вопросам этики ИИ, где эксперты обсуждали имеющиеся проблемы, а также противоречивость и неопределенность подходов к их разрешению.
Анализ научных публикаций, а также состоявшихся на различных конференциях и дискуссиях обсуждений, позволил нам выявить наиболее острые этические проблемы на современном этапе, возникающие при внедрении программных продуктов на основе ИИ в практику работы российских врачей и руководителей в сфере здравоохранения (таблица 1).
Таблица 7
Этические проблемы использования технологий искусственного интеллекта в здравоохранении Российской Федерации
Этическая проблема
Недостаточность доказательств эффективности и безопасности
Научные исследования, в которых были бы представлены убедительные доказательства положительного влияния применения технологий ИИ на клинически-значимые результаты, во всем мире появились лишь в последние годы, и пока их число минимально. Ряд систематических обзоров литературы показывает, что мы не имеем пока необходимого объема доказательств клинической эффективности ИИ-систем. В России эта проблема стоит еще более остро. Фактически, правильно организованное с научной точки зрения, проспективное контролируемое исследование влияния ИИ-систем на эффективность работы учреждений здравоохранения проводится лишь в рамках Московского эксперимента по компьютерному зрению, что явно недостаточно.
Продолжение таблицы 7
Этическая проблема Описание
Повышенный риск причинения вреда здоровью пациента при применении ИИ-систем по сравнению с обычными медицинскими изделиями Подавляющее большинство ИИ-систем основано на методах машинного обучения. Для этого разработчики используют разнообразные наборы данных, имеющие порой ряд серьезных проблем с качеством, которое приводит к повышению риска ошибок при работе ИИ-алгоритмов. Например, нередко используются открытые международные наборы данных, в которых отсутствуют или слабо представлены записи о пациентах из российской популяции. Разметка данных осуществляется сотрудниками компаний-разработчиков с неизвестной (возможно - недостаточной) компетенцией. Методические подходы, общепринятые в доказательной медицине, не поддерживаются при создании и выводе ИИ-продуктов на рынок, например - проведение клинических испытаний ИИ-систем может осуществляться в ретроспективном дизайне исследований, что порой недостаточно для полноценной оценки риска. Более того, чаще всего разработчики тестируют свои ИИ-алгоритмы на тех же наборах, что были использованы для машинного обучения, получая за счет этого довольно высокие показатели точности. Все это приводит к тому, что при эксплуатации ИИ-систем в реальных условиях всегда существует более высокий риск ошибки при интерпретации данных, чем это было бы возможно без использования технологий ИИ.
Высокий риск деградации метрик точности ИИ-систем при их внедрении в реальную клиническую практику Проведение Московского эксперимента по применению технологий компьютерного зрения в рамках радиологической службы города, а также ряд других публикаций указывают на то, что ИИ-системы склонны демонстрировать достаточно высокий риск деградации показателей чувствительности и специфичности во время их эксплуатации в реальной клинической практике. Отчасти это связано с некачественными или неполными наборами данных, использованными при машинном обучении, а также наличием систематических ошибок в таких наборах. Еще одна причина проблемы - изменения в организации работы медицинских организаций, включая появление новых лекарств и медицинского оборудования, а также изменения в развитии заболеваний, из-за чего ИИ-алгоритмы постепенно в рамках своего жизненного цикла начинаюттерять прежнюю точность работы.
Ответственность за ошибочные решения, принятые медицинским работником на основе рекомендаций ИИ Любая ИИ-система по определению не может давать гарантированно точный ответ. Всегда есть вероятность ошибки при интерпретации медицинских данных, например из-за того, что какие-то особые случаи или редкие заболевания не были представлены в обучающем наборе данных, который был использован для создания ИИ-системы. Таким образом, кроме действительно положительного эффекта применения ИИ в практике, есть вероятность дать неправильную подсказу врачу, что в свою очередь может привести к возникновению врачебных ошибок при диагностике и лечении, а значит - причинении вреда здоровью пациента. В настоящее время ответственность за такой вред будет нести тот медицинский работник, который использовал ИИ-систему. По мнению некоторых представителей медицинского профессионального сообщества, это является несправедливым. Возникают предложения вовлекать разработчиков ИИ-систем в несение ответственности за ошибки в работе их продуктов.
Проблема «черного ящика» Ряд методов машинного обучения, в частности - искусственные нейронные сети и глубокое машинное обучение, часто позволяют создавать высокоточные ИИ-алгоритмы. Однако в силу технологических особенностей такие алгоритмы не могут объяснить причину сформированных ими выводов. В результате внедрения таких алгоритмов в продукты для практического применения мы сталкиваемся с ситуацией, когда врач не понимает - почему ИИ-система выдает ему то или иное заключение. Врач начинает относиться к этому с недоверием и в итоге не учитывает или даже отказывается от применения такой системы.
Страхи перед ИИ-системами Врачи и руководители в сфере здравоохранения могут относиться к ИИ-системам с подозрением относительно истинных целей их создания и внедрения, а также скрытых особенностей работы ИИ. Например, среди врачей бытует мнение, что системы поддержки принятия врачебных решений могут не только анализировать электронные медицинские карты во время приема и подсказывать врачам о возможных ошибках, но и сообщать статистику таких ошибок вышестоящим органам, дискредитируя тем самым работу врача в глазах надзорной инстанции. Еще один из распространенных страхов среди медицинских работников связан с тем, что в будущем ИИ-системы могут заменить их, оставив без работы.
Конфиденциальность медицинской информации Для исследований и разработок ИИ-систем, а также для их работы, достаточно собирать и анализировать обезличенные медицинские данные. Вместе с этим в среде специалистов по информационной безопасности бытует мнение, что абсолютно надежных методов обезличивания медицинских данных не существует, и всегда есть пусть небольшой, но все же риск преобразования обезличенных данных в персональные данные. Для работы ИИ-систем, а также для их обучения, принципиально важным является применение как можно большего объема информации, включая так называемые «большие данные». В этой ситуации пусть даже небольшой риск утечки персональных данных на больших данных создает оправданные опасения по поводу безопасности и конфиденциальности.
ОБСУЖДЕНИЕ РЕЗУЛЬТАТОВ
Обобщение и анализ наиболее значимых этических проблем, возникающих во время проведения исследований, разработок, а затем и внедрении ИИ-систем в реальную клиническую практику, приводят нас к выводу о том, что без решения данных проблем на высоком методологическом и научном уровне мы не сможем обеспечить среди медицинских работников и пациентов необходимый уровень доверия. Это, в свою очередь, будет являться существенным барьером для развития рынка ИИ, тормозить появление новых продуктов и инвестиций в них, а значит - сдерживать рост качества и снижение стоимости решений.
Вместе с этим, неиспользование технологий ИИ также является серьезной проблемой, поскольку на современном этапе без их применения мы уже не можем обработать весь тот объем данных, собираемых в отрасли здравоохранения. Это означает, что мы находимся в ситуации неиспользованной перспективной возможности по решению самых актуальных и сложных задач здравоохранения, таких как
сокращение нагрузки на медицинский персонал, повышение эффективности расходования средств, дальнейшее сокращение предотвратимой заболеваемости и смертности.
В этой связи одним из первых и важнейших шагов по преодолению этических проблем является формирование базовых принципов формирования доверия к ИИ-системам, на основе которых возможно дальнейшее точечное регулирование, включая разработку комплекса национальных стандартов и методических документов. В работе [8] мы изучили наиболее значимые рекомендации и подходы по данному вопросу и представили на основе этого анализа наши предложения по базовым принципам ответственного отношения к применению ИИ в здравоохранении Российской Федерации (таблица 2).
Предложенные принципы являются основой для более углубленного экспертного обсуждения и формирования специализированного регулирования по вопросам ответственного отношения к разработкам и внедрению технологий ИИ в практику отечественного здравоохранения.
№ Принципы ответственного отношения Варианты практической реализации принципа
1 Доверие к производителю Обеспечение высокого уровня компетенций ключевых сотрудников производителя системы ИИ
Компания-производитель должна внедрить систему менеджмента качества в соответствии со стандартом ISO 13485
2 Доверие к данным Производитель должен получать «сырую» информацию для последующего создания наборов данных строго в обезличенном виде и при условии письменного соглашения с операторами данных
Производитель должен использовать надежные источники информации для создания качественных наборов данных для машинного обучения
3 Доверие к моделям Обеспечение доступности отчетов о создании производителем ИИ-алгоритмов (моделей) для независимой оценки
Независимая валидация ИИ-алгоритмов (моделей)
4 Доверие к продукту Регистрация программного продукта в качестве медицинского изделия на основе гибкой схемы определения класса потенциального риска
Проведение проспективных исследований эффективности и безопасности
Подключение применяемых в реальной клинической практике ИИ-решений к системе государственного мониторинга
Таблица 2
Принципы ответственного отношения к системам искусственного интеллекта
для здравоохранения
ЗАКЛЮЧЕНИЕ
По нашему мнению, технологии ИИ открывают действительно большие перспективы для решения стратегических задач российского здравоохранения. Однако, основываясь на незыблемом принципе «не навреди», мы должны не только поддерживать исследования и разработки в этой сфере, стимулировать внедрение отечественных ИИ-систем, но и критически относиться к данной технологии.
Проблемы этичного применения технологий ИИ, необходимость в ответственном отношении к ним заслуживают самого пристального внимания как регулятора, так и разработчиков и экспертов в данной сфере.
В этой связи мы считаем важным продолжить исследования и экспертные обсуждения по следующим направлениям: 1. Разработка руководящих принципов относительно оценки эффективности и безопасности ИИ-технологий для этических комитетов, а также экспертов, занятых в оценке продуктов на основе ИИ, включая в целях государственной регистрации в качестве медицинских изделий.
2. Дополнительное специальное образование сотрудников органов управления и надзора в сфере здравоохранения, а также сотрудников, занятых в работе этических комитетов, по технологиям ИИ.
3. Разработка отраслевого этического кодекса в сфере ИИ для здравоохранения, которым могли бы руководствоваться разработчики соответствующих решений, а также их потенциальные заказчики и пользователи.
4. Поиск баланса в сфере сбора и предоставления научно-исследовательским организациям и разработчикам в сфере ИИ качественных обезличенных наборов данных с одновременным контролем риска несанкционированного доступа и дискредитации персональных медицинских данных.
5. Решение проблемы ответственности при применении технологий ИИ в практическом здравоохранении.
6. Решение вопросов, связанных с обоснованными формами оплаты за применение технологий ИИ, в т.ч., возможно, на основе оценки реальной эффективности для здравоохранения.
/////////////////////////^^^^
ЛИТЕРАТУРА
1. Тополь Э. Искусственный интеллект в медицине: Как умные технологии меняют подход к лечению. - Пер.с англ. - М.: Интеллектуальная литература, 2021,- 434 с. ISBN978-5-9614-2920-6.
2. СерратоП. Цифровая трансформация здравоохранения. Переход от традиционной к виртуальной медицинской помощи/П. Серрато, Д. Халамка. - Москва: Общество с ограниченной ответственностью Издательская группа «ГЭОТАР-Медиа», 2022. - 192 с. -ISBN 978-5-9704-7007-7. - DOI: 10.33029/9704-7007-7-DRH-2022-1-192. - EDN SBSGNY.
3. Companies in the artificial intelligence in healthcare market areintroducingAI-powered surgical robotsto improve precision as per the business research company's artificial intelligence in healthcare global market report 2022 [Internet]. Режим доступа: https://www.globenews-wire.eom/news-release/2022/03/30/2413072/0/en/ Companies-ln-The-Artificial-lntelligence-ln-Healthcare-Market-Are-lntroducing-AI-Powered-Surgical-Robots-To-lmprove-Precision-As-Per-The-Business-Research-Company-s-Artificial-lnte.html. (Дата обращения: 30.09.2022).
4. State of Al 2021 Report [Internet]. Режим доступа: https://www.cbinsights.com/research/report/ai-trends-2021/. (Дата обращения: 30.09.2022).
5. Альманах Искусственный интеллект. ИИ в здравоохранении. 2022;11 [Internet]. Режим доступа: https://aireport.ru/healthcare. (Дата обращения: 30.09.2022).
6. Указ Президента РФ от 07.05.2018 №204 «О национальных целях и стратегических задачах развития Российской Федерации на период до 2024 года». Режим доступа: http://publication.pravo. gov.ru/Document/View/0001201805070038. (Дата обращения: 30.09.2022).
7. Гусев А. В., Владзимирский А. В., Шарова Д. Е., Арза-масовК.М., ХрамовА.Е. Развитие исследований и разработок в сфере технологий ис- кусственного интеллекта для здравоохранения в Российской Федерации: итоги 2021 года// Digital Diagnostics. -2022. - Т.З.- No. 3. - С. 33-49. DOI: https://doi.org/ 10.17816/DD107367
8. Первые национальные стандарты Российской Федерации на системы искусственного интеллекта
в медицине / С.П. Морозов, A.B. Владзимирский, Д.Е. Шарова [и др.] // Менеджмент качества в медицине. - 2022. -№1,- С. 58-62. - EDN XLBXVQ. 9. Этика и «цифра»: этические проблемы цифровых технологий. Аналитический доклад. [Internet]. Режим доступа: https://ethics.cdto.ranepa.ru/3_1. (Дата обращения: 30.09.2022).
10. Гусев А. В., Астапенко Е. М., Иванов И. В., Зарубина Т. В., КобринскийБ.А. Принципы формирования доверия к системам искусственного интеллекта для здравоохранения II Вестник Росздравнадзо-ра. - 2022. -№2,- С. 25-33.
REFERENCES
1. Topol E. Artificial intelligence in medicine: How smart technologies are changing the approach to treatment. - trans, from English. - M.: Intellectual literature, 2021,- 434 p. ISBN 978-5-9614-2920-6.
2. Serrato P. Digital transformation of healthcare. Transition from traditional to virtual medical care. Serrato, D. Halamka. - Moscow: Limited Liability Company Publishing Group "GEOTAR-Media", 2022. - 192 p. -ISBN 978-5-9704-7007-7. - DOI: 10.33029/9704-7007-7-DRH-2022-1-192. - EDN SBSGNY.
3. Companies in the artificial intelligence in healthcare market are introducing Al-powered surgical robots to improve precision as per the business research company's artificial intelligence in healthcare global market report 2022 [Internet]. Access: https://www.globe-newswire.eom/news-release/2022/03/30/2413072/0/ en/Companies-ln-The-Artificial-lntelligence-ln-Health-care-Market-Are-lntroducing-AI-Powered-Surgical-Ro-bots-To-lmprove-Precision-As-Per-The-Business-Re-search-Company-s-Artificial-lnte.html.
4. State of Al 2021 Report [Internet], https://www.cbin-sights.com/research/report/ai-trends-2021/
5. Almanac Artificial Intelligence. Al in healthcare. 2022; 11 [lnternet].Access: https://aireport.ru/healthcare.
6. Decree of the President of the Russian Federation of 05.07.2018 No. 204 "On the unique results and strategic objectives of the development of the Russian Federation for the period up to 2024". Access: http://publication. pravo.gov.ru/Document/View/0001201805070038.
7. Gusev A.V., Vladzymyrskyy A.V., Sharova D.E., Arza-masov K.M., Khramov A.E. Evolution of research and development in the field of artificial intelligence technologies for healthcare in the Russian Federation: results of 2021. Digital Diagnostics. 2022;3(3):178-194. DOI: https://doi.org/10.17816/DD10736
8. The first standards of the Russian Federation for the system of artificial intelligence in medicine / S.R Morozov, A.V. Vladzimirsky, D.E. Sharova [et al.] II Quality management in medicine. - 2022. - No. 1. - R 58-62. -EDN XLBXVQ.
9. Ethics and «digital»: ethical problems of digital technologies. Analytical report. [Internet]. Access mode: https://ethics.cdto.ranepa.ru/3_1.
10. GusevA. V., Astapenko E. M., Ivanov I. V., Zarubina T. V., Kobrinskii B.A. Principles for building confidence in artificial intelligence systems for healthcare II Vestnik Roszdravnadzora. - 2022. - Vol. 2,- R 25-33.
ИНФОРМАЦИЯ ОБ АВТОРАХ / ABOUT THE AUTHORS
Гусев Александр Владимирович - кандидат технических наук, директор по развитию бизнеса, ООО «К-Скай», г. Петрозаводск, Республика Карелия, Россия; старший научный сотрудник отдела научных основ организации здравоохранения, ФГБУ «Центральный научно-исследовательский институт организации и информатизации здравоохранения» Минздрава России, г. Москва, Россия.
Alexander V. Gusev - PhD, Business Development Director, K-Sky LLC, Petrozavodsk, Republic of Karelia, Russia; 2. Senior Researcher, Department of Scientific Fundamentals of Healthcare Organization, Russian Research Institute of Health, Ministry of Health of the Russian Federation, Moscow, Russia.
ORCID ID: 0000-0002-7380-8460. Телефон: +7 (911) 402-35-00. E-mail: [email protected]
Шарова Дарья Евгеньевна - руководитель отдела инновационных технологий, ГБУЗ г. Москвы «Научно-практический клинический центр диагностики и телемедицинских технологий Департамента здравоохранения города Москвы», г. Москва, Россия.
Daria Е. Sharova - Head of the Department of Innovative Technologies, Moscow State Budgetary Institution of Health "Scientific and Practical Clinical Center for Diagnostics and Telemedicine Technologies of the Moscow City Health Department", Moscow, Russia.
ORCID: 0000-0001-5792-3912. Phone: +7 926 965-00-95. E-mail: [email protected]