Научная статья на тему 'РИСКИ СОЗДАНИЯ И ФУНКЦИОНИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В МЕДИЦИНЕ'

РИСКИ СОЗДАНИЯ И ФУНКЦИОНИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В МЕДИЦИНЕ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
177
23
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИНФОРМАЦИОННОЕ ПРАВО / ТЕОРИЯ ПРАВА / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ПРАВОВОЕ РЕГУЛИРОВАНИЕ / МЕДИЦИНА / МЕДИЦИНСКОЕ ПРАВО / РИСКИ И УГРОЗЫ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Имамеева Регина Дамировна

В рамках исследования определены восемь типов рисков функционирования искусственного интеллекта в медицине. Рассмотрены проблемы, возникающие при использовании нейросетей в медицинских системах, и предложены варианты решения при помощи правового регулирования. Цель статьи выявить проблемные вопросы, возникающие при применении искусственного интеллекта в медицине, и на их основе обобщить возникающие риски, а также представить возможные предложения по их минимизации с точки зрения юриспруденции. Формально правовой и юридические сравнительные методы применялись для выделения и систематизации проблемных вопросов при применении искусственного интеллекта в медицине, а также для обобщения исследования материала. Автором проведен анализ проблем правового регулирования применения технологий искусственного интеллекта и возможных рисков использования искусственного интеллекта в условиях новой цифровой среды. Рассмотрены различные взгляды на принципы формирования правового регулирования новых технологий в медицине, а также изучены универсальные стандарты для разработок программ искусственного интеллекта. Вышеобозначенные суждения и обобщения позволят комплексно систематизировать существующие современные риски применения искусственного интеллекта и разработать соответствующие мероприятия на микроуровне, а на макроуровне сформировать общий вектор развития формирования принципов и нормативных документов.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Имамеева Регина Дамировна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE RISKS OF CREATION AND FUNCTIONING OF ARTIFICIAL INTELLIGENCE IN MEDICINE

Eight types of risks for the functioning of artificial intelligence in medicine were discovered in the study. The problems arising from the use of neural networks in medical systems are considered and solutions are proposed with the help of legal regulation. The aim of the paper is to identify problematic issues arising from the use of artificial intelligence in medicine, and to generalize the emerging risks on their basis, as well as to present possible proposals for their minimization from the point of view of jurisprudence. Formally, legal and judicial comparative methods were used to highlight and systematize problematic issues in the use of artificial intelligence in medicine, as well as to generalize the study of the material. The author analyzes the problems of legal regulation of the use of artificial intelligence technologies and the possible risks of using artificial intelligence in the new digital environment. Various views on the principles of the formation of legal regulation of new technologies in medicine are considered, and universal standards for the development of artificial intelligence programs are studied. The above judgments and generalizations will make it possible to comprehensively systematize the existing modern risks of using artificial intelligence and develop appropriate measures at the micro level, and at the macro level to form a general vector of development of the formation of principles and regulations.

Текст научной работы на тему «РИСКИ СОЗДАНИЯ И ФУНКЦИОНИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В МЕДИЦИНЕ»

УДК 347

РИСКИ СОЗДАНИЯ И ФУНКЦИОНИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В МЕДИЦИНЕ

Имамеева Регина Дамировна,

e-mail: regina-kyz@mail.ru, Учреждение высшего образования «Университет управления «ТИСБИ»,

Казань, Россия

В рамках исследования определены восемь типов рисков функционирования искусственного интеллекта в медицине. Рассмотрены проблемы, возникающие при использовании нейросетей в медицинских системах, и предложены варианты решения при помощи правового регулирования. Цель статьи выявить проблемные вопросы, возникающие при применении искусственного интеллекта в медицине, и на их основе обобщить возникающие риски, а также представить возможные предложения по их минимизации с точки зрения юриспруденции. Формально правовой и юридические сравнительные методы применялись для выделения и систематизации проблемных вопросов при применении искусственного интеллекта в медицине, а также для обобщения исследования материала. Автором проведен анализ проблем правового регулирования применения технологий искусственного интеллекта и возможных рисков использования искусственного интеллекта в условиях новой цифровой среды. Рассмотрены различные взгляды на принципы формирования правового регулирования новых технологий в медицине, а также изучены универсальные стандарты для разработок программ искусственного интеллекта. Вышеобозначенные суждения и обобщения позволят комплексно систематизировать существующие современные риски применения искусственного интеллекта и разработать соответствующие мероприятия на микроуровне, а на макроуровне сформировать общий вектор развития формирования принципов и нормативных документов.

Ключевые слова: информационное право; теория права; искусственный интеллект; правовое регулирование; медицина; медицинское право; риски и угрозы

THE RISKS OF CREATION AND FUNCTIONING OF ARTIFICIAL INTELLIGENCE IN MEDICINE

Imameeva R.D.,

e-mail: regina-kyz@mail.ru, Higher Education Institution "The University of Management "TISBI", Kazan, Russia

Eight types of risks for the functioning of artificial intelligence in medicine were discovered in the study. The problems arising from the use of neural networks in medical systems are considered and solutions are proposed with the help of legal regulation. The aim of the paper is to identify problematic issues arising from the use of artificial intelligence in medicine, and to generalize the emerging risks on their basis, as well as to present possible proposals for their minimization from the point ofview of jurisprudence. Formally, legal andjudicial comparative methods were used to highlight and systematize problematic issues in the use of artificial intelligence in medicine, as well as to generalize the study of the material. The author analyzes the problems of legal regulation of the use of artificial intelligence technologies and the possible risks of using artificial intelligence in the new digital environment. Various views on the principles of the formation of legal regulation of new technologies in medicine are considered, and universal standards for the development of artificial intelligence programs are studied. The above judgments and generalizations will make it possible to comprehensively systematize the existing modern risks of using artificial intelligence and develop appropriate measures at the micro level, and at the macro level to form a general vector of development of the formation ofprinciples and regulations.

Keywords: information law, legal theory, artificial intelligence, legal regulation, health care, medical law, risks and threats

DOI 10.21777/2587-9472-2021-1-33-40

Цифровизация здравоохранения - одна из важнейших задач для получения качественных и быстрых медицинских услуг населением. Такая цель обозначена в Национальной стратегии развития искусственного интеллекта на период до 2030 года в РФ1. Однако внедрение систем искусственного интеллекта (ИИ) в медицине проходит низкими темпами (например, в Москве за 2020 год только 40 компаний применяют ИИ в своей практике), поскольку велики риски в случае ошибочного применения. Отмечается низкий уровень инвестиционных вложений в развитие проектов применения ИИ в медицинской деятельности (в 2018 г. - 11,45 млн долл., 2020 г. - 2,2 млн долл.). Уменьшить риски можно за счет внедрения программ стандартизации разработок программ искусственного разума и моделей их применения. Кроме того, на теоретическом уровне недостаточно раскрыто содержание ИИ, классификация рисков его применения, что определило актуальность темы настоящего исследования.

Основной целью статьи является обозначить круг проблем и рисков, возникающих на их основе при внедрении технологий искусственного интеллекта в медицине.

При проведении анализа теоретических положений использованы научные публикации российских и зарубежных учёных. Для выделения проблематики и определения рисков при применении искусственного интеллекта в медицине использованы отчеты Министерства здравоохранения РФ, Министерства цифрового развития, связи и массовых коммуникаций РФ. С помощью метода сравнения проводился анализ зарубежных и отечественных источников литературы, который позволил обобщить проблемы применения искусственного интеллекта в медицине.

В настоящее время по оценкам аналитиков мировой рынок искусственного интеллекта (ИИ) в медицине к 2025 году вырастет до 13 млрд долл. при значительном увеличении новых созданных компаний. Первые ТОП-5 занимают США (48%), Великобритания (7%), Израиль (6%), Канада (4%), Китай (3%) и другие. Мировым трендом в медицине становится общение с пациентом онлайн2. Так, в учреждениях Китая функционируют полностью «облачные клиники», как, например, Ping An Good Doctor, где диагностика и мониторинг заболеваемости пациента происходит в онлайн формате.

Основными предпосылками применения искусственного интеллекта в медицине являются: большой показатель прироста старения населения земного шара, в том числе увеличение хронических заболеваний у категории населения старше 60 лет, неизменный рост расходов на здравоохранение, дефицит медицинского персонала3.

Основные проблемы и риски, которые могут возникнуть в медицинских организациях при внедрении искусственного интеллекта, машинного обучения сегодня стоят довольно остро. Исследование вопросов с юридической точки зрения представлены в трудах таких авторов, как В. Витко4, А.В. Гусева, С.Л. Добриднюка, А.А. Карцхия [3, С. 45], П.М. Морхат, Е.А. Войниканис, Е.В. Семенова, Г.С. Тюляев, И.В. Понкин, Н.В. Антонова, С.Б. Бальхаева, Ж.А. Гаунова и других.

В научных кругах в целом выделяют следующие виды проблем при использовании искусственного интеллекта в медицине:

- проблемы определения ответственности за ненадлежащие действия системы искусственного интеллекта;

- проблемы лицензирования готового продукта;

- проблемы правовой регламентации систем искусственного интеллекта, осуществляющих трансграничную медицинскую деятельность5.

Обозначенные проблемы предлагается выделить в три группы проблематики с последующим раскрытием сути и возможных рисков применения ИИ в настоящем исследовании.

1 Указ Президента РФ от 10 октября 2019 г № 490 «О развитии искусственного интеллекта в Российской Федерации». - URL: http://kremlin.ru/acts/bank/44731

2 McKinsey&Company, Transforming healthcare with AI. - 2020. - Март.

3 World Health Organization (WHO); Росстат; McKinsey&Company, Transforming healthcare with AI. Март, 2020; OECD, Health at a Glance 2019.

4 Витко, В. Анализ научных представлений об авторе и правах на результаты деятельности искусственного интеллекта // ИС. Авторское право и смежные права. - 2019. - № 2. - С. 5-20. - № 3. - С. 5-22.

5 Морхат, П.М. К вопросу о специфике правового регулирования искусственного интеллекта и о некоторых правовых проблемах его применения в отдельных сферах // Закон и право. - 2018. - № 6. - С. 65.

М. Гихо, Э. Мэтью и Н. Сузор отмечают, что правовые проблемы, которые сохранятся с роботизированными хирургическими системами, вероятно, попадут в юридический анализ систем искусственного интеллекта в медицине6. Согласимся с данным мнением, так как практика показывает, что внедрение робототехники вызывает конфликтные ситуации, связанные с возникновением безликой ответственности, отсутствие социально-эмоциональной составляющей как важной этической составляющей при взаимодействии пациента и врача, что невозможно при участии роботов.

Четвертое направление рисков: проблема распределения прав и обязанностей между людьми, так как поведение роботов может быть непредсказуемым заранее, или робот может повести себя не так, как этого ожидает человек в отношении надлежащего поведения в обществе. Кроме того, объекты ИИ могут быть компиляцией трудов различных людей и иметь в своей системе генеративные технологии, позволяющие внедрять инновации на нескольких уровнях.

Пятая проблема связана с замещением живых людей искусственным интеллектом, так называемый «эффект замещения». Другими словами, люди склонны относиться к роботам и агентам искусственного интеллекта как к животным специального назначения или людям специального назначения. Оба вышеперечисленных направления выделены Д. Балкиным как две основополагающие проблемы7.

Шестой проблематикой является дефицит компетенций медицинского персонала, при котором возможен риск неиспользования в полном объеме или неправильном использовании программ ИИ без соответствующего повышения уровня компетенции служащих больниц и врачей.

Седьмой проблемой обозначена сложность оплаты технологий ИИ через страховые взносы. Использование высоких технологий не умаляет важности экономической связи оказания услуг и внесения платы за нее. ИИ имеет сквозной характер и при интегрировании увеличивает стоимость продукта. Отдельно оплата невозможна, так как нет соответствующих кодов классификаторов оплаты.

Восьмая проблема очерчена нами широким символом - безопасность. Здесь можно говорить о рисках непредсказуемых диагнозов и рекомендаций по лечению.

Комиссия по гражданским правам в сфере робототехники Европейского Парламента указывает еще на одну проблему - важность человеческого контакта при медицинском уходе, так как замена человека роботами может привести к бесчеловечному уходу8.

Европейская комиссия предложила новую правовую основу для регулирования использования искусственного интеллекта в Европейском союзе. В связи с этим подходом риск классифицируется в зависимости от того, представляется ли он как неприемлемый, высокий или низкий для безопасности человека и основных прав9.

В 2020 году Европейская комиссия опубликовала белую книгу по искусственному интеллекту10, в которой изложены предложения по изменению законодательства, а также высказаны опасения, что в сферах с высокой степенью риска, таких как здравоохранение и транспорт, необходим четкий контроль ИИ со стороны государственной власти.

Двойные цели регулирования, а именно поддержание доверия и совершенства в технологиях искусственного интеллекта, были обобщены и предложены исполнительным вице-президентом Европейской комиссии по цифровому веку М. Вестагер. Подчеркивается, что для ЕС остается приоритетом разработка новых глобальных норм для обеспечения доверия применения искусственного интеллекта посредством внедрения стандартов, этических технологий в мировой практике здравоохранения.

6 Allain, J.S. From Jeopardy to Jaundice: B. Robotic Surgical Systems [Б. Роботизированные хирургические системы] // Louisiana Law Review. - 2012. - Vol. 73. - № 4. - P. 1055.

7 Balkin, J.B. The Path of Robotics Law [Путь развития правового регулирования роботов] // California Law Review. - 2015. -June. - Vol. 6. - P. 45-60. - P. 46.

8 Draft Report with recommendations to the Commission on Civil Law Rules on Robotics [Проект Отчёта с рекомендациями Комиссии по гражданско-правовому регулированию в сфере робототехники] (2015/2103(INL)), 31.05.2016 Committee on Legal Affairs / European Parliament; Rapporteur: Mady Delvaux. - URL: http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-

9 European Commission // Proposal for a regulation of the European Parliament and of the council. Brussels, 21.01.2021 C0M(2021) 206 final 2021/0106(COD).Отчет Европейской комиссии. Предложение о регламенте Европейского Парламента и Совета, принимающих гармонизированные правила об искусственном интеллекте. 2021.

10 Белая книга по искусственному интеллекту - Европейский подход к совершенству и доверию. 2020. - URL: https://ec.europa. eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf (дата обращения: 12.08.2021).

Для каждого этапа цифровой трансформации медицины характерны свои проблемы. Рассматривая статистику развития искусственного интеллекта по данным опроса медицинских учреждений: 78% планируют внедрять ИИ решения, 93% выделяют системы ИИ как одно из важных направлений развития, 62% инвестируют более 1 млн долл. в эти решения в 2020 году11.

Россия также нарабатывает базу для формирования регламентации разработок систем ИИ. В соответствии с утвержденной Росстандартом Программой национальной стандартизации на 2020 год12 разработаны проекты шести стандартов по различным аспектам функционирования искусственного интеллекта в клинической медицине.

Специалистами Департамента здравоохранения Москвы в содружестве с подкомитетом «Искусственный интеллект в здравоохранении» (входит в Технический комитет .№164 Федерального агентства по техническому регулированию и метрологии) разработан проект первого национального стандарта ГОСТ Р, который будет регулировать проведение клинических испытаний медицинских систем искусственного интеллекта в России. Целью его создания является обеспечение методологической основы для процесса клинических испытаний (КИ), клинической и научной оценки системы искусственного интеллекта (СИИ)13.

Рассматриваемый стандарт устанавливает общие требования к проведению клинических испытаний и клинической оценки системы искусственного интеллекта для определения уровня безопасности и клинической значимости выходных данных системы искусственного интеллекта, общие принципы применения показателей оценки точности такой системы.

Кроме того, в настоящее время на законодательном уровне ведется разработка следующих основополагающих стандартов: «Системы искусственного интеллекта в клинической медицине. Часть 2. Программа и методика /технических испытаний»; «Системы искусственного интеллекта в клинической медицине. Часть 3. Применение менеджмента качества к дообучаемым программам. Протокол изменения алгоритма»; «Системы искусственного интеллекта в клинической медицине. Часть 4. Оценка и контроль эксплуатационных параметров»; «Системы искусственного интеллекта в клинической медицине. Часть 6. Общие требования к эксплуатации»; «Системы искусственного интеллекта в клинической медицине. Часть 7. Процессы жизненного цикла». Их применение в перспективе позволит исключить ошибки и возможные риски при применении систем ИИ в деятельности медицинских учреждений.

Выделим ряд факторов, препятствующих внедрению программ ИИ в работу медицинских корпораций.

Первая проблема - в данный момент при наличии программного решения, работающего и доказавшего свою эффективность, необходимо провести клинические испытания, как если бы речь шла об аппарате для диагностики или даже хирургического вмешательства. Данные решения выступают лишь подспорьем, предоставляя советы и консультации при назначении диагноза врачом. Другими словами, программы искусственного интеллекта выступают справочниками, которые идентифицировали заболевание, а постановка диагноза остается за врачом.

Разработчикам программ требуются значительные финансовые и временные затраты для создания нового продукта. Например, время получения регистрационного удостоверения может занимать годовой период. Длительные временные рамки регистрации продукта приводят к ограничению вовлеченности новых разработчиков в медицинской сфере.

Данная проблема может быть урегулирована стандартом, вынесенным на публичные обсуждения 20 января 2021 года, «Системы искусственного интеллекта в клинической медицине. Часть 5. Требования к структуре и порядку применения набора данных для обучения и тестирования алгоритмов».

11 Обзор технологий. Эффект ИИ: Как искусственный интеллект делает здравоохранение более человечным. 2019. MIT Technology Review Insights. The AI effect: How artificial intelligence is making health care more human, 2019; AI in Healthcare 2020 Leadership Survey Report.

12 Приказ Росстандарта от 01.11.2019 № 2612 (ред. от 19.10.2020) «Об утверждении Программы национальной стандартизации на 2020 год». - URL: https://docs.cntd.ru/document/563675684 (дата обращения: 10.08.2021).

13 Проект ГОСТ Р Системы искусственного интеллекта в клинической медицине. Ч. 6. Общие требования и эксплуатации. -URL: https://docs.cntd.ru/document/572701737 (дата обращения: 12.08.2021).

Вторая проблема - получение разрешения на использование баз данных, которые необходимы для обучения искусственного интеллекта. «Нейросетям» для обучения и распознавания болезни нужно обработать большое количество различных данных, ну примерно, как детям - картинки с предметами, когда они учатся говорить и вообще обучаются понятиям. Чтобы научить «нейросеть» распознавать патологии в легких, ее необходимо обучить на большом количестве подобных снимков, а такими данными располагают больницы, работающие с большим количеством пациентов. Сложность возникает при обработке персонализированных данных, но вся суть в том, что для обучения, как и в учебнике, не нужно персонализированные снимки, здесь подойдут деперсонализированные данные.

Предвзятость в алгоритмах искусственного интеллекта определяется как феномен, который формируется из ошибочных предположений. Сложность в том, что сами предположения в системе необходимы для лучшей ее работы, в отличие от решения задачи по результатам выборки, произведенной случайным образом. Данный принцип получил название «теорема без бесплатного обеда», открытый в 1996 году Wolpert14. Большие данные, используемые для обучения системы, являются конечными и соответственно не отражают всей полноты реальности. Это непременно приводит к смещению, возникающему в результате отбора данных обучения и тестирования их.

Николас Петит делит подходы к правовому регулированию искусственного интеллекта на:

- формальный (формализированный) подход, по которому искусственный интеллект и робототехника урегулированы в какой-то мере действующим законодательством;

- технологический подход, суть которого заключается в выявлении проблем применения искусственного интеллекта и последующего решения о возможности регулирования этих проблем внедрением новых правовых норм15.

По мнению Н.В. Антоновой, С.Б. Бальхаевой традиционные режимы правового регулирования, как лицензирование, деликтная ответственность слишком забюрократизированы, чрезмерно жесткие и довольно сложны для имплементации в существующую систему права для регулирования такой динамичной отрасли как искусственный интеллект в сфере здравоохранения [1, С. 167]. Излишняя жесткость приводит к отказу медицинских учреждений внедрять новые технологии телемедицины, в отличие от саморегулирования, которое является добровольным и отражает интересы отрасли.

Медицина - сфера, где системы ИИ помогут сократить число врачебных ошибок и избавят врачей от рутинной работы обработки большого объема данных. Доказать, что медицинская технология заслуживает доверия, должен разработчик продукта. Для этого разработчику необходимо создать у себя систему менеджмента качества, пройти технические и клинические испытания, а после всего экспертизу.

Рассмотрим основные аспекты применения искусственного интеллекта в России и за рубежом. Виртуальные ассистенты разрабатываются в Лондоне, Пекине, Сеуле. Популярность медицинских информационных систем замечена в Лондоне, Сан-Франциско и Сеуле. Нью-Йорк, Сингапур и Сеул сфокусированы на анализе медицинских изображений. Популярным направлением является и преди-ктивная (предсказательная) аналитика в таких городах как Лондон и Нью-Йорк16. В России Москва выступает самым активным центром разработки стартапов ИИ и привлечения инвестиций по этим направлениям.

Телемедицинский сервис с виртуальным ассистентом Doc+ привлек 9 млн долл. (2018), а общая сумма инвестиций в проект составляет 19,5 млн долл.17.

В Абу-Даби Департаментом здравоохранения реализованы интересные проекты, в частности разработано приложение My Health Coach, которое синхронизируется с фитнес-трекерами и предоставляет персонализированные рекомендации для ведения и поддержания здорового образа жизни пользователю.

Таким образом, разработчики алгоритмов искусственного интеллекта должны проявлять бдительность в отношении потенциальных опасностей, таких как:

- смещение набора данных;

14 URL: https://www.machinelearningmastery.ru/understanding-and-reducing-bias-in-machine-learning-6565e23900ac/

15 Petit, N. Law and Regulation of Artificial Intelligence and Robots: Conceptual Framework and Normative Implications. - URL: https:// ssrn.com/abstract=2931339. - 2017. - 31 p. - P. 8-9.

16 Экспертная оценка IP Laboratory.

17 Источники: Crunchbase.

- случайная подгонка искажающих факторов;

- непреднамеренная дискриминационная предвзятость;

- проблемы обобщения для новых групп населения;

- непреднамеренные негативные последствия новых алгоритмов для показателей.

Смещение набора данных представляет собой общее определение систематической ошибки, которая состоит в том, что имеющиеся данные не являются репрезентативными для населения или феномена исследования. Смещение также обозначает:

1) данные не включают переменные, которые в действительности передают явление, которое мы хотим предсказать;

2) данные включают контент, созданный людьми, который может содержать предвзятость в отношении групп людей.

Подходя к разработке машинного обучения нужно держать на примете изречение Э. Гельмана: «Самый важный аспект статистического анализа - это не то, что вы делаете с данными, а то, какие данные вы используете». Статистические аналитики понимают важность исследовательского анализа данных (EDA), систематизированного Д. Тьюки18 десятилетия назад. Однако большинство учёных по ОД имеют различную родословную и, похоже, не понимают важности исследовательского анализа данных.

Основным источником этих отклонений являются данные, используемые для обучения моделей машинного обучения (ML). Дело в том, что почти все большие наборы данных, сгенерированные системами, основанными на моделях на основе ML / AI, как известно, являются предвзятыми. Тем не менее, большинство разработчиков моделей ML не знают об этих предубеждениях, и даже если они есть, они не знают, что с этим делать. В очень немногих работах по ML обсуждаются данные - детали того, какие данные использовались, как они генерировались и что было сделано с данными до моделирования. Amazon закрыла модель для оценки кандидатов на работу после выявления тенденции принижения женщин при отборе и выдаче предпочтения мужчинам19.

Источники вариации могут быть двух видов в зависимости от метода измерения: инструмент (средства измерения) и наблюдатель (лица, производящие измерения). Вариация возможна также по биологическим причинам:

- в пределах одного индивидуума - изменения в организме в зависимости от времени и внешних условий;

- между индивидуумами - биологические различия между индивидуумами.

Непреднамеренная дискриминационная предвзятость пересекается с риском смещения набора

данных. Признанный исследователь рассматриваемого паттерна, философ М. Хильдебрандт, работающая в сфере юриспруденции, изучающая права и технологии, высказывает мнение о том, что машинного обучения без предвзятости быть не может и что продуктивный уклон необходим для алгоритма, позволяющего моделировать данные и делать соответствующие прогнозы20.

Можно выделить три основных типа смещения, возникающие в процессе прогнозирования:

- предвзятость, присущая любой системе восприятия действий (продуктивная предвзятость);

- предвзятость, которую можно признать несправедливой;

- предвзятость, дискриминирующая по правовым нормам-запретам.

Увеличение производительности в машинном обучении происходит за счет минимизации издержек. Продуктивность смещения в систему происходит за счет поиска пространства и возможной минимизации функции стоимости. Дополнительно источники продуктивной предвзятости образуются при выборе цели, метода, адекватных данных обучения и вообще компромисса между такими составляющими как скорость, точность и переоснащение, где каждая единица образует стоимость. Предположение о том, что машинное обучение свободно от смещения, является ошибочным, поскольку феномен

18 Джон Тьюки. Исследовательский анализ данных // Pearson Modern Classics.

19 URL: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

20 Хильдебрандт Мирей. Проблема предвзятости. Основные возможности Ml (3 декабря 2019 г.). Марчелло Пелилло, Тереза Скантамбурло (ред.), Машинное обучение и общество: влияние, доверие, прозрачность, MIT Press 2020 в ближайшее время, доступно на SSRN. - URL: https://ssrn.com/abstract=3497597 или http: //dx.doi. org / 10.2139 / ssrn.3497597

смещения выступает фундаментальным свойством систем индуктивного обучения. Препятствием для внедрения систем ИИ выступают отсутствующие данные, на которых обучается машинный интеллект.

Обобщив рассматриваемые проблемы и риски применения искусственного интеллекта, мы пришли к следующей систематизации (таблица 1).

Таблица 1 - Обобщение проблем и рисков применения искусственного интеллекта и возможные меры для их разрешения

№ Проблема Риски Меры

1 Проблема определения ответственности за ненадлежащие действия системы ИИ • смещение набора данных; • случайная подгонка искажающих факторов; • непреднамеренная дискриминационная предвзятость Определить правосубъектность ИИ

2 Проблемы лицензирования Разработчики несут высокие финансовые и временные затраты для внедрения нового продукта Принятие регламентирующих стандартов. Разработка четкой процедуры получения лицензии

3 Проблемы правовой регламентации систем ИИ, осуществляющих трансграничную медицинскую деятельность Излишняя жесткость приводит к отказу медицинских учреждений внедрять новые технологии телемедицины Западные теоретики права предлагают регулирование не через нормы права, а через принципы высокого уровня

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

4 Проблема распределения прав и обязанностей между людьми при непредсказуемости поведения роботов относительно надлежащего поведения в обществе Риск неготовности ментально населения и отсутствие законодательных разрешений конфликтов между роботами и людьми Разработка стандартов применения искусственного интеллекта по каждой важной сфере человеческой деятельности

5 Этическая проблема, связанная с замещением живых людей роботами в сфере, например, ухода за пожилыми людьми Важность человеческого медицинского ухода, т.к. замена человека роботами может привести к бесчеловечному уходу Разработать кодекс этики

6 Дефицит компетенций Риск неиспользования в полном объеме или неправильного использования программ ИИ без соответствующего повышения уровня компетенции медицинского персонала Проводить обучение

7 Проблема оплаты технологий ИИ через страховые взносы ИИ имеет сквозной характер и при интегрировании увеличивает стоимость продукта. Отдельно оплата невозможна, так как нет соответствующих кодов классификаторов оплаты Разработка регламента четкой оплаты

8 Проблема безопасности Риск непредсказуемых диагнозов и рекомендаций по лечению Проведение мониторинга по возможным диагнозам и выявление общих ошибок и закономерностей

Из вышеобозначенных проблем мы можем сделать вывод, что цифровые программы и ИИ в здравоохранении все больше представляют медицинское оборудование и уходят из области вспомогательных ИТ-систем. Медицинские корпорации находятся под строгим контролем и связаны стандартами в противовес алгоритмам ИИ. Для дальнейшего внедрения систем ИИ необходимо поэтапно решать обозначенные проблемы, иначе нишу на этом популярном направлении могут занять иностранные компании со своими разработками.

Западные теоретики права предлагают концепцию правового регулирования, основанного на целях/принципах высокого уровня, которая противопоставляется всем известному правовому регулированию, основанному на правилах, активно внедряя ее в регулирование новых технологий робототехники и машинного обучения21. С такой точкой зрения сложно согласиться, так как существующая система правовой регламентации в России построена иным образом, и принципы выступают лишь как фундамент, на который наслаиваются сами правовые нормы.

21 Дворкин, Р. О правах всерьез / перевод с английского; редактор Л.Б. Макеева. - Москва: Российская политическая энциклопедия (РОССПЭН), 2004. Decker, C. Goals-based and rules based approaches to regulation // University of Oxford. BEIS Research Paper. - 2018. - № 8.

Таким образом, в работе представлено обобщение проблем и рисков при внедрении искусственного интеллекта в медицинских организациях и предложены возможные меры для их разрешения.

При всей обсуждаемости темы искусственного интеллекта актуальным является обеспечение его правовой регламентации. В настоящее время при создании подходов к внедрению и функционированию систем искусственного интеллекта, прежде всего, важно предусмотреть, выбрать пути решения, направления минимизации рисков, возникающих при внедрении этих систем.

Можно выделить несколько условий для ускорения внедрения систем искусственного интеллекта в медицине:

1. Разработка понятных и регламентированных процедур для сертификации. Например, включить профессиональное сообщество для принятия решения о регистрации того или иного продукта для ускорения процесса сертификации.

2. Внести алгоритмы с возможностью оплаты через полисы ОМС. Знание того, что программа будет внедрена и оплачена медицинским учреждением простимулирует увеличение предложений на этом рынке.

3. Создание общедоступных датасетов медицинских данных. Для обучения ИИ необходимы данные, сейчас доступ к ним затруднен, необходимо создать базу общедоступных данных и разрешить доступ к ней разработчикам.

Список литературы

1. Антонова Н.В., Бальхаева С.Б., Гаунова Ж.А. и др. Юридическая концепция роботизации: монография / ответственные редакторы Ю.А. Тихомиров, С.Б. Нанба. - Москва: Проспект, 2019. - С. 232.

2. Карцхия, А.А. Искусственный интеллект как средство управления в условиях глобальных рисков // Мониторинг правоприменения. - 2020. - №1 (34). DOI: 10.21681/2226-0692-2020-1. - С. 53-58.

3. Морхат, П.М. К вопросу о специфике правового регулирования искусственного интеллекта и о некоторых правовых проблемах его применения в отдельных сферах // Закон и право. - 2018. - № 6. -С.63-67.

4. Allain, J.S. From Jeopardy to Jaundice: B. Robotic Surgical Systems [Б. Роботизированные хирургические системы] // Louisiana Law Review. - 2012. - Vol. 73. - № 4. - P. 1055.

5. Balkin, J.B. The Path of Robotics Law [Путь развития правового регулирования роботов] // California Law Review. - 2015. - June. - Vol. 6. - P. 45-60.

References

1. Antonova N.V., Bal'haeva S.B., Gaunova Zh.A. i dr. Yuridicheskaya koncepciya robotizacii: monografiya / otvetstvennye redaktory Yu.A. Tihomirov, S.B. Nanba. - Moskva: Prospekt, 2019. - S. 232.

2. Karckhiya, A.A. Iskusstvennyj intellekt kak sredstvo upravleniya v usloviyah global'nyh riskov // Monitoring pravoprimeneniya. - 2020. - №1 (34). DOI: 10.21681/2226-0692-2020-1. - S. 53-58.

3. Morhat, P.M. K voprosu o specifike pravovogo regulirovaniya iskusstvennogo intellekta i o nekotoryh pravovyh problemah ego primeneniya v otdel'nyh sferah // Zakon i pravo. - 2018. - № 6. - S. 63-67.

4. Allain, J.S. From Jeopardy to Jaundice: B. Robotic Surgical Systems [B. Robotizirovannye hirurgicheskie sistemy] // Louisiana Law Review. - 2012. - Vol. 73. - № 4. - P. 1055.

5. Balkin, J.B. The Path of Robotics Law [Put' razvitiya pravovogo regulirovaniya robotov] // California Law Review. - 2015. - June. - Vol. 6. - P. 45-60.

i Надоели баннеры? Вы всегда можете отключить рекламу.