Юридические исследования
Правильная ссылка на статью:
Атабеков АР. — Анализ подходов определения юридической ответственности за действия искусственного интеллекта в медицинской сфере: опыт США и России // Юридические исследования. - 2023. - № 6. DOI: 10.25136/2409-7136.2023.6.40928 EDN: IJDDLB URL: https://nbpublish.com'llbrary_read_article.php?id=40928
Анализ подходов определения юридической ответственности за действия искусственного интеллекта в медицинской сфере: опыт США и России
Атабеков Атабек Рустамович
кандидат экономических наук
доцент, кафедра административного и финансового права, Российский университет дружбы народов
117198, Россия, г. Москва, ул. Миклухо-Маклая, 6
И atabekoff1 @таИ.ш Статья из рубрики 'Трансформация правовых систем"
DOI:
10.25136/2409-7136.2023.6.40928
EDN:
IJDDLB
Дата направления статьи в редакцию:
30-05-2023
Дата публикации:
06-06-2023
Аннотация: Предметом исследования выступает формализация действий искусственного интеллекта в правоотношениях между врачом и пациентом. Объектом исследования выступают нормативные документы, рекомендации и иные документы регламентирующие вопросы применения искусственного интеллекта для целей медицинских правоотношений в России и США, судебная практика, академические публикации и аналитические отчеты по исследуемой проблематике. Методология исследования интегрирует комплекс современных философских, общенаучных, специально-научных методов познания, включая, диалектический, системный, структурно-функциональный, герменевтический, сравнительно-правовой, формально-юридический (догматический) и др. В рамках настоящего исследования делается особый акцент на осуществлении сравнительного правового исследования феномена автономности искусственного интеллекта, участвующего в правоотношениях между врачом и пациентом, с последующим определением потенциальных сценариев регламентации ответственности
за действия ИИ. Данная статья представляет сравнительный анализ действующих подходов по определению ответственности искусственного интеллекта в контексте публичных медицинских правоотношений США и России. В рамках проведенного сравнительного анализа выявлены базовые проблемы в области прозрачности принятия решения искусственного интеллекта, рассмотрены теоретические и практические ситуации применения искусственного интеллекта в медицинской сфере, а также предложены возможные компенсирующие правовые мероприятия, обеспечивающие безопасную интеграцию искусственного интеллекта в сферу здравоохранения в России. Предложенные в результате проведенного исследования мероприятия могут найти свое применение в законодательной и правоприменительной практике профильных органов власти реализующих интеграцию искусственного интеллекта в сферу публичных отношений в России, включая сферу здравоохранения.
Ключевые слова:
искусственный интеллект, электронное лицо, сравнительно-правовое исследование ИИ, медицинское право, телемедицина, безопасный ИИ,публичное право, административное право, информационное право, правоприменительная практика
Активное обсуждение статуса и последующей роли искусственного интеллекта (далее -
ИИ) активно происходит на различных международных площадках (ОСЭ-1-, ЕС-2-,
ООН-3-). Отдельное внимание уделяется интеграции ИИ в сферу здравоохранения и
соответствующим правовым и общественным рискам-4!, в этой связи предлагается более детально изучить опыт США для последующего определения приемлемых правовых конструкций для России.
Рассматривая нормативно-правовое регулирование ИИ в медицинской сфере США, необходимо отметить следующие документы:
1. Указ Президента США от 11.02.2019 №13859 «Поддержание американского лидерства в области искусственного интеллекта»-5-, который определяет направления работ по проведению НИОКР в области ИИ, практическое применение и доработку технологии ИИ; создание необходимой инфраструктуры, наборов данных, технических и этических стандартов в области ИИ.
2. Руководство США по регулированию приложений на основе ИI/-6-, включающее принципы, которые необходимо учитывать при разработке технологий ИИ.
3. Рекомендации по цифровому здравоохранению-7-, которые содержат нормативные документы и рекомендации, где закреплена позиция регулятора по отношению к решениям на базе ИИ, подход к их классификации и регистрации.
4. Закон об ответственности и переносе данных о страховании здоровья граждан-8- и Закон о применении медицинских информационных технологий в экономической
деятельности и клинической практике-9-. Данные документы определяют необходимость обеспечения приватности данных, связанных с пациентом, всех участников процесса оказания медицинской услуги.
Рассматривая практический феномен применения искусственного интеллекта, нельзя не отметить технологию IBM Watson, которая использует когнитивные вычисления для
интерпретации клинической информации о больных раком и определения курса лечения на основе фактических данных-10-.
ИИ Deep Patient был обучен медицинской диагностике на базе данных примерно в составе 700 000 человек и при тестировании новых данных пациентов он показал невероятно хорошие результаты в прогнозировании заболеваний. Без каких-либо специальных инструкций ИИ обнаружил закономерности, которые не являются явно видными для лечащего врача и указывают на более широкий спектр проблем (включая
рак печени)-11-.
На практике это значит, что в программу загружается большой массив данных по онкологическим вопросам и врачу предоставляются последующие рекомендации на основании Big-data. На основе машинного обучения данный массив максимально быстро анализирует данные (в т.ч. выпадающие зоны) и максимально быстро дает предложения лечащему врачу.
По мнению автора, логичным становится вопрос ответственности в случае ошибки как при прогнозе со стороны ИИ, так и на стадии принятия решения врачом.
В контексте медицинского применения ИИ данную проблему обобщенно называют «черный ящик ИИ» в здравоохранении - использование непрозрачных вычислительных моделей для принятия решений, связанных со здравоохранением. В результате применения моделей алгоритмы непрозрачны, а выводы, которые они фиксируют, не могут быть явно поняты лечащему врачу, а иногда даже не могут быть явно сформулированы-12-.
С точки зрения права опосредованным фактором размытия ответственности за предлагаемые решения ИИ является дискретность и диффузность, выражаемая тем, что процесс разработки ИИ может осуществляться различными командами (не работающими
в тесной связке и в рамках единой общей координации)-13-. Данный подход влияет на вопрос определения ответственности группы разработчиков ИИ для медицинской сферы (учитывающей многокомпонентный аналитический инструментарий и глубину анализа данных пациентов).
Следующим значимым вопросом в области определения юридической ответственности за действия ИИ является вопрос самого качества получаемых для анализа ИИ данны-14-. На различных этапах возможно некорректное предоставление данных пациентов самим врачом, на этапе лабораторных исследований и т.д.
В контексте определения ответственности ИИ в медицинской сфере США необходимо отметить, что суды традиционно не выделяют юридическую ответственность машин
поскольку они не являются юридическими лицами-15-. Как следствие, поднимается вопрос отдельной юридической конструкции для ИИ, поскольку присутствует риск перекладывания ответственности на неограниченный круг лиц (от пациента и врача, до разработчика/ов или лиц, влияющих на инфраструктуру и данные), что так же отмечается американскими учеными (сложность выявления причинно-следственных связей из-за большого количества правоотношений и механизмов взаимодействия между людьми и ИИ)-16-.
При этом специалисты отмечают, что возможным решением для рассмотрения судебных споров, связанных с ИИ, является использование доктрины res ipsa loquitur, которая допускает вывод о небрежности конкретного ответчика, при том, что данный факт
небрежности типичен для субъектов, к которым может быть отнесен ответчик. В основе данного принципа лежит вывод о том, что ответчик имеет исключительный контроль над орудием, причиняющим вред, который мог быть потенциально допущен в результате халатности!12!.
Следующий аспект в области определения ответственности ИИ в медицинской сфере касается отклонения врача от стандартов оказания медицинской помощи, которое автоматически влечет к определению нарушения обязанностей врача по отношению к пациенту!18!.
В рамках указанного подхода проводится сопоставительный анализ действий врача с его потенциальным коллегой, обладающим сопоставимым опытом, образованием и техническим оснащением.
При этом остается открытым вопрос интерпретации ИИ технического оснащения и его роли в стандарте оказания медицинских услуг!19!.
Следующий аспект включает определение субсидиарной ответственности при применении ИИ в медицинской сфере^20!. Этот аспект касается вопроса о правовом статусе ИИ как «агента». В этой логике медицинское учреждение имеет некоторый контроль или власть над агентом (например, сотрудником — обычно врачом, но
потенциально также и системой ИИ)!21!.
Ученые предлагают теоретическое использование модели строгой ответственности, которая будет просто автоматически возлагать ответственность только на производителя или разработчика ИИ, в т.ч. через конструкцию единого предприятия. Юридическая ответственность «единого предприятия» подразумевает, что каждая организация в группе взаимосвязанных компаний может нести солидарную ответственность за действия других организаций, которые являются частью группы. Эта теория ответственности выгодна применительно к ИИ, поскольку не требует, чтобы компании функционировали совместно, а работали для достижения общей цели — спроектировали, запрограммировали и произвели продукт ИИ или его составные части!22!.
Однако и тут возникает вопрос, проистекающий из технической природы автономности и самостоятельного развития ИИ^23!. Если суд сочтет ИИ полностью автономным, тогда воз ложение на медицинское уч реждение субсидиа рной ответственности з а любой ущерб, причиненный ИИ, будет невозможным, поскольку такой автономный ИИ функционально будет вне контроля принципа ла .
Следующим вопросом, который отмечают ученые, является единогласный вывод судов о том, что врачи несут юридическую обязанность информировать пациентов о существенной информации относительно предлагаемого курса лечения и иной информации, связанной с оказанием медицинской услуги, тем самым усиливая роль врача в обеспечении того, чтобы адекватная информация сообщалась пациенту для
принятия обоснованного решения!24!. Отсюда возникает вопрос понимания достаточного информирования пациента, в т.ч. в контексте используемого ИИ, его алгоритмов принятия решения и т.д.!25!.
Рассматривая отечественное нормативно-правовое регулирование ИИ в медицинской сфере, необходимо отметить следующие документы:
1. Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации», который определяет базовые правовые установки в отношении развития, регулирования и дальнейшего развертывания ИИ в России; этот документ дополняется перечнем конкретных мероприятий в Распоряжении Правительства РФ от 19.08.2020 № 2129-р
2. Федеральный закон от 21.11.2011 № 323 «Об основах охраны здоровья граждан в Российской Федерации». В статье 38 указанного закона определяется необходимость государственной регистрации любого программного обеспечения, используемого в медицинской сфере (порядок закреплен Постановлением Правительства РФ от 27.12.2012 № 1416).
3. Приказ Минздрава России от 06.06.2012 № 4н утверждает классификацию программного обеспечения, которое является медицинским изделием, в котором ИИ является медицинским изделием с высокой степенью риска.
4. Смежные федеральные законы: Федеральный закон от 27.07.2006 № 152-ФЗ «О персональных данных» (п. 1 ч. 1 ст. 6 предусматривающий обязательное согласие субъекта на обработку его данных) и Федеральный закон от 24.04.2020 г. № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации» (предусматривающего экспериментальный режим регулирования деятельности ИИ с обезличенными данными субъектов).
На уровне отечественных доктринальных исследований необходимо отметить, что ряд ученых (Липчанская М. А., Заметина Т. В) отмечают, что присутствует искаженное восприятие понятия телемедицины и ИИ в медицинской сфере, а также необходимости углубления правовой регламентации правоотношений, возникающих между врачом и
пациентом при использовании технологии ИИ-26-. Е.А. Отставнова дополняет данную позицию, отмечая, что в ближайшем будущем право на получение медицинской помощи
может быть дополнено отдельной ролью ИИ-27-.
И.В. Понкин в своем объемном докладе, посвященном регулированию ИИ в медицинской сфере, отмечает необходимость существенного прорывного развития референтной предметно-объектной области нормативного регулирования задействования технологий цифровых моделей-двойников ИИ. Данный исследователь также подчеркивает необходимость трансформации структуры и онтологии нормативного регулирования в сфере здравоохранения, включая синтез цифрового права, медицинского права и биоэтики. Кроме того, автор также обосновывает потребность проведения масштабного аудита в сфере нормативно-правового регулирования здравоохранения, в т.ч. с применением технологий ИИ и Big-data[28].
Исследуя феномен юридической ответственности за действия ИИ в медицине, необходимо отметить позицию юриста-практика М.С. Варюшин. В рамках своей обзорной статьи автор отметил, что первым базовым вопросом является вопрос о том, была ли надлежащим образом оформлена процедура внедрения ИИ медицинской организацией. В случае, если ИИ используется без регистрации как медицинского изделия, то ответственность сохраняется за медицинской организацией, с возможностью последующего обращения с иском к разработчику ИИ (в зависимости от условий и порядка оформления лицензионного соглашения или договора об отчуждении исключительных прав на ИИ)-29-. Если ИИ зарегистрирован как медицинское изделие, то
причинённый пациенту вред будет возмещаться эксплуатирующей медицинской организацией, при этом возможно предъявление регрессного иска к разработчику (правообладателю) ИИ в случае, если устанавливается сбой в работе ИИ, а не ошибка, допущенная врачом.
Кроме того, Ковелина Т. А., Собянин А. В. и Марухно В. М. в своем исследовании отмечают, что текущее нормативно-правовое регулирование ИИ не предусматривает возможности добровольного согласия пациента на использование искусственного интеллекта при осуществлении медицинского вмешательства, а ответственность ложится исключительно на изготовителя и/или пользователя, но в будущем круг ответственных может быть расширен-^30!.
Таким образом, на основании вышеизложенного рекомендуется формирование следующих регулятивных инициатив в области применения ИИ в медицинской сфере:
1. Создание единого стандарта оказания медицинских услуг с применением ИИ и обязательным оповещением о применении указанной технологии пациента, что требует соответствующих поправок в профильное законодательство.
2. Создание универсальных правил распределения ответственности за поступающие в ИИ данные пациентов (пациент, оператор, врач), обеспечения их обработки (врач, разработчик, внешний фактор), интерпретации данных (врач, разработчик) и также процедур проведения аудита получаемых результатов (разработчик, орган надзора (в т.ч. судебная экспертиза), врач, медицинская организация).
3. Формирование публичного координационного центра, обеспечивающего возможности и интересы разработчиков, пациентов, врачей и регулятивных органов в целях обеспечения безопасной интеграции ИИ в сферу здравоохранения.
Библиография
1. Обсерватория ИИ ОЭСР (каталогизированная информация о регулировании ИИ в различных странах мира): [сайт]. — URL: https://oecd.ai/en/ (дата обращения: 13.05.2023).
2. AD HOC COMMITTEE ON ARTIFICIAL INTELLIGENCE (CAHAI): [сайт]. — URL: https ://rm.coe.int/cahai-2020-23-final-eng-feasibility-study-/1680a0c6da (дата обра щения : 13.05.2023).
3. Первый проект рекомендации об этических аспектах искусственного интеллекта ЮНЕСКО: [сайт]. — URL: https://unesdoc.unesco.Org/ark:/48223/pf0000373434_rus (дата обращения: 13.05.2023).
4. AI's impact raises legal, ethical questions Report on Tokyo Forum 2019 Parallel Session "Digital Revolution" : [сайт]. — URL: https://www.u-tokyo.ac.jp/focus/en/features/z0508_00159.html (дата обращения 13.05.2023)
5. Executive Order 13859 of February 11, 2019 Maintaining American Leadership in Artificial Intelligence: [сайт]. — URL:
https ://www.federalregister.gov/documents/2019/02/14/2019-02544/maintaining-american-leadership-in-artificial-intelligence (дата обращения 13.05.2023)
6. Guidance for Regulation of Artificial Intelligence Applications: [сайт]. — URL: https ://www.whitehouse.gov/wp-content/uploads/2020/11/M-21-06.pdf (дата обра щения 13.05.2023)
7. List of FDA Guidance Documents with Digital Health Content: [сайт]. — URL: https ://www.fda.gov/medical-devices/digital-health-center-excellence/guidances-
digital-health-content (дата обращения 13.05.2023)
8. Health Insurance Portability and Accountability Act of 1996 (HIPAA): -сайт-. — URL: https://www.cdc.gov/phlp/publications/topic/hipaa.html (дата обращения 13.05.2023)
9. HITECH Act Enforcement Interim Final Rule: -сайт-. — URL:https://www.hhs.gov/hipaa/for-professionals/special-topics/hitech-act-enforcement-interim-final-rule/index.html(дата обращения 01.05.2023)
10. Chung J. What should we do about artificial intelligence in health care? //NYSBA Health Law Journal. - 2017. - Т. 22. - №. 3.
11. Knight W. The dark secret at the heart of al //Technology Review. - 2017. - Т. 120. -№. 3. - С. 54-61.
12. Price W., Nicholson I. I. Describing Black-Box Medicine //BUJ Sci. & Tech. L. - 2015. -Т. 21. - С. 347.
13. Scherer M. U. Regulating artificial intelligence systems: Risks, challenges, competencies, and strategies //Harv. JL & Tech. - 2015. - Т. 29. - С. 353.
14. Matheny M. et al. Artificial intelligence in health care: The hope, the hype, the promise, the peril //Washington, DC: National Academy of Medicine. - 2019.
15. Chung J., Zink A. Hey Watson-Can I Sue You for Malpractice-Examining the Liability of Artificial Intelligence in Medicine //Asia Pacific J. Health L. & Ethics. - 2017. - Т. 11. -С. 51.
16. Danny Tobey, Explainability: Where AI and Liability Meet, DLA PIPER: -сайт-. — URL: https ://www.dlapiper.com/en/us/insights/publications/2019/02/explainability-where-ai-and-liability-meet (дата обращения 13.05.2023)
17. Restatement (Third) of Torts: Liability for Physical and Emotional Harm § 17 (Am. Law. Inst. 2010): -сайт-. — URL: https://www.ali.org/publications/show/torts-liability-physical-and-emotional-harm/ (дата обращения 13.05.2023)
18. Greenberg M. D. Medical malpractice and new devices: defining an elusive standard of care //Health Matrix. - 2009. - Т.19. - С. 423.
19. Price I. I., Nicholson W. Medical malpractice and black-box medicine //Big Data, Health Law, and Bioethics (Cambridge University Press, 2018), U of Michigan Public Law Research Paper. - 2017. - №. 536.
20. Allain J. S. From Jeopardy! to jaundice: the medical liability implications of Dr. Watson and other artificial intelligence systems //Louisiana Law Review. - 2013. - Т. 73. - №. 4. - С. 7.
21. Restatement of the Law (3d) of Torts—Apportionment of Liability, § 13 (2000): -сайт-. — URL: https://www.ali.org/publications/show/torts-apportionment-liability/ (дата обращения 13.05.2023)
22. Vladeck D. C. Machines without principals: liability rules and artificial intelligence //Wash. L. Rev. - 2014. - Т. 89. - С. 117.
23. Chinen M. A. The co-evolution of autonomous machines and legal responsibility //Va. JL & Tech. - 2016. - Т. 20. - С. 338.
24. Sawicki N. N. Modernized informed consent: Expanding the boundaries of materiality //U. Ill. L. Rev. - 2016. - С. 821.
25. Cohen I. G. Informed consent and medical artificial intelligence: What to tell the patient? //Geo. LJ. - 2019. - Т. 108. - С. 1425.
26. Липчанская М. А., Заметина Т. В. Социальные права граждан в условиях использования искусственного интеллекта: правовые основы и пробелы законодательного регулирования в России //Журнал российского права. - 2020. -
№. 11. - С. 78-96.
27. Отставнова Е. А. Реализация конституционного права на охрану здоровья в условиях развития искусственного интеллекта //арт. ги Редакционная коллегия. -2020. - С. 36.
28. Понкин И. В. Медицинское право в условиях цифровизации //Бизнес, менеджмент и право. - 2021. - №. 1. - С. 22-25.
29. Варюшин М. С. Правовой режим технологий искусственного интеллекта, применяемых в телемедицине //Журнал телемедицины и электронного здравоохранения. - 2021. - Т. 7. - №. 2. - С. 18-22.
30. Ковелина Т. А., Собянин А. В., Марухно В. М. К ВОПРОСУ О ПРАВОВОМ РЕГУЛИРОВАНИИ ПРИМЕНЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В МЕДИЦИНЕ //Гуманитарные, социально-экономические и общественные науки. - 2022. - №. 2. -С. 148-151
Результаты процедуры рецензирования статьи
В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.
Предметом исследования в представленной на рецензирование статье являются, как это следует из ее наименования, подходы к определению юридической ответственности за действия искусственного интеллекта (ИИ) в медицинской сфере. В работе обобщен опыт США и России. Заявленные границы исследования полностью соблюдены автором. Необходимо немного скорректировать формулировку заголовка: "Анализ подходов к определению юридической ответственности за действия искусственного интеллекта в медицинской сфере: опыт США и России".
Методология исследования в тексте статьи не раскрывается, но очевидно, что ученым использовались всеобщий диалектический, логический, формально-юридический, сравнительно-правовой методы исследования.
Актуальность избранной автором темы исследования обоснована довольно кратко: "Активное обсуждение статуса и последующей роли искусственного интеллекта (далее -ИИ) активно происходит на различных международных площадках (ОСЭР[1!, ЕС[2!, ООН[3!). Отдельное внимание уделяется интеграции ИИ в сферу здравоохранения и соответствующим правовым и общественным рискам[4!, в этой связи предлагается более дета льно из уч ить опыт С ША для последующего определения приемлемых пра вовых конструкций для России". Дополнительно ученому необходимо перечислить фамилии ведущих специалистов, занимавшихся исследованием поднимаемых в статье проблем. В чем проявляется научная новизна исследования, прямо не говорится. Фактически она проявляется во введении в научный оборот данных о порядке определения юридической ответственности за действия искусственного интеллекта в медицинской сфере на примере США, а также в инициативах ученого относительно совершенствования соответствующего российского законодательства. В частности, автор предлагает создать единый стандарт оказания медицинских услуг с применением ИИ и обязательным оповещением о применении указанной технологии пациента, универсальные правила распределения ответственности за поступающие в ИИ данные пациентов, а также сформировать публичный координационный центр, обеспечивающий возможности и интересы разработчиков ИИ, пациентов, врачей и регулятивных органов в целях обеспечения безопасной интеграции ИИ в сферу здравоохранения. Таким образом, статья заслуживает внимания читательской аудитории и вносит определенный
вклад в развитие отечественной юридической науки. Научный стиль исследования выдержан автором в полной мере.
Структура работы вполне логична. Во вводной части статьи автор кратко обосновывает актуальность избранной темы исследования. В основной части работы ученый делает обзор законодательства и правоприменительной практики США в части установления юридической ответственности за действия искусственного интеллекта в медицинской сфере, после чего делает рекомендации по совершенствованию соответствующего российского законодательства. В заключительной части статьи содержатся выводы по результатам проведенного исследования.
Содержание статьи полностью соответствует ее наименованию, но не лишено небольших недостатков формального характера.
Так, автор пишет: "Активное обсуждение статуса и последующей роли искусственного интеллекта (далее - ИИ) активно происходит на различных международных площадках (ОСЭР[1], ЕС[2], ООН[3])". Все аббревиатуры при первом употреблении должны быть расшифрованы. Кроме того, формулировка предложения тавтологична ("активное обсуждение... активно происходит").
Библиография исследования представлена 30 источниками (научными статьями и аналитическими данными), в том числе на английском языке. Характер и количество использованных при написании статьи источников позволили автору раскрыть тему исследования с необходимой глубиной и полнотой.
Апелляция к оппонентам имеется, но носит общий характер, что во многом обусловлено направленностью исследования. Научная дискуссия ведется автором корректно. Положения работы аргументированы в необходимой степени.
Выводы по результатам исследования имеются, они четкие, структурированные и заслуживают внимания читательской аудитории ("... рекомендуется формирование следующих регулятивных инициатив в области применения ИИ в медицинской сфере: 1. Создание единого стандарта оказания медицинских услуг с применением ИИ и обязательным оповещением о применении указанной технологии пациента, что требует соответствующих поправок в профильное законодательство. 2. Создание универсальных правил распределения ответственности за поступающие в ИИ данные пациентов (пациент, оператор, врач), обеспечения их обработки (врач, разработчик, внешний фактор), интерпретации данных (врач, разработчик) и также процедур проведения аудита получаемых результатов (разработчик, орган надзора (в т.ч. судебная экспертиза), врач, медицинская организация). 3. Формирование публичного координационного центра, обеспечивающего возможности и интересы разработчиков, пациентов, врачей и регулятивных органов в целях обеспечения безопасной интеграции ИИ в сферу здравоохранения").
Статья не вычитана автором. В ней встречаются опечатки и пунктуационные ошибки. Интерес читательской аудитории к представленной на рецензирование статье может быть проявлен прежде всего со стороны специалистов в сфере административного права, информационного права, медицинского права при условии ее доработки: раскрытии методологии исследования, дополнительном обосновании актуальности темы статьи, устранении нарушений в оформлении работы.