ОБЗОРЫ / REVIEWS
УДК 615.849
ПЕРСПЕКТИВЫ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РАДИОЛОГИИ. КРАТКИЙ ОБЗОР
© Павел Александрович Ганичев, Александра Александровна Тихомирова, Михаил Александрович Дохов
Санкт-Петербургский государственный педиатрический медицинский университет. 194100, г. Санкт-Петербург, ул. Литовская, 2
Контактная информация: Павел Александрович Ганичев — лаборант кафедры медицинской информатики. E-mail: [email protected] ORCID ID: 0000-0003-0954-8083
Для цитирования: Ганичев П.А., Тихомирова А.А., Дохов М.А. Перспективы использования искусственного интеллекта в радиологии. Краткий обзор // Визуализация в медицине. 2022. Т. 4. № 4. С. 7-14.
Поступила: 11.10.2022 Одобрена: 09.11.2022 Принята к печати: 05.12.2022
Резюме. Цель исследования. Анализ перспективных направлений использования искусственного интеллекта (ИИ) в радиологии. Материалы и методы. Материалами для исследования послужили статьи и обзоры, опубликованные в международных базах данных PubMed, Scopus, а также РИНЦ. Применены методы научного гипотетико-дедуктивного познания, общелогические методы и приемы исследований: анализ, синтез, абстрагирование, индукция. Результаты. В ходе проведенного анализа литературных данных выявлено, что искусственный интеллект наиболее широко применяется в лучевой диагностике для выявления рака легких, толстой кишки, молочной железы и предстательной железы. В последнее десятилетие наблюдается бурный рост исследований, использующих искусственный интеллект для интерпретации изображений, которые охватывают выявление и классификацию заболеваний, сегментацию органов и поражений (определение границ органа или поражения) и оценку реакции на лечение. Выводы. В настоящее время искусственный интеллект обладает огромным потенциалом. Многие исследователи убеждены, что ИИ в целом и глубокое обучение в частности могут помочь в решении многих повторяющихся задач с использованием цифровой патологии благодаря недавним успехам в распознавании изображений. Необходимо максимально интегрировать ИИ в повседневную работу врача, чтобы обеспечить максимальную клиническую пользу для пациентов от новых разработок. Несмотря на значительные достижения в применении ИИ, при анализе изображений в реальных клинических условиях выявлен ряд проблем, который в настоящее время еще предстоит решить.
Ключевые слова: искусственный интеллект; здравоохранение; медицинское оборудование; цифровая патология; машинное обучение.
PROSPECTS FOR THE USE OF ARTIFICIAL INTELLIGENCE IN RADIOLOGY. A BRIEF OVERVIEW
© Pavel A. Ganichev, Alexandra A. Tikhomirova, Mikhail A. Dokhov
Saint Petersburg State Pediatric Medical University. Lithuania 2, Saint Petersburg, Russian Federation, 194100
Contact information: Pavel A. Ganichev — laboratory assistant of the Department of Medical Informatics. E-mail: [email protected] ORCID ID: 0000-0003-0954-8083
For citation: Ganichev PA, Tikhomirova AA, Dokhov MA. Prospects for the use of artificial intelligence in radiology. A brief overview. Visualization in medicine (St. Petersburg). 2022;4(4):7-14.
Received: 11.10.2022 Revised: 09.11.2022 Accepted: 05.12.2022
Abstract. Purpose of the study. Analysis of promising areas for the use of artificial intelligence in radiology. Materials and methods. The materials for the study were articles and reviews published in the international databases PubMed, Scopus, as well as RSCI. The methods of scientific hypothetical-deductive cognition, general logical methods and methods of research are applied: analysis, synthesis, abstraction, induction. Results. In the course of the analysis of the literature data, it was revealed that artificial intelligence is
П
most widely used in radiation diagnostics for the detection of lung, colon, breast and prostate cancer. In the last decade, there has been a rapid growth of research using artificial intelligence to interpret images, which cover the identification and classification of diseases, segmentation of organs and lesions (determining the boundaries of an organ or lesion) and evaluation of the response to treatment. Findings. Currently, artificial intelligence has huge potential. Many researchers are convinced that AI in general and deep learning in particular can help solve many repetitive tasks using digital pathology thanks to recent advances in image recognition. It is necessary to integrate artificial intelligence as much as possible into the daily work of a doctor in order to ensure maximum clinical benefit for patients from new developments. Despite significant advances in the use of artificial intelligence in the analysis of images in real clinical conditions, a number of problems have been identified, which currently remains to be solved
Key words: artificial intelligence; healthcare; medical equipment; digital pathology; machine learning.
ВВЕДЕНИЕ
Анализ медицинских изображений и создание систем поддержки принятия врачебных решений — одни из современных и развивающихся в настоящее время направлений применения искусственного интеллекта. Для практического здравоохранения задача автоматизации процессов диагностики является одной из первоочередных в условиях повышения доступности и количества проводимых диагностических процедур, которые в настоящее время не компенсируются ростом числа квалифицированного персонала, необходимого для обеспечения должной интерпретации результатов и, как следствие, оказания современной медицинской помощи [1-5]. Данная проблема наиболее остро стоит в лучевой диагностике, в основе которой лежит визуальный анализ врачом огромного числа изображений патологий человека.
ЦЕЛЬ ИССЛЕДОВАНИЯ
Анализ перспективных направлений использования искусственного интеллекта в радиологии.
МАТЕРИАЛЫ И МЕТОДЫ ИССЛЕДОВАНИЯ
Материалами для исследования послужили статьи и обзоры, опубликованные в международных базах данных PubMed, Scopus, а также РИНЦ. Применены методы научного гипотетико-дедуктивного познания, общелогические методы и приемы исследований: анализ, синтез, абстрагирование, индукция.
РЕЗУЛЬТАТЫ
Под искусственным интеллектом (ИИ) понимают науку и технологию создания интеллектуальных компьютерных программ, способных выполнять задачи, для решения которых, как правило, требуется человеческий интеллект [1]. Искусственный
интеллект в здравоохранении — это всеобъемлющий термин, используемый для описания алгоритмов машинного обучения и программного обеспечения, для имитации человеческого познания при анализе, представлении и понимании сложных медицинских данных. В частности, ИИ — это способность компьютерных алгоритмов делать приблизительные выводы, основанные исключительно на входных данных [6-10].
Первоначально, с 1970-х по 1990-е годы, анализ медицинских изображений проводился с последовательным применением низкоуровневой обработки пикселей (фильтры обнаружения краев и линий, увеличение области) и математического моделирования (подгонка линий, кругов и эллипсов) для построения сложных экспертных систем на основе заданных правил, которые решали определенные поставленные задачи. В конце 1990-х годов контролируемые методы, при которых обучающие данные использовались для разработки системы, становились все более популярными в анализе медицинских изображений. Например, модели активной формы (для сегментации), методы атласа (где атласы, которые соответствуют новым данным, формируют обучающие данные) и концепцию извлечения признаков и использования статистических классификаторов (для автоматизированного обнаружения и диагностики). Таким образом, наблюдается переход от систем, полностью разработанных людьми, к системам, которые обучаются компьютерами с использованием примеров данных, из которых извлекаются векторы признаков. Компьютерные алгоритмы определяют границу оптимального решения в многомерном пространстве объектов. Решающим шагом в проектировании таких систем явилось извлечение дискриминантных признаков из изображений. Этот процесс все еще выполняется вручную. Следующим шагом явилось предоставление компьютерам возможности изучить функции, которые оптимально представляют данные для решения поставленной задачи. Эта концепция лежит в основе многих алгоритмов глубокого обучения:
моделей (сетей), состоящих из множества уровней, которые преобразуют входные данные (например, изображения) в выходные данные (например, наличие/отсутствие заболевания), изучая функции все более высокого уровня. Наиболее успешным типом моделей для анализа изображений на сегодняшний день являются сверточные нейронные сети (CNN) [11].
Методы глубокого обучения обладают большим потенциалом использования в радиологии. В отличие от большинства других областей медицины, почти все первичные данные, используемые при визуализации, а также выходные данные, создаваемые радиологами (т.е. отчеты о визуализации), являются цифровыми, что позволяет анализировать эти данные с помощью алгоритмов искусственного интеллекта. В ходе проведенного анализа литературных данных выявлено, что ИИ наиболее широко применяется в лучевой диагностике для выявления рака легких, толстой кишки, молочной железы и предстательной железы [12-15]. В последнее десятилетие наблюдается бурный рост исследований, использующих ИИ для интерпретации изображений, которые охватывают выявление и классификацию заболеваний, сегментацию органов и поражений (определение границ органа или поражения) и оценку реакции на лечение.
Автоматизация процессов сегментации имеет решающее значение в качестве приложения ИИ для снижения нагрузки на рабочий процесс радиологов из-за необходимости выполнять сегментацию вручную. Разработана обучаемая и деформируемая модель для сегментации левого желудочка (ЛЖ) на основе данных магнитно-резонансной томографии (МРТ) сердца, чтобы получить автоматизированный расчет клинических показателей, таких как объем желудочка и фракция выброса [16]. Было опубликовано множество исследований о сегментации органов брюшной полости (печень, поджелудочная железа, сосуды) и таза (простата) с использованием подхода глубокого обучения [17-23]. Аналогичный подход был применен к сегментации метастазов в головном мозге на МРТ с контрастным усилением T1W для планирования стереотак-сической радиохирургии [24].
Несмотря на значительные достижения в применении ИИ при анализе изображений, в реальных клинических условиях выявлен ряд проблем, который в настоящее время еще не решен.
Внедрение ИИ может потребовать значительных инвестиций в IT-инфраструктуру. Как правило, данные для анализа получают в виде изображений, которые обычно имеют размер более 50 000*50 000 пикселей, при их сохранении получаются файлы
размером приблизительно от 0,5 до 4 ГБ. Большой размер этих изображений может представлять проблему для оценки, хранения и управления архивом данных [25].
Производительность любой обработки изображений сильно зависит от скорости работы процессора. Глубокое обучение лучше всего выполнять с использованием графических процессоров (GPU), которые могут обеспечить значительное повышение производительности по сравнению с центральными процессорами (CPU) [26]. Большинство компьютеров предназначены для выполнения вычислений на центральном процессоре и используют графический процессор просто для рендеринга (процесс получения изображения по модели с помощью компьютерной программы) графики. Требуется более мощный графический процессор, предназначенный для глубокого обучения, который, как правило, значительно дороже и имеет тенденцию генерировать больше тепла, что приводит к проблемам, которые напрямую влияют на производительность центрального процессора и других внутренних компонентов компьютера.
Глубокое обучение, как правило, чрезвычайно требовательно к данным, особенно по сравнению с традиционным анализом изображений, когда многие операции делаются вручную. Получение клинических данных, подходящих для разработки алгоритмов, часто требует много времени и является сложной задачей [27].
Важно, чтобы контролируемые алгоритмы разрабатывались с использованием самых разных источников данных для более надежной обработки изменений при воздействии на другие наборы данных. Когда алгоритмы разрабатываются с использованием ограниченных наборов данных, предоставленных только одной или несколькими лабораториями гистологии и патоморфологии, такие алгоритмы могут не включать все вариации и артефакты, встречающиеся в разных лабораториях [28, 29].
В настоящее время по разным причинам сложно установить строгие этапы контроля качества для алгоритмов глубокого обучения, особенно в задачах сегментации. Неоптимальная производительность многих автоматизированных и полуавтоматизированных алгоритмов сегментации затрудняет их использование при обработке данных, поскольку для проверки точности почти всегда требуются люди, считывающие данные. Больше осложнений возникает при редких заболеваниях, для которых отсутствуют автоматизированные алгоритмы маркировки. Одним из решений, которое позволяет автоматизировать обработку данных, является
обучение без присмотра. Хотя это интуитивно ведет к более высоким уровням интеллекта, недавний сдвиг парадигмы от программ, основанных на четко определенных правилах, к другим, которые учатся непосредственно на основе данных, привлек внимание к некоторым непредвиденным проблемам. Выявление специфических особенностей изображения, которые способствуют прогнозируемому результату, является в высшей степени гипотетическим, что приводит к непониманию того, как с помощью глубокого обучения делаются определенные выводы. Неудивительно, что многие не поддающиеся интерпретации системы ИИ, применяемые в радиологии, получили название «медицина черного ящика» [30].
В ответ были предприняты попытки преобразовать алгоритмы глубокого обучения в «стеклянный ящик», то есть добиться ясного понимания того, как и почему ИИ принимает те или иные решения, путем уточнения входных данных и установления связи с измеренными выходными данными [31-35]. Предоставляя проверяющему специалисту информацию об особенностях, используемых алгоритмом в каждом конкретном случае, можно укрепить доверие к алгоритму в целом и добиться синергии между специалистом и машиной.
ОБСУЖДЕНИЕ
Помимо традиционной радиологической деятельности по выявлению и характеристике патологий органов и систем и оценке реакции на проводимое лечение, искусственный интеллект, вероятно, повлияет на другие области работы радиологов и иных медицинских работников. Например, алгоритм ИИ мог бы выдавать последовательности обследований, которые включают соответствующую часть тела, определять модальность изображения и тип контраста, а также определять местоположение интересующей области в пределах соответствующей анатомии, чтобы уменьшить усилия рентгенолога при выполнении этих относительно рутинных задач. Наконец, компьютерные алгоритмы могли бы выполнять задачи по интерпретации медицинских изображений, которые рентгенологи не выполняют на регулярной основе. Например, область радиогеномики [36] направлена на поиск взаимосвязей между особенностями визуализации опухолей и их геномными характеристиками. Примеры можно найти при раке молочной железы [37], глиобластоме [38], глиоме низкой степени злокачественности [39] и раке почки [40]. Однако из-за своей сложности радиогеномика не является частью типичной клинической практики рентгеноло-
га. Другим примером использования искусственного интеллекта является прогнозирование исходов у онкологических больных при глиобластоме [41], глиоме более низкой степени [39] и раке молочной железы [42]. Глубокое обучение могло бы облегчить процесс включения большего количества информации, доступной с помощью визуализации, в онкологическую практику.
Алгоритмы искусственного интеллекта могут использоваться врачом-рентгенологом как вспомогательные при выборе персонализированного протокола компьютерной томографии для пациента, отслеживании параметров дозы пациента, оценке радиационных рисков, связанных с кумулятивной дозой и восприимчивостью пациента [15].
Инструменты ИИ также могут влиять на ежедневный рабочий процесс, фильтруя приоритет обследования на основе критериев соответствия [43]. Европейское общество радиологов (ЕБЯ) внедрило ЕБЯ iGuide — систему поддержки принятия клинических решений, которая помогает направляющим врачам выбирать наиболее подходящую процедуру визуализации на основе уровня доказательств целесообразности и уровня неотложной помощи [44].
ИИ может выполнять считывание изображений, используя инструменты глубокого обучения, и способен извлекать не только визуальную, но и количественную информацию, такую как рентгенологические сигнатуры или другие биомаркеры изображений, которые не могут быть идентифицированы человеческим мозгом. Искусственный интеллект станет частью нашего набора инструментов для просмотра и анализа изображений.
ВЫВОДЫ
В настоящее время ИИ обладает огромным потенциалом. Многие исследователи убеждены, что ИИ в целом и глубокое обучение в частности могут помочь в решении многих повторяющихся задач с использованием цифровой патологии благодаря недавним успехам в распознавании изображений. Необходимо максимально интегрировать ИИ в повседневную работу врача, чтобы обеспечить максимальную клиническую пользу для пациентов от новых разработок. Несмотря на значительные достижения в применении ИИ при анализе изображений, в реальных клинических условиях выявлен ряд проблем, который в настоящее время еще предстоит решить.
ДОПОЛНИТЕЛЬНАЯ ИНФОРМАЦИЯ
Вклад авторов. Все авторы внесли существенный вклад в разработку концепции, проведение ис-
следования и подготовку статьи, прочли и одобрили финальную версию перед публикацией.
Конфликт интересов. Авторы декларируют отсутствие явных и потенциальных конфликтов интересов, связанных с публикацией настоящей статьи.
Источник финансирования. Авторы заявляют об отсутствии внешнего финансирования при проведении исследования.
ADDITIONAL INFORMATION
Author contribution. Thereby, all authors made a substantial contribution to the conception of the study, acquisition, analysis, interpretation of data for the work, drafting and revising the article, final approval of the version to be published and agree to be accountable for all aspects of the study.
Competing interests. The authors declare that they have no competing interests.
Funding source. This study was not supported by any external sources of funding.
ЛИТЕРАТУРА
1. Павлов Н.А., Андрейченко А.Е., Владзимирский А.В. и др. Эталонные медицинские датасеты (MosMedData) для независимой внешней оценки алгоритмов на основе искусственного интеллекта в диагностике. Digital Diagnostics. 2021; 2(1): 49-65. DOI: https://doi.org/10.17816/DD60635.
2. Jiang Y., Yang M., Wang S. et al. Emerging role of deep learning-based artificial intelligence in tumor pathology. Cancer Communications. 2020; 40: 154-66. https://doi.org/10.1002/ cac2.12012.
3. Воронцов И.М., Шаповалов В.В., Иориш А.Е. и др. Значение компьютерных технологий в профилактической педиатрии. Российский вестник перинатологии и педиатрии. 1999; 44(4): 7-13.
4. Гублер Е.В. Вычислительные методы распознавания патологических процессов. Л.: Медицина; 1970.
5. Мелашенко Т.В., Тащилкин А.И., Наркевич Т.А. и др. Лучевая диагностика в комплексной оценке особенностей нейропластичности у недоношенных новорожденных с экстремально низкой массой тела. Педиатр. 2018; 9(6): 21-8. DOI: 10.17816/PED9621-28.
6. Wikipedia contributors, Artificial intelligence in healthcare, Wikipedia, The Free Encyclopedia,https://en.wikipedia. org/w/index.php?title=Artificial_intelligence_in_health-care&oldid=1121797381 (accessed November 14, 2022).
7. Pashkov V.M., Harkusha A.O., Harkusha Y.O. Artificial intelligence in medical practice: regulative issues and perspectives. Wiad Lek. 2020; 73(12 cz 2): 2722-7.
8. Ng А. What artificial intelligence can and can't do right now. Harvard Business Review; 2016. Available from: https://hbr.
org/2016/11/what-artificial-intelligence-can-and-cant-do-right-now.
9. Renear H., Sacchi S., Wickett K.M. Definitions of dataset in the scientific and technical literature. Proceedings of the American Society for Information Science and Technology. 2010; 47(1): 1-4. DOI: 10.1002/meet.14504701240.
10. Электронный ресурс: https://webiomed.ru/blog/obzor-ros-siiskikh-sistem-iskusstvennogo-intellekta-dlia-zdravookhrane-niia/.
11. Litjens G., Kooi T., Bejnordi B.E. et al. A survey on deep learning in medical image analysis. Medical image analysis. 2017; 42: 60-88. https://doi.org/10.1016/j.media.2017.07.005.
12. Rosslyn V. Digital Imaging and Communications in Medicine (DICOM) Supplement 145: Whole Slide Microscopic Image IOD and SOP Classes [Электронный ресурс]. URL: ftp://medical.nema.org/medical/dicom/final/sup145_ft.pdf (дата обращения: 13.01.2023).
13. Ремез А.И., Журавлев А.С., Фаттахов А.О., Павлова В.А. Цифровая патология в России: опыт и перспективы. РМЖ. Медицинское обозрение. 2018; 2(6): 19-21.
14. Khan A.M., Rajpoot N., Treanor D. et al. A nonlinear mapping approach to stain normalization in digital histopa-thology images using image-specific color deconvolution. IEEE Trans Biomed Eng. 2014; 61: 1729-38. https://doi. org/10.1109/TBME.2014.2303294.
15. European Society of Radiology (ESR). What the radiologist should know about artificial intelligence — an ESR white paper. Insights Imaging. 2019; 10: 44. https://doi.org/10.1186/ s13244-019-0738-2.
16. Avendi M.R., Kheradvar A., Jafarkhani H. A combined deep-learning and deformable-model approach to fully automatic segmentation of the left ventricle in cardiac MRI. Med Image Anal. 2016; 30: 108-19. https://doi.org/10.1016/j.me-dia.2016.01.005
17. Cheng R., Roth H.R., Lay N. et al. Automatic magnetic resonance prostate segmentation by deep learning with holistical-ly nested networks. J Med Imaging (Bellingham). 2017; 4(4): 041302. https://doi.org/10.1117/1JMI.4.4.041302.
18. Roth H.R., Lu L., Lay N. et al. Spatial aggregation of ho-listically-nested convolutional neural networks for automated pancreas localization and segmentation. Med Image Anal. 2018; 45: 94-107. https://doi.org/10.1016/j.me-dia.2018.01.006.
19. Wang S., Summers R.M. Machine learning and radiology. Med Image Anal. 2012; 16(5): 933-51. https://doi. org/10.1016/j.media.2012.02.005.
20. Trebeschi S., van Griethuysen JJM., Lambregts DMJ. et al. Deep Learning for Fully-Automated Localization and Segmentation of Rectal Cancer on Multiparametric MR. Sci Rep. 2017; 7(1): 5301.
21. Weston A.D., Korfiatis P., Kline T.L. et al. Automated Abdominal Segmentation of CT Scans for Body Composition Analysis Using Deep Learning. Radiology. 2018; 290: 66979.
22. Gibson E., Giganti F., Hu Y. et al. Automatic Multi-Organ Segmentation on Abdominal CT With Dense V-Networks. IEEE Trans Med Imaging. 2018; 37(8): 1822-34. https://doi. org/10.1109/TMI.2018.2806309.
23. Hu P., Wu F., Peng J. et al. Automatic 3D liver segmentation based on deep learning and globally optimized surface evolution. Phys Med Biol. 2016; 61(24): 8676-98.
24. Liu Y., Stojadinovic S., Hrycushko B. et al. A deep convo-lutional neural network-based automatic delineation strategy for multiple brain metastases stereotactic radiosurgery. PLoS One. 2017; 12(10): e0185844. https://doi.org/10.1371/jour-nal.pone.0185844.
25. Tizhoosh H.R., Pantanowitz L. Artificial Intelligence and Digital Pathology: Challenges and Opportunities. J Pathol Inform. 2018; 9:38. Published 2018; 14. D0I:10.4103/jpi. jpi_53_18.
26. Shen D., Wu G., Suk H.I. Deep Learning in Medical Image Analysis. Annu Rev Biomed Eng. 2017; 19: 221-48. DOI: 10.1146/annurev-bioeng-071516-044442.
27. Amgad M., Elfandy H., Hussein H. et al. Structured crowd-sourcing enables convolutional segmentation of histology images. Bioinformatics. 2019; 35(18): 3461-7. DOI: 10.1093/bioinformatics/btz083.
28. Yagi Y. Color standardization and optimization in whole slide imaging. Diagn Pathol. 2011; 6 Suppl 1(Suppl 1): S15. DOI: 10.1186/1746-1596-6-S1-S15.
29. Zarella M.D., Yeoh C., Breen D.E,. Garcia F.U. An alternative reference space for H&E color normalization. PLoS One. 2017; 12(3): e0174489. DOI: 10.1371/journal.pone.0174489.
30. Kwitt R., Hegenbart S., Rasiwasia N. et al. Do we need annotation experts? A case study in celiac disease classification. Med Image Comput Comput Assist Interv. 2014; 17(Pt 2): 454-61. DOI: 10.1007/978-3-319-10470-6_57.
31. Wen S., Kurc T.M., Hou L. et al Comparison of different classifiers with active learning to support quality control in nucleus segmentation in pathology images. AMIA Jt Summits Transl Sci Proc. 2018; 2017: 227-36.
32. Guidotti R., Monreale A., Ruggieri S. et al A survey of methods for explaining black box models. Acm Comput Surv. 2019; 51: 15-36.
33. Selvaraju R.R., Cogswell M., Das A. et al. Grad-CAM: visual explanations from deep networks via gradient-based localization. IEEE Int Conf Comput Vis (ICCV). 2017: 618-26.
34. Erhan D., Bengio Y., Courville A. et al. Visualizing Higher-Layer Features of a Deep Network Technical Report 1341. University of Montreal; 2009.
35. Ribeiro M.T., Singh S., Guestrin C. Why should I trust you?: explaining the predictions of any classifier In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. ACM: San Francisco. 2016; 1135-44.
36. Mazurowski M.A. Radiogenomics: What It Is and Why It Is Important. J Am Coll Radiol. 2015; 12: 862-6. https://doi. org/10.1016/j.jacr.2015.04.019.
37. Mazurowski M.A., Zhang J., Grimm L.J. et al. Radiogenom-ic analysis of breast cancer: Luminal B molecular subtype is associated with enhancement dynamics at MR imaging. Radiology 2014; 273: 365-72. https://doi.org/10.1148/radi-ol.14132641.
38. Gutman D.A., Cooper L.A., Hwang S.N. et al. MR imaging predictors of molecular profile and survival: multi-institutional study of the TCGA glioblastoma data set. Radiology 2013; 267: 560-9. https://doi.org/10.1148/radiol.13120118.
39. Mazurowski M.A., Clark K., Czarnek N.M. et al. Radioge-nomics of lower-grade glioma: algorithmically-assessed tumor shape is associated with tumor genomic subtypes and patient outcomes in a multi-institutional study with The Cancer Genome Atlas data. J Neurooncol. 2017: 1-9. https://doi. org/10.1007/s11060-017-2420-1.
40. Karlo C.A., Di Paolo P.L., Chaim J. et al. Radiogenomics of clear cell renal cell carcinoma: associations between CT imaging features and mutations. Radiology 2014; 270: 464-71. https://doi.org/10.1148/radiol.13130663.
41. Mazurowski M.A., Desjardins A., Malof J.M. Imaging descriptors improve the predictive power of survival models for glioblastoma patients. Neuro Oncol. 2013; 15: 1389-94. https://doi.org/10.1093/neuonc/nos335.
42. Mazurowski M.A., Grimm L.J., Zhang J. et al. Recurrence-free survival in breast cancer is associated with MRI tumor enhancement dynamics quantified using computer algorithms. Eur J Radiol. 2015; 84: 2117-22. https://doi. org/10.1016/j.ejrad.2015.07.012.
43. Choy G., Khalilzadeh O., Michalski M. et al. Current Applications and Future Impact of Machine Learning in Radiology. Radiology. 2018; 288(2): 318-28. https://doi.org/10.1148/ra-diol.2018171820.
44. Remedios D., Brkljacic B., Ebdon-Jackson S. et al. Collaboration, campaigns and champions for appropriate imaging: feedback from the Zagreb workshop. Insights Imaging. 2018; 9(2): 211-4. https://doi.org/10.1007/s13244-018-0602-9.
REFERENCES
1. Pavlov N.A., Andreychenko A.Ye., Vladzimirskiy A.V. i dr. Etalonnyye meditsinskiye datasety (MosMedData) dlya ne-zavisimoy vneshney otsenki algoritmov na osnove iskusst-vennogo intellekta v diagnostike [Reference medical datasets (MosMedData) for independent external evaluation of algorithms based on artificial intelligence in diagnostics]. Digital Diagnostics. 2021; 2(1): 49-65. DOI: https://doi. org/10.17816/DD60635. (in Russian).
2. Jiang Y., Yang M., Wang S. et al. Emerging role of deep learning-based artificial intelligence in tumor pathology. Cancer Communications. 2020; 40: 154-66. https://doi.org/10.1002/ cac2.12012.
3. Vorontsov I.M., Shapovalov V.V., Iorish A.Ye. i dr. Znacheni-ye komp'yuternykh tekhnologiy v profilakticheskoy pedi-atrii [Importance of computer technology in preventive pe-
diatrics]. Rossiyskiy vestnik perinatologii i pediatrii. 1999; 44(4): 7-13. (in Russian).
4. Gubler Ye.V. Vychislitel'nyye metody raspoznavaniya pa-tologicheskikh protsessov [Computational methods for recognition of pathological processes]. Leningrad: Meditsina Publ.; 1970. (in Russian).
5. Melashenko T.V., Tashchilkin A.I., Narkevich T.A. i dr. Luchevaya diagnostika v kompleksnoy otsenke osobennos-tey neyroplastichnosti u nedonoshennykh novorozhdennykh s ekstremal'no nizkoy massoy tela [Radiation diagnostics in the complex assessment of neuroplasticity in premature newborns with extremely low body weight]. Pediatr. 2018; 9(6): 21-8. DOI: 10.17816/PED9621-28 (in Russian).
6. Wikipedia contributors, Artificial intelligence in healthcare, Wikipedia, The Free Encyclopedia,https://en.wikipedia. org/w/index.php?title=Artificial_intelligence_in_health-care&oldid=1121797381 (accessed November 14, 2022).
7. Pashkov V.M., Harkusha A.O., Harkusha Y.O. Artificial intelligence in medical practice: regulative issues and perspectives. Wiad Lek. 2020; 73(12 cz 2): 2722-7.
8. Ng А. What artificial intelligence can and can't do right now. Harvard Business Review; 2016. Available from: https://hbr. org/2016/11/what-artificial-intelligence-can-and-cant-do-right-now.
9. Renear H., Sacchi S., Wickett K.M. Definitions of dataset in the scientific and technical literature. Proceedings of the American Society for Information Science and Technology. 2010; 47(1): 1-4. DOI: 10.1002/meet.14504701240.
10. Elektronnyy resurs: https://webiomed.ru/blog/obzor-rossiiski-kh-sistem-iskusstvennogo-intellekta-dlia-zdravookhraneniia/ (in Russian).
11. Litjens G., Kooi T., Bejnordi B.E. et al. A survey on deep learning in medical image analysis. Medical image analysis. 2017; 42: 60-88. https://doi.org/10.1016/j.media.2017.07.005.
12. Rosslyn V. Digital Imaging and Communications in Medicine (DICOM) Supplement 145: Whole Slide Microscopic Image IOD and SOP Classes [Электронный ресурс]. URL: ftp://medical.nema.org/medical/dicom/final/sup145_ft.pdf (дата обращения: 13.01.2023).
13. Remez A.I., Zhuravlev A.S., Fattakhov A.O., Pavlova V.A. Tsifrovaya patologiya v Rossii: opyt i perspektivy [Digital pathology in Russia: experience and prospects]. RMZH. Meditsinskoye obozreniye. 2018; 2(6): 19-21. (in Russian).
14. Khan A.M., Rajpoot N., Treanor D. et al. A nonlinear mapping approach to stain normalization in digital histopathology images using image-specific color deconvolution. IEEE Trans Biomed Eng. 2014; 61: 1729-38. https://doi.org/10.1109/ TBME.2014.2303294.
15. European Society of Radiology (ESR). What the radiologist should know about artificial intelligence — an ESR white paper. Insights Imaging. 2019; 10: 44. https://doi.org/10.1186/ s13244-019-0738-2.
16. Avendi M.R., Kheradvar A., Jafarkhani H. A combined deep-learning and deformable-model approach to fully auto-
matic segmentation of the left ventricle in cardiac MRI. Med Image Anal. 2016; 30: 108-19. https://doi.org/10.1016/j.me-dia.2016.01.005.
17. Cheng R., Roth H.R., Lay N. et al. Automatic magnetic resonance prostate segmentation by deep learning with holistical-ly nested networks. J Med Imaging (Bellingham). 2017; 4(4): 041302. https://doi.org/10.1117/1JMI.4.4.041302.
18. Roth H.R., Lu L., Lay N. et al. Spatial aggregation of holisti-cally-nested convolutional neural networks for automated pancreas localization and segmentation. Med Image Anal. 2018; 45: 94-107. https://doi.org/10.1016/j.media.2018.01.006.
19. Wang S., Summers R.M. Machine learning and radiology. Med Image Anal. 2012; 16(5): 933-51. https://doi. org/10.1016/j.media.2012.02.005.
20. Trebeschi S., van Griethuysen JJM., Lambregts DMJ. et al. Deep Learning for Fully-Automated Localization and Segmentation of Rectal Cancer on Multiparametric MR. Sci Rep. 2017; 7(1): 5301.
21. Weston A.D., Korfiatis P., Kline T.L. et al. Automated Abdominal Segmentation of CT Scans for Body Composition Analysis Using Deep Learning. Radiology. 2018; 290: 669-79.
22. Gibson E., Giganti F., Hu Y. et al. Automatic Multi-Organ Segmentation on Abdominal CT With Dense V-Networks. IEEE Trans Med Imaging. 2018; 37(8): 1822-34. https://doi. org/10.1109/TMI.2018.2806309.
23. Hu P., Wu F., Peng J. et al. Automatic 3D liver segmentation based on deep learning and globally optimized surface evolution. Phys Med Biol. 2016; 61(24): 8676-98.
24. Liu Y., Stojadinovic S., Hrycushko B. et al. A deep convo-lutional neural network-based automatic delineation strategy for multiple brain metastases stereotactic radiosurgery. PLoS One. 2017; 12(10): e0185844. https://doi.org/10.1371/jour-nal.pone.0185844.
25. Tizhoosh H.R., Pantanowitz L. Artificial Intelligence and Digital Pathology: Challenges and Opportunities. J Pathol Inform. 2018; 9:38. Published 2018; 14. D0I:10.4103/jpi. jpi_53_18.
26. Shen D., Wu G., Suk H.I. Deep Learning in Medical Image Analysis. Annu Rev Biomed Eng. 2017; 19: 221-48. DOI: 10.1146/annurev-bioeng-071516-044442.
27. Amgad M., Elfandy H., Hussein H. et al. Structured crowd-sourcing enables convolutional segmentation of histology images. Bioinformatics. 2019; 35(18): 3461-7. DOI: 10.1093/ bioinformatics/btz083.
28. Yagi Y. Color standardization and optimization in whole slide imaging. Diagn Pathol. 2011; 6 Suppl 1(Suppl 1): S15. DOI: 10.1186/1746-1596-6-S1-S15.
29. Zarella M.D., Yeoh C., Breen D.E,. Garcia F.U. An alternative reference space for H&E color normalization. PLoS One. 2017; 12(3): e0174489. DOI: 10.1371/journal.pone.0174489.
30. Kwitt R., Hegenbart S., Rasiwasia N. et al. Do we need annotation experts? A case study in celiac disease classification. Med Image Comput Comput Assist Interv. 2014; 17(Pt 2): 454-61. DOI: 10.1007/978-3-319-10470-6 57.
31. Wen S., Kurc T.M., Hou L. et al Comparison of different classifiers with active learning to support quality control in nucleus segmentation in pathology images. AMIA Jt Summits Transl Sci Proc. 2018; 2017: 227-36.
32. Guidotti R., Monreale A., Ruggieri S. et al A survey of methods for explaining black box models. Acm Comput Surv. 2019; 51: 15-36.
33. Selvaraju R.R., Cogswell M., Das A. et al. Grad-CAM: visual explanations from deep networks via gradient-based localization. IEEE Int Conf Comput Vis (ICCV). 2017: 618-26.
34. Erhan D., Bengio Y., Courville A. et al Visualizing Higher-Layer Features of a Deep Network Technical Report 1341. University of Montreal; 2009.
35. Ribeiro M.T., Singh S., Guestrin C. Why should I trust you?: explaining the predictions of any classifier In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. ACM: San Francisco. 2016; 1135-44.
36. Mazurowski M.A. Radiogenomics: What It Is and Why It Is Important. J Am Coll Radiol. 2015; 12: 862-6. https://doi. org/10.1016/j.jacr.2015.04.019.
37. Mazurowski M.A., Zhang J., Grimm L.J. et al. Radiogenom-ic analysis of breast cancer: Luminal B molecular subtype is associated with enhancement dynamics at MR imaging. Radiology 2014; 273: 365-72. https://doi.org/10.1148/radi-ol.14132641.
38. Gutman D.A., Cooper L.A., Hwang S.N. et al. MR imaging predictors of molecular profile and survival: multi-institutional study of the TCGA glioblastoma data set. Ra-
diology 2013; 267: 560-9. https://doi.org/10.1148/radi-ol.13120118.
39. Mazurowski M.A., Clark K., Czarnek N.M. et al. Radioge-nomics of lower-grade glioma: algorithmically-assessed tumor shape is associated with tumor genomic subtypes and patient outcomes in a multi-institutional study with The Cancer Genome Atlas data. J Neurooncol. 2017: 1-9. https://doi. org/10.1007/s11060-017-2420-1.
40. Karlo C.A., Di Paolo P.L., Chaim J. et al. Radiogenomics of clear cell renal cell carcinoma: associations between CT imaging features and mutations. Radiology 2014; 270: 464-71. https://doi.org/10.1148/radiol.13130663.
41. Mazurowski M.A., Desjardins A., Malof J.M. Imaging descriptors improve the predictive power of survival models for glioblastoma patients. Neuro Oncol. 2013; 15: 1389-94. https://doi.org/10.1093/neuonc/nos335.
42. Mazurowski M.A., Grimm L.J., Zhang J. et al. Recurrence-free survival in breast cancer is associated with MRI tumor enhancement dynamics quantified using computer algorithms. Eur J Radiol. 2015; 84: 2117-22. https://doi. org/10.1016/j.ejrad.2015.07.012.
43. Choy G., Khalilzadeh O., Michalski M. et al. Current Applications and Future Impact of Machine Learning in Radiology. Radiology. 2018; 288(2): 318-28. https://doi.org/10.1148/ra-diol.2018171820.
44. Remedios D., Brkljacic B., Ebdon-Jackson S. et al. Collaboration, campaigns and champions for appropriate imaging: feedback from the Zagreb workshop. Insights Imaging. 2018; 9(2): 211-4. https://doi.org/10.1007/s13244-018-0602-9.