Введение
Четкая визуализация новообразований мочевого пузыря имеет решающее значение для ранней диагностики и успешной резекции опухоли. При стандартной цистоскопии в белом свете, по данным литературы, от 10 до 45 % опухолей мочевого пузыря остаются недиагностированными (в зависимости от подгруппы пациентов). Чувствительность и специфичность составляют примерно 60 и 70 % соответственно, при этом хуже выявляются мелкие и плоские опухоли, в том числе карцинома in situ (точность диагностики зависит также от опыта и других субъективных особенностей врача) [1, 2]. Для решения этих проблем используют различные технологии, улучшающие визуализацию слизистой оболочки мочевого пузыря, среди которых наибольшее применение в клинической практике получили фотодинамическая диагностика (PDD) и узкоспектральная визуализация (NBI) [3, 4].
Одним из направлений улучшения визуализации рака при цистоскопии является автоматизированная обработка изображений с использованием искусственного интеллекта (ИИ) [5], что подразумевает создание компьютерных систем, способных имитировать мыслительные возможности и поведение человека при решении сложных задач. В медицине для анализа изображений распространение получила форма машинного обучения (один из методов ИИ), в основе которой лежит использование «искусственных нейронных сетей», имитирующих работу человеческого мозга в распознавании образов [6, 7]. Уже созданы алгоритмы ИИ, способные анализировать цистоскопические изображения для определения аномальных тканей. Однако методы пока остаются экспериментальными. Возможно, со временем они будут достаточно перспективными и помогут урологам в выявлении подозрительных участков, требующих проведения биопсии.
Цель работы – провести обзор имеющейся литературы для определения диагностической ценности ИИ при обнаружении рака мочевого пузыря во время выполнения цистоскопии и оценки перспектив применения данной технологии на практике.
Материалы и методы
Библиографический поиск статей проводили в базах данных Medline и Embase с использованием ключевых слов “artificial intelligence”, “cystoscopy”, “TURBT” (для анализа литературы по применению методов ИИ при цистоскопии). Критерии включения: полнотекстовые статьи на русском и английском языках, опубликованные за последние 10 лет, и оригинальные клинические исследования. Критерии исключения: обзоры литературы, абстракты, монографии, руководства, тезисы конференций, учебные пособия.
Результаты
Согласно данным представленных в настоящем обзоре 11 оригинальных исследований, цистоскопия с использованием технологий ИИ может улучшить выявление рака мочевого пузыря. В основном в статьях представлены такие диагностические показатели, как специфичность и чувствительность: чувствительность цистоскопии при использовании ИИ колеблется от 89,7 до 95,4 %, а специфичность – от 87,8 до 98,6 %.
Следует отметить, что все исследования являются ретроспективными, не имеют групп сравнения и включают данные, полученные во время диагностической цистоскопии или трансуретральной резекции опухоли мочевого пузыря (TURBT), т. е. снимки, сделанные во время проведения процедуры. Только 2 исследования включают видеозаписи цистоскопии пациентов с последующей обработкой видеокадров. В 1 исследовании данные взяты из цистоскопического атласа. Исследования в основном одноцентровые, за исключением работы с использованием данных из атласа. Лишь 2 статьи включают несколько лечебных учреждений, в которых были получены цистоскопические снимки пациентов. Что касается размера выборки, то большинство исследований проведено на основании цистоскопических изображений, полученных от 109 до 445 пациентов, но не во всех работах приводятся данные о числе пациентов. Таким образом, размер выборки сравнительно небольшой. Только 1 многоцентровое исследование включает снимки изображений от 10 729 пациентов.
При обработке статических изображений слизистой оболочки мочевого пузыря для решения проблемы недостающих данных используются различные методы генерации изображений.
Так, в работе O. Eminaga и соавт. разработана модель CNN (сверточные нейронные сети) для диагностической классификации цистоскопических изображений и показана ее высокая эффективность: модель точно идентифицирует уротелиальную карциному мочевого пузыря, различает виды цистита и карциному in situ. При этом в качестве обучающих данных использованы изображения из атласа. Несмотря на то что на их основе были сгенерированы новые изображения, авторы признают низкую репрезентативность полученных результатов [8].
В исследовании A. Ikeda и соавт. также показано повышение качества диагностики при использовании ИИ. Задействовано большое количество обучающих данных (1680 изображений), при анализе 422 цистоскопических изображений получены чувствительность 89,7 % и специфичность 94,0 %. Исследование демонстрирует низкую точность диагностики в отношении небольших участков опухолевых тканей мочевого пузыря (при занятии опухолями менее 10 % изображения), что может быть связано с недостаточным обучением системы ИИ, поскольку лишь 10 % обучающих изображений с опухолью содержат небольшие участки поражения [2].
Аналогичные диагностические характеристики получены в анализе E. Shkolyar и соавт., разработавших алгоритм глубокого обучения CystoNet на основе CNN. При анализе видеозаписей цистоскопии 95 пациентов отобрано ручным способом 2752 кадра в качестве обучающих данных для разработки алгоритма. В валидационном наборе данных система дает 90,9 % чувствительности и 98,6 % специфичности для каждого кадра. Обучающий набор данных отличается высокой репрезентативностью, поскольку включает одиночные или мультифокальные папиллярные опухоли разных размеров, степени дифференцировки и различной степени видимости. Несмотря на наличие только папиллярных опухолей в наборе обучающих данных, система идентифицирует все 3 случая карциномы in situ. Особенность этого исследования заключается в том, что разработка CystoNet проведена на основе кадров видеозаписей цистоскопии, что подразумевает возможность использования данной технологии в режиме реального времени при диагностике и TURBT [9].
Примечательно, что в исследовании Y. Du и соавт. модель нейронной сети на основе платформы EasyDL после установки приложения на телефон распознает снимки цистоскопии в режиме реального времени. Авторами сделаны снимки на телефон с 4 изображениями на компьютере (по 2 снимка опухоли и неизмененной слизистой оболочки мочевого пузыря), правильно распознанные приложением [10].
Для повышения эффективности обнаружения опухолей с помощью ИИ необходимо формирование большого набора обучающих данных, и эта проблема на сегодняшний день остается нерешенной в силу отсутствия единой базы цистоскопических изображений. По этой причине A. Ikeda и соавт. при разработке модели ИИ использовали трансферное обучение с помощью гастроскопических изображений для повышения точности обнаружения опухоли мочевого пузыря при цистоскопической визуализации.
Тем самым авторам удалось достичь 95,4 % чувствительности и 97,6 % специфичности, подтвердив высокую диагностическую точность ИИ при пошаговом трансферном обучении по сравнению с двухэтапным трансфером и обучением с нуля. Также проведено сравнение диагностической точности ИИ и человека при анализе цистоскопических изображений. Полученные результаты показывают превосходство ИИ над опытными урологами по таким диагностическим характеристикам, как чувствительность и индекс Юдена (разница между долей истинно положительных результатов и долей ложноположительных результатов). При этом необходимо отметить, что врачи ставят более точные диагнозы в случае занятия опухолью менее 10 % изображения. Таким образом, диагностическая точность ИИ эквивалентна таковой у опытных урологов [11]. К такому же выводу пришли R. Yang и соавт., в работе которых диагностическая точность CNN составила 83,36 %, а медицинских экспертов – 84,09 % [12].
Впечатляющие диагностические характеристики цистоскопии с использованием ИИ также продемонстрированы в Китае в мультицентровом исследовании, включившем в общей сложности 69 204 цистоскопических изображения от 10 729 пациентов из 6 клиник, что может свидетельствовать о хорошей репрезентативности. ИИ превзошел урологов в чувствительности при выявлении карциномы in situ и небольших опухолей, а также в способности отличать опухолевые ткани от воспалительных изменений слизистой оболочки мочевого пузыря [13, 14]. Тем не менее воспалительные участки часто воспринимаются злокачественными из-за их сходства, поэтому требуются увеличение числа обучающих данных и введение в алгоритм дополнительных параметров для снижения количества ложноположительных результатов [15].
В небольшом многоцентровом исследовании N. Ali и соавт. также показана эффективность автоматизированной системы диагностики рака мочевого пузыря на основе 216 изображений флуоресцентной цистоскопии, полученных в 4 различных урологических отделениях. Все CNN классифицировали изображения злокачественных опухолей с чувствительностью не менее 91 % и специфичностью, превышающей 77 %. Лучшие показатели чувствительности и специфичности классификации – 95,77 и 87,84 % соответственно. При этом каждая модель CNN не менее чем на 15 % превосходила по средней чувствительности врачей-урологов. При оценке степени злокачественности и стадии рака по степени инвазии модели CNN также продемонстрировали хорошие результаты, превосходящие результаты урологов [16].
Методы сегментации для обработки и анализа изображений
Существуют различные методы сегментации, применяемые для обработки и анализа изображений. В компьютерном зрении сегментация представляет собой разделение цифрового изображения на несколько частей с одинаковыми характеристиками.
I. Lorencin и соавт. использовали оператор Лапласа для выделения границ объектов на изображениях с последующим обучением многослойного персептрона (более упрощенный вариант искусственных нейронных сетей по сравнению с CNN). Используя набор данных из 1997 изображений рака мочевого пузыря и 986 изображений нормальной ткани, авторы получили площадь под кривой (AUC) 0,99 [17].
J. Mutaguchi и соавт. сравнили метод сегментации изображений U-Net и разработанный авторами Dilated U-Net, представляющий собой расширенную версию U-Net. Видеозаписи цистоскопии 120 пациентов, перенесших TURBT, были преобразованы в 1790 изображений опухоли мочевого пузыря. Авторы заявили об улучшении диагностических характеристик при использовании сети Dilated U-Net, демонстрирующей более высокую точность сегментации опухоли. Оба метода хуже справились с диагностикой плоских опухолей ввиду ограниченного количества таких изображений при обучении. Несмотря на достаточное количество ограничений, авторы пришли к выводу о повышении точности выявления опухоли во время цистоскопии при улучшении архитектуры ИИ, частично решив проблему нехватки обучающих данных [18].
Таким образом, несмотря на обнадеживающие диагностические показатели, для внедрения технологий ИИ в клиническую практику необходимы улучшение их производительности и последующая оценка эффективности с проведением проспективных исследований.
Обсуждение
Проведенный обзор литературы показывает возможность дифференцировать злокачественные опухоли от воспалительных изменений и нормальной картины слизистой оболочки мочевого пузыря, а также идентифицировать карциному in situ при использовании ИИ в анализе цистоскопических данных. Авторы демонстрируют показатели чувствительности и специфичности, как минимум не уступающие таковым у опытных урологов, а в одной из работ достигнута AUC 0,99 [17]. Тем не менее важно учитывать ограниченное количество статичных кадров цистоскопии при получении результатов, что требует аккуратной интерпретации достигнутых успехов.
Помимо диагностики рака мочевого пузыря ИИ находит применение в разных областях медицины, например, в выявлении рака кожи [2, 19], легкого [2, 19], желудка [20, 21]. В литературе представлено 13 исследований по использованию методов ИИ в диагностике рака пищевода, из которых 11 исследований посвящены плоскоклеточному раку. Из них 9 исследований направлены на разработку моделей глубокого обучения для выявления злокачественных новообразований, 2 исследования посвящены разработке моделей, оценивающих глубину злокачественной инвазии.
В большинстве случаев для анализа использованы сверточные нейронные сети: JDPCA, VGG16 Net или GoogLeNet [22–32]. Значения чувствительности и специфичности при диагностике плоскоклеточного рака пищевода варьируют у разных авторов, но все модели при обнаружении и определении характера поражения демонстрируют такие же хорошие результаты, как у опытных эндоскопистов.
Ряд авторов отмечают, что при раке желудка ИИ может быть использован для раннего выявления новообразования, выбора тактики лечения и оценки прогноза [33–43].
При использовании ИИ серия исследований направлена на оценку состояния печени по данным магнитно-резонансной томографии, характеру когнитивных нарушений перед трансплантацией, обнаружению спектральных различий между образцами сыворотки крови у пациентов с наличием вируса гепатита В и без него, а также по прогнозированию гепатотоксичности на ранних стадиях разработки лекарств и развития фиброза печени при вирусе гепатита С [44–52].
D.P. Williams и соавт. разработали модель машинного обучения, основанную на байесовской сети при достижении точности, чувствительности и специфичности 86,0; 87,0 и 85,0 % соответственно [51]. В модели машинного обучения, основанной на методе опорных векторов и радиомики, L. He и соавт. использовали магнитно-резонансные и клинические данные для оценки жесткости печени (кПа) при достижении AUC 0,80 с точностью, чувствительностью и специфичностью 75,0; 63,6 и 82,4 % соответственно [47].
P. Ström и соавт. предполагают снижение нагрузки на патоморфологов при анализе образцов биопсии предстательной железы при использовании технологии ИИ. Авторы оцифровали 6682 микропрепарата предстательной железы от 976 участников. Оценивались прогнозирование наличия злокачественной опухоли, ее размер и градация по шкале Глисона в независимом тестовом наборе, состоящем из 1631 биоптата. Дополнительно определено число баллов по шкале Глисона в 87 образцах, индивидуально оцененных 23 опытными урологами-патоморфологами Международного общества урологической патологии.
Урологи-патоморфологи, принимавшие участие в исследовании, не имели сведений о клинических характеристиках пациентов. AUC составила 0,997 при оценке образцов биопсии и 0,999 при установлении числа пациентов, имевших или не имевших рак предстательной железы. Коэффициент корреляции при определении длины опухоли ИИ и патоморфологом составил 0,96 [53]. Таким образом, эффективность ИИ при выявлении и оценке злокачественности РПЖ в образцах игольчатой биопсии в исследовании P. Ström и соавт. сопоставима с результатами анализа международных экспертов при патологии предстательной железы [54].
Несмотря на многообещающие полученные данные и результаты применения ИИ, они требуют проведения целого ряда исследований, прежде чем будут интегрированы в качестве полноправных методов диагностики в клинической практике [55].
Следует отметить существенное расширение спектра применения ИИ в клинической гастроэнтерологии и гепатологии. В отдаленной перспективе прогнозируется уменьшение доли инвазивных диагностических вмешательств со смещением акцента в пользу неинвазивных методов обследования, менее травматичных и более совершенных, позволяющих выполнять исследование в режиме реального времени (например, при проведении колоноскопии иметь возможность не только обнаружить новообразование, но и установить характер процесса).
Создание универсального, большого, высококачественного, хорошо маркированного набора данных является необходимым условием для разработки алгоритмов для лучшего определения эпидемиологии и факторов риска развития различных заболеваний. Алгоритмы машинного обучения, основанные на этих наборах данных, также могут быть использованы для достижения других показателей качества, таких как повышение эффективности лечебного процесса или определение экономически эффективных путей медицинских вмешательств. Что касается анализа данных, традиционные аналитические модели (например, логистическая регрессия и системы оценки клинических результатов) могут быть заменены или дополнены алгоритмами машинного обучения для достижения большей производительности и точности.
Несмотря на многочисленные достижения медицины в области ИИ, в настоящее время существует ряд ограничений и препятствий, которые необходимо преодолеть в будущем, также остается открытым вопрос повышения точности диагностики рака при цистоскопии с использованием ИИ.
Все описанные работы еще достаточно далеки от реального использования в клинической практике. Во-первых, в них не представлены отдельные группы сравнения, что не позволяет сделать достоверный вывод о практических преимуществах ИИ. Во-вторых, в большинстве случаев в качестве обучающих данных используются статические изображения, а не цистоскопические видеозаписи (ввиду отсутствия достаточно большого набора обучающих данных и сложности обработки цистоскопических видеозаписей с последующим представлением фактической цистоскопической картины в системе ИИ).
Таким образом, полученные результаты имеют лишь ограниченное применение и не позволяют улучшить качество интраоперационной диагностики. Использование ИИ в режиме реального времени может потребовать больших вычислительных мощностей и оказаться труднореализуемым и экономически нецелесообразным, что, в свою очередь, может стать одним из существенных ограничений на этапе внедрения данных технологий в клиническую практику. При этом грамотно используемая помощь ИИ несомненно позволит снизить нагрузку на врачей или, по крайней мере, увеличить их производительность, позволяя им перейти от рутинных задач к более быстрому и точному принятию клинических решений.
Заключение
По результатам доступных на сегодняшний день исследований анализ цистоскопических изображений с использованием ИИ может способствовать повышению точности диагностики рака. Однако необходимы дальнейшие исследования в этой области для разработки более сложных алгоритмов, повышающих производительность данного метода.
Качество системы ИИ зависит от объема и качества данных, используемых для обучения. Несмотря на ограничения, потенциал цистоскопии на основе ИИ имеет большие перспективы для повышения эффективности медицинской помощи. Требуется проведение проспективных исследований для объективной оценки диагностических возможностей ИИ с последующим внедрением новых технологий в клиническую практику и использованием их в режиме реального времени.
1. Oude Elferink P., Witjes J.A. Blue-light cystoscopy in the evaluation of non-muscle-invasive bladder cancer. Ther Adv Urol 2014;6(1):25–33. DOI: 10.1177/1756287213510590
2. Ikeda A., Nosato H., Kochi Y. et al. Support system of cystoscopic diagnosis for bladder cancer based on artificial intelligence. J Endourol 2020;34(3):352–8. DOI: 10.1089/end.2019.0509
3. Kriegmair M.C., Hein S., Schoeb D.S. et al. Erweiterte bildgebung in der urologischen endoskopie [Enhanced imaging in urological endoscopy]. Urologe A 2021;60(1):8–18. DOI: 10.1007/s00120-020-01400-9
4. Lerner S.P., Goh A. Novel endoscopic diagnosis for bladder cancer. Cancer 2015;121(2):169–78. DOI: 10.1002/cncr.28905
5. Borhani S., Borhani R., Kajdacsy-Balla A. Artificial intelligence: a promising frontier in bladder cancer diagnosis and outcome prediction. Crit Rev Oncol Hematol 2022;171:103601. DOI: 10.1016/j.critrevonc.2022.103601
6. Kann B.H., Thompson R., Thomas C.R. Jr et al. Artificial intelligence in oncology: current applications and future directions. Oncology (Williston Park) 2019;33(2):46–53.
7. Brodie A., Dai N., Teoh J.Y. et al. Artificial intelligence in urological oncology: an update and future applications. Urol Oncol 2021;39(7):379–99. DOI: 10.1016/j.urolonc.2021.03.012
8. Eminaga O., Eminaga N., Semjonow A., Breil B. Diagnostic classification of cystoscopic images using deep convolutional neural networks. JCO Clin Cancer Inform 2018;2:1–8. DOI: 10.1200/CCI.17.00126
2. Ikeda A., Nosato H., Kochi Y. et al. Support system of cystoscopic diagnosis for bladder cancer based on artificial intelligence. J Endourol 2020;34(3):352–8. DOI: 10.1089/end.2019.0509
9. Shkolyar E., Jia X., Chang T.C. et al. Augmented bladder tumor detection using deep learning. Eur Urol 2019;76(6):714–8. DOI: 10.1016/j.eururo.2019.08.032
10. Du Y., Yang R., Chen Z. et al. A deep learning network-assisted bladder tumour recognition under cystoscopy based on Caffe deep learning framework and EasyDL platform. Int J Med Robot 2021;17(1):1–8. DOI: 10.1002/rcs.2169
11. Ikeda A., Nosato H., Kochi Y. et al. Cystoscopic imaging for bladder cancer detection based on stepwise organic transfer learning with a pretrained convolutional neural network. J Endourol 2021;35(7):1030–5. DOI: 10.1089/end.2020.0919
12. Yang R., Du Y., Weng X. et al. Automatic recognition of bladder tumours using deep learning technology and its clinical application. Int J Med Robot 2021;17(2):e2194. DOI: 10.1002/rcs.2194
13. Wu S., Chen X., Pan J. et al. An artificial intelligence system for the detection of bladder cancer via cystoscopy: a multicenter diagnostic study. J Natl Cancer Inst 2022;114(2):220–7. DOI: 10.1093/jnci/djab179
14. Lenis A.T., Litwin M.S. Does artificial intelligence meaningfully enhance cystoscopy? J Natl Cancer Inst 2022;114(2):174–5. DOI: 10.1093/jnci/djab180
15. Gosnell M.E., Polikarpov D.M., Goldys E.M. et al. Computerassisted cystoscopy diagnosis of bladder cancer. Urol Oncol 2018;36(1):8.e9–15. DOI: 10.1016/j.urolonc.2017.08.026
16. Ali N., Bolenz C., Todenhöfer T. et al. Deep learning-based classification of blue light cystoscopy imaging during transurethral resection of bladder tumors. Sci Rep 2021;11(1):11629. DOI: 10.1038/s41598-021-91081-x
17. Lorencin I., Anđelić N, Španjol J., Car Z. Using multi-layer perceptron with Laplacian edge detector for bladder cancer diagnosis. Artif Intell Med 2020;102:101746. DOI: 10.1016/j.artmed.2019.101746
18. Mutaguchi J., Morooka K., Kobayashi S. et al. Artificial intelligence for segmentation of bladder tumor cystoscopic images performed by U-Net with dilated convolution. J Endourol 2022;36(6):827–34. DOI: 10.1089/end.2021.0483
17. Lorencin I., Anđelić N, Španjol J., Car Z. Using multi-layer perceptron with Laplacian edge detector for bladder cancer diagnosis. Artif Intell Med 2020;102:101746. DOI: 10.1016/j.artmed.2019.101746
2. Ikeda A., Nosato H., Kochi Y. et al. Support system of cystoscopic diagnosis for bladder cancer based on artificial intelligence. J Endourol 2020;34(3):352–8. DOI: 10.1089/end.2019.0509
19. Esteva A., Kuprel B., Novoa R.A. et al. Dermatologist-level classification of skin cancer with deep neural networks. Nature 2017;542(7639):115–8. DOI: 10.1038/nature21056
2. Ikeda A., Nosato H., Kochi Y. et al. Support system of cystoscopic diagnosis for bladder cancer based on artificial intelligence. J Endourol 2020;34(3):352–8. DOI: 10.1089/end.2019.0509
19. Esteva A., Kuprel B., Novoa R.A. et al. Dermatologist-level classification of skin cancer with deep neural networks. Nature 2017;542(7639):115–8. DOI: 10.1038/nature21056
20. Kang G., Liu K., Hou B., Zhang N. 3D multi-view convolutional neural networks for lung nodule classification. PLoS One 2017;12(11):e0188290. DOI: 10.1371/journal.pone.0188290
21. Hirasawa T., Aoyama K., Tanimoto T. et al. Application of artificial intelligence using a convolutional neural network for detecting gastric cancer in endoscopic images. Gastric Cancer 2018;21(4):653–60. DOI: 10.1007/s10120-018-0793-2
22. Kröner P.T., Engels M.M., Glicksberg B.S. et al. Artificial intelligence in gastroenterology: a state-of-the-art review. World J Gastroenterol 2021;27(40):6794–824. DOI: 10.3748/wjg.v27.i40.6794
23. Hashimoto R., Requa J., Dao T. et al. Artificial intelligence using convolutional neural networks for real-time detection of early esophageal neoplasia in Barrett’s esophagus (with video). Gastrointest Endosc 2020;91(6):1264–71.e1. DOI: 10.1016/j.gie.2019.12.049
24. Van der Sommen F., Zinger S., Curvers W.L. et al. Computer-aided detection of early neoplastic lesions in Barrett’s esophagus. Endoscopy 2016;48(7):617–24. DOI: 10.1055/s-0042-105284
25. De Groof A.J., Struyvenberg M.R., van der Putten J. et al. Deep-learning system detects neoplasia in patients with Barrett’s esophagus with higher accuracy than endoscopists in a multistep training and validation study with benchmarking. Gastroenterology 2020;158(4):915–29.e4. DOI: 10.1053/j.gastro.2019.11.030
26. De Groof J., van der Sommen F., van der Putten J. et al. The Argos project: the development of a computer-aided detection system to improve detection of Barrett’s neoplasia on white light endoscopy. United European Gastroenterol J 2019;7(4):538–47. DOI: 10.1177/2050640619837443
27. Ebigbo A., Mendel R., Probst A. et al. Real-time use of artificial intelligence in the evaluation of cancer in Barrett’s oesophagus. Gut 2020;69(4):615–6. DOI: 10.1136/gutjnl-2019-319460
28. Riaz F., Ribeiro M.D., Pimentel-Nunes P., Coimbra M.T. Integral scale histogram local binary patterns for classification of narrowband gastroenterology images. Annu Int Conf IEEE Eng Med Biol Soc 2013;2013:3714–7. DOI: 10.1109/EMBC.2013.6610350
29. Swager A.F., van der Sommen F., Klomp S.R. et al. Computeraided detection of early Barrett’s neoplasia using volumetric laser endomicroscopy. Gastrointest Endosc 2017;86(5):839–46. DOI: 10.1016/j.gie.2017.03.011
30. Trindade A.J., McKinley M.J., Fan C. et al. Endoscopic surveillance of Barrett’s esophagus using volumetric laser endomicroscopy with artificial intelligence image enhancement. Gastroenterology 2019;157(2):303–5. DOI: 10.1053/j.gastro.2019.04.048
31. Korhani Kangi A., Bahrampour A. Predicting the survival of gastric cancer patients using artificial and bayesian neural networks. Asian Pac J Cancer Prev 2018;19(2):487–90. DOI: 10.22034/APJCP.2018.19.2.487
32. Parasa S., Wallace M., Bagci U. et al. Proceedings from the First Global Artificial Intelligence in Gastroenterology and Endoscopy Summit. Gastrointest Endosc 2020;92(4):938–45.e1. DOI: 10.1016/j.gie.2020.04.044
33. Cai S.L., Li B., Tan W.M. et al. Using a deep learning system in endoscopy for screening of early esophageal squamous cell carcinoma (with video). Gastrointest Endosc 2019;90(5):745–53.e2. DOI: 10.1016/j.gie.2019.06.044
34. Fukuda H., Ishihara R., Kato Y. et al. Comparison of performances of artificial intelligence versus expert endoscopists for real-time assisted diagnosis of esophageal squamous cell carcinoma (with video). Gastrointest Endosc 2020;92(4):848–55. DOI: 10.1016/j.gie.2020.05.043
35. Guo L., Xiao X., Wu C. et al. Real-time automated diagnosis of precancerous lesions and early esophageal squamous cell carcinoma using a deep learning model (with videos). Gastrointest Endosc 2020;91(1):41–51. DOI: 10.1016/j.gie.2019.08.018
36. Horie Y., Yoshio T., Aoyama K. et al. Diagnostic outcomes of esophageal cancer by artificial intelligence using convolutional neural networks. Gastrointest Endosc 2019;89(1):25–32. DOI: 10.1016/j.gie.2018.07.037
37. Kumagai Y., Takubo K., Kawada K. et al. Diagnosis using deeplearning artificial intelligence based on the endocytoscopic observation of the esophagus. Esophagus 2019;16(2):180–7. DOI: 10.1007/s10388-018-0651-7
38. Li B., Cai S.L., Tan W.M. et al. Comparative study on artificial intelligence systems for detecting early esophageal squamous cell carcinoma between narrow-band and white-light imaging. World J Gastroenterol 2021;27(3):281–93. DOI: 10.3748/wjg.v27.i3.281
39. Ohmori M., Ishihara R., Aoyama K. et al. Endoscopic detection and differentiation of esophageal lesions using a deep neural network. Gastrointest Endosc 2020;91(2):301–9.e1. DOI: 10.1016/j.gie.2019.09.034
40. Tan M.C., Bhushan S., Quang T. et al. Automated software-assisted diagnosis of esophageal squamous cell neoplasia using high-resolution microendoscopy. Gastrointest Endosc 2021;93(4):831–8.e2. DOI: 10.1016/j.gie.2020.07.007
41. Zhao Y.Y., Xue D.X., Wang Y.L. et al. Computer-assisted diagnosis of early esophageal squamous cell carcinoma using narrow-band imaging magnifying endoscopy. Endoscopy 2019;51(4):333–41. DOI: 10.1055/a-0756-8754
42. Liu G., Hua J., Wu Z. et al. Automatic classification of esophageal lesions in endoscopic images using a convolutional neural network. Ann Transl Med 2020;8(7):486. DOI: 10.21037/atm.2020.03.24
43. Liu D.Y., Gan T., Rao N.N. et al. Identification of lesion images from gastrointestinal endoscope based on feature extraction of combinational methods with and without learning process. Med Image Anal 2016;32:281–94. DOI: 10.1016/j.media.2016.04.007
44. Ai H., Chen W., Zhang L. et al. Predicting drug-induced liver injury using ensemble learning methods and molecular fingerprints. Toxicol Sci 2018;165(1):100–7. DOI: 10.1093/toxsci/kfy121
45. Banerjee I., Choi H.H., Desser T., Rubin D.L. A scalable machine learning approach for inferring probabilistic US-LI-RADS categorization. AMIA Annu Symp Proc 2018;2018:215–24.
46. Dickerson L.K., Rouhizadeh M., Korotkaya Y. et al. Language impairment in adults with end-stage liver disease: application of natural language processing towards patient-generated health records. NPJ Digit Med 2019;2:106. DOI: 10.1038/s41746-019-0179-9
47. He L., Li H., Dudley J.A. et al. Machine learning prediction of liver stiffness using clinical and T2-weighted MRI radiomic data. AJR Am J Roentgenol 2019;213(3):592–601. DOI: 10.2214/AJR.19.21082
48. Khan S., Ullah R., Khan A. et al. Analysis of hepatitis B virus infection in blood sera using Raman spectroscopy and machine learning. Photodiagnosis Photodyn Ther 2018;23:89–93. DOI: 10.1016/j.pdpdt.2018.05.010
49. Li X., Chen H., Qi X. et al. H-DenseUNet: hybrid densely connected UNet for liver and tumor segmentation from CT volumes. IEEE Trans Med Imaging 2018;37(12):2663–74. DOI: 10.1109/TMI.2018.2845918
50. Mueller-Breckenridge A.J., Garcia-Alcalde F., Wildum S. et al. Machine-learning based patient classification using Hepatitis B virus full-length genome quasispecies from Asian and European cohorts. Sci Rep 2019;9(1):18892. DOI: 10.1038/s41598-019-55445-8
51. Williams D.P., Lazic S.E., Foster A.J. et al. Predicting drug-induced liver injury with bayesian machine learning. Chem Res Toxicol 2020;33(1):239–48. DOI: 10.1021/acs.chemrestox.9b00264
52. Shousha H.I., Awad A.H., Omran D.A. et al. Data mining and machine learning algorithms using IL28B genotype and biochemical markers best predicted advanced liver fibrosis in chronic hepatitis C. Jpn J Infect Dis 2018;71(1):51–7. DOI: 10.7883/yoken.JJID.2017.089
51. Williams D.P., Lazic S.E., Foster A.J. et al. Predicting drug-induced liver injury with bayesian machine learning. Chem Res Toxicol 2020;33(1):239–48. DOI: 10.1021/acs.chemrestox.9b00264
47. He L., Li H., Dudley J.A. et al. Machine learning prediction of liver stiffness using clinical and T2-weighted MRI radiomic data. AJR Am J Roentgenol 2019;213(3):592–601. DOI: 10.2214/AJR.19.21082
53. Ström P., Kartasalo K., Olsson H. et al. Artificial intelligence for diagnosis and grading of prostate cancer in biopsies: a populationbased, diagnostic study. Lancet Oncol 2020;21(2):222–32. DOI: 10.1016/S1470-2045(19)30738-7
54. Попов Г.В., Чуб А.А., Лернер Ю.В. и др. Искусственный интеллект в диагностике рака предстательной железы. Архив патологии 2021;83(2):38–45. Popov G.V., Chub A.A., Lerner Yu.V. et al. Artificial intelligence in the diagnosis of prostate cancer. Arkhiv patologii = Archive of Pathology 2021;83(2):38–45. (In Russ.). DOI: 10.17116/patol20218302138
55. Jin P., Ji X., Kang W. et al. Artificial intelligence in gastric cancer: a systematic review. J Cancer Res Clin Oncol 2020;146(9):2339–50. DOI: 10.1007/s00432-020-03304-9