Новостные рубрики
Эксперт Кузнецов: В медицинском искусственном интеллекте нет интеллекта (21.11.2023 20:05)
Провалы искусственного интеллекта в медицине происходят потому, что это вовсе не интеллект, а схожий с системой распознавания лиц алгоритм, сказал газете ВЗГЛЯД руководитель экспертного совета ЭИСИ (Экспертный институт социальных исследований) Глеб Кузнецов, комментируя приостановку Росздравнадзором медицинской интеллектуальной системы Botkin.AI. СМИ сообщают, что Росздравнадзор впервые приостановил использование медицинской системы с применением искусственного интеллекта – системы анализов Botkin.AI, которая должна была помочь врачам находить патологии на снимках томографии. Отмечается, что данное решение принято в связи с «угрозой причинения вреда жизни и здоровью». «Botkin.AI – очень расхваленная, распиаренная история. Так что для меня неудивительно, что приостановлено его использование. У нас это первый, но далеко не последний случай, когда проект в области медицинского ИИ провалится. В мире уже приостановлено использование огромного количества так называемых алгоритмов. Списаны миллиарды долларов инвесторов, которые вкладывались в эти самые алгоритмы, но пока ИИ в здравоохранении толком не взлетает нигде», – говорит Кузнецов. Он объясняет, что провалы данных систем в медицине происходят потому, что на самом деле это никакой не ИИ: «Современный медицинский искусственный интеллект – это «искусственный», но не интеллект вовсе. Эти алгоритмы напоминают скорее систему распознавания лиц. Соответственно, они не «думают», не анализируют, а лишь сопоставляют данные пациентов с загруженной в них базой. И на основе этого сопоставления делают выводы». В пример собеседник приводит типовой алгоритм, который, как заявлялось, способен выявлять коронавирус по КТ. Для определения диагноза COVID-19 были загружены тысячи снимков KT, на которых врачами было подтверждено данное заболевание. И если снимок пациента на 70% и выше походит на загруженные, то человеку ставится положительный диагноз. Однако если на снимке пациента есть какие-то отклонения от нормы, погрешности (которые, например, появляются из-за использования разного оборудования или индивидуальных особенностей пациента – врожденных или приобретенных), то точность сопоставления начинает падать. Подобная проблема встречается и при определении алгоритмами онкологических болезней, инсульта, инфаркта и других диагнозов. У распознавания «по аналогии» есть набор всем известных проблем, поясняет эксперт. Иногда не всегда то, что распознается как болезнь, является болезнью – это «ложноположительный результат». В других случаях наоборот: система это не распознает как болезнь, хотя болезнь есть – это «ложноотрицательный результат». Кроме того, бывает, что медицинская информация не поддается в полной мере алгоритмическому анализу – это так называемые эксквизитные случаи, специфика пациента, орфанные болезни и так далее. «Точности алгоритмов недостаточно, потому что никакие уникальные случаи они в расчет не принимают просто по принципам их функционирования на настоящем этапе развития технологии. Возможно, следующие поколения алгоритмов будут избавлены от этих проблем, но пока надежды на медицинский ИИ, как диагностический философский камень – очевидный самообман», – заключил Кузнецов. Постоянная ссылка на новость: |