ИИ и машинное обучение в медицине, ч.3. Проблемы использования «умных» технологий в медицине



    Cloud4Y продолжает рассказывать о возможностях использования ИИ в медицине. Это третья часть, в которой мы рассмотрели возможные проблемы, возникающие при использовании «умных» технологий в сфере здравоохранения. Первая и вторая части.

    Мы не случайно затрагиваем тему медицины. Выступая в роли облачного провайдера, Cloud4Y сотрудничал с разными медицинскими организациями. Это всегда было интересным опытом с новыми техническими, юридическими, психологическими трудностями, которые приходилось преодолевать.


    Несмотря на все высокие достижения, новые технологии в медицину «заходят» тяжело. ИИ ждёт та же участь. Мы подготовили перечень наиболее вероятных проблем, с которыми придётся столкнуться компаниям, которые будут продвигать это направление. Будет интересно увидеть и ваши версии в комментариях.

    1. Ошибки в диагнозах

    Одной из важнейших проблем применения искусственного интеллекта в медицине можно назвать риск ошибочного выставления диагноза. Об этом прямо говорится в одном из свежих исследований. Учёные предупреждают, что использование методов реконструкции и анализа снимков с помощью искусственного интеллекта для постановки диагноза и определения лечения может в конечном итоге нанести вред пациентам. По их словам, даже мелкие погрешности «на входе» могут привести к принципиально разным диагнозам на выходе. И кому отвечать?

    Опасения имеют право на существование. Опытный врач, глянув на снимок, сможет отличить дефект изображения от какого-нибудь образования. Или попросит сделать диагностику ещё раз. ИИ так не умеет. Он использует имеющуюся информацию и поставит диагноз. Тем самым, возможно, сильно повлияв на дальнейшую процедуру лечения.

    2. Недостаточная точность распознавания

    Близкая по смыслу к первой, но довольно оправданная претензия в адрес разработчиков «умных» систем распознавания медицинской информации. Простой пример — системы распознавания кошек до сих пор работают некорректно. Достаточно добавить парочку деталей, и ИИ подумает, что перед ним не кошка, а грузовик, например. При распознавании изображений некоторые детали (например, опухоль) могут быть пропущены или наоборот, добавлены.

    Проблема может возникнуть как на этапе обучения компьютера, так и при его эксплуатации медучреждением. Малейшее искажение на снимке, которое может быть вызвано простым движением пациента, сильно ухудшает результаты распознавания изображений. Это было доказано с помощью исследования.

    3. Опасения со стороны медучреждений

    Общество всегда ратует за использование новых технологий в нашей жизни. Но рисковать и первым внедрять их в своих рабочие процессы готовы не все. В медицине особенно. Мало кто готов взять на себя ответственность задействовать новые инструменты, которые ещё недостаточно изучены и неизвестно, насколько эффективны они будут. Больницы и чиновники боятся как рисков, вызванных использованием новых устройств, так и критики со стороны пациентов, которые не хотят становиться «подопытными кроликами» и просят, чтобы их лечили по старинке. Получается замкнутый круг. Чтобы внедрять технологию, нужны кейсы, а чтобы были кейсы, нужны уже внедрённые технологии.

    4. Сложность «чёрного ящика»

    Нейросети, ML не дают ответ на вопрос, почему был получен такой результат. Логика, лежащая в основе сделанных выводов, непонятна. И это приводит к неуверенности в корректности достигнутого результата. То, каким образом ИИ пришёл к тому или иному выводу, является существенной информацией, важной для составления плана лечения. И если этого не понимать, будет сохраняться скепсис по отношению к машинной логике и её достижениям.

    5. Забота о конфиденциальности данных

    Данные о состоянии здоровья пациентов — это персональные данные, крайне чувствительная информация. Соответственно, для их защиты необходимо создать надлежащие механизмы. Как у нас заботятся о базах данных — рассказывать, пожалуй, нет смысла. Немногие компании относятся к этому вопросу со всей серьёзностью. И в итоге случаются утечки, про которые сообщали многие, и мы в том числе. Так что системы защиты нужно дорабатывать.

    Отчасти может помочь обезличивание данных, но мы рассказывали, что это не всегда гарантирует анонимность. Да и вообще, собрать в одну базу истории болезни, снимки с приборов визуализации, другую медицинскую документацию — это чрезвычайно сложная задача, а сама БД будет весьма лакомым кусочком. Так что опасения справедливы.

    6. Конфликт с заинтересованными сторонами

    В медицине крутятся огромные деньги, хотя сами врачи получают подчас до неприличия маленькую зарплату. И делить вкусный пирог ещё на одного участника организации, работающие в сфере здравоохранения, вряд ли захотят. Фармацевты, страховщики, департаменты здравоохранения — у всех свои интересы. И для их защиты, разумеется, будут предприниматься определённые шаги. Сопротивление технологии на любом уровне приведет к проблемам с включением ИИ в медицинские процессы.

    7. Соответствие законодательству
    Сбор данных о пациентах регулируется рядом законов, включая всё тот же ФЗ-152, для гарантированного соответствия которому бизнес часто обращается к нам. Обмен данными между различными базами данных для анализа с помощью алгоритмов ИИ представляет собой проблему с точки зрения соответствия требованиям действующего законодательства. Учитывая, что значительная часть законопроектов пишется в стиле «запретить» и «не пущать», легализовать такие эксперименты будет ой как сложно.

    8. Геополитические угрозы

    Можете смеяться, но государство (да и общество) способно углядеть угрозу в объединении медицинских баз данных. А вдруг ИИ найдёт какую-то особенность у определённой категории людей, и можно будет разработать точечное действующее биологическое оружие? Вдруг иностранное государство, используя наши базы данных, сумеет навредить нам? Вдруг сделает какие-то важные выводы по специфике заболеваний в отдельных регионах?

    В общем, подобные опасения, как бы странно они не звучали, возникают уже сейчас, когда про ИИ в медицине ещё мало что слышно. Можно только догадываться, что произойдёт, когда начнётся реальное внедрение технологии. Не пойдут ли протестующие жечь ЦОДы и 5G-вышки (вышки так-то ни при чём, но привычка-то осталась!).

    9. Потребность в новых технологиях

    Использование моделей глубокого обучения для развития и успешной интеграции искусственного интеллекта в сфере здравоохранения почти всегда включает в себя объёмные задачи, такие как обучение моделей сканированию и анализу больших объемов данных медицинской визуализации. Для нормальной работы требуется мощная ИТ-инфраструктура. В частности, высокопроизводительные графические процессоры (GPU). Соответственно, будут активнее использоваться облачные платформы. Они способны дать необходимую вычислительную мощность при надлежащей защите данных. А про то, как относятся к новым технологиям, мы уже говорили.

    10. Человеческий фактор

    Новая технология требует новых знаний. Как быстро освоит новый инструмент врач, лет 30-40 лечивший традиционным способом? А как скоро технология доберётся до районных больниц, где и компьютеры-то не у каждого врача есть? Всё может получиться так, как это часто бывает: в столичном регионе технология заработает, а там, где она как раз-таки нужна, появится со значительным опозданием.

    Возможно, вы видите ещё какие-то перспективы или проблемы внедрения искусственного интеллекта в медицину. Будет интересно услышать ваши аргументы и возражения. Спасибо за внимание.

    Что ещё полезного можно почитать в блоге Cloud4Y

    Искусственный интеллект поёт о революции
    Какова геометрия Вселенной?
    Нужны ли облака в космосе
    Пасхалки на топографических картах Швейцарии
    Microsoft предупреждает об опасности новых атак с помощью шифровальщика PonyFinal

    Подписывайтесь на наш Telegram-канал, чтобы не пропустить очередную статью. Пишем не чаще двух раз в неделю и только по делу.
    Cloud4Y
    #1 Корпоративный облачный провайдер

    Комментарии 6

      +1
      1. Ошибка выставления диагноза не так страшна, как отсутствие ответственности. Врачам предусмотрена уголовная ответственность за такие "ошибки" приведшие к последствиям. Только, вот, ответственность за такие "ошибки" должен нести не ИИ, а его разработчики всей дружной компанией. и такую же строгую уголовную. Тогда, глядишь, и поумерится пыл в продвижении несуществующего ИИ в медицину.


      2. Нет точности — нет распознавания! Компьютер не умеет еще думать! И это важно осознавать. Только работает по алгоритмам. Которые не всегда совершенны.


      3. Медицина имеет дело со здоровьем и жизнью пациентов. поэтому там консервативны и требуется гарантия выполнения требования — не навреди. Хотя, похоже уже отказались от такого требования. Учитывая как сейчас без тестирования выводят вакцины на рынок.


      4. У "черного ящика" основная проблема не сложность, а именно проблема недоступности восстановления цепочки рассуждений приведшей к тому или иному выводу. В медицине все диагнозы должны быть обоснованы.


      5. Вопрос который не решен в ИТ — конфиденциальность и безопасность данных. А все туда же… Решите свои вопросы, а потом уже лезьте в медицину!


      6. Не приплетайте к медицине коммерцию. Именно из-за того что из медицины убирают медицину и вместо нее внедряют сферу услуг и происходит проблема. А коммерсанты просто на медицине зарабатывают. И ИИ теперь новый канал подзаработать.


      7. То же самое что и в П.5 — решите проблемы с защитой информации и конфиденциальностью!


      8. ИИ и геополитика… при чем тут медицина?!


      9. Новые технологии новым технологиям рознь. Несуществующий ИИ, который потребует облака и мощные вычислительные способности… чтобы едва обеспечить то, что обычный терапевт может на глаз определить и простым опросом выяснить в течении пары минут… Та еще перспектива. Опять путается коммеhция с медициной. В медицине приветствуют новые способы инструментальных исследований, новые препараты, новые способы диагностики… много чего нового, что помогает врачам. А вот облака и ИИ… Не обещают помощи. Ни врачам, ни пациентам.


      10. А с чего традиционные способы лечения перестали устраивать? Неужели тем, что стоят на пути продвижения ИИ?! Вы несколько перепутали. медицина стоит на страже здоровья. Медицина консервативна. А кто полез в медицину со своим ИИ ее заменять и заменять традиционные способы лечения? Неужели врачи?! Нет — какие-то инженеры, программисты, коммерсанты и т.д.



      Статья интересная. А вот выводы очень спорны. Нужно обсуждать и дискутировать.
      Но давайте проявим уважение к медицине, благодаря которой уже веками наше здоровье поддерживается. А кто-то из нас жив, именно, благодаря традиционным способам лечения.
      ИИ еще не существует. Машинное обучение еще в зачаточной стадии. Предлагаемый черный ящик неприемлим. Диктование способов лечения врачам от программистов неприемлим.
      все ударились в новомодное. Но все новое должно и строится, в том числе, и на уже существующем опыте. А опыт подсказывает, что наиболее успешные разработки для медицины созданы там, где сами врачи были вовлечены в процесс. Но вовлечение было не по принципу принуждения. А когда разработчики прислушивались к потребности медицины и реализовывали то что запрашивали. Не меняя при этом "традиционные способы".


      Может кого-то и удивлю. Но в медицине есть клиническое мышление. И это не "черный ящик". Почему тогда новомодный ИИ не реализует это клиническое мышление?!

        0
        Соглашаясь с вашими доводами, всё-таки вынужден возмутиться категоричностью оценок.
        А давайте немножечко помечтаем?
        Начнем с аналогии. Лет двадцать назад многие были абсолютно уверены, что коммерческие полеты в космос это утопия и, если бы не один предприимчивый бизнесмен, не было бы сейчас у США своего ракетоносителя, способного безопасно доставлять людей на МКС.
        Представьте, что во всех уголках нашей бескрайней страны, где есть больница или даже медицинский пункт с компьютером, любой врач может получить потрясающее диагностическое решение, которое хотя бы с 90 % точностью сможет на основе представленных данных дать предположительный диагноз и рекомендации по лечению пациента. Здорово? Мне кажется да. И более того, подобный проект внедряли еще до модного ныне слова ИИ на основе банальной конференс-связи с ведущими медиками страны.
        1. Надо понимать главное — не стоит рассматривать ИИ в медицине как самостоятельную единицу — это просто консультант, который при правильном подходе может помочь врачу принять решение, за которое именно врач и будет нести ответственность. Даже самый хороший врач не может запомнить всю историю медицины, все новые методы лечения, весь наработанный опыт. И есть только одна категория врачей, которые не ошибаются — это врач, который еще не лечил пациентов. )
        2-4. Я не вижу причин, почему нельзя заставить ИИ «обосновывать» свои выводы (если мы не имеем в виду угадывание болезни по снимку КТ). Ватсон вроде бы вполне успешно работает в некоторых онкобольницах.
        5 и 7. Тут вынужден согласиться. Глядя на нынешнюю заботу компаний и органов о персональных данных граждан проще просто смириться, что о тебе все знают всё и жить с этим как можешь. )
        8. Слава богу мы пока не настолько толерантны, чтобы использовать понятие «люди, которые менструируют», поэтому мы сможем справиться с тем, что «к преступлениям более склонны приезжие» и принимать такие вещи как факт, а не вопиющий пример притеснений отдельных групп граждан )
        9. Да, новые технологии требуют больших вложений и абсолютно всегда на начальном этапе проигрывают существующим решениям по эффективности. Но это не повод сразу же отказываться от движения вперед.
        10. Давайте отправим вас к врачу в деревню в какой-нибудь нской области и посмотрим как вам понравятся местные традиционные методы лечения. )
        Очевидно, что ИИ может быть хорошим помощником врача не сегодня, но завтра я бы рискнул внедрить такое решение в больницы и поликлиники, указанные в ДМС разработчиков ;)
          0
          У Вас представление про медицину как про сферического коня в вакууме.
          1. Ошибки врачебные неизбежны и происходят постоянно. Причин этому много, неграмотность врача или злой умысел (и такое бывает) — не самые частые. Если бы за все наступала уголовная ответственность, то врачей не осталось бы.
          2. Медицина — пока наука неточная. Ведущие авторитетные специалисты могут абсолютно по-разному интерпретировать одни и те же результаты исследования.
          3. Все к врачу обращаются для того, чтобы он помог, а не не навредил. Поэтому сейчас медицина должна улучшать качество жизни при приемлемом риске, а не не вредить.
          4. Поверьте на слово: врач часто — тот же черный ящик, он не сможет объяснить, почему он так решил.
          5. Конфиденциальность — не проблема ИИ. Санитарка из больницы легко может рассказать всему селу, чем болеет ее сосед. И где здесь ИИ?
          10. Что такое традиционные методы лечения? Какая такая медицина поддерживает Ваше здоровье веками? За последние 20 лет (а не века) многое изменилось радикально. Доказано, что то, что делалось десятилетиями до того, не только не полезно, но и вредно. Используемые сейчас лекарства, которым больше 100 лет, можно посчитать на пальцах.
            0

            Давайте воздержимся от таких огульных оценок о том кто и чего насколько знает.)


            1. Опять о врачах только в одном контексте и под одним углом. Но возвращаясь к проблеме. Для врачей, хотя бы, уголовная ответственность, да и ответственность вообще, определена и прописана. Для систем типа ИИ и их разработчиков — нет! Не буду лицемерить. Раньше, по крайней мере, медицина не сдавал своих. Но за ошибки внутри себя всегда наказывала.
            2. Медицина уже древняя наука. Ведущие и авторитетные… можно и так назвать. но на консиллиуме приходят к общему мнению. И кардинально редко расходятся мнения.
            3. Заповедь "не навреди" имеет несколько более сакральный и глубокий смысл. который вы не понимаете. Фраза "улучшать качество жизни при приемлемом риске" несколько пугает. Вместо правильной диагностики и правильного лечения исходя из принципа "не навреди" взять и отправить человека на диализ(искусственная почка). Человек после этого сможет качественно жить и работать даже. Н, только почки уже отказали окончательно.
              А все потому что кто-то решил улучшить качество его жизни таким образом. А реальное желание не навредить пациенту вылилась в то. что было выявлено, что показатели, которые предписывали диализ были следствием саморазрушающейся раковой опухоли.
              Но кому я это рассказываю?!
            4. Не поверю. Врач обосновывает свой диагноз. Но подход у него более широкий чем сейчас может себе позволить ИИ. Подробности даже расписывать не буду.
            5. Если ИИ применяют в медицине. То конфиденциальность важна. А ответственность лежит у нас на каком-то призрачном "операторе персональных данных". И за последнее время было столько всяких утечек данных. Но громких дел с наказаниями не было. операторы с рынка не ушли.
            6. И последние 20 лет я пользуюсь услугами врачей выучившихся еще в СССР.
              Про лекарства. А маркетинг как же? Очень много и сейчас лекарств. которые просто сменили упаковку и название. А все те же что и раньше.)
              И, кстати, я прогресс никогда не отрицал. ) И в медицине приветствую. Но, только реальный прогресс, а не то что им называют.
              +1
              Начну с конца. У Гришковца есть хорошая фраза: «Это не бар плохой. Просто он зашел не в свой бар» (цитата по памяти, может не точна). Значит вы не мой пациент: год поступления в мединститут 1991, год окончания — 1997. Поэтому я видел не раз, кого сдают, кого наказывают, кого награждают. И за что. Ну и так по каждому пункту. Под лекарствами понимаю не упаковку и торговое название, а действующее вещество.
              Проблемы использования ИИ (и ИТ) в медицине, описанные в 10 пунктах статьи есть все. Но это проблемы даже не ИИ и не медицины, а проблемы общества в целом. Тот же вопрос законодательной регуляции. Ведь законны не существуют сами по себе, они должны удовлетворять текущие запросы общества, регулировать современные (а не те, что были 30 лет назад) общественные отношения. Или обслуживать правящий класс (если вспомнить, чему нас учили в СССР). Поэтому от общества (или его действующей части) зависит, в каком направлении пойдет (или останется таким, каким есть) законодательное регулирование.
              Или геополитика. Действительно, при чем здесь медицина? Но вот комментарий ниже говорит, что угроза обязательно есть. То есть ответ зависит от совсем немедицинского факта считает ли общество, что находится в «осажденной крепости». Хотя, с другой стороны, здоровье населения тоже вполне может быть геополитическим фактором.
              Из проблем мог бы добавить следующие.
              1. Очень распространенная компьютерная дремучесть медработников.
              2. Из-за слабой профессиональной подготовки частое бездумное принятие на веру выводов, сделанных компьютерной программой. Из-за неуверенности в собственных знаниях врачи принимают «мнение» компьютера, даже если обоснованно подозревают, что он ошибается. Сюда же относится «возможность» проводить, например, исследование врачом, который практически абсолютно не понимает принципа исследования, механизмов и логики получения результата. Программа генерирует заключение, надо его только подписать. Иногда это работает, чаще пока нет (в смысле правильности выводов).
              3. Внедрение ИИ (и вообще любых ИТ) в медицине должно проводиться по результатам таких же исследований, как и лекарств. То есть в идеале двойное слепое многоцентровое исследование должно показать, что использование ИИ имеет преимущество. Пока до этого не дошли. Это, как и в случае с лекарствами, не гарантирует полностью от ошибок, но значительно снижает их количество.
              4. Модность технологии делает ее привлекательной для желающих «попилить» бюджет. К этому добавляется проблема невоспроизводимости, которая чрезвычайно остро стоит именно в области машинного обучения. При чем не только у нас, где наука высасывается из пальца, глядя на потолок еще со времен СССР, но и во всем мире. Поэтому очень важен пункт 3.
          0
          Прочитал все 3 части.
          По 8 пункту этой статьи проблема не в угрозе что, кто-то воспользуется объединенными базами, а проблема и угроза как раз в том что воспользуются обязательно для своих политических целей и как показывает история можно даже составить список кто из стран обязательно воспользуется.

          Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

          Самое читаемое