Comments 8
Сейчас играюсь с LLM на своем 4090 и сторонних сервисах. Опасная штука для мед. применений. Опасность вижу в том, что результат выдает очень правдоподобный, но при внимательном чтении обнаруживаются ключевые ошибки. Но на поверхностный взгляд, всё выглядит очень правдоподобно.
Нейросеть хороша для исследователя, а если же врача (с очередью из пациентов) за такой сервис диагностики посадить, то... думаю, со временем он обленится и без вдумчивых перепроверок (а для этого еще высокая компетенция нужна) будет полностью полагаться на выводы машины, да и безопасней для него это будет в правовой плоскости (можно все стрелки на машину перевести).
Тут очень многое зависит от конкретной реализации. Если опытного специалиста посадить перепроверять данные ИИ, и сделать так, чтобы возможные участки с патологией подсвечивались неким маркером, то, учитывая высокую точность алгоритмов ИИ, человек обленится, и будет реагировать не на признаки заболевания, а на маркер, проставленный ИИ. А уж если квалификация врача недостаточна.... Поэтому нужно продумывать специальные механики, юзер кейсы, оторые не приведут к формированию у специалиста зашоренного взгляда. Скажет так: Человек загружает снимок в ПО ИИ, и отмечает его как чистый. Если алгоритм что то на снимке нашел, то человеку показывается, эй, а как же этот участок? И на оборот, если человек, что то нашел, он отмечает снимок, как снимок с патологией, а ИИ уже выдает свой результат. То есть не человек, проверяет ИИ, а ИИ проверяет человека, это контр интуитивно, но более эффективно, особенно, если добавить немного денежной составляющей, скажем базовая премия, которая уменьшается в зависимости от количества не найденных паталогий. Если же мнения врача и ИИ разнятся, необходимо автоматически показывать этот снимок другому врачу.
Еще в статье приведены результаты сравнения эффективности ИИ и человека. Очень интересно было бы взглянуть каков процент совместной работы человека и ИИ? Сколько процентов патологий смог бы выявить такой тандем?
"А скоро уже ничего не будет кроме телевидения..." Вернее ИИ. И будет кругом одно сплошное ИИ. Господа, эта статья, как и многие, в очередной раз ставит вопрос ребром - ИИ лучше и точнее человека. Хотелось бы напомнить, что плохой посыл изначально. И цель его не в продвижении технологии ИИ. А в том, чтобы принизить и унизить роль человека и специалиста. Кстати, данные то для ИИ размечали те самые доктора, которые потом не могут, согласно этой статьи, найти рак на снимках.
Конечно машина без эмоций и усталости, конечно может трудиться круглые сутки без выходных. Чего не сказать о человеке. Но мы пока что не видим той самой панацеи. Где те самые лекарства, которые подняли. нет, не уложили в койку 700 тысяч пациентов? Такое не заметить невозможно. Под ковид отменили годы исследований и подтверждений от начала разработки до вывода на рынок лекарств. Но! Результаты мы не видим. Люди все так же болеют и умирают. И "чудо-таблетки" и применение ИИ не помогает.
В статье хотелось бы видеть не только восторженные охи и ахи по поводу технологий. Но хоть немного критичного взгляда. Немного ограничений технологии и недостатки так же имеются. Про юридическую и этическую сторону применения ИИ в медицине вообще не слова. Об ответственности разработчиков таких систем. Не врачей. А тех, кто медицине не имеет отношения но влез туда. А то, часто слышно, что нужно наказать врача.
В таких статьях отсутствует процесс консилиума. Который есть в медицине. Или второе мнение... Что-то ИИ привнесло в медицину не то. Не доказав свою эффективность. Надеюсь воспримите критику не как противодействие. а как желание разобраться в технологиях, которые уже применяют.
Все это пока бравурные реляции, практика вот такова, как сообщает КоммерсантЪ: "Росздравнадзор приостановил применение получившей регистрационное удостоверение в 2020 году Botkin.AI — системы для анализа снимков компьютерной томографии с использованием ИИ — «в связи с угрозой причинения вреда жизни и здоровью граждан»" .
Ситуация неприятная, ведь это то самое ПО для КТ которое помогло лихо диагностировать поражение легких при SARS-C0V-2. Поторопились с внедрением. Суть в том, что клинические испытания вроде как для программного обеспечения не требуются, однако в медицине всегда требуется контроль качества выполняемых процедур и он тщательно проводится. Пример с Botkin.AI, показателен тем что врач на КТ диагностике выполняя свою работу вынужден был перепроверять работу ИИ-анализатора, врача от рутины не только не освободили, но еще и нагрузили.
Одна из самых больших проблем это первичный прием пациентов и как раз здесь мне кажется первый шаг для внедрения ИИ
Эксперт в мИИдицине: как искусственный интеллект меняет здравоохранение