Pull to refresh

Comments 8

Сейчас играюсь с LLM на своем 4090 и сторонних сервисах. Опасная штука для мед. применений. Опасность вижу в том, что результат выдает очень правдоподобный, но при внимательном чтении обнаруживаются ключевые ошибки. Но на поверхностный взгляд, всё выглядит очень правдоподобно.

Нейросеть хороша для исследователя, а если же врача (с очередью из пациентов) за такой сервис диагностики посадить, то... думаю, со временем он обленится и без вдумчивых перепроверок (а для этого еще высокая компетенция нужна) будет полностью полагаться на выводы машины, да и безопасней для него это будет в правовой плоскости (можно все стрелки на машину перевести).

Наоборот. Если врача за такой диагноз посадить, то другие врачи начнут автогенерируемые диагнозы хотя бы читать.

Тут очень многое зависит от конкретной реализации. Если опытного специалиста посадить перепроверять данные ИИ, и сделать так, чтобы возможные участки с патологией подсвечивались неким маркером, то, учитывая высокую точность алгоритмов ИИ, человек обленится, и будет реагировать не на признаки заболевания, а на маркер, проставленный ИИ. А уж если квалификация врача недостаточна.... Поэтому нужно продумывать специальные механики, юзер кейсы, оторые не приведут к формированию у специалиста зашоренного взгляда. Скажет так: Человек загружает снимок в ПО ИИ, и отмечает его как чистый. Если алгоритм что то на снимке нашел, то человеку показывается, эй, а как же этот участок? И на оборот, если человек, что то нашел, он отмечает снимок, как снимок с патологией, а ИИ уже выдает свой результат. То есть не человек, проверяет ИИ, а ИИ проверяет человека, это контр интуитивно, но более эффективно, особенно, если добавить немного денежной составляющей, скажем базовая премия, которая уменьшается в зависимости от количества не найденных паталогий. Если же мнения врача и ИИ разнятся, необходимо автоматически показывать этот снимок другому врачу.

Еще в статье приведены результаты сравнения эффективности ИИ и человека. Очень интересно было бы взглянуть каков процент совместной работы человека и ИИ? Сколько процентов патологий смог бы выявить такой тандем?

Если врача кошмарить отщипываниями от премии, то он не о пациентах будет думать, а о сохранении премии. Как договориться с другими врачами, как саботировать проверки ИИ, и т.п. Обучение с положительным подкреплением всяко лучше.

"А скоро уже ничего не будет кроме телевидения..." Вернее ИИ. И будет кругом одно сплошное ИИ. Господа, эта статья, как и многие, в очередной раз ставит вопрос ребром - ИИ лучше и точнее человека. Хотелось бы напомнить, что плохой посыл изначально. И цель его не в продвижении технологии ИИ. А в том, чтобы принизить и унизить роль человека и специалиста. Кстати, данные то для ИИ размечали те самые доктора, которые потом не могут, согласно этой статьи, найти рак на снимках.

Конечно машина без эмоций и усталости, конечно может трудиться круглые сутки без выходных. Чего не сказать о человеке. Но мы пока что не видим той самой панацеи. Где те самые лекарства, которые подняли. нет, не уложили в койку 700 тысяч пациентов? Такое не заметить невозможно. Под ковид отменили годы исследований и подтверждений от начала разработки до вывода на рынок лекарств. Но! Результаты мы не видим. Люди все так же болеют и умирают. И "чудо-таблетки" и применение ИИ не помогает.

В статье хотелось бы видеть не только восторженные охи и ахи по поводу технологий. Но хоть немного критичного взгляда. Немного ограничений технологии и недостатки так же имеются. Про юридическую и этическую сторону применения ИИ в медицине вообще не слова. Об ответственности разработчиков таких систем. Не врачей. А тех, кто медицине не имеет отношения но влез туда. А то, часто слышно, что нужно наказать врача.

В таких статьях отсутствует процесс консилиума. Который есть в медицине. Или второе мнение... Что-то ИИ привнесло в медицину не то. Не доказав свою эффективность. Надеюсь воспримите критику не как противодействие. а как желание разобраться в технологиях, которые уже применяют.

Все это пока бравурные реляции, практика вот такова, как сообщает КоммерсантЪ: "Росздравнадзор приостановил применение получившей регистрационное удостоверение в 2020 году Botkin.AI — системы для анализа снимков компьютерной томографии с использованием ИИ — «в связи с угрозой причинения вреда жизни и здоровью граждан»" .

Ситуация неприятная, ведь это то самое ПО для КТ которое помогло лихо диагностировать поражение легких при SARS-C0V-2. Поторопились с внедрением. Суть в том, что клинические испытания вроде как для программного обеспечения не требуются, однако в медицине всегда требуется контроль качества выполняемых процедур и он тщательно проводится. Пример с Botkin.AI, показателен тем что врач на КТ диагностике выполняя свою работу вынужден был перепроверять работу ИИ-анализатора, врача от рутины не только не освободили, но еще и нагрузили.

Надо законодательно уровнять ИИ с другими медицинским инструментами. Вот чтобы не было даже попыток использовать ИИ как критерий истины. Выбор диагностического инструмента - это осознанный выбор врача. Может и не пользоваться ничем, если уверен в диагнозе.

Одна из самых больших проблем это первичный прием пациентов и как раз здесь мне кажется первый шаг для внедрения ИИ

Sign up to leave a comment.