Search
Write a publication
Pull to refresh

Comments 31

Что более говорит об уровне врачей, чем об уровне чат бота.

отчасти с вами соглашусь, но зачастую диагноз врача опирается еще и на его опыт + не забывайте, что нейронки видят паттерны на которые люди либо не могут увидеть либо не обращают на них внимание. К тому же я сомневаюсь, что в исследовании принимали участие врачи недавно закончившие университет.

Нормальный врач, а не заполнятель истории болезни, помимо того что слушает жалобы пациента, но и задает вопросы, пациента надо еще уметь опросить, так как часть симптомов и событий он может умолчать, часть преувеличить, ну и как говорил доктор Хаус - "Все врут".

И вы уверены что ИИ в принципе нельзя научить вести себя так же?

В принципе возможно такое или нет - не известно. Но нынешнему ии до такого еще далеко.

Не знаю насчёт этого исследования, но ранее было другое, где как раз всё это и учитывалось. Создавалась как бы модель пациента и больницы и проводилась имитация опроса пациента, включая всякие его искажения, также учитывались возможные искажения при проведении обследований и нейросети очень неплохо себя показали тоже.

Но других врачей нет и новые вряд ли будут лучше.

Там медианный опыт работы 3 года. Так что - другие есть. И будут лучше. Со временем.

Не надо сакрализировать работу врача. Диагностика это именно поиск подходящего шаблона в имеющихся данных о пациенте (''на что похож этот набор симптомов"). А поиск шаблонов в массиве данных как раз прямая задача для алгоритмов ML.

Во времена, когда возлагались надежды на экспертные системы, проводились специальные исследования процесса постановки диагноза врачом и было показано, что в большинстве случаев врач ставит диагноз на основе нескольких вопросов в первые 10 минут общения с пациентом, а потом только подтверждает его исследованиями и анализами.

Другое дело, что правильно формализовать все диагностические признаки может быть непросто.

а это общая характеристика человеков- поступающая информация используется для подкрепления имеющейся точки зрения, а информация, ей противоречащая- отметается или критикуется, как недоказанная. Поэтому гипотеза, родившаяся в первые 10 минут чтения истории болезни- с большой вероятностью затем будет только доказываться, а ее опровержения будут игнорироваться.

Немного посложнее - внешний вид, привычки, не акцентируемые самим пациентом могут иметь значение, а врач еще условно и глазами видит и ушами слышит и запах пациента тоже улавливает и с колегами ведущими этого пациента общается и текущую картину болезней по городу/району/детским садам в голове держит и много много чего еще.

Вообще работа оператора очень часто сильно недооценена, это я как автоматизатор операторской работы говорю. Даже повторение казалось бы простых и даже элементарных действий зачастую требуют подключения очень нетривиальных поведенческих сценариев. А уж сбор анамнеза выглядит посложнее автоматизации конвеерных действий с железкой.

"Другое дело, что правильно формализовать все диагностические признаки может быть непросто." ))

Бледность, (не)уверенность походки, какое-нибудь дрожание рук... Согласен, врач может считывать это даже не отдавая себе отчета. Тут можно пофантазировать, что при современной постановке печатного дела развитии технологий можно подавать ИИ прямо видео пациента с HD-камеры.

"Другое дело, что правильно формализовать все диагностические признаки может быть непросто." )) - вот тут может быть передача всей сложности решения с постановки диагноза, на формализацию, согласен с Вами.

Т.е. при исчерпывающей информации постановка диагноза - плевое дело. Но формализация становится бесконечно сложной вещью и конечный результат в итоге не меняется.

Другой вопрос что нам вроде и не нужна математическая точность. И тут если ИИ определяет что в приемлемых 95,4% случаях ему для постановки диагноза хватает уже собраннх данных, то и дальнейший сбор можно не проводить. Т.е. если он видит человека без головы, то дальше особо можно температуру не мерять.

А вот грипозников разных он бы в пиковые дни в поликлиниках отсеивал бы, предположительно, приемлемо (только гипотеза), освобождая персонал для более сложных случаев.

Особенность машины и нейронных сетей в том, что они не ограничены количеством точек фокусировки и не ограничены поиском разумных/известных корреляций. Нейронки ищут ЛЮБЫЕ устойчивые корреляции, в любом количестве и могут присуммировать даже то, какими словами пациент описывает своё состояние. Даже если врачей научить чему-то типа «англоговорящий пациент с таким-то диагнозом использует слово X на 12% чаще в описании, чем люди со схожим диагнозом», врачам будет крайне сложно вычленить такую особенность речи.

То что калькулятор считает быстрее человека, не говорит о том, что человеки в целом тупее калькулятора, а лишь о том, что в нашей эволюции не встречались долговременные условия среды для возникновения механизма быстрого математического счёта.

Я так понимаю, текст истории болезни всё же составляли живые врачи. Более ярким был бы результат работы ChatGPT непосредственно с жалобами пациентов.

Зафиксировать симптомы не такая большая сложность, с таким опросом справится даже посредственный врач. А вот правильно поставить диагноз и правильно назначить лечение - тут часто ошибаются даже опытные врачи. Поэтому даже если ИИ нужен будет "переводчик" - это все равно обнадеживающий прорыв.

Посредственный врач и симптомы-то все может не узнать, потому что пациент ему о них не расскажет. Откуда пациенту знать, что его "коленка на погоду ноет" это симптом

Это я как пациент говорю, привык чётко отвечать на вопросы врача, и не жаловаться особо на "всякую мелкую ерунду", пока в кабинете врача не узнал что это всё были симптомы

думаю, вопрос использования ИИ упрётся, как всегда в медицине, в вопрос об ответственности: кто будет отвечать за неверный диагноз? Если врачи будут использовать ИИ, а он ошибётся, можно ли будет регресом подавать в суд на программистов поставщика ИИ? Будут ли страховщики страховать эти случаи?

напоминает беспилотные авто

Если вам сейчас в клинике поставили неверный диагноз из-за ошибки в анализах, то вы будете разбираться с клиникой или с поставщиком оборудования для анализа?

Что принципиально изменится если диагноз будет неправильным из-за ошибки ИИ, который использует эта клиника?

Так врачи работают по таким же алгоритмам.

Есть рекомендации Минздрава, которые почему-то назвали рекомендациями, хотя это скорее свод правил. Врачи их обязаны соблюдать, если отходить от них, то считается что оказывают некачественную услугу. Могут погрозить пальчиком врачу.

Там для каждой болезни есть список исследований по приоритету, которые нужно сделать чтобы подтвердить диагноз. Если врач предполагает что у вас что-то, то он просто идет по этому списку, с учетом возможностей поликлиники/больницы итд.

Если ничего не сходиться по исследованиям, а у вас идет и идет понос уже месяцами, то всегда есть такие диагнозы как СРК. Мол все неопределенно и не ясно, как лечить тоже толком не ясно. Живите дальше. Вот и все.

Если врач действовал по рекомендациям Минздрава, то никакой ответственности у него никогда не будет.

Ответственным будет тот, кто получил деньги за оказание услуги "постановка диагноза", согласно подписанным договорам на оказание услуги и документам государственного регулирования предосатвления таковых услуг. А дальше он хоть на врача перекладывает, хоть на chatGPT, хоть на кофейную гущу - это сугубо его риски. И риски при использовании ИИ для ответственного могут быть даже меньше и даже страховые премии могут быть меньше (то, что врача посадят это не значит что страховая свои убытки возместит в итоге), и именно уменьшение страховых премий может подтолкнуть к использованию ИИ именно страховыми компаниями. Как ни странно это бы не звучало.

В США это нормальная практика. Даже у того же Марк Твена в его воспоминаниях как он работал лоцманом это описывается. Там профсоюз победил благодаря страховым компаниям. Лоцманы профсоюза были лучше благодаря профсоюзной базе данных и экзаменам. От чего с ними случалось меньше катастроф. От чего страховые брали меньшую ставку за суда с ними чем без них. От чего даже в разы большие зарплаты профсоюзных отбивались с большой лихвой просто на страховых взносах.

ChatGPT мне на днях говорил, что Плутон больше Земли, до этого в коде тоже писал сомнительные вещи, а вы про диагнозы говорите

А как же "чувствительные" медицинские данные? Пишут, что врачи "не догадались" загрузить историю болезни в бота. Значит их не обучали корректному использованию, обезличиванию. Вряд ли безопасно просто брать и сливать истории болезни в онлайн-инструмент.

ничего страшного, что гпт в моменте начинает врать и придумывать того, чего нет, но даже дает на это выдуманные ссылки.

товарищи- зрите в корень... читаем в оригинале : "в рандомном триале все это не подтвердилось..." кто заказчик статьи - Гордон и Бетти Мур фондайшн. Эти " интелловские" ребята давно занимаются "натягиванием сов на глобусы" для продвижения различных "ультра новых технологий " в медицину, зачастую это чистый хайп даже без рационального зерна...

Оригинал я, конечно же, читать не буду, а из перевода-выжимки непонятно примерно ничего. 6 историй болезни на основе данных 105 пациентов? Это как? И о каких 74 или 76 процентах можно говорить на шести примерах?

Кто-то знает хороший сервис ИИ на русском, который ставит диагнозы? Я нашел только Склифосовского. Но он достаточно простенький, растает в диалоговом режиме, и сильно-сильно отправляет к врачам по итогу. Понятно, что к врачам все равно идти, но хотелось бы сервис реально прямо по истории болезни, чтобы при общении с врачом было «облако диагнозов», которое и отсудить с врачем впоследствии.

на 25 января 2025 г по диф. диагностике (в том числе обсуждение "облако диагнозов"), интерпретации анализов №1: claude 3.5 sonnet №2: deepseek v3 (R1) №3: chatgpt o1

А как вообще определяли точность диагнозов? Кто проверял?

UFO landed and left these words here
Sign up to leave a comment.

Other news