Как стать автором
Поиск
Написать публикацию
Обновить

Комментарии 12

Исследование уже устарело (по ИИ вообще все устаревает уже через месяц - "статья ещё в журнал не отправлена, а результаты уже устарели"). По моим наблюдениям сейчас ИИ (топовые модели - chatgpt и Antropic, deepseek тоже неплох) уже превосходит врачей терапевтов на уровне высокопрофессиональных специалистов в дифдиагностике и назначении лечения. Хирургические операции ещё только что не умеют делать (думаю это тоже дело времени, но возможно 25-50 лет ещё есть в запасе) и с интерпретацией визуальных исследований слабы (визуальные данные по МРТ, КТ, ЭКГ и ЭЭГ ещё не могут, хотя -посмотрим как будет через 1-2 года, скорее всего уже будут справляться). И в отличие от ИТ специалистов разных профилей которые в голос утверждают, что их никогда не заменит "стохастический попугай" (LLM, "T9 на стероидах" и прочее) я не питаю иллюзий в отношении медицины - нас врачей заменят рано или поздно. Так что будущее - фельдшеры посредники с навыками медицинских манипуляций и терминалы в поликлинниках, как автоматические кассы в супермаркетах. Врачи безусловно останутся, но само лицо профессии сильно изменится, очень сильно.

Превзойти терапевта "Больничный на неделю, список фуфломицинов проппаченных, диагноз ОРВИ, Следующий" может даже простой скрипт.

Насчёт фуфломицинов - попробуйте LLM оценить лечение с фуфломицинами - получите отзыв, что действие этих лекарств не доказано и рекомендацию исключить их из назначений, с учётом клинических рекомендаций

Исследование уже устарело

По моим наблюдениям

Мощный вывод

В чем же ? "Исследование охватывало различные модели генеративного ИИ, такие как GPT-4, Llama3 70B, Gemini 1.5 Pro и Claude 3 Sonnet" - этo модели прошлого года, реально ошибались и галюцинировали, если сравнивать с chatgpt o3 или claude 3.5, 3.7 sonnet (3 sonnet вообще была очень слабой, в сравнении с opus). Сравнивать их с текущими моделями просто некорректно, тем более с нового года они чуть ли не раз в месяц обновляются.

Тоже как врач из Европы напишу. Если LLM'ы разгрузят врачей от тупой рутины - документирование, диффдиагностика, раскапывание фактов из истории болезни, поиск вариантов лечения, всё станет только лучше. У нас в этом направлении всё двигается, очень много задач переложено на медсестру. Продление рецептов, сбор первичного анамнеза, назначение первичного лечения и т.д... Если медсестре LLM будет подспорьем - это отлично. Но я вот работаю в приёмном покое, а до этого учился на ортопедического хирурга. И вот там, нет, никого не заменят. Потому что помимо диагностики и работы с текстом, надо уметь ручками много смотреть и много делать. Сложной диагностики, а-ля доктор Хаус, у нас в общем-то не так и много (да и вообще в целом в медицине), обычно по анализам/КТ/УЗИ уже с 95% точностью можно сказать что не так. А вот взаимодействия с пациентом никто не отменял.

Как известно - вероятность появления диплодока на улице равна 50%. Или появится, или не появится.

Я бы поглядела, как ИИ на приеме пытается выяснить у бабки, насколько реальны те или иные симптомы, что из препаратов ей действительно назначено, а что усопший муж пришел во сне советовать (я не утрирую), и пусть еще попробует отреагировать на бесконечные попытки полечиться мочой

... у медицинских специалистов точность диагностики на 15,8% выше, чем у ИИ. Средняя точность диагностики генеративного ИИ составила 52,1%

Я правильно понял, что генеративный ИИ ошибается примерно в каждом втором случае, а медицинский специалист - в каждом третьем?

Главное 5 раз сказать спасибо и извините, на это ИИ не поскупится

Точность диагностики у текущих топовых моделей на ситуационных клинических задачах примерно 88-95%. Я думаю у большинства врачей меньше

Важность диагностики переоценена.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости