Comments 10
Это Новая маска БотХаб?
То ли моя память глючит, то ли "народная". Когда-то, ещё в прошлом десятилетии, обсуждался фармацевтический ИИ, который перебирал химические формулы и ненароком открыл несколько сверхсмертельных ядов. И тут якобы социально ответственные учёные якобы эти исследования свернули...
Что это было? И почему никто не вспоминает?
Я спрашивал DeepSeek и ChatGPT о возможном диагнозе, описав ему симптомы и загрузив в него результаты анализов и обследований (прямо в PDF). И тот и другой все очень даже по делу написали. И дали совет, что еще проверить и какие анализы сдать для уточнения диагноза. Было бы очень здорово в АРМы врачей, где уже и так есть электронные карты и все жалобы пациента, анализы и т.п. в электронном виде и под рукой, встроить одну большую кнопку "Посоветоваться с АИ". Врачу никаких дополнительных хлопот, а на умную мысль натолкнуть его нейросеть может.
Только вот, если АИ взглюкнет, и наравит врача на ложный путь - вы кому потом претензии предъявите? Гроку или Дипсику? А перепроверять за ИИ - дольше, чем самому подумать. И если все время спрашивать кого-то умнее - своя думалка атрофируется. Это я как врач 15-летней выдержки говорю.
Есть несколько мест, где можно поручить ИИ помощь: анализ изображений и поиск по справочникам/литературе. И то, с очень строгим контролем. Поищите, к примеру, проект МосМед.ИИ
Представьте, что в обучающую выборку попали данные из научно-фантастического рассказа, или статья дипломированного антипрививочника.
А фантастические АРМы врачей, где все данные есть, и ничего не глючит и не теряется - это пока как раз из раздела НФ.
Наверное, тогда нужно и справочниками запретить пользоваться. А то вдруг у врача память атрофируется или, не дай бог, опечатка, или прочитает что-то лишнее, что направит его на ложный путь. Хороший врач тем и отличается от плохого, что и справочник, и ИИ - это для него всего лишь инструменты со своими функциями и ограничениями. И никакой инструмент не сделает плохого врача хорошим и наоборот.
Разумеется, ответственность остается за врачом. Рекомендация от ИИ - это всего лишь еще один инструмент, которым пользоваться нужно с умом. Да, при неправильном использовании инструмент может навредить, это так. Ну, давайте тогда запретим продажу болгарок, ведь ей куда легче палец отхватить, чем ножовкой.
И да, инструмент должен быть приемлемого качества для его широкого внедрения, это касается в том числе и выборки данных для обучения ИИ.
На платформе Reddit пользователь рассказал, как нейросеть от OpenAI помогла ему избежать серьёзных последствий для здоровья.
Парень пил кофе и работал до ночи. В какой-то момент он почувствовал давление в груди и из любопытства решил задать ChatGPT вопрос, что это может быть.
Нейросеть задала уточняющие вопросы, проанализировала, предупредила мужчину о возможных проблемах с сердцем и посоветовала обратиться к врачу. Мужчина отправился в неотложку и узнал, что у него сердечный приступ, который находится на начальной стадии.
Медики оперативно оказали помощь и сообщили, что промедление могло привести к тяжёлым последствиям. По их словам, если бы пациент приехал позже, его состояние могло стать критическим.
Сейчас у меня немного подгорело. Объясняю. Есть исследования, показывающие, что жалобы женщин чаще игнорируются, что приводит к промедлениям в оказании помощи. Итак, в этой истории парень приехал в неотложку, рассказал что-то вроде "мне плохо, нейросеть сказала, что возможно с сердцем что-то", над ним не стали шутить, успокаивать, советовать "просто отдохнуть", ему оказали помощь и все у человека хорошо.
А теперь сравним это с историй Серены Уильямс, которая безо всяких нейросеток знала особенности своего здоровья, особенности протекания беременности и родов, вовремя распознала симптомы ТЭЛА, начала просить помощи и сначала ее не восприняли всерьез. Человек с мутациями, влияющими на систему гемостаза, во время беременности преэклампсия, роды оперативные, терапия для разжижения крови не скорректирована после родов, риски ТЭЛА высочайшие, но нет, зачем воспринимать жалобы всерьез. Она чуть не умерла, хотя является звездой спорта и просто очень, очень богатой женщиной.
В связи с этим два вопроса. 1) если нейросети обучаются на полученном от людей материале, то не станут ли так же предвзяты к пациентам, как люди 2) можно ли с помощью ии-помощников бороться с существующей проблемой предвзятости к пациентам
А есть исследования, показывающие общее количество жалоб мужчин и женщин? Ну, и относительное количество проигнорированных от общего числа по полам?
Да, есть. По пабмеду по запросу "medical negligence woman" много ответов, так сходу можно такой обзор темы посмотреть (это именно обзор, исследования конечно стоит смотреть отдельно)
Очень яркий пример. Несколько лет назад девочка погибла от заворота кишок. Ее объявили истеричкой, вкололи обезболивающее (на острый живот! До выяснения причины!) и выпроводили. А можно было спасти своевременной операцией...
У женщин чаще игнорируют жалобы и отказывают в проведении анестезии. Известнейший мем "а как же ты тогда рожать будешь" (о, сколько раз лично мне предлагали вынести лечение зуба наживую именно с этим аргументом). Кроме того, "пациент по умолчанию" это мужчина, а симптомы заболеваний могут отличаться для мужчин и женщин. Т.о. если обучать на тех данных, которые есть у медицины сегодня, без проверки на половые различия, точность постановки диагноза у женщин будет ниже.
Есть ещё исследования, что предвзятость также чаще испытывают цветные и бедные. Так что разгребать в этом плане надо очень многое.
PS поменяла первую ссылку на более интересный обзор с бОльшим количеством ссылок
А может дело не в предвзятости, а в том, что женщины банально жалуются чаще и совсем не всегда жалоба обоснована. Мужчины же не ходят в врачу до конца и если уж пришел, то тут явно пора уже неотложку вызывать. Есть такие исследования?Единичные примеры не являются доказательствами ничего, нам не известна история предыдущих взаимоотношений Вильямс с данным врачом и мужчинам вполне предлагают лечение без анестезии.
Врачи, в принципе, циничны и всем известно, что к старикам скорая поедет сначала чаю попив, а к молодым сорвутся с места, предвзятость тут не при чем.
Я понимаю, к чему вы клоните. Но, во-первых, исследования по теме есть, и они в основном говорят о том, что дело не в избыточных жалобах. Во-вторых, даже если предположить, что некоторая предвзятость оправдана, то все равно в рассматриваемых двух случаях на одной чаше весов была небольшая экономия, а на второй чаше весов – предотвратимая смерть.
Что касается скорой – так там не чай пьют, там при ограниченном количестве ресурсов включается сортировка ака триаж. Высший приоритет беременность/роды, дети, потом "обычные люди" в зависимости от симптомов, на острый живот приедут раньше, чем на температуру 37.
Посмотрите историю Земмельвейса. Он и статистические данные анализировал, и добился снижения смертности после введения правил по поддержанию гигиены. Но все равно по инерции многим было проще считать, что дело в самих женщинах. И это абсолютно понятно – срабатывают защитные механизмы психики. Ведь если дело в самих пациентах, то ну кто же виноват, это судьба, фатум, "мы не могли знать заранее". Осознание, что определенные смерти являлись предотвратимыми, но всё-таки произошли, достаточно болезненно. Другой знаменитый акушер, Михаэлис, не выдержал груза вины, которую ощущал. Но у ИИ нет груза вины за то, что не успел сделать выводы раньше, это не человек. Вопрос в том, можно ли удалить из данных, используемых для обучения, предвзятость, созданную людьми.
ИИ в медицине: назначает диагнозы и спасает жизни