Исследователи предупредили о новой уязвимости в медицинском ИИ: сгенерированные нейросетями рентгеновские снимки уже достаточно реалистичны, чтобы вводить в заблуждение не только людей, но и сами AI-системы. В исследовании, опубликованном в журнале Radiology, 17 радиологов из 12 больниц в шести странах оценивали 264 снимка, половина из которых была синтетической. Когда врачи не знали, что среди изображений есть подделки, они правильно распознавали их только в 41% случаев. После предупреждения точность выросла до 75%.

Отдельно проверили и большие языковые модели. GPT-4o, GPT-5, Gemini 2.5 Pro и Llama 4 Maverick показывали точность распознавания фейковых снимков в диапазоне от 57% до 85%. Причем GPT-4o, которая сама использовалась для генерации части таких изображений, тоже не смогла распознать их все.

Другие новости и материалы по AI — в Telegram-канале NH | Новости технологий, AI и будущее.

Авторы исследования считают, что риск здесь уже не теоретический. Речь идет не только о возможных ошибках диагностики, но и о более неприятных сценариях: например, о подделке медицинских данных для судебных споров или о внедрении синтетических снимков в инфраструктуру больницы после взлома. Если цифровой медкарте перестают доверять, последствия могут быть намного шире одной ошибочной записи.

В качестве одной из возможных мер защиты исследователи предлагают заранее готовить инструменты верификации, включая невидимые водяные знаки и отдельные датасеты для обучения систем распознавания медицинских deepfake-изображений. По их оценке, рентген — это, возможно, только начало, а дальше та же проблема может перейти на КТ и МРТ.


Источник

В канале NH | Новости технологий, AI и будущее публикуем новости AI, полезные сервисы, автоматизацию и материалы о практическом применении нейросетей. Если нужна зарубежная карта для оплаты сервисов, отдельный разбор можно почитать здесь.