Комментарии 5
разработка и использование генеративных нейронных сетей для создания обучающих данных
Я всегда внутренне считал, что число ошибок на выходе нейросети больше, чем число ошибок на входе. Думаю ни для кого не секрет, что в обучающем наборе есть какой-то процент ошибок. Чем больше ошибок на входе (на тренировке), тем хуже точность обученной нейросети (да, есть способы уменьшить ошибку на зашумленных данных, но точность все равно ниже). А тут мы прям генерируем непонятно как. Есть такое понятие "аугментация", но там все-таки предпочитают контролируемые способы генерации (хотя GAN тоже используют). https://habr.com/ru/companies/magnus-tech/articles/850070/
В мире накоплены миллионы и миллиарды медицинских изображений. Разве это не дичь, что для обучения медицинского диагностического ИИ выдумываются изображения? Ведь этим можно внести систематическую ошибку.
Напоминает англоязычный анекдот про монаха, который всю жизнь переписывал библию с ранее переписанного экземпляра, а потом пошёл в дальнее хранилище, нашёл исходный оригинал и бьётся головой об стену: "celebrate! celebrate!" ("празднуй" - вместо "celibate" - обет безбрачия)
Изображений много, но как их получить? Никто не станет шарить такие картинки, даже обезличенные, чтобы к нему потом не пришли строем вымогатели-правозащитники, и не налетела GDPR-инквизиция.
Я бы боялся, что вместо результатов реальных анализов получу сгенерированный. Если так всё хорошо моделируется, то оптимизация несомненно придёт в мед.центры. Зачем? - я не знаю, но если будет дешевле, то значит будет.
Как мы выиграли соревнование CLEF 2024 по генерации медицинских снимков