Комментарии 9
Интересная статья. Плюсую за подход, обучения только на "здоровых" снимках. В связи с чем вопрос. Если в датасете при обучении были только здоровые, то были ли случаи ложнобольных заключений, ошибок второго рода?
Учитывая то, насколько возросли возможности анализа изображений с развитием средств машинного обучения, вызывает недоумение, что эти технологии ещё не получили широкого распространения в сфере медицины. Или всё-таки получили? Интересно было бы прочитать мнение практикующих врачей-диагностов.
Врачи диагносты, да и все врачи, в возрасте крайне консервативны, но молодое поколение активно пытается пользоваться всеми благами. Полноценное внедрение пока сталкивается с этико-юридическими проблемами
Полноценное внедрение пока сталкивается с этико-юридическими проблемами
То есть с ограничениями на доступ к данным для обучения? Но ведь в электронном виде сейчас обрабатывается гораздо более секретная информация, чем персональные данные пациентов. И методы анонимизации исходных данных тоже разработаны. Получается, что «вижу цель, не вижу препятствий», а результата всё равно пока что нет?
Да, ограничения на доступ к данным присутствуют. Это миф, что данные легко взять, особенно персональные, пусть и анонимизированные — это общемировая практика. Результаты тоже есть — модели становятся лучше, они тестируются в больницах, но пока, конечно, никаких самостоятельных решений не принимают.
Главный вопрос — кто будет нести юридическую ответственность за диагнозы и исходы и насколько этично полагаться только на ИИ?


«Ты не пройдёшь!»: как мы учили нейросеть искать патологии на КТ, обучая её только на норме. Наш опыт на ЛЦТ-2025