Comments 15
Интересно, а как будут разбирать кейс в случае врачебной ошибки (неправильной интерпретации)? т.е. как будет происходить аргументация со стороны ИИ о принятом решении.
Какое-то странное исследование британских учёных. Ну, скажите на милость, какое значение для этого исследования имеет то, что ИИ у ни успел пройти только 2 теста из 10? Увеличте вычислительную мощность в 5 раз - пройдёт все, задача прохождения 10 независимых тестов отлично распараллеливается. Если бы они сделали акцент на оборудовании, на котором работал ИИ - например, топовый iPhone, или какой-нибудь средний потребительский комп - это было бы хоть понятно - чтобы разобраться, имеет ли это уже практический или пока чисто теоретический смысл.
Этот момент в исследовании выглядит профанацией, что заставляет задуматься и о качестве остального.
Ну помимо очевидного, что ИИ можно дообучить, и он сначала станет на уровне стажеров, потом на уровне опытного врача, подумалось, что главное преимущество ИИ, которое уже в ближайшем будущем сможет изменить подход к диагностике - это, разумеется, скорость обработки данных. Думаю, через несколько лет станет нормой прогнать человека через СКТ-сканер целиком (это всё-таки намного быстрее, чем прогонять через МРТ), и пока пациент одевается - получать полный список всего обнаруженного.
Другое дело что делать с этой информацией. Ведь ИИ допускает ложноположительные и ложноотрицательные ошибки. Хорошо если ИИ что-то нашел, а человек после перепроверки скажет что ничего нет, а если наоборот? Кто вообще в этом случае будет отвечать за результаты?
Я бы сказал важнее не скорость, а масштабируемость.
Мне кажется, это большое заблуждение, что "можно дообучить" или "просто железо надо помощнее".
Железо помощнее просто позволит получить неверный ответ быстрее. А дообучение еще и ухудшит ситуацию. Ибо.
Не смог, - значит это не то, за что себя выдает.
Вообще вопрос: может ли искусственный интеллект создать другой искусственный интеллект?! Ведь мы же не можем ответить с полной уверенностью, был ли интеллект человека создан искусственно или нет?! В любом случае возникает парадокс: один интеллект пытается создать другой! Для чего?! Что мы хотим доказать прежде всего в философском смысле себе, пытаясь создать его?!
Пока что пытаются создать нечто человекоподобное, что можно спутать по поведению с человеком, методом моделирования сенсорных участков мозга и масштабирования модели на его логический аппарат, о котором до сих пор имеется не более чем смутное представление.
А настоящий холодный рациональный ум - это вообще другое.
Когда говорят об ИИ возникновения ощущение ложного именования сущности.
И немного юмора: что-то (человек), неизвестно, имеющее ли интеллект, пытается создать искусственный интеллект. То есть получается каламбур: создать интеллект не имея интеллекта, чтобы заменить интеллект (которого и так нет) на искусственный.
А датасеты для обучения подобным задачам -- открытые? По каким ключевым словам их можно найти, если станет интересно?
ИИ не сдал квалификационный экзамен по радиологии