Для начала два факта:
1. Недавно министр цифрового развития РФ Максут Шадаев сделал заявление на First Russian Data Forum, что как минимум половину государственных чиновников сможет заменить искусственный интеллект. Однако, как пояснил министр, есть сферы, в которых искусственный интеллект не сможет заменить человека. В их числе медицина и образование. Но другой министр – министр здравоохранения Башкирии Айрат Рахматуллин ранее заявил, что искусственный интеллект используется для анализа лучевых исследований в более чем 50 медицинских учреждениях Башкирии. При обнаружении проблемной зоны ИИ её подсвечивает, и врач уже сопоставляет информацию с клинической картиной и результатами обследования. В статье «Искусственный интеллект в медицине» описано 18 только российских систем ИИ, применяемых в диагностике и лечении.
2.Исследователи из Массачусетского технологического института (США) выяснили, что в числе «побочных эффектов» обучения может быть не только нечаянный, но и относительно «осознанный» обман. Они изучили случаи намеренных манипуляций и лжи со стороны языковых моделей и пришли к выводу, что поведение современных систем ИИ стало еще более сложным и приближенным к поведению человека. Соответствующую научную статью опубликовал журнал Patterns. Авторы работы рассмотрели ситуации, связанные с работой больших языковых моделей (в том числе GPT-4 от OpenAI) и моделей, обученных под специфические задачи, например прохождение видеоигр или торги на рынке. Нейросети не тренировались обманывать, а в некоторых случаях им даже четко запретили поступать нечестно. Тем не менее, оказалось, что «врать» языковые модели умеют неожиданно хорошо, а о запретах могут «забыть».
Обдумывание этих фактов:
Таким образом, уже достаточно широко для диагностики заболеваний у живых людей привлекают системы, которые не следуют принципу «не навреди», не давали клятву Гиппократа и вообще не знают, что такое морально-этические принципы поведения врача. Да, ИИ в ряде случаев может выявить патологические состояния на рентгеновских, КТ и МРТ изображениях. Особенно если врач не является высококвалифицированным специалистом (а системы ИИ внедряются в первую очередь там, где не хватает квалифицированных специалистов). Кто в таком случае контролирует правильность диагноза ИИ? Если есть специалист, который может это сделать и который проверяет все заключения ИИ, то зачем нужна эта система диагностики? А если такого квалифицированного контролера нет, то получается, что ИИ сам решает, жить человеку или нет?
ИИ не умеет врать, потому что для него не существует ни правда, ни ложь. Он анализирует тексты и изображения и формирует ответ, который лучше всего удовлетворяет запросу. Поэтому если он поймет задание рассмотреть рентгеновский снимок как задачу найти там раковую опухоль, он ее без сомнения найдет, даже если ее нет. И подсветит ее так, что врач ее тоже увидит. Конечно, со временем накопится статистика смертности и операций, сделанных без необходимости по рекомендации ИИ. Тогда человечество задумается, а не ограничить ли использование ИИ в медицине. Но разве обязательно ждать, когда накопится эта статистика? Может быть, следует подумать об этом сейчас?