Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
Хотелось бы увидеть статья на хабре на эту тему. Нет желание написать?
Если доктор скажет вам, что вам нужна операция, вы захотите узнать, почему – и вы будете ожидать, что его объяснение покажется вам осмысленным, даже если вы не обучались на врача.В результате врач врёт, излагая пациенту «нечто на доступном уровне». Осталось подождать, когда аналогично врать научится ИИ, делов-то!
Но в долгосрочной перспективе думаю, что человечество может решить – возможно, из страха, возможно, из-за недостатка свидетельств – что эта технология нам не подходит. Это возможно.Если ИИ на это согласится :-D
В результате врач врёт, излагая пациенту «нечто на доступном уровне».
Вопрос самоинтерпретации волнует и психологов, в современности считается, что человек очень часто не способен осознано интерпретировать свои мотивации. То есть отвечая на вопрос почему было сделано то или иное действие, человек будет искать в голове наиболее вероятные мотивы, согласующиеся с собственными убеждениями, и на которые, к тому же, будет наложен культурный опыт общества. Хотя зачастую бывает, что человек производит некоторые действия механическим образом.
Свидетельство тому можно найти в экспериментальных работах по социальной психологии. Хорошо известно, что люди иногда думают, что у них есть убеждения, которых у них на самом деле нет. Например, если предлагается выбор между несколькими одинаковыми элементами, люди, как правило, выбирают тот, что справа. Но когда человека спрашивают, почему он выбрал это, он начинает выдумывать причины, утверждая, что, как ему показалось, у этого предмета был приятнее цвет или он был лучшего качества.
Давайте вернёмся к примеру доктора, использующего МО-модель, которую уже натренировали на классификацию изображений образцов клеток по принадлежности к раковым. Вам, как доктору, нужно узнать, какое значение имела концепция «слившихся желез» для совершения моделью положительных предсказаний наличия рака. Сначала вы собираете, допустим, 20 изображений, на которых представлены примеры слившихся желез. Потом вы подключаете эти размеченные примеры к модели.
Затем, TCAV внутри себя проводит т.н. «проверку чувствительности». Когда мы добавляем эти размеченные изображения слившихся желез, насколько увеличивается вероятность положительного предсказания рака? Ответ можно оценить числом от 0 до 1. И это и будут ваши очки в TCAV. Если вероятность увеличилась, эта концепция была важной для модели. Если нет, эта концепция не важна.
TCAV можно использовать, чтобы задать модели вопрос о концепциях, не связанных с областью исследований. Возвращаясь к примеру с докторами, использующими ИИ для предсказания вероятности рака. Доктора могут внезапно подумать: «Судя по всему, машина выдаёт положительные прогнозы на наличие рака для многих изображений, у которых цвет немного смещён в голубизну. Мы считаем, что этот фактор не нужно принимать к рассмотрению». И если они получат высокую оценку TCAV для «голубого», это значит, что они обнаружили проблему в их МО-модели.
Новый подход к пониманию мышления машин