Комментарии 6
Тренировка с L2 лоссом вместо MSE тоже работает, но чуть хуже;
Вероятно, это опечатка — L2 же и есть MSE.
Ну не совсем. Я бы сказал, что RMSE = L2
В MSE не берется корень перед суммой и средним
Вроде мелочь (и конечная метрика таки L2) — но влияет
В MSE не берется корень перед суммой и средним
Вроде мелочь (и конечная метрика таки L2) — но влияет
Особенно влияет, когда мы рассматриваем векторизованные имплементации
Просто формулы для иллюстрирации
AME = (abs(delta_x1) + abs(delta_x2) + ... + abs(delta_xN)) / N
MSE = ((delta_x1)^2 + (delta_x2)^2 + ... + (delta_xN)^2) / N
RMSE = sqrt(MSE)
PSNR = 10 * log10(MAX^2 / MSE)
= 20 * log10(MAX / sqrt(MSE))
= 10 * log10(MAX^2 / RMSE^2)
= 20 * log10(MAX / RMSE)
Вопрос к экспертам по ML. Возможно ли сделать программу, которая без ручной подстройки и без тестовых прогонов конкретной фотографии на целевом алгоритме, будет изменять фотографию так, чтобы этот алгоритм нахождения лиц в фотографиях не работал (скажем, в 95% случаев)? Условия — лицо не должно идентифицировать человека, две фотографии того же человека должны производить разные «лицевые подписи», но фотография должна выглядеть неизменной.
Конкретно — можно ли гарантированно обмануть Фейсбук, при этом загружая стандарные фотки с нормальным освещением и лицом в фокусе?
Конкретно — можно ли гарантированно обмануть Фейсбук, при этом загружая стандарные фотки с нормальным освещением и лицом в фокусе?
Можно, если потратить много времени на это. В 95% — как мне кажется — вряд ли. И да, если оставить этику в стороне (очевидно, что это нужно для ботоводства, нет?) это не совсем разумная цель, т.к. тот же Фейсбук будет постоянно платить з/п своим сотрудникам для улучшения своего алгоритма — соответственно надо будет постоянно держать свою атаку актуальной.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Состязательные атаки (adversarial attacks) в соревновании Machines Can See 2018