Обновить
-6
0

Пользователь

Отправить сообщение
Спасибо большое за комментарий! Если кратко, то такой же дискриминации не будет, но если модель была изначально обучена на не очень разнообразных данных, то какая-то дискриминация все же будет даже при идеально сбалансированных данных. Если вам интересен этот вопрос в контексте распознавания лиц, здесь он довольно наглядно рассмотрен :) Вот еще ссылка на саму научную работу, по которой сделана страничка: proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
В будущем мы обязательно затронем эту тему подробнее!
Спасибо большое за рекомендацию! Мы уже ознакомились с данной статьёй и обязательно приведем технические примеры в будущем)
Отличное замечание! В книге, откуда мы брали данную информацию, была предложена модель, которая (благодаря некоторым коррекциям + работе с данными) стала эффективной и для темнокожих, и для белокожих :) (https://link.springer.com/chapter/10.1007%2F978-3-030-63119-2_24)
Спасибо за то, что указали на наш недочёт! В наших следующих статьях мы обязательно будем напрямую указывать ссылки на источники) Ниже прикрепляем ресурсы, из которых взяли примеры в этой статье:
1. link.springer.com/chapter/10.1007%2F978-3-030-63119-2_24 (в медицине)
2. news.cornell.edu/stories/2019/08/study-finds-racial-bias-tweets-flagged-hate-speech (про Твиттер)
3. advances.sciencemag.org/content/4/1/eaao5580 (рецидивизм)
4. proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf (Буоламвини и facial recognintion)
Спасибо за комментарий! ML модельки все-таки влияют на реальных людей, и их популярность (широта использования) все-таки стремительно растет. Возможно, именно поэтому «Комитеты добра», на самом деле, уже утверждают модели в некоторых компаниях, и рисерч в данной сфере идет довольно успешно :)
Благодарим за комментарий! Обязательно изучим эту задачу. Наша тематика, действительно, тесно связана с социальными проблемами, и мы планируем фокусироваться и на технических причинах Bias'а в ИИ. В наших будущих статьях мы поднимем тему несбалансированности данных именно в этом контексте :)
Спасибо за комментарий! Существует много вариантов определения того, какая модель машинного обучения считается справедливой. Например, кто-то (https://arxiv.org/pdf/1710.03184.pdf) говорит, что модель справедлива, если она не рассматривает “чувствительные” атрибуты (раса, гендер и т.д); кто-то (https://arxiv.org/abs/1104.3913) — что в случае, если вероятность благоприятного исхода для людей со схожими параметрами (например, уровень образования и достатка) одинакова, или хотя бы близка. Или же в случае, если ложноположительные и ложноотрицательные показатели одинаковы для каждой группы. (https://arxiv.org/abs/1610.02413) Каждое из определений имеет право на существование, и в будущем мы обязательно разберем некоторые из них :) Те примеры, которые привели мы, не считаются справедливыми ни в одном из данных вариантов определения справедливости. Если вы знаете про формальные способы определения справедливости, которые бы «посчитали» наши примеры непредвзятыми — будем очень благодарны, если поделитесь)

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность