Комментарии 6
Все укладывается в два приницпа, которые можно принимать или нет, но они действуют в разных странах по разному:
1. Разрешено все, что явно не запрещено.
2. Запрещено все, что явно не разрешено.
Но, даже там где свято следуют своему принципу, находят способ его обойти. И, даже если явно принимать свой прицип, есть свобода для действий. И это только на внеосудительном поле. Многие страны разрешают нарушать установленные ими рамки для определенных целей.
В примере «осуждамс» IBM. Неправильные источники… С точки зрения этичности исходников — сомнительно, а с точки зрения применения полученых данных разве это так? Orly?
1. Разрешено все, что явно не запрещено.
2. Запрещено все, что явно не разрешено.
Но, даже там где свято следуют своему принципу, находят способ его обойти. И, даже если явно принимать свой прицип, есть свобода для действий. И это только на внеосудительном поле. Многие страны разрешают нарушать установленные ими рамки для определенных целей.
В примере «осуждамс» IBM. Неправильные источники… С точки зрения этичности исходников — сомнительно, а с точки зрения применения полученых данных разве это так? Orly?
Хотя чернокожие составляют всего 12,6% населения США, в базе фотографий преступников их 47,5%, из-за чего ИИ тоже может обучиться предвзятости и стать расистом.Ну хоть ПО у них объективное будет, что плохого-то.
У журналистов нет мозга — ИИ же не тренируют определять по фото благонадёжность человека.
Почему не тренируют? Для определения платежеспособности, фейсконтроля, дресс-кода, многие бы заплатили за такую нейросеть.
Естественно короткий комментарий под статьей принадлежит контексту статьи. Где-то кто-то наверняка разрабатывает описываемую вами нейросеть. Но здесь речь о том, что преступники в базе данных оказались сюрпризом.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Откуда берут фотографии для тестирования систем распознавания лиц