Comments 11
> Согласно этой базе, у «цветных» больше нарушений, а значит ИИ на них может обращать особо пристальное внимание и влиять таким образом на предвзятость самой полиции.
Если это в стиле полиции "Мирры" или "Уважения культурных традиций" Шапиро — я бы даже сказал, что это правильно.
Долго до них доходило.
Видимо были не в курсе, кто их продукт использует и для чего. Потом прилетело и спохватились.
Ни одна вменяемая компания на такое не пойдет.
У традиционной системы распознавания есть четкий алгоритм, который можно проверить, вывести системную ошибку и указать ее.
У AI - черный ящик. Сходимость результатов отсутствует, с математической точки зрения". Проверит верность результата не получится, как и дать четкие границы качества
Завтра MS/OpenAI обвинят в ложном обвинении из-за ошибки алгоритма и привет. Не отмыться.
Завтра MS/OpenAI обвинят в ложном обвинении из-за ошибки алгоритма и привет. Не отмыться.
Я сомневаюсь что их можно действительно обвинить или точнее привлечь к ответственности. OpenAI это инструмент. Он не принимает решения. Решения принимает какой-то сотрудник полиции или там прокуратуры. И ему за эти решения и отвечать.
Единственное за что в такой ситуации можно привлечь Microsoft, так это за то что их инструмент "сломан" и работает неправильно. Но есть у меня подозрение что в Microsoft тоже не совсем дураки и в договорах/пользовательских соглашениях на эту тему есть подходящие параграфы.
У AI - черный ящик.
Ну не совсем. Формально любая нейросеть - это просто очень длинная линейная функция, поэтому в теории может быть для любых вводных данных четко определен алгоритм.
Завтра MS/OpenAI обвинят в ложном обвинении из-за ошибки алгоритма и привет. Не отмыться.
Не в репутации дело, скорей всего. А в нежелании участвовать в каждом судебном деле, связанном с распознаванием
Формально в статье речь о правилах для коммерческого клауда.
Для госов и военных у них есть отдельные облака GCC и GCC High, чьи условия использования прописываются отдельно.
Я думаю логично запретить полиции использовать коммерческие сервисы, при наличии более подходящих альтернатив. А при правильной подаче материала ещё и пропиариться.
Face recognition системы и прочая биометрия это серьезный бизнес со своей сертификацией и регулированием https://www.nist.gov/speech-testimony/facial-recognition-technology-frt-0.
А какой именно функционал по распознаванию лиц предлагает azure openai?
Тут интересно другое: Microsoft запретила полиции США использовать свой продукт. Можете представить новость: Яндекс запретил МВД использовать свой продукт?
Azure Open AI это лишь один продукт из огромной кучи.
Все равно, что на мешке с рисом написать "без асбеста", а рядом на мешке с асбестом наоборот - "без риса".
Microsoft предлагают решения для полиции, просто в рамках других продуктовых линеек. Например https://info.microsoft.com/UK-HW-WBNR-FY22-02Feb-18-Microsoft-Teams-Industry-Special-Police-Service-AID-3044545-SRGCM6019_LP01-Registration---Form-in-Body.html
Какие то проблемы могут возникнуть у сторонних интеграторов, кто разрабывает решения для полиции на базе коммерческих продуктов Microsoft. Но даже в этом случае вопрос может быть решен с помощью персональных условий в контракте.
Не здесь ли была статья, о тендере дептранса Москвы, по использованию BT сигнатур (от наушников, смарт часов, и.т.п.) "для оптимизации нагрузки натранспортную систему".?
Microsoft запретила полиции США использовать Azure OpenAI для распознавания лиц