В Бостоне запретили использование технологии распознавания лиц



    По мнению полицейских и чиновников, они слишком расистские, а потому не должны использоваться полицией, особенно в трудный период, вызванный эпидемией и движением BLM/ALM.

    Cloud4Y уже рассказывал о проблемах использования технологий распознавания лиц. И вот — свежая новость. Власти Бостона заявили, что системы, предназначенные для распознавания лиц, способствуют расовой дискриминации из-за несовершенства используемых технологий. Вопрос о целесообразности применения подобных решений был поднят в Бостоне после ошибочного ареста афроамериканца Роберта Уильямса правоохранителями из Детройта.


    Дополнительным аргументом в пользу такого мнения стало исследование MIT, которое показало, что для женщин с более темной кожей программы анализа лица ошибались в 35% случаев.

    Интересно, что эти меры предприняты даже при условии, что технология еще не используется Бостонским полицейским департаментом — хотя теоретически департамент может получить доступ к этим системам, просто обновив своё ПО. В пакете обновлений есть усовершенствованная программа BriefCam, которая как раз и обладает возможностями распознавания лиц. Бостонская полиция заявила на рабочем заседании городского совета, что не будет устанавливать эту часть обновлений для ПО.

    Во время слушаний в городском совете комиссар полиции Бостона Уильям Гросс заявил, что нынешняя технология ненадёжна и что она не используется департаментом. «Пока эта технология не станет 100%, я не заинтересован в ней. Я не забыл, что я афроамериканец, и меня тоже могут опознать», — сказал он.

    Объективности ради добавим, что вывод о несовершенстве систем распознавания лиц при работе с цветным населением уже делали разные специалисты и полицейские управления. А приложение «Google Фото» и вовсе распознавало чернокожих как горилл. В ходе испытаний системы часто демонстрировали положительно-фальшивые результаты поиска преступников среди чернокожих и азиатов, проживающих на территории США. А это считается довольно грубым нарушением закона о личной свободе и правах.

    Обученные преимущественно на фотографиях белых преступников, машины плохо различают цветных. Но, как заявляют некоторые эксперты, если бы для обучения использовались фотографии чернокожих и азиатов, то системы распознавания лиц назвали бы расистскими ещё раньше. Поэтому нужно просто дообучить компьютеры, используя базу фотографий преступников с другим цветом кожи. А это будет непросто ввиду всё той же борьбы с расизмом.

    Также они просят не стоит перегибать палку и оставить хотя бы основные системы в норме. Тогда не потребуется прибегать к другим, ещё менее эффективным и гуманным способам поиска и задержания опасных подозреваемых.

    Как бы то ни было, Бостон в настоящее время является вторым по величине городом в США (после Сан-Франциско), в котором запрещены технологии распознавания лиц. Также 10 июня 2020 года компания Amazon объявила о том, что выступает за строгий контроль над использованием технологий распознавания лиц и наложила мораторий на свой софт. Ранее компания активно продавала свою систему распознавания лиц Rekognition полицейским управлениям и другим правоохранительным органам в США. Почти одновременно с этим о прекращении разработки и продажи ПО для технологии распознавания лиц заявили в копании IBM.
    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее
    Реклама

    Комментарии 4

      +5
      Теперь грабить магазины в Бостоне будет безопасней.
        +1

        Вы что, расист? Это же лутинг!

        +6
        А по факту — из-за торговой войны с Китаем у них просто нет ни софта, ни оборудования.
        В пекинском Дасине(аэропорт) камера за секунду опознала меня и показала гейт и рейс, а в Сан-Франциско я минут 10 перед камерой вертелся, прежде чем их допотопный агрегат миграционной службы наконец-то согласился, что вот это фото его устраивает
        image
        Китайский софт крайне забавно анонимизирует лаоваев. Если китайское ФИО — 2-3 иероглифа, и скрыть 2 из них достаточно, то к иностранным именам так относиться нельзя.
        Самый шедевр был, когда алипей спросил «вы точно хотите перевести деньги *ванову *ергею?». В жизни не сдеанонишь
          +1
          Обученные преимущественно на фотографиях белых преступников, машины плохо различают цветных. Но, как заявляют некоторые эксперты, если бы для обучения использовались фотографии чернокожих и азиатов, то системы распознавания лиц назвали бы расистскими ещё раньше. Поэтому нужно просто дообучить компьютеры, используя базу фотографий преступников с другим цветом кожи. А это будет непросто ввиду всё той же борьбы с расизмом.
          Это шедевр. Напоминает какие-то средневековые искания на тему как не впасть в ересь.

          Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

          Самое читаемое