Как стать автором
Обновить

Комментарии 3

Интересно как будет выглядеть практическая реализация. На мой взгляд, главная опасность даже не в том, как использовать ИИ, а в неравенстве доступа к ИИ в самом широком смысле.


Например, можно запретить пользоваться гражданам и государственным работникам. Но если данные будут все равно накапливаться и обрабатываться, то доступ будет у злоумышленников. Потому что полувековая история софтописания намекает, что систему без дыр создать невозможно.


Или можно сделать ещё хуже и ограничить доступ только гражданам и оставить практически неограниченный доступ государству, [s]не будем показывать пальцем[/s].


Здорово, что люди об этом заботятся, только непонятно есть ли у проблемы настоящее решение кроме крайностей: матёрого луддизма или ультраоткрытости, при которой все смирятся с невозможностью хранения тайн и поедут дальше решать другие вопросы.

В России тоже скоро запретят ИИ в видеоаналитике. Для свободного пользования гражданами.
P.S. Один знакомый решил посчитать людей на своём избирательном участке. Прямая видимость, единственный вход/выход, объектив с фокусным 110мм, jetson. Всего насчитал ~900 чел, в том числе все вошедшие/вышедшие, работники, наблюдатели, дети… А избирком сказал, что на участке проголосовало овер 1600 чел, что составило 89% от всех. Он не оглашал свою деятельность. Но ведь систему можно усложнить и передать в более смелые руки, ей можно пользоваться в самых разных случаях, которые многим могут быть неугодны.

«Полицейским планируется запретить использовать «удалённые системы биометрической идентификации» в реальном времени, за исключением таких случаев, как поиск похищенных детей или предотвращение терактов, а также поиск преступников определённого рода.» — этим можно оправдать что угодно. Одна видимость заботы о приватности личной жизни.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории