Comments 3
Интересно как будет выглядеть практическая реализация. На мой взгляд, главная опасность даже не в том, как использовать ИИ, а в неравенстве доступа к ИИ в самом широком смысле.
Например, можно запретить пользоваться гражданам и государственным работникам. Но если данные будут все равно накапливаться и обрабатываться, то доступ будет у злоумышленников. Потому что полувековая история софтописания намекает, что систему без дыр создать невозможно.
Или можно сделать ещё хуже и ограничить доступ только гражданам и оставить практически неограниченный доступ государству, [s]не будем показывать пальцем[/s].
Здорово, что люди об этом заботятся, только непонятно есть ли у проблемы настоящее решение кроме крайностей: матёрого луддизма или ультраоткрытости, при которой все смирятся с невозможностью хранения тайн и поедут дальше решать другие вопросы.
В России тоже скоро запретят ИИ в видеоаналитике. Для свободного пользования гражданами.
P.S. Один знакомый решил посчитать людей на своём избирательном участке. Прямая видимость, единственный вход/выход, объектив с фокусным 110мм, jetson. Всего насчитал ~900 чел, в том числе все вошедшие/вышедшие, работники, наблюдатели, дети… А избирком сказал, что на участке проголосовало овер 1600 чел, что составило 89% от всех. Он не оглашал свою деятельность. Но ведь систему можно усложнить и передать в более смелые руки, ей можно пользоваться в самых разных случаях, которые многим могут быть неугодны.
Евросоюз хочет ограничить использование ИИ и систем распознавания лиц в угоду приватности