Комментарии 29
Не проще ли постараться искать оригинал конкретного deep fake? И предъявить этот оригинал. Человеки сразу поймут где что, без компьютерного анализа. Фейк всегда делается на базе чего-то существующего.
На это есть один выход — не верь глазам и ушам своим. Ни при каких условиях. Ибо мир изменился.
Правильнее априори полагать, что любое видео, как и любой текст, может не иметь никакой связи с реальными событиями.
Да, правильнее. Но человек существо не полностью рациональное. На фейки/вбросы в интернете до сих пор ведутся.
Так же остается вопрос анонимных источников, или источников предоставивших данные на условиях анонимности.
Полностью от них отказаться не получится, потому что в ряде случаев люди не могут иначе сообщить важную для общества информацию.
любое видео, как и любой текст, может не иметь никакой связи с реальными событиями
А вот этому тексту вы доверяете? Если не доверять никакому тексту, то никакой текст нет смысла читать вообще (разве что художественные). А если просто думать, что, возможно, этот текст ложный, то это бесполезно. Ну да, каждый текст возможно немножечко ложный. Что это вам даёт, какие выводы?
Полезно иметь оценку — этот текст наверняка ложный, этот — возможно, а вон тот — вряд ли ложный. Вот такая градация уже может быть полезной.
Для себя я опираюсь на научное сообщество. Если есть несколько исследований, значит скорее всего Х верно. Если исследований нет вообще, то скорее всего Х не верно. С новостями сложнее.
У людей нет такой потребности в массе. Они с удовольствием читают и распространяют фейки, например.
Фильтровать для себя — можно. Сделать сообщество — можно (но на хабре в массе тоже потребность в этом не велика, им хватает простой фильтрации).
Приблизить новости к научным статьям — нет, нельзя. Авторы статей не будут это делать и вы никак их не заставите.
Например, с информацией о глубине. С кучей данных вроде gps, ультразвуке, интерференционной картинки от инфракрасного света.
И, конечно же, персональная цифровая подпись в случае, когда снимают публичную персону.
Главам государств ничего не мешает обменяться публичными ключами для верификации официальных заявлений.
А давайте запретим Photoshop, чтобы не было фотожаб )))
Теперь же удивляются, что и другие, оказываются, подделками умеют заниматься. Странно, но разведки всех стран уже давно (десятки и сотни лет) работают с информацией, априори предполагая, что у них в руках — деза, и находя способы просеивания лжи в поисках крупинок правды. В DAPRA, что, привыкли верить всему, что видят?
Хотя, конечно, судя по кино, где Главный Генерал, подтянутый и в форме, говорит патлатому комьютерщику «сынок, увеличь-ка!», и на экране из группы в 8 точек медленно проступает контур Самого Главного Террориста (и Генерал тут: «Вот, вот он, негодяй, отправить Самую Главную Спецгруппу его захватить!»), то в DAPRA хотят на каждый свой телевизор поставить кнопку «отсей ложь!», которая 100% точно скажет, что на экране показано.
Интересно, в DAPRA не против, чтобы такая кнопка была и на каждом телевизоре в мире? Чтобы и поделия пиарщиков Минобороны юзеры бы сразу отличали от правды?
DARPA-GAN как новый источник для ассистированного обучения.
/грустная шутка.
Первое что на ум приходит — просто человек научится анализировать на порядки большие потоки информации и так же, как и сейчас, кто-то будет отделять мух от котлет, а кто-то — нет…
Министерство обороны США попытается решить проблему deepfake