Comments 19
В краткосрочном плане манипуляции непобедимы, вброс скандальной информации происходит и распространяется быстро, а опровержения мало кто читает. В общем-то такие технологии всегда были, "ложечки нашлись, а осадочек остался".
По эволюционным причинам в человеческой среде панические слухи имеют высший приоритет. Чрезмерная тревожность помогала нашим предкам выживать, и эта черта закрепилась. Помните какая вакханалия была в пандемийные времена в соцсетях? Будет еще хуже. Джинн выпущен из бутылки, всё. Проверять информацию самостоятельно или опровергать разгоревшиеся слухи сложнее, чем поджигать волну паники.
Опасность в том, что для производства таких материалов можно использовать дипфейки и генерировать ложный контент.
А изменится-то что? Текстом фейки заходят прекрасно, разовая публикация заказухи в канале с несколькими сотнями тысяч подписчиков стоит 100-200 тысяч рублей, полноценная кампания (несколько каналов, ссылающихся друг на друга, мнения «независимых экспертов», продолжительность несколько дней) — миллион-два.
Вообще не в способе генерации проблема.
Тут, возможно, чуть глубже проблема. Реалистичным фотоснимкам подсознание верит быстрее, чем тексту. А в плане распространения - это да. В сериале "Связь" понравился момент, как они следят за распространением фейков через боты.
Вообще не в способе генерации проблема.
Согласен.
1) Люди хотят эмоций. Им нужны не просто новости, а чтобы УХ-ОХ-АХ! Поэтому читать/смотреть СМИ, где только правда, скучно.
2) Люди любят читать/смотреть то, что им нравится. Поэтому они охотно верят той информации, которая им нравится (соответствует их представлениям). А ту, которая им не нравится, называют фейком/пропагандой и закрывают.
Самое печально, что вышесказанное относится не только к новостям, но и к научно-популярным статьям/книгам.
Торможение развития ИИ только способствует продлению периода, когда люди будут миллионами просмотров реагировать на дипфейки.Надо поступать наоборот - ускорять, ускорять так, чтобы дипфейки были на каждом углу, и уже через пять лет, тогда общее подсознательное человечества перестанет реагировать на них, тем самым снижая, а может даже аннулируя эффективность дипфейков.
Все остальные варианты в виде выработки стандартов, правил, законодательства будут только усиливать эффект дипфейка.
Должна быть развернута гонка ИИ за наибольшей достоверностью, чтобы все эти Миджорни совершенствовались и результаты их работы становились всё более реалистичными. И в то же время надо тренировать ИИ, который будет разоблачать дипфейки.
Пора возвращаться к старым добрым газетам и радиоволнам. Подтверждение подлинности информации через затрату энергии. Почти как у биткоина.
Есть историк современности Фурсов с любовью к следующей формулировке
Интернет обеспечил всем людям равный доступ к недостоверной информации.
И что тут меняет AI?
Проблема не в фейках, а в анонимности источника (для всех кроме спецслужб). Но ведь "Интернет по паспорту - это ужасно", значит анонимность сохраняется.
Если бороться с дипфейками, то усиливается механизм цензуры и манипулирования, причём скрытый. Если не бороться с дипфейками, то уничтожается доверие, а это, внезапно, экономическая категория и как она прямо сейчас отливается каждому россиянину в рублях пытается на YouTube объяснить возможно иностранный агент Липсиц. Если это не win-win, тогда что?
По мне так проблема не в анонимности источника. Даже не анонимные источники постят желтуху и фейки постоянно. Проблема людей в том что они верят всему что читают. Раньше верили всему что видели по телевизору. Тогда монополия на фейки была у медиа. Сейчас кто угодно может написать где угодно. Да и без интернета эта проблема существовала. На заборе написано - (определенная информация о недостойном поведении индивидуума известного на районе). Вы будете верить этой информации?
Интересно, ознакомлюсь с рекомендованным каналом. Спасибо!
Опасность не в дипфейках и прочих развлекательных новостях, а в доверии общества к недостоверной информации. Вот с этим и надо бороться.
Просто зарабатывать деньги или политический капитал на борьбе с синтетическими новостями куда проще, чем учить людей думать.
Все эти ошибки в отражения в глазах, все эти неучтённые морщинки — всё это до очередного релиза очередной нейросети. Помните, ещё пару лет назад фейки определяли простым пересчётом пальцев на руках, ну и... Проблема есть, и боюсь, у неё не видно решения.
Где тут криминал? Чем опасны синтетические медиа и кто с ними борется