Исследование показало, что 96% дипфейков в интернете — это порно с известными женщинами или бывшими подругами

    В ноябре 2017 года аккаунт Reddit под названием deepfakes опубликовал первые в интернете порнографические видеоролики, в которых программное обеспечение заменяло лица реальных актрис лицами голливудских знаменитостей. Почти два года спустя «дипфейки» стали общим явлением и термином, который описывает любое поддельное видео, сделанное с помощью программ ИИ. Этот метод используют и для смешных видеороликов на YouTube, он также вызывает озабоченность законодателей, опасающихся политической дезинформации. Тем не менее, новое исследование говорит о том, что дипфейки в основном остаются верными своим непристойным корням.

    Стартап Deeptrace провел своего рода перепись дипфейков в июне-июле 2019 года, чтобы отрекламировать свои инструменты обнаружения, которые он надеется продать новостным организациям и онлайн-платформам. Всего стартап обнаружил 14 678 видеороликов, открыто представленных в качестве дипфейков: почти в два раза больше, чем семь месяцев назад. Около 96% из них оказались порнографическими.

    История дипфейков повторяют историю многих других медиатехнологий, которые получили распространение благодаря порно: от VHS до потокового вещания.

    Перепись вряд ли можно назвать исчерпывающей, но выводы напоминают о том, что о спекуляциях на выборах говорить пока рано. Технология в основном используется совсем по-другому, в том числе в качестве инструмента для онлайновой травли. При этом Deeptrace отмечает, что программы для создания дипфейков становятся всё более продвинутыми и более доступными.

    Отчёт стартапа описывает процветающую экосистему веб-сайтов и форумов, где люди делятся, обсуждают и совместно изготавливают порнографические дипфейки. Некоторые из них являются коммерческими предприятиями. Они продают рекламу в видеоклипах, куда лица девушек вставляется без их согласия.

    Почему девушек? Потому что все «поддельные» люди в порноклипах Deeptrace женского пола. Видеоролики с самыми популярными фигурами — западными актрисами и южнокорейскими поп-знаменитостями — собрали миллионы просмотров. Некоммерческие организации уже сообщили о том, что женщины-журналисты и политические активистки подвергаются атакам с помощью этого нового метода. Генри Айдер, исследователь Deeptrace, который работал над отчётом, говорит, что есть форумы, где пользователи обсуждают или даже заказывают создание дипфейков с женщинами, которых знают. Например, с бывшими подругами, потому что хотят увидеть их в конкретном порно (или просто в любом порно).

    Даниэла Цитрон (Danielle Citron), профессор права в Бостонском университете, описывает порнографические дипфейки, сделанные без согласия человека, как «вторжение в сексуальную частную жизнь». Она уже выступила на июньских слушаниях комитета по разведке Палаты представителей США об инструментах манипулирования средствами искусственного интеллекта, пишет Wired.

    По её мнению, преобладание порнографических дипфейков является напоминанием о другом уроке из истории технологий: «На каждом этапе мы видели, что люди используют то, что есть под рукой, чтобы мучить женщин. Дипфейки представляют иллюстрацию этого», — говорит профессор права и активистка.

    Цитрон помогла принять новое законодательство об уголовном наказании за месть через порно, которое сейчас действует по крайней мере в 46 штатах и округе Колумбия. В их число входит и Калифорния: на прошлой неделе губернатор Гэвин Ньюсом (Gavin Newsom) подписал закон, который позволяет человеку, вставленному в откровенно сексуальный материал без его согласия, подать гражданский иск против того, который создал или опубликовал этот видеоролик.

    Сейчас Цитрон обсуждает с законодателями Палаты представителей и Сената новое федеральных законодательство, чтобы наказывать распространение вредоносных фейков, в том числе дипфейков. Идею поддерживают представители обеих партий. Некоторые заявляют даже, что дипфейки представляют угрозу всей американской демократии (вероятно, тут речь всё-таки не о порнографических дипфейках, а о разрушении общего уровня доверия в обществе, над чем давно работают различные генераторы фейковых новостей).

    Уровень доверия в обществе — это действительно важный цивилизационный фактор. Фрэнсис Фукуяма в книге «Доверие: социальные добродетели и путь к процветанию» описывает отдельные экономические, политические и социальные модели реальных стран с разным уровнем доверия (Россия, США, Англия, Франция, Германия, Япония, КНР, КНДР и пр.). Автор рассматривает различные модели управления, введённые в этих странах, линию правительства, роль внутрисемейных отношений и воспитания, открытых религиозных организаций и закрытых сект и пр. Все аспекты сплетаются в единую систему, основанную на цифрах и логике, при помощи этой системы автор наглядно показывает важность доверия в пост-индустриальную эпоху.
    Поделиться публикацией
    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее
    Реклама

    Комментарии 33

      0
      История дипфейков повторяют историю многих других медиатехнологий, которые получили распространение благодаря порно: от VHS до потокового вещания.

      Непристойный корни дают о себе знать в технологиях имхо
        +20
        В статье не хватает ссылок…
          +9
          Слайдов.
            +1
            У меня тоже встал такой вопрос
              0
              Развели тут пикабу, ща @moderatora позову
            0
            Исследование показало, что 96% дипфейков в интернете

            А для этого надо было исследование проводить? И так очевидно, что порно является самой основной областью где это можно применять.
            Порно и мошенничество. Но мошенников мало, а порно смотрит подавляющее большинство
              0
              А для этого надо было исследование проводить? И так очевидно, что порно является самой основной областью где это можно применять.

              Мне почему то это тоже было ясно и заочно.
                +9
                Ну а как еще посмотреть много порнухи и получить за это грант?
                  +2

                  Мне кажется основная область где можно будет применить через 5-10 лет — это съёмка 1-2 серий сериала с использованием "оригинальной звезды", а в последующих сериях можно попробовать заменить дешёвыми аналогами из Театра Юного Зрителя из Полтавы, которых к 2-3 сезону можно поменять на выпускников эстрадно-циркового училища из Душанбе и Киргизской филармонии.
                  2 -е направление — снять новые фильмы с умершими актерами.
                  Но для этого нейро сеть должна будет не просто натягивать фото одного человека на видео другого, но и копировать характерные движения пластики, мимики.
                  Но более интересный вариант DeepFackeSound т.е. например взять аудиокниги начитанные Сергеем Чонишвили обучить по ним нейросеть (его голосу, тембру, интонации) и в дальнейшем попробовать озвучить его голосом аудиокнигу которую озвучивал не он, а другой чтец.
                  Я думаю торговля своим цифровым слепком в будущем будет одним из направлений охраны авторского права, за одно и простых людей от подделки защитят.

                    0
                    Но более интересный вариант DeepFackeSound т.е. например взять аудиокниги начитанные Сергеем Чонишвили обучить по ним нейросеть (его голосу, тембру, интонации) и в дальнейшем попробовать озвучить его голосом аудиокнигу которую озвучивал не он, а другой чтец.
                    Ну, чем-то подобным и являются те же самые вокалоиды.
                      0

                      Ну они же не на нейросетях… поэтому возможности в принципе большими не будут, а при чтении аудио книг (как и при игре актёров) важно не только имитировать голос Сергея Чонишвили, но и интонацию, манеру произнесения, авторский стиль — не знаю даже как это охарактеризовать…

                  +3
                  подписал закон, который позволяет человеку, вставленному в откровенно сексуальный материал без его согласия, подать гражданский иск против того, который создал или опубликовал этот видеоролик.
                  А раньше можно было и это было законно?
                    +1
                    что 96% дипфейков в интернете — это порно с известными женщинами или бывшими подругами
                    А что, их для чего-то ещё можно было использовать?
                      +1
                      4% — эротика с неизвестными мужчинами и новыми недругами
                        0
                        Да. Но озвучивать я не буду. Полагаю через полгода-год в новостях и так появится.
                        0
                        По её мнению, преобладание порнографических дипфейков является напоминанием о другом уроке из истории технологий: «На каждом этапе мы видели, что люди используют то, что есть под рукой, чтобы мучить женщин. Дипфейки представляют иллюстрацию этого», — говорит профессор права и активистка.
                        … и не только женщин. Но все же это странная причина для неолуддизма.
                        Интересно, как активистка — насколько далеко она зайдет? будет ли например пропагандировать за полный запрет женских фотографий? (а с мужских — пусть делают дипфейки, все равно это интересно только про политиков)
                          +5
                          На каждом этапе мы видели, что люди используют то, что есть под рукой, чтобы мучить женщин.
                          Какие интересные высказывания от профессора права.
                            0

                            Трудности перевода. Men = мужчины, люди.

                              0
                              Кстати, не слышно, что на этот счёт говорят активистки? Ну что «человек» и «мужчина» — это одно и то же?
                            +1
                            Ну камон, разве в этой ситуации главным неолуддистом является активистка? В обществе незнамо сколько лет процветает гаденькая логика, связанная с телами и сексом. В случае сливов нюдзов жертву очень любят судить за то, что она посмела поделиться ими с бывшим партнером (или что изначально посмела сфоткаться в голом виде). Как бы куча людей в отношениях делится нюдзами, куча людей смотрит порно и радуется, но когда появляются сливы, все быстренько переобуваются. А если кто-то будет выдавать дипфейк за слитое фото / видео, жертву будут еще сильнее травить! Туда же можно засунуть любые сексуальные практики, в том числе сильно осуждаемые обществом (или то что считается унизительным). И проблемы у жертвы будут не от активисток, которые по вашему мнению начнут запрещать конкретно женские фотки (что кажется мне взятым с потолка), а от людей, которые считают нормальным травить других за их сексуальные предпочтения / распространять чужие голые фотографии и видео без разрешения.

                            В мире, где всем пофиг, кто что делает в постели + сексуальные практики не являются постыдными, это было бы просто распространением лжи. Но мы живем не в таком мире(
                              0
                              если бы просто «что делает в постели», а то ведь, если кто-то придет с таким видео в суд и скажет: «я согласия не давал\а, значит это изнасилование». И привет.
                                0
                                Да, является. Активистки/активисты вполне себе считают нормальным травить людей за сексуальные предпочтения, которые не входят в список разрешенных. Так что вы дихотомию ложную тут проводите.
                                Gawker к примеру защищал феминизм но попалось секс-видео с Халком Хоганом и они его опубликовали.
                                  0
                                  Полагаю те, кто пересылает фотки и смотрит вместе порно не участвуют в осуждении сливов.
                                0

                                Как к этим исследователям записаться?

                                  +2
                                  По её мнению, преобладание порнографических дипфейков является напоминанием о другом уроке из истории технологий: «На каждом этапе мы видели, что люди используют то, что есть под рукой, чтобы мучить женщин. Дипфейки представляют иллюстрацию этого», — говорит профессор права и активистка.

                                  Даже если допустить, что дипфейки каким-то образом мучают женщин, можно еще примеры технологий, для этого не предназначенных, которыми мучили женщин?
                                    +2
                                    Киндер, кюхе, кирхе
                                    +5
                                    профессор права и активистка

                                    Можно даже не уточнять конкретно какое движение она представляет. Все прекрасно понятно из ее слов.
                                      +1
                                      Как и упомянуто в статье, подобные технологии очень удобно использовать для дискредитации частного лица (бывшей девушки) или же публичной персоны. Вот только методы вышеупомянутые активисты выбирают какие-то регрессивные.
                                      Быть может, вместо попыток заткнуть плотину пальцем, пытаясь запретить делать нечто эдакое (ведь запретили взятки брать — и никто не берет же, и убийств в цивилизованном мире нет — запрещено), стоит работать над сдвигом общественного сознания? Чтобы, скажем, видео вольного содержания, особенно фальшивое, не воспринималось как нечто дискредитирующее для его действующих лиц.
                                        0
                                        Без картинок не интересно.
                                          +4
                                          Девушки ещё не понимают, что технология дипфейков несёт им огромный плюс, перевешивающий все минусы. Теперь можно не так бояться слива своих настоящих фото-видео материалов, шантажа или осуждения, ведь всегда можно сослаться за фейковость материала. Да и постоянное увеличение общего числа порноматериалов в интернете способствует тому что твой «позор» в нём затеряется и никому не станет известен.

                                          Думаю скоро мы придём к тому, что при регистрации очередной девушки в соц. сетях боты будут автоматически скачивать фото/видео и генерить на их основании тонны порно контента, заливаемого тут же на специализированные сайты, поэтому проблема сливов просто исчезнет.
                                            +1
                                            Переходный период породит много жертв.
                                            Пока технология не массовая, пока о ней не знает каждый житель планеты — можно ломать людям жизнь.
                                            Даже если 8 из 10 знакомых поверят в то, что видео/фото не настоящие — оставшиеся 2 все равно создадут достаточно проблем. Особенно если это старые дедушки/бабушки/родители.
                                              0

                                              К сожалению, у некоторых высокоморальных людей видео с ними может вызвать очень тяжёлые психологические травмы, чем всякие вымогатели наверняка воспользуются. Да и просто какому-нибудь учителю потом доказывать, что он на самом деле не педофил, довольно сложно — "ложечки нашлось, но осадочек остался".


                                              Так что не скоро мы прийдем с состоянию общества, где дипфейки не опасны, очень не скоро.

                                              0
                                              нужно нормировать дипфейк-порно с учетом отношения числа вообще всех порнороликов к не-порно видео. Эти 96% явно уменьшатся

                                              Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                              Самое читаемое