В Китае публикацию дипфейков отнесли к уголовным преступлениям

    image

    Власти Китая объявили любую публикацию заведомо ложной информации, в том числе дипфейков, уголовным преступлением. Соответствующий закон вступит в силу 1 января 2020 года.

    Согласно новым нормам, все дипфейки нужно будет отмечать специальной пометкой, которая будет предупреждать пользователей о том, что это ненастоящая новость.

    Закон приняла Администрация киберпространства Китая. Чиновники отметили, что использование дипфейк-технологий может «поставить под угрозу национальную безопасность, подорвать социальную стабильность, а также нарушить общественный порядок и ущемить законные права и интересы граждан».

    Стоит отметить, что в сентябре китайские разработчики выпустили приложение ZAO, которое позволяло моментально создавать дипфейк-видео с определенным человеком при помощи всего одного его портрета. ZAO стало самым популярным приложением в китайском AppStore. Изначально в пользовательском соглашении говорилось, что все права на созданный контент принадлежат разработчикам. Позднее в ZAO пообещали удалять контент со своих серверов, если пользователь удалит его у себя в смартфоне.
    См. также: «Исследование показало, что 96% дипфейков в интернете — это порно с известными женщинами или бывшими подругами»

    В октябре в Калифорнии были приняты первые два законопроекта в США, касающиеся дипфейков. Первый делает незаконным размещение любых видео с манипуляциями в политических целях — например, замена лица или речи кандидата для его дискредитации. Второй позволит жителям штата подать в суд на любого, кто использует дипфейк в порнографическом видео. Авторы законопроекта утверждали, что распространение роликов, созданных с помощью технологии Deepfake, в которых к тому же фигурируют политики, могут обмануть общественность и повлиять на результаты выборов.

    В Конгрессе США находятся на рассмотрении четыре законопроекта, касающиеся дипфейков. В них также содержатся положения о маркировке подобных видео и обязательствах указывать их создателей. Если нормы будут одобрены, то распространителей сомнительного контента можно будет штрафовать.
    См. также: «ИИ от Amazon облегчает борьбу с непристойным контентом, загружаемым пользователями»

    Коммерческие компании включились в борьбу с дипфейками. Facebook совместно с Microsoft и коалицией «Партнёрства по искусственному интеллекту во благо людей и общества» (PAI), а также научными работниками из нескольких университетов в сентябре объявили конкурс на разработку технологии распознавания deepfake. Facebook поручит исследователям создавать реалистичные дипфейки, после чего участники конкурса будут прорабатывать алгоритмы их обнаружения. Призовой фонд проекта составляет $10 миллионов. Первые дипфейки для конкурса протестируют на Международной конференции по компьютерному зрению, а весь набор видео для работы выпустят в декабре.

    Google в сотрудничестве с компанией Jigsaw (бывшей Google Ideas) также в сентябре выпустила обширный датасет, в который вошло более трех тысяч видеороликов, созданных с помощью искусственного интеллекта. Видеоролики исследователи добавили в другой большой проект, посвященный подмене лиц на видео, — FaceForensics++.

    В октябре Facebook AI Research заявила о разработке системы машинного обучения, которая не дает искусственному интеллекту определять людей по видео. Алгоритм просто заменяет лицо человека его слегка искаженной версией, а ИИ использует архитектуру кодировщика-декодера и генерирует искаженные и неискаженные изображения лица человека, которые затем можно встроить в видео. В Facebook заявили об отсутствии планов по применению новой технологии в приложении. Однако данную систему можно использовать при создании материалов, которые остаются узнаваемыми для людей, а также для обучения систем ИИ с целью улучшения систем восприятия глубины видео.
    Поделиться публикацией
    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее
    Реклама

    Комментарии 38

      +2
      Пожалуй, это первый из джинов, которые ещё вылезут из бутылки развития цифровых технологий.

      Первая технология которая оказалась реально опасна буквально для всех и с которой, с небольшой заминкой, рванулись бороться буквально все.

      Историческое событие, в каком то виде )
        +2
        «Первая технология которая оказалась реально опасна буквально для всех»
        Во-первых — не первая.
        Во-вторых — не для всех.
        Несмотря на то, что определенные неудобство использование этой технологии может доставить — уничтожить человечество эта штука не способна. Да даже ощутимо пошатнуть неспособна.
        Наоборот, шантаж становится бессмысленной вещью, потому что любой шантаж можно спихнуть на дипфейк. Все только в выигрыше.
          +2
          любой шантаж можно спихнуть на дипфейк
          Тут палка о двух концах. Если я заканчиваю работать в 18:00, а в 18:30 уже дома, и тут моей жене присылают видео, где я в борделе с пианистками — версия с Дипфейком имеет полное право на жизнь.
          Но если я заканчиваю в 18:00, а домой прихожу в 21:00, то такая версия уже не очень убедительна. Даже если я реально задерживаюсь на работе, потому что трудоголик.
            +1
            Без разницы. Дипфейк является не большим доказательством, чем анонимная записка.
            В вашем примере тоже во втором случае анонимная записка имеет больший вес. Но это не сделает её доказательством. Так и дипфейк не сделает доказательством.
            Опять же, ручную рисовку тоже никто не отменял. И без дипфейка можно подделать любое видео. И будет в разы качественней.
              +1
              А людям и не нужны доказательства, обычно, что бы составить мнение )
              И, тем более, никто не будет собирать суд и выяснять все обстоятельства досконально.
                0
                Да, через пару лет просто любое видеодоказательство будет для людей иметь эффект не больше чем анонимная записка.
                  +1
                  Вот в этом я и говорю.
                  Дипфейк — первая весточка в плане подрыва доверия к тому что мы воспринимаем.
                  Вот будут, к примеру, голограммы — мы не сможем доверять уже не только тому что в телевизорах показывают, но и тому что в реальности видим.
                  Это достаточно страшно — знать что то, что ты видишь неправда.
                    0
                    Подделка звука существует уже несколько лет. Это еще можно с натяжкой назвать первой ласточкой.
                      +1
                      Потому что мы, всё-таки, людей определяем не по звуку, а, большей частью, визуально. Звуки слишком легко спутать.
                      0
                      Дипфейк — первая весточка в плане подрыва доверия к тому что мы воспринимаем.
                      Мне кажется, вы тут делаете из мухи слона.
                        0
                        Мне кажется, вы тут делаете из мухи слона
                        методом дипфейка! )
                          0
                          Возможно.
                          Более того — меня не столько зацепила сама технология, как реакция на неё как корпораций, так и правительства… если такие круги на воде — значит упал большой булыжник )
                          но это имхо, конечно.
                            0
                            Более того — меня не столько зацепила сама технология, как реакция на неё как корпораций, так и правительства…
                            Тут я с вами искренне согласен. Ребята полагают, что у них персональный патент на фейки.
                    0
                    Доказательством для кого? Для суда — вероятно. Для жены — вполне себе. Анонимная записка не даст и близко того эффекта, что видео. И этого уже будет достаточно для уничтожения семьи.
                    Да, без Дипфейка тоже можно сделать фотомонтаж. Но с ним это сделать гораздо проще.
                      +2
                      Если во времена существования дипфейка этого достаточно чтобы разрушить семью — туда ей и дорогу. Не дипфейк разрушит, так подделанный звук, записка, или просто домыслы.
                        +1
                        Да, вот, есть большая разница между запиской и видео происходящего в плане того, чему поверят точно.
                          +2
                          Не есть. А БЫЛА. До того как появился дипфейк.
                          И это скорее хорошо, чем плохо.
                          Потому что раньше даже фейковое видео было доказательством и можно было шантажировать на том, чего не было. А сейчас — даже настоящее видео больше не является доказательством и шантажистам жить станет еще сложнее.
                          Конечно, как с фотошопом это займер время, прежде чем критическая масса людей узнает о дипфейке и станет с недоврием воспринимать фейковые видео.
                            0
                            Ну вот, я об этом и говорю.
                            Просто акцентировал внимание на том, что в данном случае это:
                            1. Источник информации вызывающий наибольшее доверие, после собственных глаз.
                            2. Сравнительно более сложный процесс создания фэйка, из-за чего именно этому источнику информации больше доверяли, чем, к примеру, анонимной записке.

                            Теперь же с этим могут быть проблемы )
                            ЗЫ: собственно, именно поэтому все так быстренько и кинулись это дело регулировать и бороть.
                              0
                              Слушайте. Сделайте дипфейк с собой в каком нибудь домашнем порно и подбросьте своей жене. Только камеру включить не забудьте, мы тоже хотим посмотреть как вы будете обьяснять разьяренной и обиженной женщине про дипфейки.
                                0
                                «Сделай, проведи эксперимент»
                                Прям удобно да, на меня всю работу скинуть?
                                А давайте вы сделаете такое порно? Ну чтобы нельзя было придраться. Мне и самому интересно. Да и вы не просто бодрое заявление в инете выскажите, а реально поучаствуете в предложенном вами эксперименте.
                                Мой аккаунт в сосцестях в профиле. Я даже все альбомы открыл, чтобы материала было достаточно для нейронки.
                                Как сделаете — скажите, я кину почту своей жены. Честное слово не буду её предупреждать.
                                Обязуюсь выложить сюда запись разговора, когда/если он состоится.
                                UPD: Впрочем о результате отпишусь, даже если сольетесь. Скажем ровно через неделю здесь будет отчет.

                                UPD2: Господа читающие — доверия троллям нет, господин скорее всего сольется. А эксперимент интересный. Так что приглашаю к участию заинтересованных лиц. Идея такая же — взять прфиль в ВК, сгенерировать компрометирующее видео, отправить его моей жене(контакты дам в личку). По результату через неделю с меня подробный отчет с аудиозаписью разборок(если получится записать), в худшем случае — текстовая расшифровка разговора, с подтверждением от жены, что текст соответствует содержанию разговора.
                                  0
                                  как вы будете обьяснять разьяренной и обиженной женщине про дипфейки.
                                  На неправду обычно не обижаются.)
                                    0
                                    А правде частенько не верят )
                      +2
                      Ну, первая такого масштаба.
                      Что, к примеру, могло так же «подставить»? )

                      Уничтожить человечество — нет. Подорвать доверие почти к любой визуальной информации — легко. А визуальной информации очень много и она распространена и влияет на людей, наверное, сильнее чем любая другая (хотя бы тем, что текстом большую часть визуального ряда не передать). (сомневаюсь, что кто то до сих пор читает газеты)

                      Наоборот, шантаж становится бессмысленной вещью, потому что любой шантаж можно спихнуть на дипфейк. Все только в выигрыше.
                      Моей жене всё-равно — дипфейк это был или нет, ей ничего не докажешь. Или девушке, чьё лицо приклеиле к порноактирисе тоже будет непросто объяснить всем что это не она. =) Как в прочем и отмыться от грязи всегда тяжелее, чем ей закидать )
                        –2
                        Дипфейк не дает новых возможностей очернить человека.
                        Он дает только автоматизацию этого процесса.
                          +1
                          Доёт, конечно. Раньше видео с человеком было на порядок сложнее смонтировать и подделать. Особенно в движении )

                          Вы, в чём то, правы, что это не первое. Первым, пожалуй, был фотошоп, но всё же, этого был слишком простой способ «подмены», что бы ему сильно доверяли. Вот видео — это дело посложнее.
                            +1
                            Вывод: надо первым заполнить интернет дипфейками с собой самим)
                              0
                              Кто знает, возможно кто то уже это сделал, и весь мир принимает кого то за знаменитость, вместо актёра, который реально играл )
                                0
                                Дипфейк сейчас ужасен, если не прилагать усилий — отличить подделку не составляет труда.
                                  0
                                  графика в играх и кино тоже была сначала ужасна.
                                  А теперь — она, местами, бывает реальнее реальности.
                                  Через пять лет дипфейки могут быть уже неотличимы без экспертизы от настоящего видео. Это может быть достигнуто за счёт больших вычислительных мощностей, лучших алгоритмов, новых источников данных для обучения (привет, миллион видео с одним и тем же человеком в любой обстановке)… и лучше испугаться (восхититься?) заранее, чем потом потерять над этим контроль.
                                    +1
                                    К тому времени все привыкнут, что дипфейки существуют.
                                    Ну и речь не просто про дипфейки, а про то, что «кто-то уже ими незаметно воспользовался». На текущем уровне развития дипфейка это невозможно.
                                    А вручную уже кучу раз лица актерами меняли.
                                      0
                                      Ну и речь не просто про дипфейки, а про то, что «кто-то уже ими незаметно воспользовался».

                                      Прошу прощения, я забыл тэг «ирония» и «покорми параною» )
                        +1
                        Так в СССР изначально запись на магнитофон не являлась доказательством в суде. И видео тоже. Эти доказательства должны быть записаны на сертифицированной аппаратуре, с пломбой на корпусе, с регулярной поверкой и т.д. Типа тех, что у всех полицаев и гайцев должны висеть на груди.
                        Я полагаю, что именно поэтому множественные видеозаписи со смартфонов не были приняты во внимание на суде над тем чуваком у метро, который просто вышел и стоял вдалеке от митингующих. Формально они не являются доказательством (по уголовным делам), поэтому судья не мог их принять во внимание с точки зрения закона. Понятно, что надо было вызвать и провести опрос свиделей и т.п, но тут, сами понимаете, честь мундира и все такое…
                      +2
                      Нужно изначально строить систему без применения биометрии.
                      Казалось бы фильмы/книги должны были предупредить об этом. Но тот же сбербанк продолжает собирать биометрию для верификации личности, как потом эта личность будет доказывать что не он/она перевели все деньги на неизвестный счёт, мне не ясно.
                      Максимум её можно применять в дополнение к существующим технологиям защиты и то лишь с целью отсеять слабо подкованных в теме мошенников.
                        0
                        Да уже в течении месяца с номера 900 звонят боты и задают вопросы, в надежде получить сокровенное ДА. А служба поддержки открещивается стандартной фразой «с 900 могут звонить партнеры...». Партнеры в полосочку из офиса в клеточку видать.
                          0
                          Аналогично у Альфа-банка, звонят с обычных мобильных номеров и предлагают кредитную карту, а сам банк отвечает: — это не мы это все мошенники. Ну-Ну.
                          0
                          Мне кажется, что вся эта затея с банками и биометрией — просто канарейка чтобы люди смекнули и вывели деньги в наличность. Явно банки этого сказать/рекомендовать не могут, вот и выкручиваются как могут.
                            0
                            Смекнёт 5-10%. Остальные разве что после крупных и массовых краж, хорошо «распиаренных» журналистами.
                          0
                          Новыми красками заиграло телефонное право в РФ, в случае если кто-то с «голосом» вышестоящего позвонит нижестоящему и прикажет отпустить какого-нить подозреваемого…

                          Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                          Самое читаемое