Как стать автором
Обновить
76.36
ПСБ
ПСБ – один из десяти крупнейших банков страны

Во благо или во вред: какие риски несет использование искусственного интеллекта в информационном пространстве

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров1.1K

Развитие технологий не стоит на месте ни секунды. Искусственный интеллект стал доступен всем совсем недавно, но его использование прочно пронизывает все сферы жизни: от мемов и написания дипломных работ до финансового анализа и даже управления транспортом. Однако за всеми преимуществами и технологическим прогрессом могут скрываться подводные не то, что камни, но даже рифы. В этом материале разбираемся, какие риски несет применение ИИ. 

Недавно в медиапространстве появилась новость, что миллиардер, предприниматель и создатель LinkedIn (заблокирован в России) Рид Хоффман взял интервью у самого себя. Но не обычным способом, а с помощью ИИ.

Хоффман создал своего цифрового клона и пообщался с ним. Этим видео он поделился в своем YouTube-канале. И ролик мгновенно завирусился в сети и СМИ, чем вызвал шквал обсуждений.

История очень похожа на шумиху вокруг дипфейков. Это современная технология, которая представляет собой правдивое фото и его доработку на основе ИИ. Алгоритм нейросети анализирует большое количество снимков и учится, как двигается, выглядит и даже говорит конкретный человек. Термин deepfake буквально объединяет два понятия: «глубокое обучение» (имеется в виду искусственного интеллекта) [deep learning] и «подделка» [fake].

Было бы смешно, если бы не было так грустно

Дипфейки используются давно и уже вышли за рамки мемов и видео из соцсетей. Многие видели или хотя бы слышали о российском комедийном веб-сериале с Джейсоном Стэйтемом и Киану Ривзом «ПМЖейсон». Не с настоящими звездами, конечно, а с их цифровыми двойниками. Кстати, это первый в мире дипфейк-сериал.

Еще один пример — первый эпизод шестого сезона известного научно-фантастического сериала «Черное зеркало» под названием «Ужасная Джоан» (Joan Is Awful). Серия посвящена дипфейкам и реальным проблемам, которые могут быть вызваны бездумным использованием ИИ.

Так, главная героиня Джоан узнает, что по мотивам ее жизни на стриминговой платформе появляется сериал. Все события, происходящие с ней, в тот же день переносятся на экран с помощью систем слежения и CGI (изображения, сгенерированные компьютером). Как можно догадаться, главная героиня портит отношения со всеми родными и близкими и начинает жить в настоящем аду. И все потому, что она не глядя поставила галочку в пользовательском соглашении того самого онлайн-кинотеатра и буквально дала разрешение на экранизацию своей личной жизни.

Было бы смешно, если бы не было так грустно, поскольку в виртуальном пространстве каждый день сотни тысяч людей теряют личные данные, а с развитием ИИ — еще и лица.
 
К слову, совсем недавно, на инаугурации президента России, его пресс-секретарь Дмитрий Песков высказался о дипфеках. Журналист дал ему послушать сгенерированную ИИ запись, где представитель Кремля говорит о Павле Дурове и его интервью Такеру Карлсону. После услышанного Песков призвал россиян внимательнее относится к тому, что мы видим в интернете и критически относиться к любому контенту. И он прав.
 
Еще немного про риски и как их избежать

В начале года в СМИ стала появляться информация о том, что ИИ освоили и мошенники. Киберпреступники хакают аккаунты жертв в мессенджерах, изучают манеру общения, а если человек отправляет коллегами и близкими голосовыми сообщения и «кружочки», то быть беде. Злоумышленники генерируют с помощью нейросетей изображение или аудио, затем вступают в диалог, например, с друзьями жертвы.

К реализации подобных рисков ведет недостаточное правовое регулирование и слабое понимание работы ИИ, считает QA Lead ПСБ проекта «Чат-бот» Михаил Костецкий.

«Сам по себе искусственный интеллект не несет в себе негатива, все зависит от контекста его использования. В настоящее время большинство применяемых в этой области технологий основано на экономической выгоде, и дипфейки не являются исключением. На мой взгляд, это одно из эволюционных направлений ИИ, которое будет в дальнейшем только развиваться. В частности, область медиа. Это одна из самых креативных сфер, поэтому не берусь говорить о перспективах, но, думаю, в скором времени мы увидим такие цифровые копии не только в кино, но и в обычном блоге в качестве ведущего», – добавил эксперт.

Михаил также дал советы, как обезопасить себя от «дипфейковых» и других рисков использования ИИ:

«Цифровая гигиена и контроль за использованием своих персональных данных, в том числе и за сбором биометрии и цифровых клонов, — это то, на что в первую очередь стоит обращать внимание в современном мире. Соблюдение этих правил поможет минимизировать риски негативных сценариев применения ваших цифровых копий».

По словам тимлида и руководителя проекта «Чат-банк» ПСБ Ивана Бутырского, риски в работе с ИИ в первую очередь зависят от области применения технологии.

«Для финтеха это, конечно, вызов и, к сожалению, отрасль пока не готова контролировать технологии дипфейков в полной мере. Внедрение этих возможностей в финансовом секторе с высоким уровнем риска невозможно без параллельного развития информационной безопасности», — отметил он.

Эксперт добавил, что использование ИИ для медиа и маркетинговых проектов — дело обычное. Но любая технология может попасть в руки мошенников и служить инструментом реализации неправомерных действий. Однако здесь, как считает Иван Бутырский, в скором времени появятся разработки для распознавания фейков.
 
Руководитель проекта «Чат-банк» ПСБ также отметил и положительные аспекты в использовании ИИ повсеместно.

«Для интернет-банкинга это прекрасная возможность реализовать персонализированных ассистентов, которые были бы всегда доступны в вашем телефоне. Считаю, что развитие этой технологии позволит сделать шаг вперед от текстовых чатов к полноценным виртуальным ассистентом с «живыми» аватарами. Возможно, технологии будут применяться в связке с технологией дополненной реальности, например, в виртуальных офисах», — заключил эксперт.

Стоит отметить, что сами по себе технологии – это не плохо и не опасно, но может сделать современную жизнь лучше, например, помочь врачам быстрее ставить диагноз или финансовым аналитикам улучшить работу в банковском секторе. В общем, много всего.

В заключение добавим, что стоит всегда внимательно читать соглашения об обработке персональных данных, не подписывать что попало и чаще менять пароли от аккаунтов в мессенджерах и соцсетях. И, конечно, не сообщать неизвестным данные банковских карт или паспорта. Иначе можете оказаться на месте героини Джоан из «Черного зеркала».

Теги:
Хабы:
Всего голосов 3: ↑2 и ↓1+3
Комментарии0

Публикации

Информация

Сайт
www.psbank.ru
Дата регистрации
Дата основания
Численность
свыше 10 000 человек
Местоположение
Россия
Представитель
Наталья Низкоус