Крупные IT-корпорации замораживают некоторые ИИ-проекты по этическим соображениям
Уровень развития искусственного интеллекта сейчас достиг таких высот, что руководителям IT-корпораций иногда приходится жать на «красную кнопку». То есть, останавливать реализацию некоторых проектов с применением искусственного интеллекта, чаще всего — по этическим соображениям.
И речь здесь вовсе не о проблемах, красочно показанных Джеймсом Кэмероном в «Терминаторе». Искусственный интеллект неспособен угрожать человечеству хотя бы потому, что это слабая форма ИИ, а не полноценный разум. Все немного проще — мы говорим о синтезе голосов, максимально приближенных к оригиналу, алгоритмам отбора людей, которым стоит (или нет) предоставить кредит и т.п.
Несколько примеров
В сентябре прошлого года облачное подразделение корпорации Google начало работу над ИИ-системой, которая помогала бы решать финансовой компании кому дать денег, а кому — нет. Это была не инициатива Google, а заказ клиента, как можно догадаться — весьма крупного.
Но через несколько недель проект пришлось спустить на тормозах по этическим соображениям. Дело в том, что речь зашла об использовании в ходе отбора таких факторов, как пол и раса просителя. Сейчас это крайне болезненная и запутанная тема, поэтому в Google решили не продолжать работу над проектом.
Кроме того, компания в начале 2021 году приняла решение остановить еще один проект, который дает возможность анализировать эмоции. Проект закрыт с немного размытой формулировкой о «культурной нечувствительности». Ну а Microsoft приостановила проект по синтезу голосов людей, крайне похожих на оригинал (актеры, знаменитости или просто обычные люди). В IBM в этом году решили не работать над проектом по созданию продвинутой системы распознавания лиц людей — это тоже был запрос клиента.
Все эти проекты остановлены по команде сверху — то есть, руководством. Топы IT-корпораций не хотят затрагивать темы этики, культуры и т.п., поэтому предпочитают либо вовсе остановить некоторые проекты, либо откладывают их до лучших времен.
При этом большинство проектов потенциально выгодны с коммерческой точки зрения. Компании не хотят конфликтных ситуаций из-за денег, поэтому стремятся занять нейтральную позицию.
«Существуют возможности и проблемы, наша задача — максимизировать возможности и минимизировать проблемы», — прокомментировала ситуацию Трейси Пиццо Фрей, член двух комитетов по этике Google Cloud в качестве управляющего директора Responsible AI.
Регулирование ИИ
Microsoft, например, приходится балансировать, пытаясь сочетать этические вопросы с финансовой заинтересованностью. Речь идет о синтезе голоса, о чем говорилось выше — чем совершеннее становится сервис и технологии компании, тем выше опасность подделки голосов политиков, актеров и знаменитостей. Дипфейки — реальность сегодняшнего дня, и в некоторых случаях она может быть достаточно опасной.
Правозащитники утверждают, что решения, которые могут иметь последствия для общества, не должны приниматься в одиночку. Они же высказывают опасения насчет прозрачности работы различных комитетов по этике, которые спешно собирают корпорации. Понятно, что такие внутренние комитеты не могут быть незаангажированы — они всегда будут блюсти интересы своей компании.
Корпорации же обещают, что будут создавать максимально прозрачные условия при работе с ИИ-технологиями. Один из способов добиться этого — законодательное регулирование. Правда, по словам все тех же представителей IT-корпораций, регулирование должно быть достаточно гибким — для того, чтобы не останавливать прогресс, а лишь избавлять общество от разного рода опасностей.
Но проблема не только в подделке голосов или распознавании лиц и эмоций. Есть и другие технологии — например, нейроинтерфейсы. Сейчас это актуальный вопрос, но понятно, что носимые гаджеты или вживляемые импланты, которые позволяют полностью или частично «подключить» человека к компьютеру потенциально опасны. Что может сделать злоумышленник, если, к примеру, перехватит контроль над компьютерной системой, которая помогает частично парализованному или лишенному конечностей человеку двигаться? Ведь сейчас разработчики имплантов и искусственных конечностей не особо внимательны в вопросах информационной безопасности — для них важнее работоспособность своих систем.
Комитеты по этике
Технологические корпорации стали активно продвигать разные ИИ-системы несколько лет назад. И почти сразу же возникли проблемы. Здесь можно вспомнить чат-бота от Microsoft для Twitter, который стал публиковать расистские высказывания или тегирование пользователей Facebook.
Для того, чтобы избежать возможных проблем, Microsoft, Google, IBM и другие компании стали собирать комитеты по этике. Их участники рассматривают и обсуждают технологические проекты, которые корпорации планируют отправлять в разработку.
Представители комитетов, куда входят топы корпораций, ученые, специалисты по разным технологиям, имеют право наложить вето на тот либо иной проект. Так произошло с сервисом Google по выбору людей, которым можно было бы предоставить кредит. Потенциально такая система могла бы оказаться очень прибыльной — в первую очередь, для банков и финансовых организаций. Но вопросы этики не позволили Google продолжать разработку.
У Google два таких комитета — Lemonaid и Ice Tea. Решение остановить финансовый проект принял первый комитет. Второй решил остановить разработку распознавания эмоций — насколько можно понять, потому, что у разных культур эмоции разные, и могут быть ошибки, которые негативно воспримет общество.
Дипфейки и пандемия
Корпорация Microsoft, как и говорилось выше, разрабатывает технологии, позволяющие почти идеально синтезировать лица людей, близкие к оригиналу и/или голоса. Соответственно, дипфейки получаются настолько реалистичными, что даже специалисты не всегда могут отличить дипфейк от реальности.
В этом случае речь не идет о полной остановке проекта. Так, технологии Custom Neural Voice можно применять, но есть ограничения, установленные членами комитета по этике.
Корпорация IBM решила отказаться от запроса клиента, которому нужна была система распознавания лиц. Но не простая, а «коронавирусная» — клиент хотел получить систему, которая способна отличить больного человека от здорового. Вопрос обсуждался достаточно долго, но через шесть месяцев после обращения клиента проект было решено не реализовывать.
А что насчет регуляторов?
Как регуляторы ЕС, так и США стремятся снизить вероятность появления этических и культурных проблем, связанных с искусственным интеллектом.
Компании, которые занимаются разработкой сложных ИИ-проектов, которые могут поднимать этические вопросы, будут тщательно проерять и анализировать. В частности, регулятор постарается оценивать проекты по отбору сотрудников, выделению кредитов и т.п. максимально осторожно.
Насколько можно понять, компании учатся избегать ненужных рисков, и через время попробуют реализовать некоторые проекты, приостановленные сейчас. Но это невозможно до момента, когда будут выработаны строгие правила оценки таких проектов, а также разработана государственная регуляторная политика в отношении ИИ.