Pull to refresh

Почему искусственный интеллект не решит всех проблем

Reading time4 min
Views8.1K
Original author: Vyacheslav Polonski


Истерия вокруг будущего искусственного интеллекта (ИИ) захватила мир. Нет недостатка в сенсационных новостях о том, как ИИ сможет лечить болезни, ускорять инновации и улучшать творческий потенциал человека. Если читать заголовки СМИ, вы можете решить, что уже живёте в будущем, в котором ИИ проник во все аспекты общества.

И хотя нельзя отрицать, что ИИ открыл нам богатый набор многообещающих возможностей, он также привёл к появлению мышления, которое можно охарактеризовать, как веру во всемогущество ИИ. По этой философии, при наличии достаточного количества данных, алгоритмы машинного обучения смогут решить все проблемы человечества.

Но у этой идеи есть большая проблема. Она не поддерживает прогресс ИИ, а наоборот, ставит под удар ценность машинного интеллекта, пренебрегая важными принципами безопасности и настраивая людей на нереалистичные ожидания по поводу возможностей ИИ.

Вера во всемогущество ИИ


Всего за несколько лет вера во всемогущество ИИ пробралась из разговоров технологических евангелистов Кремниевой долины в умы представителей правительств и законодателей всего мира. Маятник качнулся от антиутопического представления об уничтожающем человечество ИИ к утопической вере в пришествие нашего алгоритмического спасителя.

Мы уже видим, как правительства обеспечивают поддержку национальным программам развития ИИ и соревнуются в технологической и риторической гонке вооружений, чтобы получить преимущество в бурно растущем секторе машинного обучения (МО). К примеру, британское правительство пообещало вложить £300 млн в исследования ИИ, чтобы стать лидером этой области. Очарованный преобразовательным потенциалом ИИ, французский президент Эмманюэль Макрон решил превратить Францию в международный центр ИИ. Китайское правительство увеличивает свои возможности в области ИИ с помощью государственного плана по созданию китайской ИИ-индустрии объёмом в $150 млрд к 2030 году. Вера во всемогущество ИИ набирает обороты и не собирается сдаваться.



Нейросети – легче сказать, чем сделать


В то время как многие политические заявления расхваливают преобразующие эффекты надвигающейся "революции ИИ", они обычно недооценивают сложности внедрения передовых систем МО в реальном мире.

Одна из наиболее многообещающих разновидностей технологии ИИ – нейросети. Эта форма машинного обучения основывается на примерном подражании нейронной структуры человеческого мозга, но в гораздо меньшем масштабе. Многие продукты на основе ИИ используют нейросети, чтобы извлекать закономерности и правила из больших объёмов данных. Но многие политики не понимают, что просто добавив к проблеме нейросеть, мы не обязательно тут же получим её решение. Так, добавив нейросеть к демократии, мы не сделаем её мгновенно менее дискриминированной, более честной или персонализованной.

Бросая вызов бюрократии данных


Системам ИИ для работы нужно огромное количество данных, но в госсекторе обычно не бывает подходящей инфраструктуры данных для поддержки передовых систем МО. Большая часть данных хранится в офлайн-архивах. Небольшое количество существующих оцифрованных источников данных тонут в бюрократии. Данные чаще всего размазаны по различным правительственным департаментам, каждому из которых для доступа требуется особое разрешение. Кроме всего прочего, госсектору обычно не хватает талантов, оснащённых нужными техническими способностями, чтобы в полной мере пожать плоды преимуществ ИИ.

По этим причинам связанный с ИИ сенсационализм получает множество критики. Стюарт Рассел, профессор информатики в Беркли, давно уже проповедует более реалистичный подход, концентрирующийся на простейших, повседневных применениях ИИ, вместо гипотетического захвата мира сверхразумными роботами. Сходным образом профессор робототехники из MIT, Родни Брукс, пишет, что «почти всем инновациям в робототехнике и ИИ требуется гораздо, гораздо больше времени для реального внедрения, чем это представляют себе как специалисты в этой области, так и все остальные».

Одна из множества проблем внедрения систем МО состоит в том, что ИИ чрезвычайно подвержен атакам. Это значит, что злонамеренный ИИ может атаковать другой ИИ, чтобы заставить его выдавать неправильные предсказания или действовать определённым образом. Многие исследователи предупреждали о том, что нельзя так сразу выкатывать ИИ, не подготовив соответствующих стандартов по безопасности и защитных механизмов. Но до сих пор тема безопасности ИИ не получает должного внимания.

Машинное обучение – это не волшебство


Если мы хотим пожать плоды ИИ и минимизировать потенциальные риски, мы должны начать размышлять о том, как мы можем осмысленно применить МО к определённым областям правительства, бизнеса и общества. А это значит, что нам необходимо начать обсуждения этики ИИ и недоверия многих людей к МО.

Самое важное, нам нужно понимать ограничения ИИ и те моменты, в которые люди всё ещё должны брать управление в свои руки. Вместо того, чтобы рисовать нереалистичную картину возможностей ИИ, необходимо сделать шаг назад и отделить реальные технологические возможности ИИ от волшебства.

Долгое время Facebook считала, что проблемы типа распространения дезинформации и разжигание ненависти можно алгоритмически распознать и остановить. Но под давлением законодателей компания быстро пообещала заменить свои алгоритмы на армию из 10 000 рецензентов-людей.



В медицине тоже признают, что ИИ нельзя считать решением всех проблем. Программа "IBM Watson for Oncology" была ИИ, который должен был помочь докторам бороться с раком. И хотя она была разработана так, чтобы выдавать наилучшие рекомендации, экспертам оказывается сложно доверять машине. В результате программу закрыли в большинстве госпиталей, где проходили её пробные запуски.

Схожие проблемы возникают в законодательной области, когда алгоритмы использовались в судах США для вынесения приговоров. Алгоритмы подсчитывали значения рисков и давали судьям рекомендации по приговорам. Но обнаружилось, что система усиливает структурную расовую дискриминацию, после чего от неё отказались.

Эти примеры показывают, что решений на основе ИИ для всего не существует. Использование ИИ ради самого ИИ не всегда оказывается продуктивным или полезным. Не каждую проблему лучше всего решать с применением к ней машинного интеллекта. Это важнейший урок для всех, кто намеревается увеличить вложения в государственные программы по развитию ИИ: у всех решений есть своя цена, и не всё, что можно автоматизировать, нужно автоматизировать.
Tags:
Hubs:
If this publication inspired you and you want to support the author, do not hesitate to click on the button
Total votes 20: ↑14 and ↓6+8
Comments44

Articles