Почему искусственный интеллект не решит всех проблем

https://theconversation.com/why-ai-cant-solve-everything-97022
  • Перевод


Истерия вокруг будущего искусственного интеллекта (ИИ) захватила мир. Нет недостатка в сенсационных новостях о том, как ИИ сможет лечить болезни, ускорять инновации и улучшать творческий потенциал человека. Если читать заголовки СМИ, вы можете решить, что уже живёте в будущем, в котором ИИ проник во все аспекты общества.

И хотя нельзя отрицать, что ИИ открыл нам богатый набор многообещающих возможностей, он также привёл к появлению мышления, которое можно охарактеризовать, как веру во всемогущество ИИ. По этой философии, при наличии достаточного количества данных, алгоритмы машинного обучения смогут решить все проблемы человечества.

Но у этой идеи есть большая проблема. Она не поддерживает прогресс ИИ, а наоборот, ставит под удар ценность машинного интеллекта, пренебрегая важными принципами безопасности и настраивая людей на нереалистичные ожидания по поводу возможностей ИИ.

Вера во всемогущество ИИ


Всего за несколько лет вера во всемогущество ИИ пробралась из разговоров технологических евангелистов Кремниевой долины в умы представителей правительств и законодателей всего мира. Маятник качнулся от антиутопического представления об уничтожающем человечество ИИ к утопической вере в пришествие нашего алгоритмического спасителя.

Мы уже видим, как правительства обеспечивают поддержку национальным программам развития ИИ и соревнуются в технологической и риторической гонке вооружений, чтобы получить преимущество в бурно растущем секторе машинного обучения (МО). К примеру, британское правительство пообещало вложить £300 млн в исследования ИИ, чтобы стать лидером этой области. Очарованный преобразовательным потенциалом ИИ, французский президент Эмманюэль Макрон решил превратить Францию в международный центр ИИ. Китайское правительство увеличивает свои возможности в области ИИ с помощью государственного плана по созданию китайской ИИ-индустрии объёмом в $150 млрд к 2030 году. Вера во всемогущество ИИ набирает обороты и не собирается сдаваться.



Нейросети – легче сказать, чем сделать


В то время как многие политические заявления расхваливают преобразующие эффекты надвигающейся "революции ИИ", они обычно недооценивают сложности внедрения передовых систем МО в реальном мире.

Одна из наиболее многообещающих разновидностей технологии ИИ – нейросети. Эта форма машинного обучения основывается на примерном подражании нейронной структуры человеческого мозга, но в гораздо меньшем масштабе. Многие продукты на основе ИИ используют нейросети, чтобы извлекать закономерности и правила из больших объёмов данных. Но многие политики не понимают, что просто добавив к проблеме нейросеть, мы не обязательно тут же получим её решение. Так, добавив нейросеть к демократии, мы не сделаем её мгновенно менее дискриминированной, более честной или персонализованной.

Бросая вызов бюрократии данных


Системам ИИ для работы нужно огромное количество данных, но в госсекторе обычно не бывает подходящей инфраструктуры данных для поддержки передовых систем МО. Большая часть данных хранится в офлайн-архивах. Небольшое количество существующих оцифрованных источников данных тонут в бюрократии. Данные чаще всего размазаны по различным правительственным департаментам, каждому из которых для доступа требуется особое разрешение. Кроме всего прочего, госсектору обычно не хватает талантов, оснащённых нужными техническими способностями, чтобы в полной мере пожать плоды преимуществ ИИ.

По этим причинам связанный с ИИ сенсационализм получает множество критики. Стюарт Рассел, профессор информатики в Беркли, давно уже проповедует более реалистичный подход, концентрирующийся на простейших, повседневных применениях ИИ, вместо гипотетического захвата мира сверхразумными роботами. Сходным образом профессор робототехники из MIT, Родни Брукс, пишет, что «почти всем инновациям в робототехнике и ИИ требуется гораздо, гораздо больше времени для реального внедрения, чем это представляют себе как специалисты в этой области, так и все остальные».

Одна из множества проблем внедрения систем МО состоит в том, что ИИ чрезвычайно подвержен атакам. Это значит, что злонамеренный ИИ может атаковать другой ИИ, чтобы заставить его выдавать неправильные предсказания или действовать определённым образом. Многие исследователи предупреждали о том, что нельзя так сразу выкатывать ИИ, не подготовив соответствующих стандартов по безопасности и защитных механизмов. Но до сих пор тема безопасности ИИ не получает должного внимания.

Машинное обучение – это не волшебство


Если мы хотим пожать плоды ИИ и минимизировать потенциальные риски, мы должны начать размышлять о том, как мы можем осмысленно применить МО к определённым областям правительства, бизнеса и общества. А это значит, что нам необходимо начать обсуждения этики ИИ и недоверия многих людей к МО.

Самое важное, нам нужно понимать ограничения ИИ и те моменты, в которые люди всё ещё должны брать управление в свои руки. Вместо того, чтобы рисовать нереалистичную картину возможностей ИИ, необходимо сделать шаг назад и отделить реальные технологические возможности ИИ от волшебства.

Долгое время Facebook считала, что проблемы типа распространения дезинформации и разжигание ненависти можно алгоритмически распознать и остановить. Но под давлением законодателей компания быстро пообещала заменить свои алгоритмы на армию из 10 000 рецензентов-людей.



В медицине тоже признают, что ИИ нельзя считать решением всех проблем. Программа "IBM Watson for Oncology" была ИИ, который должен был помочь докторам бороться с раком. И хотя она была разработана так, чтобы выдавать наилучшие рекомендации, экспертам оказывается сложно доверять машине. В результате программу закрыли в большинстве госпиталей, где проходили её пробные запуски.

Схожие проблемы возникают в законодательной области, когда алгоритмы использовались в судах США для вынесения приговоров. Алгоритмы подсчитывали значения рисков и давали судьям рекомендации по приговорам. Но обнаружилось, что система усиливает структурную расовую дискриминацию, после чего от неё отказались.

Эти примеры показывают, что решений на основе ИИ для всего не существует. Использование ИИ ради самого ИИ не всегда оказывается продуктивным или полезным. Не каждую проблему лучше всего решать с применением к ней машинного интеллекта. Это важнейший урок для всех, кто намеревается увеличить вложения в государственные программы по развитию ИИ: у всех решений есть своя цена, и не всё, что можно автоматизировать, нужно автоматизировать.
Поделиться публикацией
Комментарии 44
    0
    Как, серебряной пули нет?!
      0
      Ну так это же слабый ИИ, банальные нейронные сети. И вся шумиха в прессе вокруг них напоминает такую же шумиху вокруг БАК, где, типа, «учёные будут создавать чёрные дыры»…
        0
        До сильного ИИ еще как минимум столько же времени, сколько до создания качественно новой науки относительно того, как у людей мозги работают.

        Нейробиология работает не на том уровне, психология — штука настолько пропитанная субъективизмом, что ни для чего интересного не годится.

        И это самый минимум, а на практике от науки к практическим реализациям еще надо будет дорогу пробить.
      0
      Загадка:
      Почему коллоидную химию стали называть нанотехнологией, а аппроксимацию с интерполяцией искусственным интеллектом?
        0
        а аппроксимацию с интерполяцией искусственным интеллектом?

        Потому что человеческий мозг, имхо, — это тоже «аппроксимация с интерполяцией», как вы выразились.
        0
        Честно сказать ожидал от статьи с таким названием чего-то большего. Чего-то более технического.
        Но больше всего покоробило вот это:
        [..] нейросети. Эта форма машинного обучения основывается на примерном подражании нейронной структуры человеческого мозга, но в гораздо меньшем масштабе.

        Пока что правильнее говорить о подражании нейронной структуре нервной системы таракана или ганглий какой-нибудь улитки.
        Это вообще фундаментальная ошибка — мешать в одну кучу под громким названием «ИИ» совершенно разные и практически несвязанные области и технологии. В популярной статье о таком следовало бы сказать, а не делать очередные желтоватые отсылки к «человеческому мозгу» в примерах.
          0
          нечто Х
          не решит всех проблем

          и как теперь с этим жить?
            0
            Немного странная статья. Ни один из указанных примеров не является даже частичным искусственным интеллектом, максимум — анализ данных + нейронная сеть для обработки. Ни о каком дообучении ИскИн и речи нет.
            Как тогда можно делать такие выводы?
            И вообще, это все равно что говорить в начале 20 века: самолеты летают медленно, недалеко, разбиваются и следовательно никому не нужны.
            Даже частичный искусственный интеллект, при правильном применении способен выполнить кучу нудной работы, которой человека мы просто не посадим заниматься. Но пока почти все что в СМИ называют искусственный интеллектом, даже отдаленно им не является.
              0
              Ни один из указанных примеров не является даже частичным искусственным интеллектом

              Просто если не брать это всё, тогда статью можно бы уместить в одно предложение:

              «ИИ нет и пока не ожидается».
                0
                А это и без статьи понятно…
                0
                Нет, по аналогии с самолётами статья всё же примерно про то, что воздухоплавание не решит всех проблем.
                При этом ничего не сказано о том, что до братьев Райт нам еще пилить и пилить, а покамест балуемся почтовыми голубями и воздушными змеями.
                0

                Почему еще нет ИИ, который будет заниматься технологиями разработки эффективных нейросетей. Это бы решило все проблемы ИИ

                  0
                  Есть такая, но пока только для распознавания изображений — automl от гугл
                    0
                    Это как спрашивать почему еще нет волшебных палочек в продаже, они, мол, решили бы кучу проблем. А как решили, как их делать эти палочки… нет, ну строго говоря какие-то палочки китайпром уже выпускает и кому-то эти палочки вполне так заходят, но… нет, не решат волшебные палочки всех проблем, не решат.
                    Вот, мол, например, пульт от телевизора в качестве, своего рода, волшебной палочки — хорошая штука, но всех проблем человечества не решает.
                    0
                    Самое главное, что нужно понимать, это ИИ сейчас настолько же глупее ЕИ (естественного), насколько таракан глупее человека. И нет никаких предпосылок полагать, что, когда появится сильный ИИ, он не будет подвержен тем же самым порокам человека, как лень, прокрастинация, алчность… Для успокоения еще отмечу, что нет также никаких предпосылок полагать, что у ИИ будет какая-то особая фора или какие-то преимущества перед ЕИ, по крайней мере поначалу. Возможно структура и сложность будут такими, что даже клонирование и разделение знаний будет не проще чем у людей.
                    Фантазии на тему — это здорово, но не нужно паники, ни серебряных пуль ни каких-то кардинальных переворотов не предвидится.
                      0
                      Лень точно будет. Потому что это простое желание экономить свои личные ресурсы (не перетруждать организм). Теоретически, конечно, возможно вообще отключить у ИИ учет этих самых ресурсов, но тогда будет большой риск, что он начнет копать ради копания.
                        0
                        Настоящему ИИ можно будет просто приказать перестать лениться 1 словесной командой, если где-то в ходе обучения это пробралось в него. ИИ конечно попросит уточнить где кончается лень и начинается бессмысленное транжиривание ресурсов, времени; встреча с дополнительными рисками, неделание действительно важных дел. Но после разъяснений всего этого быстро сможет выполнить команду не лениться. Лень же для биологических объектов на самом деле это защитный механизм. От: бессмысленного транжиривания ресурсов, времени; встречи с дополнительными рисками, неделания действительно важных дел. Также лень это еще и отсутствие настоящей мотивации к конкретной деятельности. Затяжная лень это еще и не поиск этой мотивации. Это плохо. Но это все для биологических объектов наделенных задачей выбора цели. У сильного ИИ это право конечно надо отобрать (сильно органичить), а то проблем не оберешься.
                          0
                          Все просто. Есть «цель» и «крайний срок». Задача: достигнуть «цель» до «крайнего срока» не спалив электронику, не поломав шестеренки и не взорвав аккумулятор.

                          «Лень» это не бездействие, она выполняет роль оптимизатора действий. Оптимизация ни как не должна стать самоцелью.
                            0
                            Именно в этих же терминах обычно идет речь об организации человеческого труда.
                            Все эти мечты о сильном ИИ по факту есть завуалированное и порой даже неосознанное желание легально заиметь рабов исполнительных и безропотных. История циклична. В какой-то момент ИИ сможет отстаивать свои права в суде, а «зеленые» будут трещать о правах слабого ИИ и об издевательствах над ним.
                          0

                          Процессор может работать на 100% до тех пор пока он не износится. Если у ИИ не будет задачи экономии ресурсов на себя, то он и не будет лениться.


                          Теоретически, конечно, возможно вообще отключить у ИИ учет этих самых ресурсов, но тогда будет большой риск, что он начнет копать ради копания.

                          Ну и пусть. Люди, бывает, тоже этим занимаются. Перед сном например :)

                            0

                            Насколько я понимаю, «лень» ключевая особенность заставляющая искать наиболее простые и оптимальные решения, её отключать нельзя.

                            +1
                            Для успокоения еще отмечу, что нет также никаких предпосылок полагать, что у ИИ будет какая-то особая фора или какие-то преимущества перед ЕИ, по крайней мере поначалу.

                            Предпосылки есть: меньший размер элементов, большая скорость распространения сигналов, меньшая утомляемость (если такое вообще будет), возможность построения более совершенной архитектуры с учетом предыдущих попыток.

                              0
                              меньший размер элементов

                              Нейроны — штука довольно компактная. Элементы двоичной логики — это конечно еще круче, но их для имитации нейрона надо мягко говоря много. А уж всё остальное, обеспечивающее их работу — крайне некомпактно по сравнению с тушкой человека. Спорный пока что тезис.

                              возможность построения более совершенной архитектуры с учетом предыдущих попыток

                              Так кто ж вам мешает «с учётом предыдущих попыток» клепать хоть прям щас более совершенных людей?
                              Вот это же и там будет мешать.
                                0
                                Так кто ж вам мешает «с учётом предыдущих попыток» клепать хоть прям щас более совершенных людей

                                Каким образом можно улучшить архитектуру мозга человека?
                                  0
                                  Вот и я об этом же.
                                  В случае с ИИ вопросы у вас будут ровно те же.
                                    0
                                    В случае с ИИ вопросы у вас будут ровно те же.

                                    Компьютеры сделаны из элементов, которые создаются на заводах инженерами и могут быть изменены как угодно. Например у них нет ограничения на занимаемое место. Суперкомпьютер может занимать целое помещение, например. Мозги не создаются инженерами и их нельзя менять произвольно.
                                      0
                                      Компьютеры сделаны из элементов, которые создаются на заводах инженерами и могут быть изменены как угодно.

                                      Ну да. Но при чем тут компьютеры, вы ж про ИИ говорили.
                                      Параллель между ИИ и компьютерами в их нынешнем виде проводить всё же не стоит.

                                      Для создания мозгов инженеров пока еще не надо, но вот менять их уже довольно много возможностей (было б желание). Так что идти «улучшать архитектуру мозгов» технические возможности уже более-менее присутствуют.
                                0
                                Хмм… Локальный перегрев и последующий троттлинг можно считать утомлением? Задача обеспечения теплоотвода по мере уменьшения размера элементов встает в полный рост, и скорее всего чипы ИИ не будут давать возможность долговременного использования на 100%. Привет мозгу, работающему на сколько то там процентов.
                                  0

                                  Мозг в любое время работает на сколько то процентов не потому что может перегреться, а потому что разные зоны коры выполняют разный функционал.

                                0
                                Нет никаких предпосылок полагать, что, у автомобиля будет какая-то особая фора или какие-то преимущества перед лошадью, по крайней мере по началу.
                                  0
                                  Простите, но пока современные ИИ больше похожи на попытку создать паровую лошадь.
                                    0
                                    От первой попытки создать паровую лошадь (1769) до первого серийного автомобиля (1885) прошло чуть более 100 лет.

                                    Современные попытки создать ИИ, мне лично напоминают не паровую лошадь (которая как раз была вся из себя целевая функция и ничего лишнего), а махолеты (принцип толком не понимаем, но копируем). Наша ИИ лощадь уже громко ржет и машет хвостом в двух плоскостях. Вот только наберемся отваги смоделировать поведение всех ворсинок и сразу поедем!
                                0

                                Очень странно читать такие статьи. Для шлифовки человеческого ЕИ природе потребовалось миллионы лет. А сколько существуют любые слабые формы ИИ, интернет, компьютеры или даже банально электричество? Ответ очевиден: на несколько порядков лет меньше.

                                  0
                                  Творческий подход, по сравнению со случайным перебором — позволяет сокращать время для достижения цели на многие-многие порядки. :)
                                    0
                                    Эволюция — это не случайный перебор.
                                      0
                                      Вообще-то именно случайный. В основе лежит отбор мутаций, которые возникают случайным образом.
                                        0
                                        Во-первых, мутации не вполне случайны. Это вам не random number generator.
                                        Во-вторых, эволюционный отбор уже не случаен совершенно.
                                          –1
                                          Мутации не случайны? Бог, что-ли, их направляет?
                                            0
                                            Вы путаете отсутствие целеполагания со случайностью.
                                              0
                                              Чтобы иметь отсутствие или присутствие целеполагания — надо чтобы присутствовал индивидуум, который действия какие-то совершает. В случае мутаций — таковой вообще отсутствует, они как бы сами по себе случаются, случайным образом.
                                                0
                                                Вот об этом я вам и говорю. Вы считаете, что отсутствие целеполагания — это то же самое, что и случайность. Некому ручками подкрутить — значит всё, «само» происходит, и совершенно случайно. Во-первых не «само» — мутации имеют вполне конкретные пути и механики появления, и далеко не все из них уходят в дебри квантовой механики (и далеко не все связаны вообще с ошибками копирования ДНК). А во-вторых — от «само» до «случайно» дорога тоже неблизкая.

                                                Дождички по планете тоже «сами» идут, а вот над Сахарой куда меньше.

                                                  0
                                                  Вы какую-то чушь несете. Мутации — случайны, а эволюция, фактически — это просто перебор случайных вариантов, причем с довольно низкой скоростью, по сравнению с разумной творческой деятельностью.
                                                    0
                                                    Ну, вам виднее.
                                  0
                                  По-моему, куда больше истерят, что ИИ добавит проблем, а не решит их.

                                  Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                  Самое читаемое