Основная проблема искусственного интеллекта в том, что никто до конца не понимает, как он работает

Автор оригинала: Will Knight
  • Перевод


В прошлом году по дорогам округа Монмут, Нью-Джерси, стал колесить странный робомобиль. Это экспериментальное транспортное средство, разработанное специалистами компании Nvidia, по внешнему виду не слишком отличается от других автономных машин других производителей, таких как Google, Tesla или General Motors. Но специально для этого автомобиля разработана новая система управления. Она самообучается, и не зависит от настроек, заданных на производстве. Вместо этого робомобиль следит за действиями человека-водителя и учится у него.

Это немного необычный способ обучения робомобиля. С другой стороны, мало кто до конца представляет себе, как машина принимает решения. Информация с сенсоров, радаров и лидаров поступает в нейросеть, где эти данные обрабатываются с выделением четких правил управления рулевым колесом, тормозами и другими системами. В итоге получается, что действия робомобиля зачастую схожи с действиями водителя-человека, попавшего в ту же ситуацию на дороге. Возникает вопрос — может ли машина принять странное решение в одном из случаев — например, врезаться в дерево на полном ходу или постоять на светофоре, когда горит зеленый?

Нейросеть, обрабатывающая информацию можно сравнить с черным ящиком. Нет, конечно, специалисты представляют себе принцип обработки данных нейросетью в общих чертах. Но проблема в том, что самообучение — это не до конца предопределенный процесс, так что на выходе можно ожидать иногда абсолютно неожиданные результаты. В основе всего лежит глубокое обучение, которое уже позволило решить ряд важных проблем, включая обработку изображений, распознавание речи, перевод. Возможно, нейросети смогут диагностировать заболевания на ранней стадии, принимать правильные решения при торговле на бирже и выполнять сотни других важных для человека действий.

Но сначала нужно найти пути, которые позволят лучше понимать то, что происходит в самой нейросети при обработке данных. В противном случае сложно, если вообще возможно, предсказать возможные ошибки систем со слабой формой ИИ. А такие ошибки обязательно будут. Это одна из причин, почему автомобиль от Nvidia до сих пор находится в стадии тестирования.

Человек сейчас применяет математические модели для того, чтобы облегчить для себя задачу выбора — например, определить надежного заемщика денежных средств или найти сотрудника с необходимым опытом для какой-то работы. В целом, математические модели и процессы, которые их используют, относительно просты и понятны. Но военные, коммерческие компании, ученые сейчас используют гораздо более сложные системы, чьи «решения» основываются не на результатах работы одной-двух моделей. Глубокое обучение отличается от обычных принципов работы компьютеров. По мнению Томми Джаакола, профессора из MIT, эта проблема становится все более актуальной. «Что бы вы ни делали — принимали решение об инвестициях, пытались поставить диагноз, выбрали точку атаки на поле боя, все это не должно зависеть от метода „черного ящика“», — говорит он.

Это понимают уже не только ученые, но и чиновники. Начиная с лета следующего года Европейский Союз вводит новые правила для разработчиков и поставщиков решений автоматизированных компьютерных систем. Представители таких компаний будут обязаны объяснять пользователям, как работает система, и по какому принципу принимаются решения. Проблема в том, что это может оказаться невозможным. Да, объяснять базовые принципы работы нейросетей можно без проблем, но вот то, что там происходит во время обработки сложной информации, мало кто может точно рассказать. Даже создатели таких систем не могут объяснить все «от и до», поскольку процессы, протекающие в нейросети во время обработки информации, очень сложные.

Никогда прежде человек не строил машины, принцип работы которых не до конца понятен сами создателям и резко отличается от способа обработки информации, используемого самим человеком. Так можно ли ожидать нормального взаимодействия с машинами, работа которых непредсказуема?


Картина, подготовленная художником Адамом Ферриссом при помощи Google Deep Dream

В 2015 году исследовательская группа Mount Sinai Hospital из Нью-Йорка использовала глубокое обучение для обработки базы данных записей пациентов. База данных включала информацию о тысячах пациентов с сотнями строк информации по каждому человеку вроде результатов тестов, дате посещения врача и т.п. В результате появилась программа Deep Patient, которая обучилась на примере записей 700 тысяч человек. Результаты, которые показывала эта программа, оказались необычайно хорошими. Например, она смогла предсказывать появление некоторых болезней на ранней стадии у ряда пациентов.

Однако, результаты оказались и немного странными. Например, система начала отлично диагностировать шизофрению. Но даже для опытных психиатров диагностика шизофрении — сложная проблема. А вот компьютер справился с ней на «ура». Почему? Никто не может объяснить, даже создатели системы.

Изначально разработчики ИИ разделялись на два лагеря. Сторонники первого говорили, что машину нужно программировать так, чтобы все процессы, которые происходят в системе, можно было видеть и понимать. Второй лагерь придерживался идеи, согласно которой машина должна обучаться сама, получая данные из максимального количества источников с последующей самостоятельной обработкой таких данных. То есть, сторонники этой точки зрения, фактически, предложили, чтобы каждая нейросеть была «сама себе хозяин».

Все это оставалось чистой воды теорией до настоящего момента, когда компьютеры стали достаточно мощными для того, чтобы специалисты по искусственному интеллекту и нейросетям могли начать реализовывать свои идеи на практике. За последние десять лет было реализовано огромное количество идей, появились отличные сервисы, помогающие переводить тексты с языка на язык, распознавать речь, обрабатывать видеопоток в режиме реального времени, работать с финансовыми данными, оптимизировать процессы производства.



Но проблема в том, что практически любая технология машинного обучения не слишком прозрачна для специалистов. В случае с «ручным» программированием дело обстоит гораздо проще. Конечно, нельзя говорить о том, что будущие системы будут непонятными ни для кого. Но по своей природе глубокое обучение — это своего рода «черный ящик».

Нельзя просто посмотреть на принципы работы нейронной сети и предсказать результат, который мы получим в результате обработки какого-то массива данных. Внутри «черного ящика» — десятки и сотни «слоев нейронов», связанных между собой в достаточно сложном порядке. Причем значение для конечного результата имеет не только работа слоев, но и отдельных нейронов. Человек в большинстве случаев не может предсказать, что появится на выходе нейронной сети.

Один из примеров того, насколько работа нейросети отличается от работы мозга человека — система Deep Dream. Это проект Google, нейросеть, в которую вводили обычную фотографию и давали цель преобразовать это фото в соответствии с определенной темой. Ну, например, сделать все объекты на снимке похожими на собак. Результаты впечатлили всех. Как-то в систему ввели задачу генерировать изображение гантели. Система справилась, но во всех случаях к гантели были пририсованы руки людей — нейросеть решила, что гантель-рука — едина система, которую нельзя рассматривать, как два отдельных элемента.



Специалисты считают, что требуется лучше понимать, как работают такие системы. Это нужно по той простой причине, что нейросети начинают использовать во все более важных сферах, где ошибка может привести к печальному финалу (торговля ценными бумагами — один из примеров). «Если у вас — небольшая нейросеть, вы можете прекрасно понимать, как она работает. Но когда нейросеть вырастает, количество элементов в ней увеличивается до сотен тысяч нейронов на слой с сотнями слоев — в этом случае она становится непредсказуемой», — говорит Джааккола.

Тем не менее, нейросети нужно использовать в работе, в той же медицине. Медики недооценивают важность многих данных, человек просто не в состоянии охватить взглядом и найти связи между сотнями записей в истории болезни пациентов. А машина — может, и в этом огромная ценность нейросетей и глубинного обучения вообще.

Военные США вложили миллиарды долларов в разработку систем автоматического управления дронами, определения и идентификации различных объектов, анализа данных. Но и военные считают, что работа таких систем должна быть понятной и объяснимой. Те же солдаты, закрытые в танке с автоматическим управлением будут чувствовать себя очень некомфортно в том случае, если не будут понимать, как и что работает, почему система приняла такое решение, а не другое.

Возможно, в будущем эти системы будут пояснять свои действия. Например, Карлос Гуестрин, профессор из Вашингтонского университета, разработал компьютерную систему, которая поясняет промежуточные результаты своих вычислений. Эта система может использоваться для анализа электронных сообщений. Если какое-то из них оценено компьютером, как отправленное условным террористом, то обязательно будет дано пояснение, почему сделан именно такой вывод.

По мнению ученого, объяснения должны быть достаточно простыми и понятными. «Мы еще не достигли мечты, где ИИ просто ведет с вами беседу и может объяснять», — говорит Гуестрин. «Мы лишь в начале долгого пути по созданию прозрачного ИИ».

Понимание причин, которые привели ИИ к определенному результату важно, если мы хотим сделать ИИ частью нашей жизни, причем полезной частью. Это актуально не только в случае военных, а относится и к Siri или любым другим цифровым помощникам. Например, если запросить Siri дать выборку ближайших ресторанов, то многим хочется понять, почему показаны именно эти рестораны, а не другие. Важный критерий внедрения ИИ — доверие человека к компьютерным системам.

Наверное, все же нельзя заставить компьютер объяснять все свои действия и решения — ведь, например, поступки и решения любого человека зачастую невозможно понять. Они зависят от большого количества факторов. А чем сложнее нейросеть, тем больше таких факторов она принимает во внимание и анализирует.

Здесь возникает ряд сложных вопросов этического и социального характера. Например, в случае с теми же военными, когда речь идет о создании автоматизированных танков и других машин для убийства, важно, чтобы их решения соответствовали этическим нормам человека. Собственно, убийство само по себе может не соответствовать этическим нормам многих из нас. Но эти решения должны быть хотя бы приемлемыми для большинства. Хотя, что представляет собой это большинство? Тоже вопрос.

Дэниэлл Денетт, философ из Университета Тафтса, говорит следующее: «Я считаю, что если мы собираемся использовать эти вещи и зависеть от них, тогда нужно понимать, как и почему они действуют так, а не иначе. Если они не могут лучше нас объяснить, что они делают, то не стоит им доверять».  
Madrobots
110,38
Приближаем сингулярность за ваши деньги
Поделиться публикацией

Комментарии 12

    0
      0
      Что-то похожее уже было: geektimes.ru/post/288961/.

      При подборе материала рекомендую использовать кастомный поиск по двум сайтам, который я создал. Это значительно проще, чем забивать в поиск сначала «site:habrahabr.ru», а потом «site:geektimes.ru».
        +1
        Основная проблема искусственного интеллекта в том, что никто до конца не понимает, как он работает

        Конечно не понимают, ведь ИИ ещё не создали. А как работают нейронные сети – их разработчики прекрасно понимают. Насколько я далёк от математики, и то – недавно прошёл небольшой курс и более менее разобрался.

          0
          Ну речь же не о том, как работают нейросети, а о том, что обученная нейросеть реализует некий алгоритм, который невозможно перевести в привычный «блоксхемный» вид, удобный для понимания человеками. Следовательно, нельзя достоверно предсказать реакцию на событие, которое не происходило ранее.

          Промышленного робота «А» запрограммировали прекращать перемещение, если есть сигнал с датчика прикосновения, и мы можем быть уверены, что если на его пути будет велосипед, стена или маленькая девочка в платье с блестками, он остановится. А другого робота «В» заставили самому подстраивать коэфициенты, которые транслируют вход с датчиков в выход на моторы, так, что в условиях, сходных с обучающей выборкой, он будет вести себя как ожидается. А как он отреагирует на условия вне выборки? Вот это как раз и «не понятно до конца» автору статьи

          PS надо учить по GTA5, там можно симулировать реакцию людей на аварийные ситуации
            0

            Не вижу разницы между


            как работают нейросети
            и
            нейросеть реализует некий алгоритм

            Нейронная сеть – это не магия, это строгая математика. Какой алгоритм в неё заложили – так она его и будет реализовывать. И если в алгоритме обучения сети нет ошибок, то на новые данные она будет реагировать очень даже ожидаемо.


            Вот это как раз и «не понятно до конца» автору статьи

            Автору статьи, в этом случае, надо пройти базовый курс по нейронным сетям, а не бросаться громкими фразами.

          +1
          Сложно относится серьезно к статьям в которых есть клише типа «Основная проблема чего-то\кого-то», «Ни кто не понимает». Даже если ни кто не понимает, то в чем тут проблема? Вот обычный человек не понимает как работает телевизор, и проблем ни каких не испытывает.

          Я такой заголовок читаю как: «Мы (автор статьи и его друзья) не понимаем как работает ИИ, и у нас это вызывает проблемы и стыд.»
            +1
            Как будто кто-то до конца понимает как работает «естественный» интеллект.
              0
              В аналоговой белковой голове гораздо больше тараканов.
              Кажется сама проблема высосана из пальца и подайтся журналистами не совсем корректно, в духе рентв.
                0
                Вопрос в том, стоит ли доверять бездоказательным решениям, построенным только на опыте сети.
                  0
                  Если ИИ нельзя доверять, то почему же тогда Google делает на него ставку в своей программе Alphabet?
                    0
                    Оператор АЭС тоже мог бы внезапно сойти с ума и устроить катастрофу. Поэтому там дублирование, дежурит не один человек, а несколько. И ядерную ракету можно запустить только два оператора, а не один. Так почему бы не использовать в критически важных задачах три разных нейросети? Пусть решение принимается только, если 2 или 3 нейросети голосуют за него. Одинаковый глюк у разных нейросетей не возникнет.
                      0

                      почему-то мне кажется что достаточно иметь огроменный накопитель на котором будет лог обучения и какие нейроны в каких слоях в какое состояние переключились после прохода картинки по обучению… ну а потом при возникновении спорного момента — достаточно будет достать все нейроны, отработавшие в принятии этого решения и показать исходники которые эти нейроны затрагивали группируя по слоям. чисто в теории тогда можно было бы и увидеть что картинки с гантелями в нейросеть запихивались только в виде культуристов, которые эти гантели и держат в руках а потому как и ребенок, никогда не видевший чего-то — нейросеть точно так же и не будет знать гантели — это часть человека-культуриста или всетаки отдельный предмет? Вот если б вы в своей жизни никогда не сталкивались бы с гантелями отдельно на полках а только слышали о них и видели на картинках с культуристами — вы б никогда б и не поверили что гантели могут быть отдельно от культуриста. ну по крайней мере вам это было бы очень сложно обьяснить.


                      Так что не все тут так сложно. другое дело что глубинным обучением пытаются сэкономить годы разработок! это ж легко — взял нейросеть 10000х10000х100х100 и скормил её онлайн базу штрафов а потом после обработки — подсовываеш машину а оно тебе сумму какую с этой машины можно надоить. да вникать не надо. но вот если надо — возникнут проблемы — сам-то человек не анализировал то что кормил нейросети… вот и результат для человека странный… ведь человек знает об окружающем мире намного больше чем то что он скармливает машине.

                      Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                      Самое читаемое