Как стать автором
Обновить
89.58
Skillfactory
Онлайн-школа IT-профессий

Вот что такое искусственный интеллект по мнению изобретателя байесовских сетей

Уровень сложностиПростой
Время на прочтение8 мин
Количество просмотров8.7K
Автор оригинала: Kevin Hartnett

Искусственный интеллект во многом обязан своими достижениями Джуде Перлу. В 1980-х он руководил работами, которые позволили машинам развить способности к вероятностному рассуждению. Сегодня Джуда Перл — один из самых ярых критиков в этой области. В своей последней книге «Почему? Новая наука о причинно-следственной связи» (англ. The Book of Why)? он утверждает, что [настоящему] искусственному интеллекту препятствует неполное понимание того, что на самом деле представляет собой интеллект. За ответами — к старту флагманского курса по Data Science — приглашаем под кат.


Три десятилетия назад главной задачей исследований в области искусственного интеллекта было программирование машин на связь потенциальной причины с множеством наблюдаемых условий. Перл выяснил, как это сделать с помощью схемы, называемой байесовскими сетями. К примеру, байесовские сети позволяют машинам определить, что, если у пациента, вернувшегося из Африки, жар и ломота в теле, то самое вероятное объяснение этому — малярия. В 2011 году Перл получил премию Тьюринга, высшую награду в области компьютерных наук, что в значительной степени связано с этой работой.


Но, по мнению Перла, сфера искусственного интеллекта погрязла в вероятностных связях. В наши дни заголовки пестрят сообщениями о последних прорывах в области машинного обучения и нейросетей. Мы читаем о компьютерах, которые осваивают древние игры и управлять автомобилями. Перл не слишком-то потрясен этим. По его мнению, современное состояние искусственного интеллекта — это всего лишь усовершенствованная версия того, что машины могли делать уже поколение назад: находить скрытые закономерности в большом наборе данных. «За всеми впечатляющими достижениями глубокого обучения стоит лишь подгонка кривых», — заявил он недавно.


В своей новой книге Перл, которому сейчас 81 год, излагает свое видение того, как будут мыслить по-настоящему разумные машины. Ключевой, по его мнению, момент — замена рассуждений по ассоциативному принципу на рассуждения по приципу причинно-следственной связи. Вместо того чтобы просто соотнести лихорадку и малярию, машины должны уметь рассуждать о том, что малярия вызывает лихорадку. Как только такая причинно-следственная система будет создана, машины смогут задавать контрфактические вопросы — спрашивать, как изменятся причинно-следственные связи в случае какого-либо вмешательства, что Перл считает краеугольным камнем научного мышления. Перл также предлагает формальный язык, который сделает возможным такое мышление, — версию байесовской структуры XXI века, позволяющую машинам мыслить вероятностно.


Перл ожидает, что причинно-следственные рассуждения способны наделить машины интеллектом человеческого уровня. Они смогут эффективнее общаться с людьми и даже, как он объясняет, обретут статус существ с чертами морали, свободой воли и способностью причинять зло. Сотрудники журнала Quanta Magazine побеседовали с Перлом на недавней конференции в Сан-Диего, а затем взяли у него повторное интервью по телефону. Ниже приводится отредактированная и сжатая версия этих бесед.




Почему ваша новая книга называется «Почему? Новая наука о причинно-следственной связи»?


Она призвана подытожить работу, которой я занимался последние 25 лет, о причинно-следственной связи, о том, что она означает в жизни человека, о ее прикладном значении и о том, как нам найти ответы на вопросы, которые по своей сути являются причинно-следственными. Странно, но от этих вопросов наука отказалась. Поэтому я решил прояснить то, чем она пренебрегла.


Вы делаете очень громкое заявление о том, что наука отказалась от причинно-следственных связей. Разве это не то, на чем держится вся наука?


Безусловно, это так, однако в научных уравнениях вы не увидите этого благородного стремления. Язык алгебры симметричен: если x говорит нам об y, то и y говорит нам о x. Я говорю о детерминированных отношениях. В математике невозможно зафиксировать простой факт — например то, что надвигающаяся гроза вызывает падение барометрического давления, а не наоборот.


Математика не разработала асимметричный язык, который необходим, чтобы отразить наше понимание того, что если x вызывает y, это не значит, что y вызывает x. Я знаю, это звучит ужасно по отношению к науке.


Но наука более снисходительна: видя, что нам не хватает исчисления для асимметричных отношений, она поощряет нас к его созданию. И здесь на помощь приходит математика. Для меня оказалось огромной радостью увидеть, что простое исчисление причинно-следственных связей решает проблемы, которые величайшие статистики нашего времени считали плохо определенными или нерешаемыми. И все это делается с той же легкостью и удовольствием, как если бы я доказывал теорему на уроке школьной геометрии.


Несколько десятилетий назад вы сделали себе имя на искусственном интеллекте и машинном обучении в области алгоритмической базы вероятностного вывода. Объясните нам, что тогда происходило с искусственным интеллектом.


Проблемы, возникшие в начале 1980-х годов, носили прогностический или диагностический характер. Врач рассматривает совокупность симптомов у пациента и хочет определить вероятность того, что пациент болен малярией или иным заболеванием. Мы хотели, чтобы автоматические системы, экспертные системы, могли заменить профессионала — врача, или исследователя полезных ископаемых, или другого оплачиваемого специалиста. И тогда мне пришла в голову идея сделать это на основе вероятности.


Увы, стандартные вычисления вероятности требовали экспоненциального пространства и экспоненциального времени. Я придумал схему под названием «Байесовские сети», которая требовала полиномиального времени и была достаточно прозрачной.


Тем не менее в своей новой книге вы описываете себя сегодняшнего как человека, разочаровавшегося в сообществе искусственного интеллекта. Что вы имеете в виду?


Я имею в виду, что, как только мы разработали инструменты, позволяющие машинам рассуждать с некоторой неопределенностью, я покинул эту арену, чтобы заняться более сложной задачей: рассуждениями на основании причинно-следственных связей. Многие из моих коллег по работе с искусственным интеллектом до сих пор занимаются вопросами неопределенности. Существуют группы исследователей, которые продолжают работать над диагностикой, не уделяя внимание причинно-следственным аспектам задачи. Все, чего они хотят, — хорошо предсказывать и диагностировать.


К примеру, вся работа по машинному обучению, которую мы сегодня наблюдаем, проводится в диагностическом режиме — скажем, нужно маркировать объекты словами «кошка» или «тигр». Их не волнует вмешательство. Они хотят лишь распознать объект и предсказать, как он будет развиваться во времени.


Я почувствовал разочарование в этом, когда разработал мощные инструменты прогнозирования и диагностики, уже зная, что это лишь вершина айсберга человеческого интеллекта. Если мы хотим, чтобы машины рассуждали о вмешательстве («Что, если мы запретим сигареты?») и самоанализе («Что, если бы я окончил школу?»), нам необходимо использовать причинно-следственные модели. Ассоциативных связей недостаточно — и это математический факт, а не мнение.


Возможности искусственного интеллекта вызывают у многих людей восторг. Вы его не разделяете?


Сколько я ни смотрю на то, что происходит в сфере глубокого обучения, я вижу, что все они застряли на уровне ассоциативных связей. На подгонке кривых. Это кажется кощунством — сказать, что все эти впечатляющие достижения глубокого обучения сводятся к простой подгонке кривых к имеющимся данным. С точки зрения математической иерархии, как бы ловко вы ни манипулировали данными и что бы вы ни считывали с них, это при всей сложности и нетривиальности все равно остается упражнением по подгонке кривой.


По тому, как вы говорите о подгонке кривых, возникает ощущение, что вы не слишком-то впечатлены достижениями машинного обучения.


Нет, я весьма впечатлен, мы ведь не ожидали, что чистой подгонкой кривых можно решить столько задач. Оказалось, что можно. Но другой вопрос — что дальше? Может ли появиться робот-ученый, который будет планировать эксперимент и искать новые ответы на нерешенные научные вопросы? Вот это уже будет следующий шаг. Мы также хотим вести осмысленное общение с машиной. Но осмысленное — значит, соответствующее нашей интуиции . Если вы лишите робота вашей интуиции относительно причинно-следственных отношений, осмысленного общения вам не достичь никогда. Роботы не смогут сказать: «Я должен был сделать лучше», как это можем сказать мы с вами. Таким образом, мы теряем важный канал коммуникации.


Каковы перспективы создания машин, разделяющих наши интуитивные представления о причинах и следствиях?


Мы должны предоставить машинам модель окружающей среды. Если у машины нет модели реальности, нельзя ожидать, что она будет вести себя в этой реальности разумно. Первый шаг, который произойдет, возможно, лет через десять, состоит в том, что концептуальные модели реальности будут программироваться людьми.


На следующем шаге машины научатся самостоятельно постулировать такие модели и будут проверять и уточнять их на основании эмпирических данных. Так произошло в науке: мы начали с геоцентрической модели, с кругов и эпициклов, а закончили гелиоцентрической моделью с ее эллиптическими орбитами.


Роботы тоже будут общаться друг с другом и транслировать этот воображаемый и необузданный мир метафорических моделей.


Как реагируют люди, работающие с искусственным интеллектом сегодня, когда вы делитесь с ними этими идеями?


В настоящее время сообщество по изучению искусственного интеллекта переживает раскол. Есть те, кто опьянен успехом машинного обучения, глубокого обучения и нейронных сетей. Они не понимают, о чем я говорю. Они хотят и дальше подгонять кривые. Но когда вы общаетесь с людьми, которые работали в области искусственного интеллекта за пределами статистического обучения, они сразу же все понимают. За последние два месяца я прочитал несколько статей об ограничениях машинного обучения.


Вы полагаете, что развивается тенденция к уходу от машинного обучения?


Не тенденция, а серьезная работа по осмыслению ситуации, которая включает в себя вопросы «Куда мы идем?» и «Каким будет следующий шаг?»…


Это было последнее, о чем я хотел вас спросить.


Рад, что вы не стали спрашивать меня о свободе воли.


В таком случае что вы думаете о свободе воли?


Безусловно, у нас будут роботы со свободой воли. Мы должны понять, как их программировать и к чему это нас приведет. По какой-то причине эволюция сочла ощущение свободы воли желательным с точки зрения вычислений.


Каким образом?


У вас есть ощущение свободы воли, им наделила вас эволюция. Очевидно, что свобода воли выполняет какую-то вычислительную функцию.


Станет ли эта функция очевидна, когда роботы обретут свободу воли?


Думаю, первым свидетельством тому станет контрфактическое общение роботов друг с другом, например: «Ты должен был сделать лучше». Если футбольная команда роботов будет общаться на этом языке, мы будем знать, что у них есть свобода воли. «Ты должен был мне пасовать, я ждал твоего паса, а ты его не сделал!». «Ты должен был» означает: «Ты мог контролировать то, что побуждает тебя к данному действию, но не сделал этого». Первым признаком этого станет общение, а следующим — более проворная игра в футбол.


Раз уж вы заговорили о свободе воли, наверное, я должен спросить вас о способности делать зло, которую мы обычно считаем зависящей от способности делать выбор. Что такое зло?


Это вера в превосходство собственной жадности и недовольства над всеми устоявшимися нормами общества. Например, у человека есть что-то сродни программному модулю, который говорит ему: «Ты голоден. Это дает тебе право удовлетворить свою жадность или недовольство действиями». Но у вас есть и другие программные модули, которые предписывают вам соблюдать устоявшиеся нормы общественного поведения. Один из них называют состраданием. Когда вы возвышаете свою обиду над этими универсальными нормами общества, это и есть зло.


И как же нам узнать, способен ли искусственный интеллект совершить зло?


Когда нам станет очевидно, что робот игнорирует некоторые программные компоненты, и игнорирует их последовательно. Когда окажется, что робот следует рекомендациям одних программных компонентов и при этом игнорирует другие, которые поддерживают запрограммированные нормы поведения или просто должны присутствовать, согласно данным предыдущего обучения. А робот перестает им следовать.




Теги:
Хабы:
+9
Комментарии8

Публикации

Информация

Сайт
www.skillfactory.ru
Дата регистрации
Дата основания
Численность
501–1 000 человек
Местоположение
Россия
Представитель
Skillfactory School