(c)
Проекты создания общего искусственного интеллекта (Artificial General Intelligence, AGI), о которых сегодня пойдет речь, считаются менее амбициозными, чем любой сильный ИИ. Однако некоторые ученые утверждают, что компьютеры никогда не смогут получить возможности человеческого интеллекта.
Как у сторонников, так и у противников идеи о компьютерах, способных решить любую подвластную человеку интеллектуальную задачу, найдется немало аргументов в защиту своей позиции. Узнаем, какие доводы приводит каждая из сторон, и попробуем разобраться, есть ли шанс у AGI сейчас и в будущем.
Статья основана на недавней публикации профессора Рагнара Фьелланда «Почему ИИ общего назначения не будет создан», но мы будем рассматривать не только аргументы «против».
Поскольку человеческий интеллект является общим (то есть способен решить практически любую интеллектуальную задачу), человекоподобный ИИ часто называют общим искусственным интеллектом (AGI). Несмотря на то что AGI обладает важным свойством человеческого интеллекта, его все равно можно рассматривать как слабый ИИ. Тем не менее он отличается от традиционного слабого ИИ, ограниченного конкретными задачами или областями. Поэтому традиционный слабый ИИ иногда называют искусственным узким интеллектом (Artificial Narrow Intelligence, ANI).
Способность использовать алгоритмы с огромной скоростью является отличительной особенностью ANI, однако это не приближает его к естественному интеллекту. Математик и физик Роджер Пенроуз в знаменитой книге «Новый ум короля. О компьютерах, мышлении и законах физики», вышедшей в 1989 году, предположил, что человеческое мышление в основном не алгоритмическое, поэтому не может быть смоделировано с помощью обычного компьютера типа машины Тьюринга.
За 30 лет до Пенроуза схожие мысли высказывал философ Хьюберт Дрейфус в работе «Алхимия и искусственный интеллект». Он также написал книгу «Что не умеют компьютеры», в которой утверждал, что человеческие знания в основном являются неявными (невербализуемыми) и не могут быть сформулированы в компьютерной программе.
В 1958 году физик, химик и философ Майкл Полани впервые сформулировал концепцию «личностного (или неявного, молчаливого) знания». Бóльшая часть знаний, используемых нами в повседневной жизни, молчалива — мы не знаем, какие правила применяем при выполнении задачи. В качестве примера Полани приводил плавание и катание на велосипеде, когда все движения выполняются автоматически.
Проблема в том, что основная часть экспертных знаний остается молчаливой. Например, многие из нас являются экспертами по ходьбе, однако если попытаться сформулировать, как именно мы ходим, то дадим крайне расплывчатое описание реального процесса.
(c)
В 1980-х годах аргументы Полани, Дрейфуса и Пенроуза начали терять силу — благодаря открытию нейронных сетей, которые могли учиться самостоятельно, без явных внешних инструкций.
Хотя масштабные проекты (например, японский «Компьютер пятого поколения», начатый в 1982 году и обещавший создание ИИ с помощью массивно-параллельного логического программирования) терпели неудачу, в историческом плане запомнились только успехи. Самое заметное достижение в области ИИ к концу XX в. продемонстрировали специалисты IBM. В 1997 году Deep Blue в серии матчей победил чемпиона мира по шахматам Гарри Каспарова.
Суперкомпьютер IBM был создан для решения конкретной задачи на шахматной доске, и не все восприняли это именно как успех ИИ. Однако в 2011 году IBM Watson выиграл у людей в интеллектуальном шоу «Jeopardy!» (в России шоу известно под названием «Своя игра»). На фоне Deep Blue Watson стал колоссальным шагом вперед — система понимала запросы на естественном языке и находила ответы в разных областях знаний.
Казалось, что совсем скоро начнется новая эра экспертных систем. IBM планировала использовать мощь компьютера в медицине. Идея лежала на поверхности: если Watson получит доступ ко всей медицинской литературе, он сможет предложить лучшую диагностику и лечение, чем любой врач. В последующие годы IBM участвовала в нескольких медицинских проектах, но добилась скромных успехов. Сегодня усилия компании сфокусированы на развитии помощников ИИ, выполняющих рутинные задачи.
Безусловно, нельзя не сказать о главном на сегодняшний день достижении разработчиков ИИ — о системе AlphaGo, с которой связывают окончательное развоплощение аргументов против AGI. AlphaGo показала, что компьютеры могут обрабатывать молчаливые знания. Подход DeepMind был успешно применен в играх Atari Breakout, Space Invaders и StarCraft, однако оказалось, что системе не хватает гибкости, и она не может адаптироваться к изменениям в реальной среде. Поскольку проблемы возникают в постоянно меняющемся мире, глубокое обучение с подкреплением пока нашло мало коммерческих применений.
(с)
В последние годы сторонники ИИ получили новый сильный инструмент — применение математических методов к огромным объемам данных для нахождения корреляций и определения вероятностей. Хотя большие данные не отражают амбиций по созданию сильного ИИ, их сторонники утверждают, что в этом нет необходимости. В книге Виктора Майера-Шенбергера и Кеннета Кукье «Большие данные: революция, которая изменит то, как мы живем, работаем и думаем» говорится, что нам, возможно, и не нужно разрабатывать компьютеры с человеческим интеллектом — напротив, мы можем изменить свое мышление, чтобы стать похожими на компьютеры.
В big data мы оперируем корреляциями, но не всегда понимаем, где причина, а где следствие. В книге Перла и Макензи «Почему? Новая наука о причинно-следственной связи» авторы рассказывают, что для создания реального ИИ компьютер должен уметь справляться с причинно-следственной связью. Могут ли машины представлять причинно-следственные связи таким образом, чтобы быстро получать необходимую информацию, правильно отвечать на вопросы, и делать это с легкостью, которая есть даже у трехлетнего ребенка?
Даже нейросети имеют здесь некоторый изъян. На самом деле мы не знаем, почему система принимает то или иное решение. Несколько лет назад команда из Вашингтонского университета разработала программу, которая обучалась находить различия между хаски и волком. Задача довольно сложная, так как животные, как видно на иллюстрации, похожи друг на друга. Но, несмотря на сложность, система работала с 90% точностью. Проанализировав результаты, команда поняла, что нейросеть работала так хорошо только потому, что на изображениях с волками чаще всего был снег.
Историк Юваль Харари утверждает, что между 70 тыс. и 30 тыс. лет назад в мире произошла когнитивная революция, отличительной чертой которой стала способность воображать то, чего не существует. В качестве примера он привел древнейшую известную фигурку из слоновой кости «мужчина-лев» (или «женщина-львица»), найденную в пещере Штадель в Германии. Фигура имеет тело человека и голову льва.
Перл и Маккензи ссылаются на Харари, и добавляют, что создание человека-льва является предшественником философии, научных открытий и технологических инноваций. Основным предварительным условием для этого творения стала способность задавать вопросы в формате: «Что произойдет, если я сделаю …?», и отвечать на них.
Однако у компьютеров с причинно-следственными связями все плохо. Как и 30 лет назад, программы машинного обучения, включая программы с глубокими нейронными сетями, почти полностью работают в ассоциативном режиме. Но этого недостаточно. Чтобы ответить на причинные вопросы, мы должны иметь возможность вмешиваться в мир.
По мнению Рагнара Фьелланда, корень проблемы в том, что компьютеры не имеют модели реальности, не могут менять действительность вокруг себя и никак не взаимодействуют с ней.
Не самой очевидной проблемой является то, что, по мнению некоторых специалистов, мы не сможем добиться успеха в определенной области без понимания «правил игры». До сих пор существуют сложности даже с терминологией, и мы не знаем, что именно называть искусственным интеллектом. Более того, понимание естественного интеллекта далеко от идеального — мы просто не знаем до конца, как устроен мозг.
Рассмотрим, к примеру, таламус, отвечающий за передачу сенсорной и двигательной информации. Этот отдел мозга впервые был описан древнеримским врачом Галеном. В 2018 году создали атлас таламуса: на основании гистологии выделили 26 ядер таламуса, которые затем выявляли на МРТ. Это большое научное достижение, однако ученые предполагают, что всего в таламусе свыше 80 ядер (точное число не установлено до сих пор).
В работе «On the Measure of Intelligence» Франсуа Шолле (исследователь ИИ из Google, создатель библиотеки глубокого обучения Keras и соразработчик фреймворка машинного обучения TensorFlow) указывает, что до глобального консенсуса по вопросу «что такое интеллект» попытки сравнить разные интеллектуальные системы с интеллектом человека обречены на провал.
Без четких метрик невозможно зафиксировать достижения, а следовательно, и определиться, куда именно двигаться в разработке систем искусственного интеллекта. Даже пресловутый тест Тьюринга не может стать палочкой-выручалочкой — об этой проблеме мы знаем по мысленному экспериментус «китайской комнатой».
Большинство сторонников AGI (и сильного ИИ) сегодня следуют аргументам Юваля Харари. В книге «21 урок для 21-го века» он ссылается на нейробиологию и поведенческую экономику, которые, как утверждается, показали, что наши решения являются не результатом «некой таинственной свободной воли», а результатом «работы миллиардов нейронов мозга, вычисляющих всевозможные вероятности перед тем как принять решение».
Поэтому ИИ может делать многие вещи лучше, чем люди. В качестве примеров писатель приводит вождение автомобиля на улице, полной пешеходов, предоставление займов незнакомцам и ведение переговоров о коммерческих сделках — все это требует умения «правильно оценивать эмоции и желания других людей». Обоснование таково: «Если эти эмоции и желания на самом деле являются не более чем биохимическими алгоритмами, нет никаких причин, по которым компьютеры не могут расшифровать эти алгоритмы — и сделать это намного лучше, чем любой Homo sapiens».
Эта цитата повторяет мысль Фрэнсиса Крика, высказанную в «Удивительной гипотезе»: «Удивительная гипотеза состоит в том, что „Вы», ваши радости и ваши печали, ваши воспоминания и ваши амбиции, ваше чувство личной идентичности и свободной воли на самом деле являются не чем иным, как поведением огромного скопления нервных клеток и связанных с ними молекул».
Существует и альтернативное мнение: даже самые абстрактные теории основаны на нашем повседневном мире. Философ, основатель феноменологии Эдмунд Гуссерль упоминает теорию относительности Эйнштейна, утверждая, что она зависит от «экспериментов Майкельсона» и их подтверждения другими исследователями. Для проведения такого рода экспериментов ученые должны иметь возможность передвигаться, обращаться с инструментами и общаться с коллегами.
Как отметил Хьюберт Дрейфус, мы — телесные и социальные существа, живущие в материальном и социальном мире. Для того чтобы понять другого человека, не требуется изучение химии его мозга, скорее, нужно оказаться в «шкуре» этого человека, понять его жизненный мир.
Для иллюстрации высказываний Дрейфуса писатель Теодор Роззак предложил провести мысленный эксперимент. Представьте, будто вы наблюдаете за работой психиатра. Он трудолюбивый, опытный специалист, и, очевидно, имеет очень хорошую практику. Зал ожидания полон пациентов с различными эмоциональными и психическими расстройствами: кто-то находится на грани истерики, кого-то терзают мысли о самоубийстве, другие страдают галлюцинациями, каких-то пациентов мучают самые жестокие кошмары, а некоторые доводят себя до безумия мыслью, что за ними следят люди, которые причинят им боль. Психиатр внимательно слушает каждого из них и делает все возможное, чтобы помочь, но без особого успеха. Наоборот, кажется, что состояние пациентов только ухудшается, несмотря на героические усилия психиатра.
Теперь Роззак просит нас представить ситуацию в более широком контексте. Офис психиатра находится в здании, расположенном в Бухенвальде, где пациентами являются заключенные концентрационного лагеря. Биохимические алгоритмы не помогут нам понять пациентов. Что действительно необходимо, так это знание более широкого контекста. Пример просто не имеет смысла, если мы не знаем, что кабинет психиатра находится в концлагере. Мало кто может поставить себя на место заключенного в нацисткой Германии. Мы не способны полностью понять людей в ситуациях, сильно отличающихся от собственного опыта. Но кое-что понять мы все-таки можем, поскольку существуем в одном мире с другими людьми.
Компьютеры в свою очередь существуют в своем мире машин, что хотя бы частично объясняет проблемы, мешающие IBM Watson Health и Alphabet DeepMind решать задачи реально мира. IBM столкнулась с фундаментальным несоответствием между способами обучения машин и принципами работы врачей. В DeepMind обнаружили, что решение задач для Го не приблизило их к ответам на вопросы, связанные с поиском лекарства от рака.
(с)
О проблемах знают не только критики AGI. Исследователи по всему миру ищут новые подходы, и определенные успехи в преодолении барьеров уже есть.
Несмотря на то что, по мнению теоретика ИИ Роджера Шанка, даже собака умнее IBM Watson, будущее медицины несомненно принадлежит компьютерным системам. В работе, опубликованной в июне 2020 году, демонстрируется потрясающий успех компании Pharnext: фактически их ИИ нашел простое и доступное решение проблем генетической болезни Шарко-Мари-Тута.
ИИ собрал удивительный коктейль из трех уже одобренных препаратов, облегчающий течение наследственной моторно-сенсорной нейропатии. Если рассмотреть новое «лекарство», недоумение гарантированно: первым компонентом является препарат, используемый для лечения алкоголизма, второй оказывает воздействие на опиоидные рецепторы и применяется для борьбы с алкогольной и опиоидной зависимостью, третий вообще является сахарозаменителем.
Перебрав миллионы вариантов, ИИ остановил свой выбор именно на такой комбинации. И это сработало: в результате проведенных экспериментов на мышах и людях отмечалось повышение связей между нервами и мышцами. Важно, что самочувствие больных улучшилось, а побочные эффекты оказались незначительны.
Говоря о проблеме присутствия в мире, следует упомянуть о проведенном недавно в Техническом университете Мюнхена амбициозном исследовании: робота на взаимосвязанном уровне учили воспринимать реальный мир и действовать в нем. Данное исследование стало частью масштабного европейского проекта SELFCEPTION, который объединяет робототехнику и когнитивную психологию с целью разработки более проницательных машин.
Исследователи решили предоставить роботам и искусственным агентам в целом способность воспринимать свое тело так, как это делают люди. Главная цель состояла в том, чтобы улучшить способность взаимодействия в условиях неопределенности. За основу взяли теорию активного выхода нейробиолога Карла Фристона, который в прошлом году приезжал в Россию с лекциями (для интересующихся темой рекомендуем посмотреть на русском или на английском языках).
Согласно теории, мозг постоянно строит прогнозы, сверяет их с поступающей от органов чувств информацией и вносит коррективы, и перезапускает цикл. Например, если на подходе к эскалатору человек внезапно обнаруживает затор на пути, он соответствующим образом адаптирует свои движения.
Алгоритм, основанный на принципе свободной энергии Фристона (математическая формализация одной из теорий прогнозирующего мозга), представляет восприятие и действие, работающие для достижения общей цели, которая заключается в том, чтобы уменьшить ошибку предсказания. В этом подходе впервые для машин сенсорные данные лучше соответствуют предсказанию, сделанному внутренней моделью.
В долгосрочной перспективе это исследование поможет разработать AGI, обладающий человеческими возможностями адаптации и взаимодействия. Именно с этим подходом связывают будущее искусственного интеллекта: если выпустить ИИ из тесных серверов в реальный мир, возможно, когда-нибудь мы сможем включить самопознание в машинах.
Проекты создания общего искусственного интеллекта (Artificial General Intelligence, AGI), о которых сегодня пойдет речь, считаются менее амбициозными, чем любой сильный ИИ. Однако некоторые ученые утверждают, что компьютеры никогда не смогут получить возможности человеческого интеллекта.
Как у сторонников, так и у противников идеи о компьютерах, способных решить любую подвластную человеку интеллектуальную задачу, найдется немало аргументов в защиту своей позиции. Узнаем, какие доводы приводит каждая из сторон, и попробуем разобраться, есть ли шанс у AGI сейчас и в будущем.
Статья основана на недавней публикации профессора Рагнара Фьелланда «Почему ИИ общего назначения не будет создан», но мы будем рассматривать не только аргументы «против».
Молчаливые знания
Поскольку человеческий интеллект является общим (то есть способен решить практически любую интеллектуальную задачу), человекоподобный ИИ часто называют общим искусственным интеллектом (AGI). Несмотря на то что AGI обладает важным свойством человеческого интеллекта, его все равно можно рассматривать как слабый ИИ. Тем не менее он отличается от традиционного слабого ИИ, ограниченного конкретными задачами или областями. Поэтому традиционный слабый ИИ иногда называют искусственным узким интеллектом (Artificial Narrow Intelligence, ANI).
Способность использовать алгоритмы с огромной скоростью является отличительной особенностью ANI, однако это не приближает его к естественному интеллекту. Математик и физик Роджер Пенроуз в знаменитой книге «Новый ум короля. О компьютерах, мышлении и законах физики», вышедшей в 1989 году, предположил, что человеческое мышление в основном не алгоритмическое, поэтому не может быть смоделировано с помощью обычного компьютера типа машины Тьюринга.
За 30 лет до Пенроуза схожие мысли высказывал философ Хьюберт Дрейфус в работе «Алхимия и искусственный интеллект». Он также написал книгу «Что не умеют компьютеры», в которой утверждал, что человеческие знания в основном являются неявными (невербализуемыми) и не могут быть сформулированы в компьютерной программе.
В 1958 году физик, химик и философ Майкл Полани впервые сформулировал концепцию «личностного (или неявного, молчаливого) знания». Бóльшая часть знаний, используемых нами в повседневной жизни, молчалива — мы не знаем, какие правила применяем при выполнении задачи. В качестве примера Полани приводил плавание и катание на велосипеде, когда все движения выполняются автоматически.
Проблема в том, что основная часть экспертных знаний остается молчаливой. Например, многие из нас являются экспертами по ходьбе, однако если попытаться сформулировать, как именно мы ходим, то дадим крайне расплывчатое описание реального процесса.
Вехи успехов ИИ
(c)
В 1980-х годах аргументы Полани, Дрейфуса и Пенроуза начали терять силу — благодаря открытию нейронных сетей, которые могли учиться самостоятельно, без явных внешних инструкций.
Хотя масштабные проекты (например, японский «Компьютер пятого поколения», начатый в 1982 году и обещавший создание ИИ с помощью массивно-параллельного логического программирования) терпели неудачу, в историческом плане запомнились только успехи. Самое заметное достижение в области ИИ к концу XX в. продемонстрировали специалисты IBM. В 1997 году Deep Blue в серии матчей победил чемпиона мира по шахматам Гарри Каспарова.
Суперкомпьютер IBM был создан для решения конкретной задачи на шахматной доске, и не все восприняли это именно как успех ИИ. Однако в 2011 году IBM Watson выиграл у людей в интеллектуальном шоу «Jeopardy!» (в России шоу известно под названием «Своя игра»). На фоне Deep Blue Watson стал колоссальным шагом вперед — система понимала запросы на естественном языке и находила ответы в разных областях знаний.
Казалось, что совсем скоро начнется новая эра экспертных систем. IBM планировала использовать мощь компьютера в медицине. Идея лежала на поверхности: если Watson получит доступ ко всей медицинской литературе, он сможет предложить лучшую диагностику и лечение, чем любой врач. В последующие годы IBM участвовала в нескольких медицинских проектах, но добилась скромных успехов. Сегодня усилия компании сфокусированы на развитии помощников ИИ, выполняющих рутинные задачи.
Безусловно, нельзя не сказать о главном на сегодняшний день достижении разработчиков ИИ — о системе AlphaGo, с которой связывают окончательное развоплощение аргументов против AGI. AlphaGo показала, что компьютеры могут обрабатывать молчаливые знания. Подход DeepMind был успешно применен в играх Atari Breakout, Space Invaders и StarCraft, однако оказалось, что системе не хватает гибкости, и она не может адаптироваться к изменениям в реальной среде. Поскольку проблемы возникают в постоянно меняющемся мире, глубокое обучение с подкреплением пока нашло мало коммерческих применений.
Причина и следствие
(с)
В последние годы сторонники ИИ получили новый сильный инструмент — применение математических методов к огромным объемам данных для нахождения корреляций и определения вероятностей. Хотя большие данные не отражают амбиций по созданию сильного ИИ, их сторонники утверждают, что в этом нет необходимости. В книге Виктора Майера-Шенбергера и Кеннета Кукье «Большие данные: революция, которая изменит то, как мы живем, работаем и думаем» говорится, что нам, возможно, и не нужно разрабатывать компьютеры с человеческим интеллектом — напротив, мы можем изменить свое мышление, чтобы стать похожими на компьютеры.
В big data мы оперируем корреляциями, но не всегда понимаем, где причина, а где следствие. В книге Перла и Макензи «Почему? Новая наука о причинно-следственной связи» авторы рассказывают, что для создания реального ИИ компьютер должен уметь справляться с причинно-следственной связью. Могут ли машины представлять причинно-следственные связи таким образом, чтобы быстро получать необходимую информацию, правильно отвечать на вопросы, и делать это с легкостью, которая есть даже у трехлетнего ребенка?
Даже нейросети имеют здесь некоторый изъян. На самом деле мы не знаем, почему система принимает то или иное решение. Несколько лет назад команда из Вашингтонского университета разработала программу, которая обучалась находить различия между хаски и волком. Задача довольно сложная, так как животные, как видно на иллюстрации, похожи друг на друга. Но, несмотря на сложность, система работала с 90% точностью. Проанализировав результаты, команда поняла, что нейросеть работала так хорошо только потому, что на изображениях с волками чаще всего был снег.
Что, если…
Историк Юваль Харари утверждает, что между 70 тыс. и 30 тыс. лет назад в мире произошла когнитивная революция, отличительной чертой которой стала способность воображать то, чего не существует. В качестве примера он привел древнейшую известную фигурку из слоновой кости «мужчина-лев» (или «женщина-львица»), найденную в пещере Штадель в Германии. Фигура имеет тело человека и голову льва.
Перл и Маккензи ссылаются на Харари, и добавляют, что создание человека-льва является предшественником философии, научных открытий и технологических инноваций. Основным предварительным условием для этого творения стала способность задавать вопросы в формате: «Что произойдет, если я сделаю …?», и отвечать на них.
Однако у компьютеров с причинно-следственными связями все плохо. Как и 30 лет назад, программы машинного обучения, включая программы с глубокими нейронными сетями, почти полностью работают в ассоциативном режиме. Но этого недостаточно. Чтобы ответить на причинные вопросы, мы должны иметь возможность вмешиваться в мир.
По мнению Рагнара Фьелланда, корень проблемы в том, что компьютеры не имеют модели реальности, не могут менять действительность вокруг себя и никак не взаимодействуют с ней.
Терминологический тупик
Не самой очевидной проблемой является то, что, по мнению некоторых специалистов, мы не сможем добиться успеха в определенной области без понимания «правил игры». До сих пор существуют сложности даже с терминологией, и мы не знаем, что именно называть искусственным интеллектом. Более того, понимание естественного интеллекта далеко от идеального — мы просто не знаем до конца, как устроен мозг.
Рассмотрим, к примеру, таламус, отвечающий за передачу сенсорной и двигательной информации. Этот отдел мозга впервые был описан древнеримским врачом Галеном. В 2018 году создали атлас таламуса: на основании гистологии выделили 26 ядер таламуса, которые затем выявляли на МРТ. Это большое научное достижение, однако ученые предполагают, что всего в таламусе свыше 80 ядер (точное число не установлено до сих пор).
В работе «On the Measure of Intelligence» Франсуа Шолле (исследователь ИИ из Google, создатель библиотеки глубокого обучения Keras и соразработчик фреймворка машинного обучения TensorFlow) указывает, что до глобального консенсуса по вопросу «что такое интеллект» попытки сравнить разные интеллектуальные системы с интеллектом человека обречены на провал.
Без четких метрик невозможно зафиксировать достижения, а следовательно, и определиться, куда именно двигаться в разработке систем искусственного интеллекта. Даже пресловутый тест Тьюринга не может стать палочкой-выручалочкой — об этой проблеме мы знаем по мысленному экспериментус «китайской комнатой».
Присутствие как признак интеллекта
Большинство сторонников AGI (и сильного ИИ) сегодня следуют аргументам Юваля Харари. В книге «21 урок для 21-го века» он ссылается на нейробиологию и поведенческую экономику, которые, как утверждается, показали, что наши решения являются не результатом «некой таинственной свободной воли», а результатом «работы миллиардов нейронов мозга, вычисляющих всевозможные вероятности перед тем как принять решение».
Поэтому ИИ может делать многие вещи лучше, чем люди. В качестве примеров писатель приводит вождение автомобиля на улице, полной пешеходов, предоставление займов незнакомцам и ведение переговоров о коммерческих сделках — все это требует умения «правильно оценивать эмоции и желания других людей». Обоснование таково: «Если эти эмоции и желания на самом деле являются не более чем биохимическими алгоритмами, нет никаких причин, по которым компьютеры не могут расшифровать эти алгоритмы — и сделать это намного лучше, чем любой Homo sapiens».
Эта цитата повторяет мысль Фрэнсиса Крика, высказанную в «Удивительной гипотезе»: «Удивительная гипотеза состоит в том, что „Вы», ваши радости и ваши печали, ваши воспоминания и ваши амбиции, ваше чувство личной идентичности и свободной воли на самом деле являются не чем иным, как поведением огромного скопления нервных клеток и связанных с ними молекул».
Существует и альтернативное мнение: даже самые абстрактные теории основаны на нашем повседневном мире. Философ, основатель феноменологии Эдмунд Гуссерль упоминает теорию относительности Эйнштейна, утверждая, что она зависит от «экспериментов Майкельсона» и их подтверждения другими исследователями. Для проведения такого рода экспериментов ученые должны иметь возможность передвигаться, обращаться с инструментами и общаться с коллегами.
Как отметил Хьюберт Дрейфус, мы — телесные и социальные существа, живущие в материальном и социальном мире. Для того чтобы понять другого человека, не требуется изучение химии его мозга, скорее, нужно оказаться в «шкуре» этого человека, понять его жизненный мир.
Для иллюстрации высказываний Дрейфуса писатель Теодор Роззак предложил провести мысленный эксперимент. Представьте, будто вы наблюдаете за работой психиатра. Он трудолюбивый, опытный специалист, и, очевидно, имеет очень хорошую практику. Зал ожидания полон пациентов с различными эмоциональными и психическими расстройствами: кто-то находится на грани истерики, кого-то терзают мысли о самоубийстве, другие страдают галлюцинациями, каких-то пациентов мучают самые жестокие кошмары, а некоторые доводят себя до безумия мыслью, что за ними следят люди, которые причинят им боль. Психиатр внимательно слушает каждого из них и делает все возможное, чтобы помочь, но без особого успеха. Наоборот, кажется, что состояние пациентов только ухудшается, несмотря на героические усилия психиатра.
Теперь Роззак просит нас представить ситуацию в более широком контексте. Офис психиатра находится в здании, расположенном в Бухенвальде, где пациентами являются заключенные концентрационного лагеря. Биохимические алгоритмы не помогут нам понять пациентов. Что действительно необходимо, так это знание более широкого контекста. Пример просто не имеет смысла, если мы не знаем, что кабинет психиатра находится в концлагере. Мало кто может поставить себя на место заключенного в нацисткой Германии. Мы не способны полностью понять людей в ситуациях, сильно отличающихся от собственного опыта. Но кое-что понять мы все-таки можем, поскольку существуем в одном мире с другими людьми.
Компьютеры в свою очередь существуют в своем мире машин, что хотя бы частично объясняет проблемы, мешающие IBM Watson Health и Alphabet DeepMind решать задачи реально мира. IBM столкнулась с фундаментальным несоответствием между способами обучения машин и принципами работы врачей. В DeepMind обнаружили, что решение задач для Го не приблизило их к ответам на вопросы, связанные с поиском лекарства от рака.
Заключение: компьютеры выходят в мир
(с)
О проблемах знают не только критики AGI. Исследователи по всему миру ищут новые подходы, и определенные успехи в преодолении барьеров уже есть.
Несмотря на то что, по мнению теоретика ИИ Роджера Шанка, даже собака умнее IBM Watson, будущее медицины несомненно принадлежит компьютерным системам. В работе, опубликованной в июне 2020 году, демонстрируется потрясающий успех компании Pharnext: фактически их ИИ нашел простое и доступное решение проблем генетической болезни Шарко-Мари-Тута.
ИИ собрал удивительный коктейль из трех уже одобренных препаратов, облегчающий течение наследственной моторно-сенсорной нейропатии. Если рассмотреть новое «лекарство», недоумение гарантированно: первым компонентом является препарат, используемый для лечения алкоголизма, второй оказывает воздействие на опиоидные рецепторы и применяется для борьбы с алкогольной и опиоидной зависимостью, третий вообще является сахарозаменителем.
Перебрав миллионы вариантов, ИИ остановил свой выбор именно на такой комбинации. И это сработало: в результате проведенных экспериментов на мышах и людях отмечалось повышение связей между нервами и мышцами. Важно, что самочувствие больных улучшилось, а побочные эффекты оказались незначительны.
Говоря о проблеме присутствия в мире, следует упомянуть о проведенном недавно в Техническом университете Мюнхена амбициозном исследовании: робота на взаимосвязанном уровне учили воспринимать реальный мир и действовать в нем. Данное исследование стало частью масштабного европейского проекта SELFCEPTION, который объединяет робототехнику и когнитивную психологию с целью разработки более проницательных машин.
Исследователи решили предоставить роботам и искусственным агентам в целом способность воспринимать свое тело так, как это делают люди. Главная цель состояла в том, чтобы улучшить способность взаимодействия в условиях неопределенности. За основу взяли теорию активного выхода нейробиолога Карла Фристона, который в прошлом году приезжал в Россию с лекциями (для интересующихся темой рекомендуем посмотреть на русском или на английском языках).
Согласно теории, мозг постоянно строит прогнозы, сверяет их с поступающей от органов чувств информацией и вносит коррективы, и перезапускает цикл. Например, если на подходе к эскалатору человек внезапно обнаруживает затор на пути, он соответствующим образом адаптирует свои движения.
Алгоритм, основанный на принципе свободной энергии Фристона (математическая формализация одной из теорий прогнозирующего мозга), представляет восприятие и действие, работающие для достижения общей цели, которая заключается в том, чтобы уменьшить ошибку предсказания. В этом подходе впервые для машин сенсорные данные лучше соответствуют предсказанию, сделанному внутренней моделью.
В долгосрочной перспективе это исследование поможет разработать AGI, обладающий человеческими возможностями адаптации и взаимодействия. Именно с этим подходом связывают будущее искусственного интеллекта: если выпустить ИИ из тесных серверов в реальный мир, возможно, когда-нибудь мы сможем включить самопознание в машинах.