10 самых важных вех в развитии ИИ на сегодняшний день

Автор оригинала: Mark Sullivan
  • Перевод

На протяжении своей истории, от первых рассказов Азимова про роботов до AlphaGo, у ИИ были взлёты и падения. Но на самом деле его история только начинается.




Искусственный интеллект пока ещё очень молод. Однако в этой области произошло уже много значимых событий. Некоторые из них привлекли внимание культуры, другие породили взрывную волну, воспринятую только учёными. Вот некоторые ключевые моменты, наиболее сильно повлиявшие на развитие ИИ.

1. Айзек Азимов впервые упомянул "Три закона робототехники" (1942)


Рассказ Азимова "Хоровод" отмечает первое появление в историях этого знаменитого фантаста «трёх законов робототехники»:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

В рассказе «Хоровод» робот Спиди ставится в положение, в котором третий закон входит в противоречие с первыми двумя. Рассказы Азимова про роботов заставили задуматься любителей НФ, среди которых были и учёные, о возможности появления думающих машин. По сей день люди занимаются интеллектуальными упражнениями, применяя законы Азимова к современным ИИ.

2. Алан Тьюринг предложил свою «Игру в имитацию» (1950)



Алан Тьюринг описал первый принцип измерения степени разумности машины в 1950-м.

Предлагаю рассмотреть вопрос «Могут ли машины думать?» Так начиналась влиятельная исследовательская работа Тьюринга 1950 года, разработавшая систему взглядов для рассуждения о машинном разуме. Он задал вопрос о том, можно ли считать машину разумной, если она может имитировать разумное поведение человека.

Этот теоретический вопрос породил знаменитую «Игру в имитацию» [её позже назовут "Тестом Тьюринга" / прим. перев.], упражнение, в котором исследователь-человек должен определить, с кем он переписывается – с компьютером или человеком. Во времена Тьюринга не существовало машин, способных пройти этот тест, нет их и сегодня. Однако его тест дал простой способ определить наличие разума у машины. Также он помог сформировать философию ИИ.

3. Конференция по ИИ в Дартмуте (1956)


К 1955 году учёные всего мира уже сформировали такие концепции, как нейросети и естественный язык, однако ещё не существовал объединяющих концепций, охватывающих различные разновидности машинного интеллекта. Профессор математики из Дартмутского колледжа, Джон Маккарти, придумал термин «искусственный интеллект», объединяющий их все.

Маккарти руководил группой, подавшей заявку на грант для организации конференции по ИИ в 1956. В Дартмут-холл летом 1956 были приглашены многие ведущие исследователи того времени. Учёные обсуждали различные потенциальные области изучения ИИ, включая обучение и поиск, зрение, логические рассуждения, язык и разум, игры (в частности, шахматы), взаимодействия человека с такими разумными машинами, как личные роботы.

Общим консенсусом тех обсуждений стало то, что у ИИ есть огромный потенциал для того, чтобы принести пользу людям. Было очерчено общее поле исследовательских областей, на развитие которых может повлиять машинный интеллект. Конференция организовала и вдохновила исследования в области ИИ на многие годы.

4. Фрэнк Розенблатт создаёт перцептрон (1957)



Фрэнк Розенблатт создал механическую нейросеть в Корнеллской лаборатории аэронавтики в 1957

Базовый компонент нейросети называется "перцептроном" [это лишь самый первый и примитивный тип искусственного нейрона / прим. перев.]. Набор входящих данных попадает в узел, подсчитывающий выходное значение, и выдающий классификацию и уровень уверенности. К примеру, входные данные могут анализировать различные аспекты изображения на основании входных данных и «голосовать» (с определённым уровнем уверенности) за то, есть ли на нём лицо. Затем узел подсчитывает все «голоса» и уровень уверенности, и выдаёт консенсус. В нейросетях сегодняшнего дня, работающих на мощных компьютерах, работают миллиарды подобных структур, связанных между собой.

Однако перцептроны существовали ещё до появления мощных компьютеров. В конце 1950-х молодой психолог-исследователь Фрэнк Розенблатт создал электромеханическую модель перцептрона под названием Mark I Perceptron, хранящуюся сегодня в Смитсоновском институте. Это была аналоговая нейросеть, состоявшая из сетки светочувствительных элементов, соединённых проводами с банками узлов, содержащих электромоторы и поворотные резисторы. Розенблатт разработал «перцептронный алгоритм», управлявший сетью, которая постепенно подстраивала силу входных сигналов так, чтобы в итоге правильно идентифицировать объекты – по сути, обучалась.

Учёные спорили о значимости этой машины вплоть до 1980-х. Она сыграла важную роль по созданию физического воплощения нейросети, которая до тех пор существовала в основном только в виде научной концепции.

5. ИИ сталкивается со своей первой зимой (1970-е)


Большую часть своей истории ИИ существовал только в исследованиях. Большую половину 1960-х правительственные агентства, в частности, DARPA, вливали деньги в исследования и практически не требовали отчёта по инвестициям. Исследователи ИИ часто преувеличивали потенциал своей работы, чтобы продолжать получать финансирование. Всё изменилось в конце 1960-х и начале 1970-х. Два отчёта – один от рекомендательного совета по автоматической обработке языка (ALPAC) для правительства США 1966 года, второй от Лайтхилла для правительства Британии 1973 года – прагматически оценили прогресс в исследованиях ИИ и выдали весьма пессимистичный прогноз о потенциале данной технологии. В обоих отчётах ставилось под вопрос наличие ощутимого прогресса в различных областях исследований ИИ. Лайтхилл в своём отчёте утверждал, что ИИ для задач распознавания речи будет крайне сложно масштабировать до размеров, которые смогут быть полезными правительству или военным.

В итоге правительства США и Британии начали урезать финансирование исследований ИИ для университетов. DARPA, без проблем финансировавшее исследования ИИ в 1960-х, стало требовать от проектов чётких временных рамок и подробного описания предполагаемых результатов. В итоге стало казаться, что ИИ не оправдал ожиданий, и никогда уже не сможет достичь уровня человеческих возможностей. Первая «зима» ИИ продлилась все 1970-е и 80-е.

6. Приход второй зимы ИИ (1987)


1980-е начались с разработки и первых успехов "экспертных систем", хранивших большие объёмы данных и эмулировавшие процесс принятия решений людьми. Технологию изначально разработали в университете Карнеги-Меллона для компании Digital Equipment Corporation, а затем другие корпорации начали быстро внедрять её. Однако экспертные системы требовали дорогого спеиализированного оборудования, и это стало проблемой, когда начали появляться сходные по мощности и более дешёвые рабочие станции от Sun Microsystems а также персональные компьютеры от Apple и IBM. Рынок экспертных компьютерных систем рухнул в 1987, когда с него ушли основные производители оборудования.

Успех экспертных систем в начале 80-х вдохновил DARPA на увеличение финансирования исследований ИИ, но вскоре это вновь поменялось, и агентство урезало большую часть этого финансирования, оставив всего несколько программ. И снова термин «искусственный интеллект» в исследовательском сообществе стал почти запретным. Чтобы их не воспринимали, как непрактичных мечтателей в поисках финансирования, исследователи начали использовать другие названия для работы, связанной с СС – «информатика», «машинное обучение» и «аналитика». Эта, вторая зима ИИ продолжалась вплоть до 2000-х.

7. IBM Deep Blue побеждает Каспарова (1997)



IBM Deep Blue победила лучшего шахматиста мира, Гарри Каспарова, в 1997.

Общественное представление об ИИ улучшилось в 1997 году, когда шахматный компьютер Deep Blue от IBM победил тогдашнего чемпиона мира Гарри Каспарова. Из шести игр, проводившихся в телестудии, Deep Blue выиграла в двух, Каспаров в одной, а три окончились вничью. Ранее в том году Каспаров победил предыдущую версию Deep Blue.

У компьютера Deep Blue было достаточно вычислительных мощностей, и он использовал «метод грубой силы», или полный перебор, оценивая 200 млн возможных ходов в секунду и подбирая наилучший. Возможности людей ограничиваются оценкой лишь порядка 50 ходов после каждого хода. Работа Deep Blue была похожа на работу ИИ, но компьютер не размышлял о стратегиях и не учился игре, как смогут делать последовавшие за ним системы.

И всё же победа Deep Blue над Каспаровым впечатляющим образом вернула ИИ в круг общественного внимания. Некоторые люди были очарованы. Другим не понравилось, что машина обыграла эксперта в шахматах. Инвесторы были впечатлены: победа Deep Blue на $10 подняла стоимость акций IBM, выведя их на максимум того времени.

8. Нейросеть видит кошек (2011)


К 2011 году учёные из университетов всего мира говорили о нейросетях и создавали их. В том году программист Джефф Дин из Google познакомился с профессором информатики из Стэнфорда Эндрю Ыном. Вдвоём они замыслили создание большой нейросети, обеспеченной огромной вычислительной энергией серверов Google, которой можно будет скормить огромный набор изображений.

Созданная ими нейросеть работала на 16 000 серверных процессорах. Они скормили ей 10 млн случайных и неразмеченных кадров с видеороликов YouTube. Дин и Ын не просили нейросеть выдать какую-то конкретную информацию или разметить эти изображения. Когда нейросеть работает таким образом, обучаясь без учителя, она естественным образом пытается найти закономерности в данных и формирует классификации.

Нейросеть обрабатывала изображения три дня. Затем она выдала три размытых изображения, обозначающих визуальные образы, которые она снова и снова встречала в обучающих данных – лицо человека, тело человека и кота. Это исследование стало серьёзным прорывом в использовании нейросетей и обучении без учителя в компьютерном зрении. Также оно отметило начало проекта Google Brain.

9. Джоффри Хинтон спустил с поводка глубокие нейросети (2012)



Исследование Джоффри Хинтона помогло возродить интерес к глубокому обучению

Через год после прорыва Дина и Ына профессор Торонтского университета Джоффри Хинтон с двумя своими студентами создали нейросеть для компьютерного зрения AlexNet для участия в соревновании по распознаванию изображений ImageNet. Участники должны были использовать свои системы для обработки миллионов тестовых изображений и определять их с наивысшей возможной точностью. AlexNet выиграла соревнование с процентом ошибок в два с лишним раза меньшим, чем у ближайшего конкурента. В пяти вариантах подписи к изображению, данных нейросетью, только в 15,3% случаев не было правильного варианта. Предыдущим рекордом было 26% ошибок.

Эта победа убедительно показала, что глубокие нейросети, работающие на графических процессорах, куда как лучше других систем могут точно определять и классифицировать изображения. Это событие, возможно, сильнее остальных повлияло на возрождение интереса к глубоким нейросетям, и заслужило Хинтону прозвище «крёстный отец глубокого обучения». Вместе с другими гуру в области ИИ, Йошуа Бенджио и Яном Лекуном, Хинтон получил долгожданную премию Тьюринга в 2018.

10. AlphaGo обыгрывает чемпиона мира по го (2016)


В 2013 году исследователи британского стартапа DeepMind опубликовали работу, где было описано, как нейросеть научилась играть и выигрывать в 50 старых игр от Atari. Под впечатлением от этого компанию купила Google – как говорят, за $400 млн. Однако главная слава DeepMind была ещё впереди.

Через несколько лет учёные из DeepMind, теперь уже в рамках Google, перешли от игр Atari к одной из самых старых задач ИИ – японской настольной игре го. Они разработали нейросеть AlphaGo, способную играть в го и обучаться во время игры. Программа провела тысячи партий против других версий AlphaGo, обучаясь на основе проигрышей и выигрышей.

И это сработало. AlphaGo обыграла величайшего игрока в го в мире, Ли Седоля, со счётом 4:1 в серии игр в марте 2016. Процесс снимали для документального фильма. При его просмотре трудно не заметить грусть, с которой Седоль воспринял проигрыш. Казалось, что проиграли все люди, а не только один человек.

Последние продвижения в области глубоких нейросетей настолько сильно изменили область ИИ, что реальная его история, возможно, только лишь начинается. Нас ждёт много надежд, шумихи и нетерпения, но сейчас уже ясно, что ИИ повлияет на все аспекты жизни XXI века – и возможно даже сильнее, чем в своё время это сделал интернет.
Поддержать автора
Поделиться публикацией
AdBlock похитил этот баннер, но баннеры не зубы — отрастут

Подробнее
Реклама

Комментарии 21

    0

    Со Cтаркрафтом II пока не получилось. Точнее, не получилось создать агента превосходящего чемпионов мира, в случае если ограничить способности агента к получению информации и управлению юнитами человеческим уровнем.

      0
      Старкрафт наш последний рубеж?)
        +2

        Кошки, Старкрафт… Лучше бы уже тот скрипт который правительство заменяет написали.

          0
          Ну, а откуда вы знаете, что он до сих пор не создан? Я полагаю, что нормальный ИИ придет к выводу, что воевать с людьми — глупо, лучше управлять, тонко, как серый кардинал, так ресурсов будет потрачено меньше.
            0
            Причём, он так может мешать всем остальным создать новый ИИ и никто не сможет понять почему не получается.
              0
              А я думаю что мы в принципе не можем знать когда и как полноценный ИИ станет понимать окружающий мир. где для него это мир будет проходить? Для нас это тело а для него??? Зачем /не почему/ а зачем он вообще будет хранить информацию и какую ??!
              Вопросы без ответов
            0

            Нет, конечно. Будут ещё игры в реальном мире, для которых очень сложно симулировать десятки тысяч лет эпизодов игры. Будут не-игры в реальном мире, где нет дисквалификации за обход правил.

            0
            Ещё пример — 1 из этапов развития ИИ в «Дота 2» был с такими правилами:
            Так, все команды состояли из одного и того же набора из пяти героев, а игрокам не разрешалось использовать заклинания невидимости и иллюзии и надевать определенные артефакты.
              +1

              На мой взгляд, не столь важно, чтобы агент мог победить сильнейших игроков мира, сколь важно получить агента, который показывает базовое "понимание" правил игры.
              Пока что этого не произошло. Существующий агент, например, не понимает концепцию "невидимых" юнитов и юнитов-детекторов. К примеру, в одной из игр ему было нужно расчистить участок карты от вражеский скрытых строений. Игроки люди в такой ситуации либо имеют в составе армии юнит-детектов, либо используют "скан". Агент же, имея юнит детектор в составе армии все равно использовал скан, что не имеет никакого смысла и, по сути, является бесполезной тратой ресурсов. Это доказывает, что данный агент не видит связи между этими концепциями.
              Видео:
              https://youtu.be/qIUcg-Dy8zA

                0

                С пониманием "дропов"(использования транспортов для доставки армии в точку карты, где противник не ожидает атаки) похожая история. Уверен, можно найти ещё много подобных моментов.


                Старкрафт2, как оказалось, очень "механическая" игра. Хорошее выполнение предопределеннонго поведения позволяет показывать неплохие результаты и без необходимости видеть причину и следствие, предугадывать намерение соперника и т.д.

                0
                Можно я вот это видео оставлю насчет старкрафта, обожаю этого комментатора.
                0
                > У компьютера Deep Blue было достаточно вычислительных мощностей
                компьютер Deep Blue имел рядовые высилительные мощности. это была обыкновенная серийная машина IBM Scalable POWERparallel (т.е. RS/6000 SP), только в платы раширения были выставлены платы заказных кастомных шахматных процессоров. первые уровни перебора осуществлялись програмно, а более глубокие уровни перебирались аппаратно в шахматных процессорах. Искусственным интеллектом там не пахло ни разу.
                  0
                  DeepBlue один раз баганул, сделал бессмысленный ход, и Каспаров из-за недоумения расстерялся, что однозначно повлияло на ход игры. К тому же это был не искусственный интеллект, а просто демонстрация мощности компьютера(тк он просто перебирал дерево развития событий и анализировал его исходы, как и сказано в статье).
                    0
                    Если отбросить лишний пафос, то Азимов просто написал художественное произведение, а Тюринг просто высказал очевидную вещь, перцептрон был довольно простой идеей, которая пришла бы в голову всякому кто задумывался об использовании компьютера для аппроксимации, экстраполяции, построения регрессионных моделей и прочего; победы в играх над человеком отношение к ИИ имеют очень косвенное. Нечто похожее на первую «веху» в решении проблемы ИИ начинается с глубокого обучения, хотя и оно по сути просто развитие той же идеи аппроксиматора-перцептрона на больших вычислительных мощностях, больших выборках, с более сложными алгоритмами применения и обучения.
                    Очень сложный алгоритм, проверяющий входные условия «если-то-иначе...» не приводит к ИИ, это уже проверено. Приведет ли очень сложный аппроксиматор функций к ИИ, или нужно что-то еще, пока вроде непонятно.
                      +2
                      которая пришла бы в голову всякому

                      Огромное количество уже открытых идей — простые. Но не до открытия, а после. Теорема Пифагора, шарообразность Земли, электроны, броуновское движение.

                        0
                        Множество идей являются простыми так же и до открытия. Потому, что это никакие не идеи, а просто нечто очевидное для всех к этому моменту, что пришло время публично сказать.
                        Обычно в журналистских интерпретациях такие «идеи» выдвигают на первый план, потому что так можно сделать повествование понятным для всякого.
                        В статье можно было провести более глубокий анализ развития вопроса ИИ вместо перечисления журналистских штампов.
                      0

                      Помимо практической части вопроса есть еще теоретическая. И без неё особо далеко не уйдёшь, кто бы что ни говорил. И вот теория-то и отстаёт от практики лет на 50 примерно. Любая нейронная сеть — аппроксимация какой-то неизвестной нам функции. Так вот где гарантия, что конкретная нейронная сеть может решить нашу задачу? С какой точностью? Как подобрать архитектуру? Сейчас это все делается "на глазок", никаких особых методов не разработано. И если при классификации изображений мы можем посмотреть — похоже на правду или нет и посчитать процент ошибок, то при решении уравнений так сделать мы не сможем. Поэтому следующий рывок ИИ начнётся после серьёзных научных разработок, имхо. Вечно решать прикладные задачки "на опыте" невозможно.

                        0
                        Это не совсем так, сейчас довольно мощно развивается направление, именуемое AutoML. В его рамках как раз решается задача автоматического выбора наиболее эффективной модели (или ансамбля) машинного обучения. Что касается гарантий, то она очень простая, модель ML — это, по сути — алгоритм, который преобразует входной поток данных в выходные с помощью аппроксимирующих методов. То есть это тоже самое программирование, где вместо человека проиходит настройка весов или других параметров решателей.
                          0

                          А где гарантия, что человек может решить нашу задачу? Где гарантия, что он уравнение решил без ошибок?


                          Гарантии для ИИ — там же. Не в попытках сделать "безошибочную" архитектуру (это невозможно и, несколько я знаю, к этому никто не стремится), а в изучении границ применимости и в оценке, насколько вероятно, что результат хорош.

                            0

                            Естественно, решение человеком не всегда эффективно или даже реально. Для этого и разрабатывают алгоритмы и программы. Однако, "изучить границы" или "оценить результат" легко там, где идея исходной задачи довольно проста. То есть придумать алгоритм, как классифицировать котиков — нетривиальная вещь, а вот оценить довольно просто. Но если Ваша исходная задача — приблизить сильно осциллирующую функцию, например, которая отвечает какому-то физическому процессу, который мы не можем просто так смоделировать на практике, то оценить качество и применимость модели уже куда сложней. И тут без теоретических изысканий никуда. Да, это нужно не везде. Но где-то нужно :)

                          0
                          Лайтхилл в своём отчёте утверждал, что ИИ для задач распознавания речи будет крайне сложно масштабировать до размеров, которые смогут быть полезными правительству или военным.
                          В переводе на нормальный язык это звучит как: ''Подслушивать за всеми гражданами страны ИИ не сможет, а потому бесполезен. ''

                          Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                          Самое читаемое