Искусственный интеллект AlphaStar, который разработала команда Google DeepMind, вошёл в «Элитную лигу» игроков StarCraft II — то есть попал в список 200 лучших игроков мира. Об этом сообщает научное издание Nature.
AlphaStar способен играть за три расы, представленные в Starcraft II: зергов, протоссов и терранов. Как утверждает Nature, AlphaStar не имел никакого особенного преимущества перед обычными игроками, его соперники не знали, что играют против машины. Попадание AlphaStar в «Элитную лигу» означает, что ИИ играет лучше, чем 99,8% игроков-людей.
«Меня очень впечатлил стиль игры AlphaStar. Она очень умело оценивает свою стратегическую позицию и точно знает, когда должна вступить в сражение с соперником, а когда стоит отступить. При этом я не чувствовал, что играл со сверхчеловеком, которого в принципе нельзя превзойти. Мне казалось, что мне противостоит реальный человек», — прокомментировал игру ИИ Дарио Вюнш, один из известных игроков в Starcraft II.
Система AlphaStar добилась успеха в Starcraft II ещё в январе текущего года. Она с большим перевесом победила одного из лучших в мире игроков в Starcraft II, поляка Грегоржа Коминча. Однако игра первой версии бота, как отметили в комментарии Nature создатели AlphaStar была неестественно хорошей: машина могла выполнять намного больше действий, чем профессиональные игроки-люди, так как ей не нужно было двигать мышкой и нажимать на кнопки. Также ИИ мог видеть большую часть карты, чем люди.
Впоследствии разработчики ограничили возможности ИИ, чтобы её игра с людьми была более «честной». Кроме того, сотрудники Google и DeepMind поменяли систему обучения AlphaStar. Они заставили ИИ играть не с собой, а с разными версиями самого себя, благодаря чему ИИ смог разработать более сложные стратегии.
На сегодня ИИ Google вышел на гроссмейстерский уровень в Starcraft II. Как считает британский программист Дэвид Сильвер, один из создателей AlphaStar, это означает, что ИИ уже в состоянии решать сложные задачи и в других, более серьёзных сферах.
«История прогресса в развитии ИИ напрямую связана с играми. После того как нейросети победили человека в шахматы, го и покер, Starcraft стал следующей большой научной задачей. Мы решили ее, используя универсальные методы обучения ИИ, которые можно применить и для решения других сложных проблем», — заявил Сильвер.
ИИ AlphaStar был разработан на базе двух нейронных сетей. Одна нейросеть оценивает позицию игрока на карте, доске или поле, а вторая использует результаты этой оценки, чтобы сделать ход.
ИИ Google DeepMind уже добился успеха в шахматах, го и покере. В мае 2017 года ИИ AlphaGo, специально созданный для игры в го, провёл матч с чемпионом мира по го Ли Седолем. AlphaGo выиграл со счетом 4:1. Позже успеха в го добился и ИИ AlphaZero, после чего разработчики оптимизировали AlphaZero для компьютерных игр.
Первым опытом ИИ в компьютерных играх стал популярный шутер Quake III Arena. Вероятность победы команд под управлением ИИ достигала 74%. У людей-игроков — всего 52%. В апреле текущего года ИИ Open AI Five победил одну из сильнейших команд мира OG в игре Dota 2. В этом случае машина также обучалась самостоятельно, играя сама с собой. ИИ потребовалось 45 тысяч часов, чтобы «вникнуть» в Dota 2.
Google и DeepMind — не единственные компании, которые выводят искусственный интеллект в мир игр. Например, специалисты Университета Карнеги-Меллона в сотрудничестве с Facebook в июле 2019 создали ИИ-систему для игры в покер. Система носит название Pluribus. Машина способна добиться успеха в игре с пятью соперниками.