Комментарии 67
Жду не дождусь ИИ для Starcraft 2 от Deepmind. А то все боты на https://sscaitournament.com/ пока что представляют унылое зрелище, в том числе и топовые: очень большой APM, да еще и часто тупят.
- либо обучаясь на партиях людей
- либо на переборе разных вариантов (игра сама с собой подходит под этот вариант).
Но это не имеет отношения — ни к искусственному интеллекту, ни к игре.
Пора придумывать игру с такой большой доской и некоторыми ухищрениями, чтобы разные сектанты искусственного интеллекта (использующие почему-то обычный и необычный перебор вариаций) не смогли некоторое время испортить игру.
Когда говорят «смотрите, смотрите — компьютеры уже обыгрывают чемпионов» — обывателям кажется что проявляется компьютерное сознание и Скайнет уже близко :). А на деле все так:
Deep Blue II представлял собой суперкомпьютерный кластер RS/6000 SP (от англ. Scalable Powerparallel) компании IBM. Он состоял из двух стоек с размещёнными в них 30 узлами, построенными на базе рабочих станций RS/6000. На каждом узле был установлен процессор P2SC (одномикросхемное исполнение процессора POWER2) и две платы расширения с 8 специализированными шахматными процессорами на каждой плате под шину MCA. Таким образом всего использовалось 480 шахматных процессоров и 30 процессоров P2SC. Два узла использовали процессоры P2SC с тактовой частотой 135 МГц, а остальные 28 узлов — процессоры P2SC с тактовой частотой 120 МГц. На каждом узле были установлены 1 ГБ ОЗУ и 4 ГБ дисковой памяти. Узлы обменивались данными между собой по высокоскоростной сети. Один из процессоров P2SC был назначен главным, а остальные — вспомогательными. В свою очередь, каждый специализированный шахматный процессор работал на частоте 24 МГц и перебирал от 2 до 2,5 миллионов шахматных позиций в секунду, что примерно в сто раз больше, чем у аналогичных по частоте универсальных процессоров.Вообще, зачем они это делают? И так понятно что будет превосходство в любой игре с полной информацией.
Число допустимых легальных комбинаций состоит из 171 цифры и выглядит следующим образом:
2081681993819799846 9947863334486277028 6522453884530548425 6394568209274196127 3801537852564845169 8519643907259916015 6281285460898883144 2712971531931755773 6620397247064840935Программное обеспечение для вычислений было готово еще в 2005 году, однако автор долго не мог найти спонсора или организацию, которая предоставила бы достаточно мощный для решения поставленной задачи компьютер. На вычисление числа возможных комбинаций, не противоречащих правилам, у ученого ушло около 10 месяцев.
Исходный код использованного программного обеспечения опубликован в GitHub, однако автор кода отмечает, что для проверки его вычислений потребуется несколько месяцев работы программы на компьютере с 15 терабайтами дискового пространства, 8 или 16 ядрами и 192 гигабайтами оперативной памяти.
Го — одна из древнейших настольных игр и на сегодняшний день компьютер, даже при обладающий высокими вычислительными мощностями, не способен играть на равных с профессиональным игроком из-за высокого уровня абстракции и невозможности перебора всех доступных вариантов развития событий
Да и 15 терабайт это абсолютный мизер для выгрузки такого порядка цифр, для этого нужно радикально больше. Как вы засунете 10^170 в 15^10? А ведь нужно описать не просто позицию на доске на каждый ход(а это 19*19 бит)но и все возможные взаимосвязи между ними.
Число позиций ГО больше чем частиц во вселеннойА это точно-точно? Может это всё же некая метафора?
С трудом верится, просто логически очень странно. Кто серьезно считал?
Количество элементарных частиц в наблюдаемой вселенной: ~1*10^80, максимум до 10^85; ссылка.
Количество корректных комбинаций на поле в Го 19*19: ~2*10^170, ссылка.
Разница как бы на 90 порядков. Любопытно, что для поля 13*13 количество комбинаций как раз сопоставимо с количеством частиц во вселенной.
Будьте на один шаг впереди: «И так понятно, что будет превосходство в любой игре, а вот в реальном мире...»
Скоро (думаю в течение года, максимум двух) ИИ будет обыгрывать людей в Starcraft II — игру с неполной информацией.
Лучше бы приложили все усилия на борьбу с читаками.
А что, если в какой-то момент боты поймут, что ругать игроков с упоминанием их мамок — это действенная тактика?.. =)
Предлагаю сделать следующий шаг и научить компьютер играть в настоящий покер. Ну там с видеокамерой для наблюдения за мимикой и с анализом блеф-стратегий соперников.
Заведомо сильнее? Почему-то раньше для игры Го так не думали.
ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%BC%D0%BF%D1%8C%D1%8E%D1%82%D0%B5%D1%80%D0%BD%D0%BE%D0%B5_%D0%B3%D0%BE#.D0.A1.D0.BE.D1.80.D0.B5.D0.B2.D0.BD.D0.BE.D0.B2.D0.B0.D0.BD.D0.B8.D1.8F_.D1.81.D1.80.D0.B5.D0.B4.D0.B8_.D0.BA.D0.BE.D0.BC.D0.BF.D1.8C.D1.8E.D1.82.D0.B5.D1.80.D0.BD.D1.8B.D1.85_.D0.BF.D1.80.D0.BE.D0.B3.D1.80.D0.B0.D0.BC.D0.BC_.D0.B8.D0.B3.D1.80.D1.8B_.D0.B2_.D0.B3.D0.BE
Кстати интересно почитать.
То что можно формализовать — рано или поздно будет посчитано.
Вот человеческую психологию формализовать тоже можно — социология этим вроде занимается, но гораздо труднее. Я подумал — можно наверное сделать идеально-управляемое государство — но все равно — всем в нём хорош не будет поскольку у каждого своё представление о том, что такое хорошо.
Интересно, а почему обучали именно 40 дней? Подозреваю, что из-за того, что рейтинг совсем перестал ползти вверх судя по графику. Интересно, это предел для используемых технологий и разработанного метода или все же можно еще улучшить результат?
Где
R'a=Новый рейтинг
Ra=Старый рейтинг
К=Коэффициент
Sa=Очки ,1 за победу, 0,5 ничья, 0 поражени
Ea=математическое ожидание количества очков, которое наберёт игрок А с игроком Б
При Винрейте 100%, Sa=Ea из за чего R'a=Ra, и тем самым рейтинг останавливается, пока не появится новый более сильный соперник.
Ну так AlphaGo играет сама с собой, как винрейт может быть равен 100%? Он около 50%.
Рейтинг перестал расти, но в алгоритме же много случайности и зависимости от времени. Поэтому теоретически если провести еще много итераций и давать больше времени на ход, то можно еще нарастить наверное.
ну чтож, ждем анлимит покер, и все .)
У меня два вопроса/замечания.
- После игры AlphaGo Zero с AlphaGo Lee и Master откатывалась ли сеть назад? Ибо получается после игр с ними в Zero попадал опыт игр предыдущих версий с людьми.
- В течение этих 40 дней развития Zero развивались ли прошлые версии, или стояли на месте и ждали, когда Zero их победит?
2. Если вы про AlphaGo Lee и Master, то они конечно были фиксированы, чтобы можно было измерить прогресс. Если про прошлые версии самой Зеро, то в процессе тренировок старая версия следовала за новой, так же, как у человека одна нога следует за другой, когда он поднимается по ступенькам.
Любопытный вопрос. Один из программистов альфы ранее работал над самообучающейся шахматной программой giraffe, которая научилась играть в силу мастера за 72 часа. Он наверное приобрел много опыта, работая над го программой. Любопытно, сможет ли он написать новую шахматную программу по аналогии с «Альфой»? Или же подход с нейронными сетями не работает в шахматах? Мне очень интересен ответ на этот вопрос.
Программист написавший giraffe, бросил его из-за того что ушел в DeepMind. Мне кажется что шахматы на нейронных сетях могли бы привнести свежую струю в игру. Хотелось бы увидеть, как будет программа без bias'а человеческих эвристик. К сожалению, энтузиастам такое написать пока судя по всему не по силам, а DeepMind и прочим — не интересно.
Так было и с AlphaGo Zero, к концу обучения вариативность начала игры снизилась, и программа начала использовать хорошо изученные людьми дзёсэки.
Оптимальная программа для игры в шахматы всегда бы начинала игру с одного дебюта,
Шахматный движок интересен скорее с точки зрения анализа. Современные движки самостоятельно разыгрывают дебют довольно фигово (как и неокторые эндшпили), но это не мешает ими пользоваться и находить новые идеи.
Про AlphaGo Zero говорят, что её стиль гораздо больше напоминает человеческий — это именно то, чего сильно не хватает шахматным движкам.
который максимизирует вероятность выигрыша.
Для оптимальной программы нет "максимизации вероятности", игра либо выиграна, либо (как мне кажется) ничья, либо проиграна. Оценить оптимальную стратегию против неоптимального игрока — сложная задача сама по себе, которая впрочем имеет смысл только если игра таки ничейна.
Максимизировать вероятность выигрыша не зная с кем играешь, думаю, невозможно.
Игра в ГО это хорошо но ведь мы не забыли обещания Дипмайнда сделать непобедимый ИИ в старкрафт2. Они опять борются в ГО когда все ждут принципиально нового рывка в игре саркрафт2. Победы лучших игроков в старкрафте бужет означать, что в реальной жизни ИИ сможет управлять армией в боевых точках и быть непобедимым.
Если посмотреть на статью в Nature, то можно заметить, что статья была отправлена в журнал 7-го апреля 2017 года. Старкрафтом занимаются сейчас.
Даже если так, Дипмайнд обещали заняться старкрафтом2 еще в прошлом году, а судя по этой статье они всё еще ГО занимаются.
deepmind.com/research/publications
Есть там статья и о начале разработки Старкрафт. Вот прямая ссылка на статью от 16 августа:
arxiv.org/pdf/1708.04782.pdf
Я говорю о том, что формально они уже давно занимаются даже видео было в прошлом году https://youtu.be/5iZlrBqDYPM но по факту видимо усилия идут на ГО, так, как по старкрафту2 пока финальной версии не видно.
ИИ-платформа AlphaGo Zero отточила мастерство игры в го без участия человека