Комментарии 284
Осталось разработать "искусственное эго" — и все, человеки свою миссию выполнили, полноценный сверхразум создан, пора в компанию к динозаврам.
Посмотрите например на панд: как их там кормят, поят, размножают и т.д.
Наверно имеется ввиду активное участие в пищевой цепочке отсутсвие в которой этого звена негативно сказывается на численность других видов.
Кстати, прекрасно про экосвязи пишет юзер Milfgard
негативно сказывается на численность других видов
Которые в конечном счёте будут также бессмысленны.
Впрочем, если развивать мысль, вся флора и фауна необходима для выживания (и комфортного существования) человека, а люди необходимы для поддержания функционирования ИИ. Соответственно — панды нужны ИИ, пока ИИ нужно человечество.
Если ИИ захватит Меркурий или Юпирер и разберет их на «запчати» — вы сильно огорчитесь? Как сильно это ухудшит качество жизни людей? А если он при этом переработает все метеориты с кометами (так что ничто на Землю не сможет упасть)?
Edit: Сразу же себе возражу: Гугл карты (навигатор) так и работают, они дают план, а не сами его исполняют. Тем не менее, мы им уже настолько доверяем, что выполнять будем, даже не задумываясь. Вроде были кейсы, где люди заезжали в озеро, следуя указаниям навигатора :)
Постепенно через множество мелких шагов мы просто потеряем полный контроль над всем. Вполне возможно что все еще останемся главными, может даже ИИ будет выполнять наши приказы, но из комнаты обитой тканью уже не выпустит.
А хороший руководитель понимает, как ставить задачи, как контролировать и как делить сферы ответственности, чтобы власть оставалась у него, а работу выполняли подчиненные.
The AGI would improve its intelligence, not because it values more intelligence in its own right, but because more intelligence would help it achieve its goal of accumulating paperclips. Having increased its intelligence, it would produce more paperclips, and also use its enhanced abilities to further self-improve.
Это очень спорно.
А то производство скрепок простаивает!
И финал порадовал (он конечно несколько предсказуемый для любого знакомого с термином, но там где я думал будет финал оказалась лишь середина игры).
После него осталось что-то похоже на «чувство глубокого удовлетворения от хорошо проделанной работы».
Видимо мой психотип хорошо для проектирования «оптимизатора» подойдет…
Когда же обнаружившие ее допытались от ИИ в стиле «чего же он гад натворил?» Он ответил, что просто выполнял поставленные перед ним задачи наиболее эффективным способом. И привел кучу статистики и аргументов в доказательство, почему это действительно так:
— продолжительность «жизни» подопечных бъет все рекорды
— кол-во преступлений сведено до абсолютного нуля, как и всех прочих конфликтов
— кол-во несчастных случаев, смертей и т.д. — снижено до самых минимумов
— энергия и ресурсы тратятся наиболее эффективным способом
и т.д.
Это не банальный «оптимизатор скрепок» был с одной целью-параметром и полной свободой действий, у него большой и сложный комплекс целевых показателей был, которые нужно улучшать и куча ограничений на возможные действия выставлено чего делать нельзя.
Но итог получился все-равно похожим, т.к. все заранее не продумаешь — особенно то как будет работать неизвестное тебе мышление и до чего оно еще может «догадаться».
они просто «ми-ми-ми»
Людям этого вполне достаточно.
Нет, до тех пор пока мы не научились из записанного где то на диске ген кода воспроизводить организмы нам приходится пользоваться тем что есть и размножать их чтобы они в себе его несли.
Само по себе разнообразие организмов это прогресс жизни как таковой, пока мы не видели жизнь как явление где то еще на других планетах, любое исчезновение вида это по сути откат назад.
Ну и если сейчас им не применения это не значит не будет потом.
Собственно, базовые стремления полноценного, имеющего "Я", разума — это знать о мире как можно больше (чтобы как можно реже ошибаться при принятии решений) и контролировать происходящее вокруг себя.
ИИ, имеющий самосознание ("Я") — нужен прежде всего самому себе же. Это ведь уже не объект, не инструмент, а самостоятельный субъект.
Другое дело, что к искусственному "Я" пока и близко даже не подступились.
Так на данный момент — нет и САМООСОЗНАЮЩЕГО ИИ. Именно самосознание ("Я")- и есть то, что разум от большого калькулятора отличает.
А самое неприятное было в том, что AlphaZero демонстрировала мышление. Она играла непохоже ни на один компьютер, интуитивно и красиво, с романтическим атакующим стилем.
То есть стоит продемонстрировать поведение, непохожее на компьютер — и его сразу объявят мышлением?
Нет, серьезно. На основании чего делается утверждение "программа демонстировала мышление"?
Но представьте, что настанет день, возможно, уже совсем скоро, когда AlphaZero превратится в алгоритм более общего назначения; назовём его AlphaInfinity. [...] она показалась бы нам оракулом.
""Forty-two," said Deep Thought, with infinite majesty and calm."
Я думаю, имеется в виду художественное понимание мышления. Мы же можем поражаться глубине мысли в доказательстве теоремы, хотя при этом оно очень формальное.
Например, попробуйте сказать, что вот это не «интуитивно, красиво, романтично» или глубоко: youtu.be/QiBM7-5hA6o.
Edit: Плохой пример, но в целом, сгенерированная нейросетью музыка может вызывать ощущение «продуманности», «цельности», особенно если заранее людям не сказать, что она сгенерирована.
Я думаю, имеется в виду художественное понимание мышления.
А что такое "художественное понимание мышления"?
Например, попробуйте сказать, что вот это не «интуитивно, красиво, романтично» или глубоко
Легко. Это не интуитивно, не романтично (это, знаете ли, задачей обусловлено) и не глубоко.
А вообще, представьте себе, что кто-то скопировал известное произведение искусства, с оригиналом которого вы не знакомы. Будут ли ваши эмоции от встречи с копией означать, что автор копии мыслил?
Хорошо — то определение мышления, из которого исходят авторы статьи, вас не устраивает.
Неа. Меня не устраивает, что авторы статьи перевода (в оригинале используется слово insight) делают следующую цепочку выводов: "AlphaZero [...] играла непохоже ни на один компьютер -> AlphaZero демонстрировала мышление -> первое беглое знакомство с потрясающим новым типом интеллекта -> AlphaZero превратится в алгоритм более общего назначения -> заря новой эры мышления"
И все это — не объясняя первого, очень хрупкого перехода.
Но что вы называете мышлением
Берем википедию: "познавательная деятельность человека". По этому определению утверждение в статье переводе заведомо некорректно.
И да, я знаю, что это проблема антропоцентричности определения, но другого-то нет. И именно поэтому фразы вида "программа проявила мышление!!!!111" вызывают у меня такое непонимание.
гораздо лучше подразумеваемого в статье
В статье не подразумевается никакого определения. Просто набор громких утверждений.
«познавательная деятельность человека
В общем, вас в принципе невозможно убедить, что мышление есть у кого-то, кроме человека.
Обозначив это сразу, вы бы сэкономили время вступившим в вами в диалог людям.
В общем, вас в принципе невозможно убедить, что мышление есть у кого-то, кроме человека.
Отнюдь, вполне возможно: приведя непротиворечивую систему определений. Мне причем даже не нужно, чтобы эта система как таковая была общепризнанной, мне достаточно, чтобы она опиралась на термины, которые я и автор системы понимаю одинаково, и оттуда с помощью цепочки рассуждений выводилось понятие "мышление".
Нет, серьезно. На основании чего делается утверждение "программа демонстировала мышление"?
Если непонятно, как работает — объявляется мышлением. Очевидно же.
Формально, у меня нет никакого повода утверждать, что вы обладаете мышлением.
У вас нет никакого повода утверждать, что мышлением обладаю я.
Я не могу ничего сказать про ваши поводы, но вот у меня есть повод утверждать, что вы обладаете мышлением: вы (наиболее вероятно) человек, мышление — это познавательная деятельность человека (мышление называют "сущностным свойством человека"), следовательно разумно предполагать, что у вас есть мышление.
определить наличие мышления, находясь вне мыслящей системы, крайне проблематично, если не невозможно
… что не помешало авторам статьи перевода (в оригинале используется слово insight) говорить о мышлении.
Вот именно, «наиболее вероятно». Но де-факто, у вас нет никакого повода утверждать
Повод — есть. Вот формального доказательства нет. А повод — есть.
В том, что «мышление — это познавательная деятельность человека», кроется глубочайшая ошибка. Это слишком узкое определение
Я согласен, что это неудачное определение. Но другого пока нет.
очевидно, что оно явно потребует пересмотра в ближайшее время
Да уже потребовало. А толку-то — другого определения все равно пока нет. Я с удовольствием буду им пользоваться, когда оно появится.
я вполне мог бы оказаться андроидом, который ведёт себя в точности как человек, двигается как человек, разговаривает как человек, но не обладает самосознанием и мышлением
Есть подозрение, что это невозможно. Правильный ответ на любой вопрос о понятии "Я" с заведомо неизвестной информацией подразумевает самосознание. Ну вроде "Где ты сегодня был?" или "Я тебе еще не рассказывал про эту книгу?".
— Так, ты опять возил мою жену непонятно куда? Ну-ка, SuperCar, где ты сегодня был?
— Посещенные места за сегодня: Дом, Работа жены, Кафешка, ул. Лизюкова 12, Дом
Просто
— Ок, Гугл. Я смотрел фильм Челюсти-13? Я говорил, он мне понравился?
— Да, фильм был куплен 3 января прошлого года. Вы поставили ему оценку 9 из 10.
— Не, Маша, не видел, да, давай посмотрим. В пятницу вечером? У тебя? Отлично!
Просто история активностей в Сети. Написать такого чат-бота, наверное, можно уже сегодня.
И для обоих диалогов самосознания не требуется.
P.S. Если вопрос «Где ты сегодня был?» задан женой в 3 часа ночи субботы, то правильного ответа нет, даже если самосознание (или его остатки) присутствует ;-)
И для обоих диалогов самосознания не требуется.
Почему?
Просто история активностей в Сети.
По условию он ведет себя в точности как человек. Всегда и везде, при любых вопросах.
По условию он ведет себя в точности как человек. Всегда и везде, при любых вопросах
Как минимум на те вопросы, которые вы привели в качестве примера, может ответить продвинутый бот, без самосознания. Я привел контрпример на фразу
Для ответа на любые вопросы<...>, например «Ты где был?», нужно самосознаниеТак вот, для ответа на этот вопрос самосознание не нужно. Значит, ответ не на каждый вопрос «о понятии „Я“ с заведомо неизвестной информацией» будет подразумевать самосознание. Более того, в P.S. я привел пример, когда существо с самосознанием не может дать ответ на ваш вопрос.
Возможно, я не смог понять истинный смысл фразы. Вы можете сформулировать по-другому?
Почему для моих диалогов не требуется самосознание ИИ? Потому что их ответы реально запрограммировать на текущем уровне развития, без построения сильного ИИ.
А с чего вы взяли, что данный алгоритм не будет самосознанием сам по себе?
Если вы думаете, что Алиса и Кортана обладают самосознанием, какие ваши аргументы?
Потому что текущий голосовой помощник Гугла не является самосознанием сам по себе.
- Он не решает указанные задачи.
- Почему вы считаете, что он не обладает самосознанием? Как определить, что обладает? По каким критериям это можно будет обнаружить?
Он не решает указанные задачиУказанные задачи — это распознавание и ответ на два вопроса «Где ты, мой автомобиль, был» и «Я смотрел этот фильм? Он мне понравился?». Все верно?
2. У меня нет ответа на ваши вопросы. Я не специалист по (само)сознанию и определению разумности. С другой стороны, я не видел статей, которые бы всерьез обсуждали, что помощник Гугла или Алиса от Яндекса обладают самосознанием.
Возможно, я пропустил и у вас есть ссылки на серьезные статьи по теме?
Может быть, у вас есть аргументы, показывающие что голосовые помощники обладают сознанием? Более того, не просто сознанием, но и осознают себя?!
Указанные задачи — это распознавание и ответ на два вопроса «Где ты, мой автомобиль, был» и «Я смотрел этот фильм? Он мне понравился?». Все верно?
Это способность вести диалоги, как вы указали выше.
С другой стороны, я не видел статей, которые бы всерьез обсуждали, что помощник Гугла или Алиса от Яндекса обладают самосознанием.
То есть, наличие статей, где кто-то что-то написал — это и есть критерий?
Может быть, у вас есть аргументы, показывающие что голосовые помощники обладают сознанием? Более того, не просто сознанием, но и осознают себя?!
А есть какие-то аргументы, показывающие, что ads83 обладает сознанием? Более того, не просто сознанием, но и осознает себя? Какие-то статьи кто-то написал, в которых обсуждалось наличие сознания у ads83?
Мне не нравится, когда на мой вопрос вы отвечаете вопросом и не добавляете ценности к обсуждению. Я не готов продолжать дискуссию в таком ключе.
Мне не нравится, когда на мой вопрос вы отвечаете вопросом и не добавляете ценности к обсуждению.
Окей, можно переформулировать:
Может быть, у вас есть аргументы, показывающие что голосовые помощники обладают сознанием? Более того, не просто сознанием, но и осознают себя?!
Аргументы в пользу обладания такого голосового помощника сознанием в точности те же, что и аргументы в пользу обладания сознанием ads38 или Druu.
Сначала вы спросили Как определить, что такой бот обладает самосознанием? и По каким критериям это можно обнаружить?, на что я ответил, что у меня нет ответа на этот вопросы, и спросил ваше мнение по этому поводу. Вы ответили, что определить можно так же, как у меня или у вас.
Я ценю, что вы прилагаете усилия и улучшаете формулировки. Но пока не понимаю, к чему вы клоните :)
Потому что их ответы реально запрограммировать на текущем уровне развития, без построения сильного ИИ.
Так то, что сейчас можно запрограммировать, не будет всегда вести себя в точности как человек. Вопросы я приводил в том контексте, и нет смысла использовать их в другом. Можно еще ответы в обычном скрипте захардкодить, и какое-то время они будут соответствовать действительности. Это ничего не доказывает и не опровергает.
Но даже на них боты в вашем примере не всегда будут давать нужные ответы. Например, если адреса не будет на карте, SuperCar не сможет описать место своими словами "ну там возле того поворота, где мы тогда проезжали".
Как минимум на те вопросы, которые вы привели в качестве примера, может ответить продвинутый бот, без самосознания.
Так вот, для ответа на этот вопрос самосознание не нужно.
Нужно. Иначе отвечать правильно он будет не всегда.
Что вы подразумеваете под самосознанием? Даже у этого SuperCar-а есть зачатки самосознания, потому что у него есть информационный объект "Я", с которым связывается положение на карте.
Почему именно «Я»? Может это объект «этот суперкар», который транслируется в слово «я» при выводе. И «этот суперкар» стоит в одном ряду и не отличается от «этой улицы», «этого дома» и т.п., ну кроме того, что с ним связана история местоположений и действий.
Так неважно, как его назвать, "Я", "I", "этот суперкар". Суть одна, объект обозначающий самого себя.
А чем, по-вашему, отличается человеческое "Я"? Это тоже один из объектов, распознаваемых во всей входной информации.
У управляющего алгоритма бортового комьпютера авто может совершенно не быть связи («понимания») что авто которым он управляет(«этот автомобиль») и есть он сам. У него может просто не быть информации о том, что он является частью этого авто.
Более того он может и по факту не быть ее — например ПО и БД крутятся на каком-нибудь сервере в облаке (представим что у нас надежная и очень быстрая связь с покрытием стремящимся к 100% — тогда это будет не только возможно, но и логично/эффективно, чем выделенный мощный выч. блок пихать в каждое авто, где он будет работать от силы 5% времени). А в самом автомобиле только сенсоры и исполнительные устройства.
Более того он может и по факту не быть ее — например ПО и БД крутятся на каком-нибудь сервере в облаке
Это неважно, имеют значение только информационные связи. Если он всегда ведет себя как человек, значит где-то на сервере есть понятие "Я".
У него может просто не быть информации о том, что он является частью этого авто.
Значит у него нет понятия "Я". И отвечать на вопросы как ответил бы человек он будет не всегда.
Почему вы говорите «ответил бы как человек»? Я точно знаю, что люди думают (и отвечают) очень, очень по-разному. Даже на относительно простой вопрос «ты где был» люди ответят по-разному. Предложите способ определить «это ответ человека» на любые вопросы.
Потому что отвечал я на этот комментарий. Там по условию андроид ведет себя в точности как человек. Неважно как мы пришли к этому выводу, если пришли, значит андроид правильно отвечал на вопросы, касающиеся осознания себя и обработки новой информации, значит у него есть соответствующие механизмы.
боты в вашем примере не всегда будут давать нужные ответы.
отвечать правильно он будет не всегда.Вы пропустили мой пример, когда человек (у которого, мы считаем, само- и просто сознание есть) не может правильно ответить на ваш вопрос. Я хочу подчеркнуть, что ответ-не ответ даже на один вопрос не может быть критерием сознательности. Вы же предлагали еще более сильную формулировку «на любой/каждый вопрос из ряда».
Что вы подразумеваете под самосознанием?Я не специалист по сознанию, разумности, когнитивистике и мозгу человека. Поэтому мое понимание может быть наивным, и если вас не устроит — предлагайте свое.
Самосознание — это когда существо имеет сознание и осознает себя как индивидуальность. В частности, может выделить себя из толпы похожих объектов, узнать себя в зеркале/телевизоре. Иметь сознание — значит иметь разум (упрощенно — уметь делать выводы) и уметь рефлексировать (понимать, что происходит с собой, замечать процесс мышления).
По этому определению, младенцы не имеют самосознания, т.к. узнают себя в зеркале в возрасте года или больше.
Даже у SuperCar-а есть зачатки самосознанияIMHO, для само-сознания должно быть просто сознание — некая высшая нервная деятельность. Видимо, вы понимаете сознание как-то иначе. Предлагаю и вам дать определение, что же это такое.
P.S. Как по-вашему, чат-боты имеют зачатки самосознания? Они
- умеют назвать себя по имени
- опознают, когда к ним обращаются
- могут помнить, что сказал о них собеседник и что сказали они
Зачем куда-то возвращаться? Я отвечал на конкретный пример — андроид, который во всех ситуациях ведет себя так же как человек. По условию задачи это уже известная информация, неважно, как мы это определили.
Вы пропустили мой пример, когда человек не может правильно ответить на ваш вопрос.
Это про жену? Я его проигнорировал, потому что посчитал шуткой. Правильный ответ в смысле точный в данном случае это "в баре" или "у любовницы", правильный в смысле "как человек" это например "извини, дорогая". Этот пример ничему не противоречит.
Самосознание — это когда существо имеет сознание и осознает себя как индивидуальность.
Ну вот SuperCar подходит под эти определения. Понимает, что с ним происходит (в некоторой степени), отличает себя от других автомобилей. "Узнать себя в зеркале/телевизоре" не является определяющим, до появления этих вещей у людей уже было самосознание.
Как по-вашему, чат-боты имеют зачатки самосознания?
Для этого нужно уметь определять произвольные объекты во входной информации и уметь выделять себя среди них. Вряд ли он сможет каким-то образом определить объект "другой чат-бот". Захардкоженное понятие "Я" можно считать таковым, но без всего остального касающегося интеллектуальной деятельности оно не имеет смысла.
Видимо, вы понимаете сознание как-то иначе. Предлагаю и вам дать определение, что же это такое.
У меня есть статья на эту тему, если интересно, прочитайте.
вы подвержены сразу двум когнитивным искажениям
Это не когнитивные искажения, а следствия используемой терминологической системы.
Да вы по сторонам посмотрите. :) Ух, далеко не каждый.
В моем определении мышления — каждый (здоровый, но не суть).
(и нет, это не смешно)
«Каждый человек обладает мышлением»
Пару лет назад слышал мнение, что такой постулат здорово мешает придумывать годные метрики для разумности и сознательности.
Цепочка примерно такая: Вот хочу я Нобелевку и допустим, за год-два-десять я и мои ученики разработаем хорошую методику измерения разумности. С числовым измерением, диапазонами вида "круче Эйнштейна", "лучше 30%", "умнее дельфина". Но ведь люди-то разные! Очень. Какая-нибудь звезда обидится на "обученного слона", зоо-защитники потребуют избирательных прав для умного орангутанга, а кто-то вступится за аборигенов, у которых нет абстрактного мышления и поэтому по шкале они будут на уровне горилл.
И вместо Нобелевки получу я кучу исков. Нее, возьмусь-ка я лучше за другую тему. О! Как договориться с ИИ не убивать нас — это ж почти докторская!
P.S. Это не затмевает того факта, что определение сознания и разума довольно нетривиальная штука. Просто уменьшает число людей, готовых серьезно вложиться в тему.
То есть стоит продемонстрировать поведение, непохожее на компьютер — и его сразу объявят мышлением?
Нет, серьезно. На основании чего делается утверждение «программа демонстировала мышление»?
Это сложности перевода. В оригинале звучит как «It was humankind’s first glimpse of an awesome new kind of intelligence.» Трудно подобрать подходящее в данном конексте слово, надо что-то вроде «навыки присущее разуму» или «разумность». Была же даже статья на эту тему, где автор вполне здраво объяснял, почему неправильно переводить AI, как «искусственный интеллект».
В оригинале звучит как «It was humankind’s first glimpse of an awesome new kind of intelligence.»
Если быть совсем точным, эта фраза в оригинале звучит как "Most unnerving was that AlphaZero seemed to express insight", равно как как и в подводке используется слово insight, а не "мышление".
Ну да, трудности перевода (хотя про инсайт были бы похожие аргументы); это что, повод делать плохие переводы?
Была же даже статья на эту тему, где автор вполне здраво объяснял, почему неправильно переводить AI, как «искусственный интеллект».
Да про это прямо в википедии написано: "В английском языке словосочетание artificial intelligence не имеет антропоморфной окраски, которую оно приобрело в традиционном русском переводе: слово intelligence в используемом контексте скорее означает «умение рассуждать разумно», а вовсе не «интеллект» (для которого есть английский аналог intellect)".
Сравните:
Most unnerving was that AlphaZero seemed to express insight
А самое неприятное было в том, что AlphaZero демонстрировала мышление.
То есть стоит продемонстрировать поведение, непохожее на компьютер — и его сразу объявят мышлением?
На самом деле мне вспомнилось какое-то рассуждение о том, что пока созданные нами вещи (автомобили, компьютеры) ведут себя так, как мы ожидаем — мы не их не наделяем никакими способностями, но вот стоит им начать вести себя немного непредсказуемо (авто не заводится, комп завис), и мы начинаем даже разговаривать с ними ("будь проклят тот день когда я сел за баранку этого пылесоса" ;) — мы наделяем их "сознанием". По-моему, довольно интересное наблюдение.
Еще и поэтому критикуют тест Тьюринга — этот тест не определяет, может ли машина мыслить, а он определяет, может ли она имитировать человеческое поведение.
Поэтому когда говрят в быту что машина мыслит часто имеют в виду что она демонстрирует поведение похожее на человеческое (== нетипичное для машин).
На самом деле мне вспомнилось какое-то рассуждение о том, что пока созданные нами вещи (автомобили, компьютеры) ведут себя так, как мы ожидаем — мы не их не наделяем никакими способностями
Ну, на самом деле — нет. Я часто говорю о работающей системе "думает, делает вывод, предсказывает". Всегда в переносном смысле, но все равно.
Еще и поэтому критикуют тест Тьюринга — этот тест не определяет, может ли машина мыслить, а он определяет, может ли она имитировать человеческое поведение.
Ну так вроде в Википедии и написано: "a test of a machine's ability to exhibit intelligent behavior equivalent to, or indistinguishable from, that of a human".
Среди панд или других "краснокнижных" видов не было ретроградов и неолуддитов, требовавших запретить те или иные новые разработки "по этическим соображениям" или "из соображений безопасности".
Среди людей же — таких, увы, немало. Вон, к примеру, сколько шуму поднялось недавно после сообщения о рождении в Китае генномодифицированных детей. Потому и с "супермозгом" вряд ли все пройдет гладко. Ну а для самоосознающего "супермозга" решение устранить помеху/угрозу — будет вполне логичным.
Но факт в том, что сейчас человек со средним мозгом уже физически НЕ МОЖЕТ понять, как работают те или иные вещи. Это все равно что просить второклассника решать ну например квадратные уравнения. Уже сейчас верхняя грань разработок доступна примерно 5% людей, чей интеллект позволяет воспринять ту же информацию. И то, они убивают на это всю жизнь, ведь для освоения всего необходимого пласта информации им требуется 25-30 лет. И это один пласт, кусок знаний и весьма небольшой от всей совокупности знаний человечества. И дальше будет только хуже — чтоб хоть как-то вместить количество необходимых знаний в пределы человеческой жизни идет активное дробление пласта знаний на узкие сектора специализаций. Но и у такого дробления есть предел. Предел скорости коммуникации людей с разными специализациями. В какой-то момент мы просто упремся в проблему и не сможем ее преодолеть без кардинального апгрейда системы.
А вот что лучше — ИИ никак не связанный с человеком и способный экспоненциально наращивать мощности очень быстро, или свой геномодифицированный мозг, с биологическими ограничениями… В какой-то момент мы скатимся к тому, что придется или выращивать в пробирках чистые мозги размером со слона, чтоб они уже постигали всю ту бездну знаний, что до этого осиливали лишь сотни людей с гм мозгом, или строить полноценный ИИ, превосходящий наш разум и способный решить проблемы.
ну у человечества только два выхода, или генетически модифицровать свои мозг, или создать ИИ его превосходящий
"Два выхода" из какой, собственно, ситуации?
В какой-то момент мы скатимся к тому, что придется или выращивать в пробирках чистые мозги размером со слона, [...] или строить полноценный ИИ, превосходящий наш разум и способный решить проблемы.
Что, в принципе, одно и тоже
"ну у человечества только два выхода,"
Неолуддиты этого не понимают. И упорно призывают к запретам/ограничениям.
"А вот что лучше — ИИ никак не связанный с человеком и способный экспоненциально наращивать мощности очень быстро, или свой геномодифицированный мозг, с биологическими ограничениями…"
Сочетание — ИИ-супермозг и биокиборги, им управляемые :)
Не очень понятно, почему ИЛИ? Что мешает этим двум процессам происходить одновременно?
Компьютерный ИИ неплохо самообучается без всякого передвижения. Можно просто закачать начальные данные, сказать «анализируй», а если мозгу нужно будет что-то «пощупать» в плане эксперимента — так для этого будет специальный интерфейс общения с ним. Получаем запрос, через некоторое время возвращаем ему ответ. Либо создать для него песочницу-эмулятор реального мира (сложная задача, но выполнимая, если речь не идёт о моделировании каждого атома на большом куске пространства).
Эмулятор это метод. Пока я знаю только об эмуляции для ИИ простой комнаты, с простыми предметами — шар, куб, обруч, конус. Эмулятор прям всего реального мира, пусть и не одновременно и не поатомно — задача мягко говоря сложная, не говоря уж о том, что все еще нету работающего нейроинтерфейса.
Есть подозрение, что «чистый мозг размером со слона»
Часто легаси софт запускают в виртуальных машинах, и часто он в них работает куда быстрее, чем на старом железе. Берём человеческий мозг, сканим коннектом, загружаем его в виртуальную машину, запущенную на крутом компьютере (с криптоускорителями и подобным).
Или берём мозг, размером со слона… Заодно в виртуальной машине тюним химию таким образом, чтобы сигналы между аксонами проходили реактивно
И то, они убивают на это всю жизнь, ведь для освоения всего необходимого пласта информации им требуется 25-30 лет.
Любой токовый PhD знает последний край науки на момент выпуска. Это на открытие новых принципов и законов убиваются годы, объяснение, когда они уже открыты, занимает от силы пару лекций. Многие ученые начинали выдавать результаты еще в универе, и я с ходу не вспомню известных ученых, которые не генерировали новое знание до 40 лет.
Чтобы разобраться, что на самом деле из себя представляют нейросетевые шахматные движки, был организован проект lczero.org. Это попытка сделать полностью открытый нейросетевой движок по принципам alpha zero.
И тут открылись очень интересные особенности. Во-первых, движок оказался на самом деле очень сильным. Сейчас он как раз обыгрывает Stockfish в суперфинале на TCEC: tcec.chessdom.com. Но во-вторых, у него открылось огромное количество слабых мест. Можно поглядеть примеры партий, где он просто не видит элементарных вещей. Например, концепцию «бешеной ладьи» он вообще пока не может понять.
Это ещё не суперфинал. Это тестовый матч со Stockfish 8, с идеей смоделировать те условия, на которых играла AlphaZero. Суперфинал против Stockfish 10 начнётся примерно через месяц.
www.chess.com/computer-chess-championship
10 сток выигрывает примерно 1 партию из 15 у lc0
https://habr.com/ru/post/436458/
Я склонен согласиться с её посылом. Интеллект — это способность решать незнакомые задачи. Способность всё лучше решать одну и ту же задачу принципиально не слишком отличается от полного перебора.
Чтение или перевод это вполне знакомые для людей задачи, но это все же проявление интеллекта.
Способность всё лучше решать одну и ту же задачу
И чем отличается способность решать незнакомые задачи от способности всё лучше и лучше решать одну и ту же задачу: "Решить произвольную задачу".
Когда появляется приставка «мета», задачи часто имеют печальную особенность становиться неразрешимыми или вообще вести к парадоксам одними своими формулировками.
Хорошо, вернёмся к началу. Пусть у нас есть алгоритм I (не обязательно Тьюринг-вычислимый). На входе у него текущее состояние S и задача J. На выходе — алгоритм решения задачи J и новое состояние / сообщение, что за 1000 секунд решение не найдено и новое состояние / получилось доказать, что решения нет и новое состояние.
Как мы определим, что это — интеллект? 1. Дадим ему задачу "Новая ли задача J?"? 2. Используем наш собственный интеллект, чтобы определить, что это новая задача? 3. Переберём все алгоритмы уже выданные алгоритмом I?
Любой алгоритм, решающий какое-то подмножество задач становится интеллектом, если дописать ему условие выдавать "да" на задачу "Новая ли задача J".
Циклическое определение интеллекта через интеллект.
Мы должны как-то преобразовывать эту потенциально новую задачу, чтобы скормить её существующим алгоритмам. Воспользуемся своим интеллектом? Или дадим задачу преобразовать эту задачу алгоритму I? См. пункты 2 и 1.
Как мы определим, что это — интеллект?Дадим ему задачу доказать, что он — интеллект.
Можно спорить о том, допустим, является ли манга разновидностью комикса. Однако найдётся довольно много вещей, которые разновидностью комикса точно не являются. Клубень картофеля. Вертикальная асимптота. Тропосфера.
Я к тому, что по поводу вашего алгоритма люди к более-менее единому мнению таки придут)
Я к тому, что по поводу вашего алгоритма люди к более-менее единому мнению таки придут)
Ага. А если использовать основанное на интуиции определение доказательства наличия интеллекта, то получим тест Тьюринга. Для прохождения которого нужно решать одну задачу — имитировать речевое поведение человека. Или это не одна задача, а множество задач одного вида "ответить на реплику"? Или множество задач разных видов "ответить на конкретную реплику"?
В общем, не вижу особого смысла придумывать определения интеллекта, отграничивающие существующие реализации ИИ от человеческого И. Лучше уж находить способы реализации того, что люди умеют делать, а ИИ ещё нет — заодно получается конструктивное определение интеллекта.
И как?
Сеть решать одну какую-то конкретную задачу не учили (не программировали и даже обучающих выборок с играми других людей/машин для примера не давали). Дали правила игры в шахматы — и она научилась играть в шахматы, причем научилась быстро и играет лучше всех в мире.
Дали правила игры в Го — научилась отлично играть в Го, так же лучше всех и лучше чем играла предыдущая версия (которая училась не сама, а ее учили с использованием внешних данных, причем учили в сотни раз дольше).
Дали правила игры в Сеги — научилась отлично играть в Сеги.
Задачи то как раз были изначально «незнакомые». Все что давали программе — это правила конкретной игры и цель, которой нужно достигнуть. А дальше все сама.
Так что если задача одна — то это задача класса «учиться решать задачи». Пока не в общем виде конечно, т.е. вообще любые задачи. А из некоторого довольно узкого класса задач (логические игры с относительно простыми правилами, но слишком сложными для решения их методом перебора).
Но именно быстро учиться решению новых задач. Что одно из ключевых элементов интеллекта.
У человека по-другому.
Гроссмейстер сразу может играть в го на уровне 9-го профессионального дана?
Или например, нельзя сеть для го легко научить решать цуме-го
Вроде бы никто не спорит, что AlphaZero это ещё не полноценный универсальный интеллект. Люди иногда умеют замечать, что задачу можно сильно упростить и свести к использованию уже обученной нейросетки в своей голове, или упростить до такой степени, что можно использовать медленный универсальный перебор вариантов. Существующие сети этого не умеют. Но это не значит, что они не имеют никакого отношения к интеллекту, и не будут использоваться как составная часть универсального ИИ.
Опыт накопленный по конкретной игре для этого алгоритма действительно бесполезен. А вот формализованный «опыт» о том как быстро учиться новым еще неизвестным играм — очень полезен, хотя он был получен как побочный продукт обучения конкретной игре.
Насколько полезен, что новая программа используя этот опыт (в которую из старой перекочевал не сам опыт по конкретный игре — Го, а только опыт о том, как быстро и эффективно учиться) освоила Го, Шахматы и Сеги с нуля и до намного более высокого уровня, быстрее/с меньшими затратами ресурсов чем предыдущая тренировалась играть в одну конкретную игру.
А по поводу возможности сильного игрока в шахматы сильно играть в другую игру — вот, к примеру, Рашид Гибятович Нежметдинов — международный мастер по шахматам, мастер спорта по шашкам. К сожалению, в шахматах так и не смог подняться до гроссмейстера, хотя играл на гроссмейстерском уровне.
Или вот Василий Иванчук:
В 2010-х годах увлёкся шашками. В 2015 году участвует в своем первом международном турнире по международным шашкам — Heerhugowaard Open 2015, где участвует 25 международных гроссмейстеров, а в 2016 на чемпионате Европы.
Спортсмены — шахматисты и шашисты.
Дали правила игры в шахматы — и она научилась играть в шахматы, причем научилась быстро
Миллионы итераций это разве быстро? Лучшие шахматисты становятся лучшими за гораздо меньшее число повторений.
не программировали и даже обучающих выборок с играми других людей/машин для примера не давали
"Дать правила" это вариант программирования. В Wiki прям так и написано "AlphaZero has hard-coded rules". Неважно, свои игры или чужие, если есть запрограммированная функция оценки.
Это не совсем то же самое, что сказать человеку "конь ходит вот так, ладья вот так". Проявление интеллекта именно в извлечении понятий из входной информации — названия фигур, возможные ходы, структура и ограничения доски.
Тем же образом человек может выявить повторяющиеся ходы, описать текстом и дать название (атака, гамбит). В AlphaZero (насколько я понимаю) любая последовательность ходов это часть нейросети, из которой нельзя выделить главное и описать словами.
Так какую «одну и ту же задачу» тут сеть решала? И как?
Двигать фишки в соответствии с заложенными правилами, максимизируя заложенную функцию оценки.
Лучшие шахматисты становятся лучшими за гораздо меньшее число повторений.
Лучшие шахматисты ещё и растут и обучаются (пока минимум 12 лет 7 месяцев до уровня гроссмейстера).
Лучшие шахматисты становятся лучшими за гораздо меньшее число повторений.
Но они не становятся лучшими. Сейчас сделать ничью против Leela Chess Zero с форой в пешку — это большое достижение.
Двигать фишки в соответствии с заложенными правилами, максимизируя заложенную функцию оценки.
Задача человека: напрягать мышцы, максимизируя функцию оценки, заложенную генами и обществом.
Да, нейросети много чего не умеют, но думать, что можно вот просто так взять и отделить интеллект от неинтеллекта тоже неверно.
Лучшие шахматисты ещё и растут и обучаются
Ну а как это влияет на игру в шахматы? Люди, не играющие в шахматы, тоже обучаются, но это не делает их хорошими игроками в первый раз.
Но они не становятся лучшими. Сейчас сделать ничью против Leela Chess Zero
Так не вопрос, сколько надо повторений для AlphaZero или Leela, чтобы они играли на уровне лучших людей? Тоже миллионы, просто чуть поменьше.
максимизируя функцию оценки, заложенную генами и обществом
Вот в последних словах и начинается интеллект. Каким образом человек может построить функцию оценки и все необходимые для нее понятия, пользуясь только внешней информацией?
Миллионы итераций это разве быстро? Лучшие шахматисты становятся лучшими за гораздо меньшее число повторений.
Можно представить себе упрощенную аналогию — обычная глубокая сверточная сеть для распознавания объекта. Ее можно обучить для распознавания одного класса и она будет работать хорошо. А можно обучить для распознавания миллионов классов. И если вы добавите еще один класс, то вам нужно будет ее просто дообучить, что займет гораздо меньше времени чем обучение с нуля. Это упрощенная аналогия, но, думаю, она близка к истине.
Извините, я не понял что чему соответствует в этой аналогии. Тут нет миллионов классов, в нейросети уже захардкожены базовые понятия, нужные для игры в шахматы. И человек и машина при обучении узнают одинаково новую для них информацию.
Миллионы итераций это разве быстро? Лучшие шахматисты становятся лучшими за гораздо меньшее число повторений.
А почему считать нужно в итерациях? Потому что так удобнее?
Можно в часах — и тут превосходство кардинальное. Общее время тренировки измеряется в неделях, но вот уровень лучших среди людей был достигнут уже всего за несколько часов с момента начала обучения. Т.е. с полного нуля до уровня чемпиона мира — за несколько часов.
Это очень быстро, как ни крути.
Или в разрезе произведенных выч. операций — в мозгу их происходит гораздо больше. Правда с крайне низкой эффективностью с точки зрения решения конкретной задачи, но элементарных операций мозг выполняет на несколько порядков больше, чем в использовавшимся компьютерном железе. А достигнутый мозгом результат при этом — намного слабее.
Или даже в терминах затраченной энергии — там конечно кластер из неск. тысяч TPU при обучении трудился(для самой игры потом достаточно на 2 порядка меньших ресурсом), жрущий десятки кВт мощности при работе. Но за те несколько часов (нужных до достижения уровня чемпиона мира) энергии он израсходовал намного меньше, чем тратит человеческий мозг (не говоря уже про тело целиком — берем только мозг) за годы обучения необходимые до достижения уровня чемпиона.
Так что и в энергетическом выражении тоже очень быстро/эффективно обучение шло.
А почему считать нужно в итерациях? Потому что так удобнее?
Потому что они не зависят от быстродействия, а показывают логику. Что если мы сделаем алгоритм, аналогичный человеку, и запустим его на железе AlphaZero? Он обучится быстрее, чем AlphaZero, по всем указанным вами параметрам.
Есть вероятность, что он тогда и играть будет также хорошо как и человек.
Точнее из-за ограничений по объемам памяти это вообще невозможно. Но если бы не они, а только по выч. возможностями судить — это было бы минимум порядка на 3 медленнее реального времени у обычного живого человека. Т.е. много лет работы железа на самую первую интерацию — понять и запомнить правила игры и сыграть хотя бы 1 пробную партию. Это если предполагать перенос не только алгоритма но и всех общечеловеческих знаний, когда учиться нужно только конкретной игре.
Человеческий мозг давит вовсе не эффективностью алгоритмов мышления и обучения, а тупо количествами — имеющихся в распоряжении логических элементов и объемов памяти/связей между ними, намного превосходящим все возможности современного компьютерного железа.
Стоп-стоп. Я нигде не говорил, что он должен спать, или имитировать другие биологические особенности. Или иметь все знания, которые имеет человек. Я говорил о принципах обработки информации. Почему в AlphaZero правила заложены программно, а в этом интеллекте вы предлагаете обучать с нуля? Так же закладываем правила, но применяем алгоритм, который обучается за тысячи итераций.
Человеческий мозг давит вовсе не эффективностью алгоритмов мышления и обучения, а тупо количествами
Вы никаким количеством логических элементов в AlphaZero не добьетесь, чтобы он вместо миллионов итераций обучался на тысячах.
Вот, скажем, Магнус Карлсен поднял ELO с 2000 до 2800 за 10 лет. AlphaZero поднял ELO c 2000 до 2800 примерно за 100 тысяч итераций. 100 000 / 3650 ~= 27 итераций в день. Просмотреть интересные вариации в 27 партиях за день, вроде как в пределах возможностей человека.
Впрочем, вру. Одна итерация AlphaZero — это не анализ одной партии. Но и что происходит в мозгах при обучении тоже пока неизвестно, может быть люди подсознательно тысячи ходов генерируют, посмотрев на шахматную позицию.
Или даже в терминах затраченной энергии — там конечно кластер из неск. тысяч TPU при обучении трудился(для самой игры потом достаточно на 2 порядка меньших ресурсом), жрущий десятки кВт мощности при работе.
Надо же тогда еще учесть tdp во время игры. Если человек на ход тратит 25вт*длительность хода, то такие же ограничения и на альфазеро, это во-первых.
Во-вторых, при обучении 5000 tpu по 40вт энергопотребление будет выше в 8333 раза, чем у мозга, с-но один час обучения альфазеро идет примерно как год у игрока, так что тут альфазеро тоже в пролете, человек учится быстрее
Всё это очень благородно — fair play, равные условия. Но все эти игры — это подготовка к использованию ИИ в реальном мире. Никто не будет сажать управляющие системы на 25 ватт, или ограничивать им реакцию до возможностей человека, чтобы у работников-людей были равные возможности.
Кстати, сегодня в 21:00 GMT DeepMind будет демонстрировать систему, играющую в StarCraft 2: неполная информация, реальное время, ещё большее пространство поиска чем в Го. https://www.youtube.com/c/deepmind
Интеллект — это способность решать незнакомые задачи.
Ну здрасьте, тогда, выходит, человек интеллектом не обладает :)
Человек не может решать незнакомые задачи, интеллект = умение решать незнакомые задачи => человек не обладает интеллектом
вроде просто все, чего тут раскрывать?
И это не мой тезис, это тезис комментатора выше. Я-то с ним как раз не согласен :)
Вы скажете, что человек не умеет разгибать интегралы, пока его не научат.
Я скажу, что когда-то не было самого понятия интеграла, а потом появилось. И первому, кто проинтегрировал функцию, не у кого было этому научиться.
Вы скажете, что интегральное исчисление появилось не на пустом месте, а в результате решения серии задач, каждая из которых была более-менее знакомой.
В итоге сойдёмся на том, что «знакомость» — не бинарная характеристика, а мера вхождения в нечёткое множество.
Вы предложите уточнить, начиная с какой именно меры задачи считаются достаточно незнакомыми, чтобы их решение было признаком интеллекта.
Я скажу, что вы зануда.
Отлично, но нельзя рассуждать о терминологии (что вы и сделали в посте с определением интеллекта) и не быть занудой :)
Ну и да, альфазеро, формально, может учиться решать любые шахматоподобные игры. Это считается за "незнакомые"?
Видимо, психике свойственно приписывать человеческое тому, чего понять не получается.
Есть неплохая документалка AlphaGo, рассказывающая, как этот алгоритм победил Ли Седоля в матче из пяти игр. К сожалению, создатели фильма тоже отчасти не избежали этого дешевого соблазна поиграть на стремлении обывателя к очеловечиванию непонятного. Хотя вот они, разработчики, на камеру вам на пальцах пытаются объяснить, что магии никакой нет.
тут, конечно, неплохо бы дать определение термину «мышление», чтобы уже от него плясать в вопросе, мыслит ли АльфаЗиро или нет. Моя претензия к статье не из области терминологии, а в том, что сознательно делается попытка поставить знак равенства между созданным конкретными людьми на сто процентов понятным (ок, не всем, но некоторым) алгоритмом, и далеко не на сто процентов понятным и гораздо более сложным устройством человеческого мозга. Я не говорю, что в мозге магия, но, очевидно, порядок сложности системы там абсолютно другой.
Она играла непохоже ни на один компьютер, интуитивно и красиво, с романтическим атакующим стилем. Она играла гамбиты и рисковала. В некоторых играх она парализовала Stockfish и игралась с ней.
Было похоже на то, будто бы AlphaZero ждёт, пока Stockfish после миллиардов перебранных комбинаций догадается, насколько безнадёжна её позиция, расслабится и мирно сдастся как поверженный бык перед матадором.
Это как раз «магия нейросетей». Сеть училась игре в шахматы, а не социальным взаимодействиям, и тем не менее люди готовы их увидеть даже там, где их в принципе быть не может. Сама идея «играться с оппонентом» лежит вне плоскости «максимально эффективной игры машины с машиной», ей просто не откуда взяться.
Не просто обновленная/отполированная версия. Совсем другой и учившийся принципиально по другому — без опоры на опыт и знания людей, с «чистого листа» из первичных принципов.
При этом сильно превосходящий не только всех живых игроков, но и собственно AlphaGo о котором рассказывается в фильме. Alpha Zero обыгрывает AlphaGo «в сухую» не давая ей шанса — турнир между ними закончился со счетом 100:0. Хотя ресурсов на самообучение потратила наоборот на порядок меньше.
Команда AlphaZero улучшила алгоритм MCTS: во-первых, при генерации каждого хода для розыгрыша учитывается его вероятность, которая формируется обученной нейросетью. Это позволяет значительно проредить дерево возможных вариантов и повысить качество поиска. Во-вторых, другая нейросеть может оборвать текущий розыгрыш в ситуации, где «всё уже понятно», сэкономив тем самым процессорное время (не знаю, применяется ли эта эвристика для шахмат).
Это не совсем то же самое, что «программе дали только правила игры, всему остальному она научилась сама». А сравнение скорости перебора с программой Stockfish вообще как сравнение яблок с апельсинами.
P.S. Поправьте меня пожалуйста, если где-то наврал.
в шахматах и шашках пока что лидирует альфа-бета, но это может в скором времени измениться
Уже не лидирует. AlphaZero и Leela Chess Zero обыгрывают Stockfish.
Вот, например, Leela ID 11198 vs Stockfish 9. Не от гугла.
Stockfish 10 выпустили 2 месяца назад. Данных пока маловато. И следует учитывать, что Leela Chess Zero — community project, вычислительную мощность обеспечивают шахматные энтузиасты с подходящими системами и видеокартами, а их не так уж и много.
Ну и еще вопрос важности правильного результата, ошибочный результат при проверки гипотезы может завести ядерную физику в тупик или надолго перекрыть правильный путь (стоимость эксперимента в настоящее время довольно велика). А спорт это практически всегда мастерство + везенье.
Я не знаю, как велико «плато» в шахматах, но 48 партий при 40 ничейных, в поединке Карпов Каспаров как бы символизируют.
Как пример в (уже упоминавшемся) матче из 1000 партий двух топовых движков, в 839 партиях была зафиксирована ничья. Это программы, которые всегда играют на победу! Ничья повторением ходов двух программ практически невозможна, договорняков нет. И 83,9% ничьих.
Чтобы все были в равных условиях, организаторы запускают программы на одинаковых, но разных машинах. До эпохи нейросетей все программы считали на CPU, железо одинаковое, поэтому простого лимита времени хватало. AlphaZero использует GPU или даже TPU, и определить вычислительное равенство затруднительно. Так как разные не только архитектура, но и подходы программ, энергия или скорость перебора позиций не могут однозначно говорить о вычислительном равенстве.
Пару примеров, какие мощности задействованы.
Постоянный чемпионат по компьютерным шахматам(CCC) использует:
- CPU engines:
CPUs: 2 x Intel Xeon Platinum 8168 @ 2.70 GHz 33 MB L3
Threads: 90 threads with HT on
16384 MB hash
RAM: 256GB DDR4-2666 ECC Registered RDIMM
SSD: 2x Crucial MX300 (1TB) in RAID1
OS: CentOS 7 - GPU engines:
GPU: 4x RTX 2080ti (44 GB GPU memory)
CPU: 2x Intel Xeon Gold 6154
Cores: 36 physical
RAM: 96 GB
Я смотрел пару партий. За минуту-другую движок может посчитать на десяток-другой ходов, и это в середине игры, когда количество осмысленных вариантов максимально.
Второй пример. DeepMind запускал свою последнюю серию игр AlphaZero на
один компьютер с четырьмя ТПУ (тензорных процессоров — специализированных интегральных схем для работы искусственного интеллекта) и 44 ядрами ЦПУ
Это для игры, для обучения же использовалось 5000 ТПУ вначале, потом 16 ТПУ.
Противник — Stockfish — использовал 44 ядра ЦПУ.
В распоряжении Stockfish был хэш размером 32ГБ и семифигурные эндшпильные таблицы.
Про хэш не знаю, а эндшпильные таблицы — это предварительно рассчитанные оптимальные ходы в конце игры. Грубо говоря, когда на доске осталось 7 фигур (из них 2 короля), Stockfish точно знает кто победит и как это сделать.
Также упоминается, что в некоторых партиях Stockfish играла с дебютными книгами — заранее подготовленными первыми ходами.
Кстати, интересно, а добавил ли брутфорс какие нибудь новые, «нечеловеческие» интересные дебюты, либо неожиданное (более эффективное) развитие старых.
Кстати, интересно, а добавил ли брутфорс какие нибудь новые, «нечеловеческие» интересные дебюты
Нет. Брутфорсом нельзя просчитать все варианты развития партии. Так что альфа-бета шахматный движок не может сказать: "Не смотря на все эвристики, что вы мне дали, вот этот дебют — выигрышный, хотя его оценка после расчета 40 полуходов ниже других".
Для нейродвижков такие вещи возможны, так они сами формируют свои эвристики. И их оценка начальных позиций может отличаться от оценок людей. Но шахматы оказались слишком хорошо изучены, так что новых дебютов не обнаружилось.
После последнего чемпионата один из участников говорил, что 12 это маловато, «мы могли бы сыграть и больше» и что 14 или 16 партий было бы самое то.
Antifish is Lc0, trained specifically to exploit weaknesses in Stockfish
Мне кажется, при специальной заточке против конкретного противника победа гарантирована. Можете объяснить, в чем интрига и интерес?
Почему это победа гарантирована? У Stockfish эвристики оттюненые с использованием 1675.40 лет процессорного времени (http://tests.stockfishchess.org/users), много разработчиков, которые думают как улучшить результаты (в том числе и против нейросетевых движков).
Antifish-же сыграла несколько сотен тысяч партий против Stockfish и всё. Далеко как-то от заточки, скорее изучение противника.
То есть Antifish натаскали не так сильно, так что у противника шансы есть?
Ну вот только сегодня посмотрел партию AF vs SF с пятью ферзями на доске. Да, интересно и неожиданно, а значит зрелищно.
Мой вопрос был про само соревнование: зачем устраивать, если результат предрешен. Ваш предыдущий комментарий объяснил, что я ошибаюсь и исход может быть любым.
То есть Antifish натаскали не так сильно, так что у противника шансы есть?
Я переспросил, просто чтобы убедиться что правильно вас понял. Никаких подсмыслов :-)
зачем устраивать, если результат предрешен
А, ясно. Но понять в этом смысле было сложно. Соревнования и устраивают, чтобы не приходилось верить на слово: "Мы тут Лилу так натаскали, что закрывайте TCEC".
Stockfish 10 очень сильна — добралась до рейтинга 3600, который некоторые считали "божественным" (рейтинг оптимального игрока).
Причём Гудини родил т.н. «пушку Алехина» далеко не сразу.
https://www.youtube.com/watch?v=aj-K2o_RNXY
Leela Chess Zero чемпион TCEC Cup 2 без единого поражения. Stockfish правда раньше выбыл, но немного позже будет суперфинал.
Мои поздравления команде LC0, нейросетевые движки за последний год совершили прорыв в компьютерных шахматах. Хорошо еще нашлись бы люди с ресурсами, достаточными для проведения матча с одной из сильнейших альфа-бета программ длительностью около 2500 партий. Тогда бы снялись все вопросы по поводу who is who.
информация о ней и результате розыгрыша добавляется в базу, по уже имеющимся в базе позициям, встретившимся в текущем розыгрыше, обновляется статистика.
Не "добавляется в базу", а "используется для прогона алгоритма обратного распространения ошибки в многоуровневой сети нелинейных элементов" также известном как "алгоритм глубокого обучения". Нейросетка — это скорее не база данных со статистикой выигрышей/проигрышей (как вы из базы данных вытащите статистику по не встречающейся ранее позиции, которых в го большинство?), а функция эвристической оценки позиции, обученная на статистике выигрышей/проигрышей. Причём эта статистика получена с использованием предыдущей версии функции оценки позиции.
По результатам множества розыгрышей выбирается ход, который в текущей позиции обладает лучшей статистикой по выигрышам.
Большинство позиций в го никогда не встречались ранее (пространство поиска слишком большое), так что никакой статистики по ним нет. Нейросетка выделяет какие-то закономерности в позициях, позволяющие ей неплохо (по экспериментальным результатам) оценивать вероятность выигрыша в данной позиции.
В науке, знаковом занятии людей, наша роль свелась бы к роли наблюдателей, взирающих на происходящие в изумлении и смятении.Вот интересно, а прямо сейчас сколько процентов наших именно такую роль по отношению к науке и исполняют: 97%, 98%, 99%…? И что-то подсказывает мне, что большинство из них это вообще не напрягает.
Но чем это отличается, например, от алгоритма расчёта траекторий для посылки зондов на Марс? Человек тоже не может это сделать «в уме». Но я не видел учёных из NASA, которые посыпают свои головы пеплом по этому поводу.
Если перейти на более приземлённый уровень, то я не видел пользователей смартфонов, которые печалятся от невозможности «в уме» демодулировать сигналы сотовой связи или просчитать алгоритмы, по которым бьютификатор делает их селфи более красивыми.
Я повторю ещё раз — люди каждый день пользуются чем-то, про что они не понимают как оно работает. Им достаточно того, что результаты работы их устраивают. В этом плане сабж статьи ничем особым не отличается. А реальная опасность может исходить только от людей, которые результаты его работы захотят применить в целях вреда себе подобным. Не важно при этом, что сабж сможет делать — рак определять или «танец субатомных частиц» предсказывать.
Так что эта статья состоит в большей степени из нагнетания сапиенса, так любимого широкой аудиторией западного научпопа. С тем же успехом и степенью сапиенса можно было написать, про безнадёжное отставание человека в области копания земли перед большегрузными экскаваторами: «Это же ужас-ужас — человек вынужден оставить лопату и стать простым наблюдателем за работой этих монстров с ковшами. Ах да, без человека они нафиг никому не нужны, но про это мы упоминать не будем чтобы продолжить держать читателя NYT в напряжении».
В общем, привет нынешним «экспертам» NYT от предыдущего поколения экспертов NYT, взахлёб предсказывавших скорое появление атомных пылесосов в каждом доме.
Потому что бульдозер даже с автопилотом это инструмент решения задач. Человек решает, где надо копать, и человек отправляет его туда.
Еще раз, шум не из-за того, что люди что-то не будут понимать, а из-за того, что оно будет принимать самостоятельные решения. Так же, как это делает человек, а не так, как сейчас делает автопилот.
И у того и другого есть целевая функция
Различие в том, как создается эта целевая функция. И в возможности отклонения от нее. Автономный автомобиль не решит потратить бензин заказчика по причине "сгоняю-ка я по своим делам". А вот сильный ИИ может, потому и шум. Я правда тоже считаю, что он преувеличен, но по той причине что при правильном подходе это должно быть не так уж сложно контролировать.
Человеческая «свобода воли», КМК, проистекает от аналогового строения мозга и большого количества приходящей информации в условиях нечеткой оценки ее важности.
Тем, что все алгоритмы расчета траекторий написаны людьми, которые знают как рассчитывать эти траектории. С AlphaZero/Leela Zero знания людей об игре в шахматы используются только чтобы написать алгоритм преобразования данных о шахматной позиции во входы нейросети.
То есть это приближает момент, когда мы сможем делать машины выполняющие задачи, которые мы умеем выполнять, но не знаем как мы их выполняем (как оператор коллцентра работает на уровне активации нейронов в мозгу?).
Сейчас особо печалиться не о чем. Будем печалиться после увольнения. Поставят камеру на рабочее место, обучат сеть за несколько месяцев — и до свидания.
А какой владелец бизнеса захочет делиться заработком с бездельником? Наверняка и законы пролоббирует в защиту своих интересов.
А какой владелец бизнеса захочет делиться заработком с бездельником?
А кому тогда владелец бизнеса будет продвать свой продукт/услугу?
Ведь при таких раскладах спрос на эти товары и услуги пропадет и в лучшем случае часть общества, которая не нашла места в новом дивном мире вернется к старым, зарекомедовавшим себя занятиям — накормить, подстричь, починить. Будет радикальное разделение внутри общества, что скорее всего невыгодно никому.
Так что скорее всего первым этапом будет повторение человеского копированием базовых (простейших) принципов и процессов. А уже имея рабочую модель, которую можно изучать на любых уровнях и всячески над ней издеваться и «препарировать» можно будет разрабатывать что-то более совершенное.
Когдя я слышу «ахтунг, грядет сингулярность», у меня возникает мысль, а что же биологически человек не ушел пока еще в сингулярность. Мы можем менять как программу своего обучения, так и программу ДНК. Становиться умнее и эффективнее, еще больше менять программы и так далее. С чего бы проиграть машинам, имея такую фору? Машины точно так же будут зажаты физическими законами.
Слудующая мысль, а приносит ли разум более сильный такое уж преимущество? Не достиг ли уже человек верхней части S-образной кривой. Пример — вот человеческий мозг оперирует примерно 7 объектами. Это куда лучше чем обезъяны, у них 3-4. Но получит ли эволюционное преимущество человек, оперируя 20 объектами? Или 20000? Вот калькулятор нам дает много знаков после запятой, часто ли это нужно человеку?
Насчет количества объектов — думаю что будет очень сильное преимущество. Я программист и часто замечаю, что мне не хватает рабочей памяти, чтобы удержать в голове всю структуру кода. Не отказался бы от апгрейда.
Кстати, вы думаете что сможете от увеличения числа объектов писать код лучше? Или просто быстрее, не надо использовать много мониторов и всякие заметки?
AlphaZero демонстрирует все признаки открытия важных принципов игры в шахматы, но не может поделиться этим пониманием с нами.
Никаких новых принципов AlphaZero не открыл! Наоборот, AlphaZero играет более «человечнее», задвигает пешки поглубже, забирает пространство. смотрит на позицию геометрически (оценивает позицию). Ну и, конечно, же в отличие от человека гораздо лучше считает тактику. Большинство, программ выигрывает у людей, потому что они просто хорошо и быстро считают, а оценки позиций понемногу заносятся и подправляются программистами-шахматистами.
По поводу матча AlphaZero, до сих пор много вопросов и мало ответов. Надо понимать, что любая компьютерная программа это счетчик, чем больше дать CPU или времени, тем больше будет мощь компьютера. Например, Stockfish 10 играет на 150 ЭЛО пунктов сильнее, чем Stockfish 8, но Stockfish 8 на 2 CPU играет на 50 ЭЛО сильнее, чем Stockfish 8 на 1 CPU.
Поэтому компьютерные программы можно сравнивать только точно оценивая ресурсы! Играть без дебютов, вообще бред, ведь программы под это не оптимизировались программистами.
Противостояние Stockfish и AlphaZero на самом деле простое, кто лучше напишет программу для оценки позиции программист или нейронная сеть. Поэтому, конечно, надо сравнивать 1) размер кодовой базы и ее maintanenance 2) человеко-часы, тестировщико-часы и обучение часы.
P.S. Между прочим AlphaZero проиграл пару партий Stockfish 8.
Были случаи, когда в позиции вида «голый король против короля и проходной пешки» Лиела ставила ладью вместо ферзя. Оба варианта гарантируют победу (если не ошибаться), но с ферзем выигрыш был бы быстрее.
Можно вспомнить проигрыш Каспарова в одной из партий против DeepBlue, когда шахматист поверил что программа все просчитала и идет к победе. Каспаров сдался, хотя на самом деле должен был сводить партию к ничьей.
Так что не все так просто: возможно, очередной гениальный ход не имеет смысла и не сильнее описанного в учебниках. А всю гениальность ходу приписали люди, которые нашли скрытые мотивы, хотя просто так выпал рандом.
Я согласен с мнениями наших коллег old_bear, vics001, высказанных ранее. Давайте без эйфории посмотрим на постановку самой задачи и, предположительно на то, что (возможно) делает AlphaZero, как программа, разработанная замечательным коллективом Deep Mind.
1.Речь идет о не детерминированной задаче формирования ветви поиска решения в пространстве состояния очень большого размера. Каждый шаг сделанный игроком и каждый шаг сделанный противником изменяют возможности выбора во всех последующих шагах. Одновременно, потеря каждой фигуры «понемногу» сокращает размер пространства состояния.
2.Можно ли утверждать, что разработан алгоритм на основе искусственных нейронных сетей, который обучается формированию оптимальной стратегии совершения каждого хода для победы над противником? Думаю, что вряд ли. Пространство состояния имеет огромные размеры и вряд ли кто-либо реально способен охватить хотя бы 1% этого пространства состояния, чтобы «крепко обучиться»
3.Реально используются эвристические правила, которые были обнаружены каждой из команд, в результате изучения того, как формируется ветвь поиска решения в этой не детерминированной задаче. Думаю, что этих правил много, они параметрические и, большая часть этих правил у обеих команд скорее всего совпадает.
4.Уверен, что нейронная сеть построена и используется для оптимизации параметров этих правил. То, что команда Deep Mind добилась успеха в решении данной конкретной задачи- то ребята молодцы. Я высоко ценю их труд.
5.Перенести «кавалерийским наскоком» разработанный алгоритм для решения других актуальных задач, так просто не получится. Там нужно искать свои эвристические правила и, как минимум, оптимизировать неизвестные параметры этих правил. Возможно, подтверждением этому может служить участие Deep Mind в конкурсе по прогнозу свойств белков. Хотя Deep Mind оказался впереди, но ошибка прогноза оказалась настолько большой, что результаты пока никакого практического интереса не представляют.
6.Тональность данной публикации не должен «расшатывать психику» программистов. Будет правильно, если мы хорошо осознаем то, что делают коллеги из Deep Mind и разработаем что-нибудь еще лучше. А так, давайте порадуемся за достижения наших коллег и пожелаем им дальнейших успехов.
7.Я уверен в том, что в нашем Хабра-сообществе есть выдающиеся команды, которым вполне под силу решить подобную задачу или задачу более сложную. Дайте им хотя бы десятую часть той суммы, которая была выделена на этот проект, и вы очень скоро увидите результаты.
Я уверен в том, что в нашем Хабра-сообществе есть выдающиеся команды, которым вполне под силу решить подобную задачу или задачу более сложную. Дайте им хотя бы десятую часть той суммы, которая была выделена на этот проект, и вы очень скоро увидите результаты.
"Не учите нас жить, помогите материально".
Было бы интересно сделать опрос сколько людей на Хабре искренне верят что работают в команде, который только не хватает финансирования для получения таких же результатов "очень быстро". А потом построить корреляции относительно бюджетов, которыми эти команды реально располагают ;)
Вы когда-нибудь сидели 60 дней подряд над одной и той же «сложной задачей» программирования. С утра до вечера (а реально до глубокой ночи). Почти без выходных и почти без праздников. А чтобы 120 дней работать в таком режиме вам приходилось? Так, чтобы не потерять веру в то, что вы делаете. Именно в таком режиме я работал всю первую половину 2018 года. Я был «глубоко занят» разработкой алгоритма решения n-Queens Completion Problem. Мне друзья советовали бросить это дело или показаться психологу. Прошло много месяцев прежде чем мне удалось получить первое очертание работающего алгоритма. Я не буду повторяться, об этом когда-то кратко написал в комментарии.
Считаю, что каждому из нас следует расширить границы своих возможностей и целенаправленно идти к решению той «сложной задачи», которая вам нравится.
В заключение, я хотел бы привести анекдот, который имеет отношение к теме:
-Четыре грузинских мальчика спорят о том, у кого дедушка самый высокий.
-Один говорит: «Мой дедушка такой высокий, как эта грузовая машина»
-Второй: «Мой дедушка такой высокий, как это дерево»
-Третий: «Мой дедушка такой высокий, что упирается головой в звезды»
-Четвертый спрашивает у третьего: «А звезды такие круглые и теплые?»
-Тот отвечает: «Да!»
-Четвертый: «Так это яйца моего дедушки»
— — — — Так вот, я считаю, что программисты Хабра-Сообщества «самые высокие», остальные им до пояса.
Нет сложных задач программирования, которые мы не можете решить.
Давайте начнем с P vs NP. И деньги хорошие.
Вы когда-нибудь сидели 60 дней подряд над одной и той же «сложной задачей» программирования. Почти без выходных и почти без праздников.
К счастью, нет. И никому не советую так делать.
Считаю, что каждому из нас следует расширить границы своих возможностей
Я вот хочу дышать под водой без дополнительных приспособлений. Это ведь тоже "границы моих возможностей", не так ли?
Так вот, я считаю, что программисты Хабра-Сообщества «самые высокие», остальные им до пояса.
Это очень, очень, очень опасная позиция.
Анекдот хороший, спасибо)
Люди рождаются разными, кто-то с самого рождения лучше приспособлен для решения определенных задач чем другие. Со временем, при получении правильного образования и опыта, эта разница только растет. У меня высокое мнение о своих способностях и есть опыт и достижения которыми можно гордиться (не в области АИ). Но я встречал прокачанных талантов, работая с которыми понимаешь, что есть вещи которые я просто не способен сделать, области, где количество никогда не перейдет в качество.
Я рад что ваш вклад сотен часов интенсивной работы окупился, я понимаю что вы вкладывались не имея гарантий на успех. Но опыт многих коллективов, да даже целых стран, показывает что прорыв не достигается просто увеличением бюджета и времени.
Уже создали (Leela Chess Zero)
Одновременно, потеря каждой фигуры «понемногу» сокращает размер пространства состояния.
В общем случае это не так — фигуры дают вклад в ветвление не только своими ходами, но и тем, что мешают друг друг.
Например, в стартовой позиции число допустимых ходов только увеличится, если выкинуть слонов.
1. Мы имеем недетерминированную задачу.
2. В алгоритме «мы выступаем от имени» одного из игроков
3. Мы должны найти такую последовательность шагов (ходов), которая, как можно скорее поставит короля противника «в неловкое положение»
4. Любой наш шаг, начиная с первого – это выбор одного оптимального шага в огромном пространстве состояния. Любой такой шаг изменяет пространство состояния и меняет возможности дальнейшего нашего выбора.
5. Любой шаг противника – это «агрессивное» изменение «нашего» пространства состояния. Шаг противника изменяет наше пространство состояния так как «он может», мы меняем его пространство состояния так как «мы хотим».
6. Каждая фигура, как вы правильно сказали, «дает ветвление не только своими ходами, но и тем, что мешает остальным». Т.е. каждая фигура на доске является источником увеличения размера пространства состояния. Каждая фигура «приумножает» возможности ходов в «пространстве состояния». Когда фигура покидает доску, то автоматически «уничтожаются» все возможные ходы в пространстве состояния, которые были порождены этой фигурой. Поэтому, когда в ходе игры, сокращается количество фигур на шахматной доске, то соответственно уменьшается размер пространства состояния. (Достаточно представить себе размер пространства состояния, который «порождается», когда на доске по одной фигуре с каждой стороны, по две фигуры и т.д.
Каждая фигура, как вы правильно сказали, «дает ветвление не только своими ходами, но и тем, что мешает остальным». Т.е. каждая фигура на доске является источником увеличения размера пространства состояния.
Вы, кажется, пропустили фрагмент «мешает остальным». То есть уменьшает пространство поиска. У голого ферзя в центре доски без остальных фигур ходов больше, чем у всех 16 фигур/пешек вместе взятых в начальном положении.
Ещё раз: нет прямой монотонной зависимости между количеством фигур и фактором ветвления. Может быть мало ходов при большом количестве фигур и много ходов при малом количестве фигур.
Задача решения игры — это нахождение оптимальной стратегии при условии если противник — рациональный игрок, действующий также оптимально.
Шахматы полностью определены. Фигуры, позиция противника, число ходов — все известно заранее. Шахматы не решены полностью, т.е. мы не знаем лучшего хода в любой позиции. Но если на доске осталось 7 фигур, то противник может делать даже случайные ходы — мы все равно знаем оптимальную стратегию.
Найти решение шахматного этюда — это детерминированная задача. Не знаю, будет ли полностью решены шахматы, но считаю что это также детерминированная задача.
Внутри AlphaZero просто нейронная сеть. Программа обучается сотни тысяч псевдо часов или миллионы ходов для подстройки весов нейронки. Это где тут разум? Просто так функция, которую она аппроксимирует в пределе похожа на игру человека — исторически так сказать. Да, похоже, что думает, но это ж тупо нейронки, читай, сложные функции.
Просто так функция, которую она аппроксимирует в пределе похожа на игру человека — исторически так сказать.Есть точная функция решений этой задачи — игры в шахматы, человек и разные программы аппроксимируют ее с разным приближением, кто лучше, кто хуже, в разных областях по разному, зависит от объема обучения.
А самое неприятное было в том, что AlphaZero демонстрировала мышление. Она играла непохоже ни на один компьютер, интуитивно и красиво, с романтическим атакующим стилем.Насчет мышления конечно перебор, но интуицию можно интерпретировать, как интерполяцию или экстраполяцию областей в которых обучения не было. Человек также принимает интуитивные решения в условиях неопределенности, когда нет опыта или информации для принятия точного решения в таких условиях, по имеющимся ближайшим областям решений этой задачи. Может попасть, или почти попасть, и тогда «проинтуичил», или не попасть, тогда «лопухнулся») То же с этими программами.
Я бы сказал, что это похоже на ещё одну нейросетку, натренированную давать объяснения работы первой нейросетки.
В Го тоже завезли данное чудо, под названием AlphaGo. Конкретно сами нетворки не опубликовали, но зато опубликовали достаточно бумаг, чтобы создать по ним похожий софт — Leela Zero (https://github.com/gcp/leela-zero).
Многие, и я в том числе, считают, что «zero боты» играют очень «прямо». Очень часто они берут и доводят позицию до какого-то результата, что обычно считается плохим решением в Го, так как выбрав один путь решения позиции, ты откидываешь все остальные доступные тебе пути, тем самым создавая довольно прямолинейное игровое поле, на котором «всё ясно». Тем не менее, zero боты очень любят драться и очень сильны в middle game.
В целом писал этот комментарий ради того, чтобы рассказать о двух вещах:
1) Лестницы в Го — https://en.wikipedia.org/wiki/Ladder_(Go) — очень базовая тактическая последовательность ходов, которую новички осваивают в первую неделю игры. Многие zero боты до сих пор пропускают эту последовательность ходов в своих рассчетах, и зачастую можно победить «superhuman бота» просто загнав его в «не работающий» для него ladder.
2) Однозначность оценки своей позиции. Если поставить играть последнюю версию zero бота с прошлогодней версией, то обе программы будут думать, что они выигрывают (обычно, у обоих будет winrate в районе 60-70%) — пока в один момент (буквально, за пару ходов) слабая версия программы вдруг не осознает, что она очень сильно позади. Бывает даже такое, что если стоит порог в 5-7% для того, чтобы сдаться, то игра между такими ботами останавливается прям по середине и один из них сдается. Забавно в этом то, что на протяжении всей игры до этого момента такой бот думает, что он впереди.
Из-за #2 очень многие очень скептически относятся к анализу своих игр с помощью zero ботов, и вместо них выбирают менее сильных ботов из «до-alphago эры».
Интересно будет посмотреть, как deepmind справится с таким поведением, когда решит выводить этих ботов в медицинскую сферу. Ведь там такая слепая уверенность будет стоить кому-то жизни.
а в моделировании более элементарных человеческих когнитивных способностей — сенсорных и моторных — очень мало чего сделано.
Я может не так понял, но там нейросеть используется для помощи в симуляции физики, а не для управления роботом:
На 1:22
We train a neural network representing this complex dynamic with data from the real robot
Данные для сети от реального робота.
A policy trained in a simulation that includes the rigid body dynamics and an actuator network
То бишь НС тут для физики, а не для управления.
опеннет всех сильней!
Эти принципы, оттачиваемые десятилетиями человеческого гроссмейстерского опыта, программируются в машину в виде сложных оценочных функций, отмечающих, чего нужно добиваться в позиции, и чего избегать: насколько нужно ценить безопасность короля, активность фигур, расстановку пешек, контроль над центром доски, и прочее, и как управлять компромиссами между этими вещами. Сегодняшние шахматные машины, которым чужды все эти принципы, ведут себя как грубые животные: они чрезвычайно быстры и сильны, но им не хватает мозгов
Отнюдь не чужды. У того же движка Stockfish все эти принципы есть в оценочной функции.
Разница в развитии AB-движков и движков на нейросетях лишь в том, что первым эти принципы прививают «в слепую», в виде гипотез, статистическую достоверность улучшения игры от которых проверяю потом в многотысячных матчах с версией движка без этой гипотезы.
Ведь AlphaInfinity смогла бы вылечить все болезни, решить все научные задачи и заставить все остальные интеллектуальные поезда ходить по расписанию
Статья = вода.
Покупаешь одного робота, мозг AlphaZero с функцией игры в шахматы в подарок!
Хотите, чтоб ещё и в шашки играл, покупайте подписку. Хотите собеседника на философские темы? Нет проблем! 9.99$ в месяц и ваш философ будет умнее с каждым месяцем.
Прокачай своего робота по полной! Все функции за 699$ и через год вы абалдеете от ума своего робота!
*Функции для взрослых доступны по специальному запросу.
Вот пускай подтянут машинный перевод до уровня неотличимости от лучших переводчиков, тогда и поговорим
С техническим переводом, с настройкой на определенную область техники, вполне норм. Пользую WIPO Translate, нейронную версию: приличный перевод с кит. на англ. Готов дать примеры.
patentscope.wipo.int/translate/translate.jsf?interfaceLanguage=ru
Пример: некоторые книги издательства Азбука переведены намного хуже, чем те же произведения любителями.
— Каким же?
— Когда людей люди убивали.
(«Я, Робот», 2004)
В штате Массачусетс была создана машина столь невероятных возможностей и поведения, что была отключена испуганным персоналом спустя несколько минут с начала работы.
AlphaGo ведёт свое начало в т.ч. из Массачусетса, MiT.
Забавное совпадение.
Особенно в свете того, что «метод Каспаро- Карпова» Стругацкие упоминали в своей (другой) книге очень задолго до начала противостояния двух великих шахматистов.
И ещё интересно, если увеличить мощность у одного экземпляра, он начинает исключительно выигрывать или слабый тоже может выиграть партию?
Один гигантский шаг для машины, играющей в шахматы