стала сильно не совпадать с весенним равноденствием
В оригинале "had fallen out of alignment with the Spring equinox". Дата Пасхи и не должна "совпадать" с весенним равноденствием. Пасха - это первое воскресенье после первого полнолуния после весеннего равноденствия, причём и равноденствие, и новолуние христиане получают расчётным путём (поэтому она может быть в разные дни у католиков и православных - алгоритмы одинаковы, но у православных старый стиль). Григорианский календарь был введён из-за "ухода Пасхи в лето", и фразу можно перевести "рассинхронизировалась с весенним равноденствием" или "слишком убежала от весеннего равноденствия".
Когда вы в стрессе и убегаете, они [коронарные сосуды] расширяются ... . Но что будет если коронарные сосуды начнут изнашиваться, воспаляться, что, если в них появятся пробки. Ущерб будет разрушительным. В момент острого стресса коронарные сосуды сожмутся и сердце получит меньше крови.
Так сосуды расширяются или сжимаются "во время острого стресса"? И если в норме расширяются, то с чего вдруг повреждённые и воспалённые сосуды начнут сжиматься?
И не начнут, конечно. Проблема в том, что в некоторых условиях - при стрессе или там физической нагрузке - потребление кислорода миокардом растёт, а повреждённые, частично перекрытые сосуды в принципе не могут обеспечить просвет, требуемый для адекватного кровоснабжения. Они не сожмутся, а не смогут адекватно расшириться.
И вот так в этой статье примерно всё. Пересказ плохим языком плохо понятых идей.
Не сможет, потому что он даже не поймёт, что владеет алгоритмом игры в шахматы
Он уже умеет играть, он только не знает, что умеет именно это. С ним можно сыграть - он только не поймёт, что именно происходит.
Если человека посадить за реальную шахматную доску, он не сможет играть. Ну, или ему придётся заново учиться. Или "взламывать" свой заученный алгоритм, но это уже не совсем чистый эксперимент.
Или ему кто-то скажет, что именно означает то, что ему подают на вход, как это декодируется. И тут он внезапно поймёт, что умеет играть и за доской - хотя по-прежнему ничего не знает ни о правилах, ни о стратегии, ни о тактике.
С китайским много хуже: китайский знает не он сам, а его виртуальная личность, а к ней так просто не обратиться. У него нет доступа к памяти этой личности, а у неё нет доступа к его памяти.
Как прокомментировали ниже, там нет "умения" играть в шахматы...
Я это уже писал. "Это фальшивые ёлочные игрушки, они выглядят как настоящие, но радости от них никакой". Если бы там не было умения, никто бы не стал запрещать компьютеры на турнирах.
здесь примерно того же рода, что вы и я проиграем калькулятору в скорости умножения десятизначных чисел...
А в чём вы и я компьютеру не проиграем? В snake and ladders?
которая с базой данных этюдов и эндшпилей буде иметь неплохой индекс ФИДЕ
Это такой способ обесценивания :).
Вариантов шахматных партий астрономическое количество, никакой "базой данных этюдов" невозможно покрыть даже сотую их долю. Попробуйте начать каким-нибудь нетипичным дебютом - и вас размажут точными ходами. Ключевой прогресс в шахматных алгоритмах - умение оценивать позиции, строить планы и предвидеть планы соперника. Программы умеют это всё.
Вообще вы достаточно фривольно обращаетесь с терминологией в данной статье...
Это у вас выясняется, что компьютер вовсе и не умеет играть в шахматы. Я не совсем представляю, как умение можно определить так, чтобы получилось, что у компьютера умения играть в шахматы нет.
и мне кажется, приписываете математической машине некоторую внутреннюю сущностность...
Наш с вами мозг состоит из элементов куда меньшего быстродействия, а вы посмотрите, какую громадную внутреннюю сущность поддерживает.
Я не возьмусь за дачу определения, но в моем понимании попугай умеет говорить примерно так же, как Stockfish умеет играть в шахматы.
То есть попугай умеет говорить много лучше, чем любой человек? У современной Stockfish приблизительный рейтинг улетает за 3750. https://computerchess.org.uk/ccrl/404/
Есть 8 миллиардов сторонних наблюдателей, которым кажется, что Stockfish умеет играть в шахматы, какая разница?
Сыграть с ней можно? Да запросто. Вы ещё и гарантированно проиграете, как и я, кстати - даже если от этого будет зависеть ваша собственная жизнь. То есть вы хотите сказать, что вам будет просто казаться, что вы играете в шахматы? А всему миру показалось, что Каспаров проиграл Deep Blue?
Если говорить об искусственном интеллекте в шахматах - Stockfish просто неудачный пример
Для того, чтобы понять, в чём проблема в процедуре Сёрла, не нужно говорить об искусственном интеллекте. От шахматной программы не требуется понимания или переживаний.
Процессор не умеет играть в шахматы. Программа не умеет играть в шахматы. Но компьютер, состоящий из всех необходимых компонентов - процессора, программы и прочего - умеет играть в шахматы.
Да, именно так. Но у Сёрла получился уж очень запоминающийся образ, и поэтому на эту тему уже несколько сотен статей написано. При том, что правильное возражение было первым же пунктом. То, что я пытаюсь сделать - придумать образ схожего уровня понятности. Но, вероятно, в голове звенит и прорывается наружу собственная философия, загрязняя идею :).
Думаю можно скзать что Стокфиш понимает как играть в шахматы. Просто это все что он поинмает.
Сам по себе Стокфиш не понимает вообще ничего, ему нечем. И компьютер без программы не понимает вообще ничего. А вот компьютер под управлением Стокфиш - уже понимает, как играть в шахматы. Изобретённый велосипед, кстати, именно в этом. В мысленном эксперименте Сёрла человек не знает китайский и книга не знает китайский, а вот человек под управлением книги уже знает китайский. Но Сёрл этого не желает видеть, он считает, что человек под управлением книги - это всё тот же самый человек, который китайского по-прежнему не знает.
В этом случае, если библиотека достаточно большая, то она может содержать достаточно ответов для Тьюринг теста, но разумной не будет.
Лем, кажется, такую систему называл "граммофон". Но понятно, что для прохождения теста Тьюринга нужно будет хранить не просто все варианты фраз, но и все варианты диалогов - и я что-то не уверен, что их конечное число, то есть что эта идея хотя бы принципиально разрешима.
Правда, человек тоже вполне может не блистать разумом.
Но если там есть более гибкий механизм...
Мне, кстати, кажется, что он должен быть не просто более гибким, что он должен быть ещё и недетерминированным. Наше сознание, во всяком случае, именно таково. Бывает, например, что мы подбираем слово - и в конце концов "выпускаем в продакшен" не совсем подходящее, понимая, что оно не совсем подходит, просто потому, что не сумели найти более точное слово за нужное время, и вот это ощущение "нужного времени" задано нестрого, то есть содержит элемент случайности. Бывают вообще оговорки - "Мы постараемся сделать всё, чтобы этот полёт стал для вас последним" вместо "приятным". Мне кажется, что какая-то случайность необходима :).
за счет высокой скорости обмена и большой скученности нейроны мозга создают синергию, которую мы называем сознанием. А в китайской комнате передача данных такая медленная, отдельные узлы настолько обособленны, и настолько различны (человек и база данных и книга с правилами), что синергии там по всей видимости достичь невозможно.
Что вы понимаете под "синергией"? Появление какого-то нового качества целого в результате взаимодействия частей? А почему для этого нового качества оказывается важна скорость этого взаимодействия? То есть понятно, что всё будет плохо, если состояния "портятся" с течением времени, но если нет, то чему может помешать относительно медленный обмен?
Я лично считаю, что "невозможно притвориться не идиотом" :). Понимание невозможно качественно изобразить, если его на самом деле нет. Модель реальности в моём представлении есть не продукт какого-то отдельного понимания, а само понимание как таковое, другого нам не завезли.
Но этот мой взгляд можно и не разделять. Люди вон спокойно считают, что сознание есть продукт деятельности мозга, и ничего, ещё никто не умер от этого. (На самом деле, разумеется, некоторые процессы в мозгу не производят сознание, а сами по себе являются сознанием, то есть сознание есть определённая деятельность мозга, а отнюдь не продукт какой-либо его деятельности).
Однако провести процедуру Сёрла на шахматной программе, получить абсурдные результаты и понять, что из этого следует, что процедура некорректна, можно и без полного принятия моих взглядов :).
Но представить себе субъекта, у которого квалиа отсутствует возможно, философские зомби такие субъекты, и китайские комнаты тоже.
Философские зомби таковы по определению, а с китайскими комнатами всё хуже. Доказательство того, что перед нами сущность без квалиа, ошибочно, потому что основано на некорректном переносе свойства исполнителя на систему.
Следовательно можно понять чем такие субъекты будут отличаться.
Ничем. Они по определению квалиа для нас не будут отличаться ничем, и поэтому "понимание отличия" нас никуда не приведёт. Например, мы не можем решать, предоставлять ли субъекту права на основании наличия квалиа, потому что никак не можем установить наличие квалиа. Поэтому "понимание в этом вопросе" одновременно и совершенно недостижимо, и совершенно не нужно на практике. Совершенная концепция.
И в довершение ко всему - "китайская комната" не помогает нам в этом понимании. Из того, что квалиа нет у исполнителя, нельзя делать вывод, что их нет и у системы, потому что свойства исполнителя нельзя переносить на систему. У меня приведён конкретный пример свойства исполнителя, которое на систему не переносится.
Ну ничего себе "кажется". Всему миру показалось, что Каспаров проиграл Deep Blue. На всех шахматных турнирах компьютеры запрещены - всё потому, что всем без исключения наблюдателям кажется, что компьютеры играют в шахматы сильнее людей.
Если такое кажется всем - так это, наверное, уже нельзя называть словом "кажется".
Знает или не знает - дело десятое. Но играть несомненно умеет.
Умение играть в шахматы "в данном контексте" - это умение играть в шахматы. С компьютером можно сыграть, и мы с вами ему ещё и гарантированно проиграем. Последняя победа гроссмейстера над топ-программой была почти 19 лет назад, 21 ноября 2005, Пономарёв выиграл у Фритц.
Здесь нет "переопределения". Компьютер умеет играть в шахматы просто потому, что он это умеет.
Вот как раз для того, чтобы заявить, что компьютер не умеет играть в шахматы, некоторое переопределение потребуется. "Эти ёлочные игрушки фальшивые: они, конечно, выглядят совсем как настоящие, но радости от них никакой".
Рассуждение "китайская комната" ничего ни от чего не позволяет отличить хотя бы просто потому, что отличить наличие квалиа от отсутствия квалиа для внешнего объекта принципиально невозможно, уж такая это концепция. Совсем не случайно вы пишете "...у него, скорее всего, отсутствует...": вы никак не сможете доказать, что квалиа у компьютера в самом деле отсутствует. Да чего уж там, вы никакому оппоненту не сможете доказать даже то, что у вас лично квалиа в наличии. Философские зомби могут быть где-то рядом постоянно.
Само рассуждение основано на некорректном перенесении свойства исполнителя на всю системы. Так делать нельзя.
Логика у Сёрла именно такая. Человек в китайской комнате играет роль компьютера - человек не понимает китайский - значит, и компьютер не понимает китайский, несмотря на то, что всё выглядит так, будто понимает. Проблема именно в том, что человек в китайской комнате эквивалентен не компьютеру в целом, а только процессору, без программы и данных.
А если и программу, и данные поместить внутрь человека, то уже нельзя будет однозначно сказать, что он не понимает китайский.
На мой взгляд автор просто переопределил термин "понимание"
Нет. Автор просто показал, что приписывать свойства элемента всей системе нельзя. Компьютер умеет играть в шахматы, несмотря на то, что гипотетический человек, выполняющий шахматную программу вручную, играть в них не умеет.
Я не утверждаю, что компьютер, проходящий тест Тьюринга, на самом деле будет понимать естественный язык. Я только утверждаю, что рассуждение "китайская комната" совершенно не доказывает, что не будет.
вы заявляете тождественность между "понимать" и "уметь исполнять инструкции"
Вас не затруднит указать, в каком именно месте я это заявляю?
То, что компьютер способен играть в шахматы не означает что он понимает шахматы, он просто исполняет инструкции
А я не говорю, что компьютер понимает шахматы. Я говорю, что компьютер умеет играть в шахматы, несмотря на то, что гипотетический человек, выполняющий шахматную программу вручную, играть в них не умеет.
Следовательно, свойство исполнителя "не умеет играть в шахматы" нельзя переносить на всю систему, частью которой исполнитель является.
Следовательно, нельзя делать выводы о наличии или отсутствии некоторого свойства у системы на основании наличия или отсутствия этого свойства у исполнителя.
Следовательно, и отсутствие понимания у исполнителя нельзя переносить на всю систему, частью которой исполнитель является. Вполне возможна ситуация, когда у исполнителя понимания нет, а у системы оно есть.
Следовательно, то, что утверждает Сёрл, нельзя доказывать тем способом, которым он это делает. Из того, что у человека-исполнителя понимания нет, ещё не следует, что понимания нет и у системы, частью которой исполнитель является.
Может быть, и в самом деле понимания нет - но "китайская комната" это не доказывает.
Нет. Я вообще не атакую утверждение Сёрла, я атакую его метод доказательства.
Сёрл: запустим "разговор по-китайски" на субстрате человеческого разума. Человек при этом полностью аналогичен компьютеру и не знает китайский. Значит, и компьютер не знает китайский. Я: запустим Stockfish на субстрате человеческого разума. Человек при этом полностью аналогичен компьютеру и не умеет играть в шахматы. Значит, и компьютер не умеет играть в шахматы.
Вот это да! Мы с вами, коллега, в одном доме живём. Снимаю шляпу, дело замечательное делаете, если придумаете, как вам помочь - мы поучаствуем обязательно. оффтоп */
Не рискнуть, а пожертвовать с неопределённым шансом того, что выживут
Русское слово "рискнуть" означает именно то, что собирается из смысла слов "пожертвовать с шансом". Просто обычно "пожертвовать с шансом" не говорят - именно потому, что эти слова несовместимы по смыслу. "Шанс" означает некоторую вероятность наступления или ненаступления события, а "пожертвовать" предполагает определённость.
В оригинале "had fallen out of alignment with the Spring equinox". Дата Пасхи и не должна "совпадать" с весенним равноденствием. Пасха - это первое воскресенье после первого полнолуния после весеннего равноденствия, причём и равноденствие, и новолуние христиане получают расчётным путём (поэтому она может быть в разные дни у католиков и православных - алгоритмы одинаковы, но у православных старый стиль). Григорианский календарь был введён из-за "ухода Пасхи в лето", и фразу можно перевести "рассинхронизировалась с весенним равноденствием" или "слишком убежала от весеннего равноденствия".
Так сосуды расширяются или сжимаются "во время острого стресса"? И если в норме расширяются, то с чего вдруг повреждённые и воспалённые сосуды начнут сжиматься?
И не начнут, конечно. Проблема в том, что в некоторых условиях - при стрессе или там физической нагрузке - потребление кислорода миокардом растёт, а повреждённые, частично перекрытые сосуды в принципе не могут обеспечить просвет, требуемый для адекватного кровоснабжения. Они не сожмутся, а не смогут адекватно расшириться.
И вот так в этой статье примерно всё. Пересказ плохим языком плохо понятых идей.
Он уже умеет играть, он только не знает, что умеет именно это. С ним можно сыграть - он только не поймёт, что именно происходит.
Или ему кто-то скажет, что именно означает то, что ему подают на вход, как это декодируется. И тут он внезапно поймёт, что умеет играть и за доской - хотя по-прежнему ничего не знает ни о правилах, ни о стратегии, ни о тактике.
С китайским много хуже: китайский знает не он сам, а его виртуальная личность, а к ней так просто не обратиться. У него нет доступа к памяти этой личности, а у неё нет доступа к его памяти.
Я это уже писал. "Это фальшивые ёлочные игрушки, они выглядят как настоящие, но радости от них никакой".
Если бы там не было умения, никто бы не стал запрещать компьютеры на турнирах.
А в чём вы и я компьютеру не проиграем? В snake and ladders?
Это такой способ обесценивания :).
Вариантов шахматных партий астрономическое количество, никакой "базой данных этюдов" невозможно покрыть даже сотую их долю. Попробуйте начать каким-нибудь нетипичным дебютом - и вас размажут точными ходами. Ключевой прогресс в шахматных алгоритмах - умение оценивать позиции, строить планы и предвидеть планы соперника. Программы умеют это всё.
Это у вас выясняется, что компьютер вовсе и не умеет играть в шахматы. Я не совсем представляю, как умение можно определить так, чтобы получилось, что у компьютера умения играть в шахматы нет.
Наш с вами мозг состоит из элементов куда меньшего быстродействия, а вы посмотрите, какую громадную внутреннюю сущность поддерживает.
То есть попугай умеет говорить много лучше, чем любой человек? У современной Stockfish приблизительный рейтинг улетает за 3750.
https://computerchess.org.uk/ccrl/404/
Сыграть с ней можно? Да запросто. Вы ещё и гарантированно проиграете, как и я, кстати - даже если от этого будет зависеть ваша собственная жизнь. То есть вы хотите сказать, что вам будет просто казаться, что вы играете в шахматы? А всему миру показалось, что Каспаров проиграл Deep Blue?
Для того, чтобы понять, в чём проблема в процедуре Сёрла, не нужно говорить об искусственном интеллекте. От шахматной программы не требуется понимания или переживаний.
Да, именно так. Но у Сёрла получился уж очень запоминающийся образ, и поэтому на эту тему уже несколько сотен статей написано. При том, что правильное возражение было первым же пунктом.
То, что я пытаюсь сделать - придумать образ схожего уровня понятности. Но, вероятно, в голове звенит и прорывается наружу собственная философия, загрязняя идею :).
Сам по себе Стокфиш не понимает вообще ничего, ему нечем. И компьютер без программы не понимает вообще ничего. А вот компьютер под управлением Стокфиш - уже понимает, как играть в шахматы.
Изобретённый велосипед, кстати, именно в этом. В мысленном эксперименте Сёрла человек не знает китайский и книга не знает китайский, а вот человек под управлением книги уже знает китайский. Но Сёрл этого не желает видеть, он считает, что человек под управлением книги - это всё тот же самый человек, который китайского по-прежнему не знает.
Лем, кажется, такую систему называл "граммофон". Но понятно, что для прохождения теста Тьюринга нужно будет хранить не просто все варианты фраз, но и все варианты диалогов - и я что-то не уверен, что их конечное число, то есть что эта идея хотя бы принципиально разрешима.
Правда, человек тоже вполне может не блистать разумом.
Мне, кстати, кажется, что он должен быть не просто более гибким, что он должен быть ещё и недетерминированным. Наше сознание, во всяком случае, именно таково. Бывает, например, что мы подбираем слово - и в конце концов "выпускаем в продакшен" не совсем подходящее, понимая, что оно не совсем подходит, просто потому, что не сумели найти более точное слово за нужное время, и вот это ощущение "нужного времени" задано нестрого, то есть содержит элемент случайности. Бывают вообще оговорки - "Мы постараемся сделать всё, чтобы этот полёт стал для вас последним" вместо "приятным". Мне кажется, что какая-то случайность необходима :).
Что вы понимаете под "синергией"? Появление какого-то нового качества целого в результате взаимодействия частей? А почему для этого нового качества оказывается важна скорость этого взаимодействия? То есть понятно, что всё будет плохо, если состояния "портятся" с течением времени, но если нет, то чему может помешать относительно медленный обмен?
Я лично считаю, что "невозможно притвориться не идиотом" :). Понимание невозможно качественно изобразить, если его на самом деле нет. Модель реальности в моём представлении есть не продукт какого-то отдельного понимания, а само понимание как таковое, другого нам не завезли.
Но этот мой взгляд можно и не разделять. Люди вон спокойно считают, что сознание есть продукт деятельности мозга, и ничего, ещё никто не умер от этого.
(На самом деле, разумеется, некоторые процессы в мозгу не производят сознание, а сами по себе являются сознанием, то есть сознание есть определённая деятельность мозга, а отнюдь не продукт какой-либо его деятельности).
Однако провести процедуру Сёрла на шахматной программе, получить абсурдные результаты и понять, что из этого следует, что процедура некорректна, можно и без полного принятия моих взглядов :).
Философские зомби таковы по определению, а с китайскими комнатами всё хуже. Доказательство того, что перед нами сущность без квалиа, ошибочно, потому что основано на некорректном переносе свойства исполнителя на систему.
Ничем. Они по определению квалиа для нас не будут отличаться ничем, и поэтому "понимание отличия" нас никуда не приведёт. Например, мы не можем решать, предоставлять ли субъекту права на основании наличия квалиа, потому что никак не можем установить наличие квалиа. Поэтому "понимание в этом вопросе" одновременно и совершенно недостижимо, и совершенно не нужно на практике. Совершенная концепция.
И в довершение ко всему - "китайская комната" не помогает нам в этом понимании. Из того, что квалиа нет у исполнителя, нельзя делать вывод, что их нет и у системы, потому что свойства исполнителя нельзя переносить на систему. У меня приведён конкретный пример свойства исполнителя, которое на систему не переносится.
Ну ничего себе "кажется". Всему миру показалось, что Каспаров проиграл Deep Blue. На всех шахматных турнирах компьютеры запрещены - всё потому, что всем без исключения наблюдателям кажется, что компьютеры играют в шахматы сильнее людей.
Если такое кажется всем - так это, наверное, уже нельзя называть словом "кажется".
Знает или не знает - дело десятое. Но играть несомненно умеет.
Умение играть в шахматы "в данном контексте" - это умение играть в шахматы. С компьютером можно сыграть, и мы с вами ему ещё и гарантированно проиграем. Последняя победа гроссмейстера над топ-программой была почти 19 лет назад, 21 ноября 2005, Пономарёв выиграл у Фритц.
Здесь нет "переопределения". Компьютер умеет играть в шахматы просто потому, что он это умеет.
Вот как раз для того, чтобы заявить, что компьютер не умеет играть в шахматы, некоторое переопределение потребуется. "Эти ёлочные игрушки фальшивые: они, конечно, выглядят совсем как настоящие, но радости от них никакой".
Рассуждение "китайская комната" ничего ни от чего не позволяет отличить хотя бы просто потому, что отличить наличие квалиа от отсутствия квалиа для внешнего объекта принципиально невозможно, уж такая это концепция. Совсем не случайно вы пишете "...у него, скорее всего, отсутствует...": вы никак не сможете доказать, что квалиа у компьютера в самом деле отсутствует. Да чего уж там, вы никакому оппоненту не сможете доказать даже то, что у вас лично квалиа в наличии. Философские зомби могут быть где-то рядом постоянно.
Само рассуждение основано на некорректном перенесении свойства исполнителя на всю системы. Так делать нельзя.
Логика у Сёрла именно такая. Человек в китайской комнате играет роль компьютера - человек не понимает китайский - значит, и компьютер не понимает китайский, несмотря на то, что всё выглядит так, будто понимает.
Проблема именно в том, что человек в китайской комнате эквивалентен не компьютеру в целом, а только процессору, без программы и данных.
А если и программу, и данные поместить внутрь человека, то уже нельзя будет однозначно сказать, что он не понимает китайский.
Нет. Автор просто показал, что приписывать свойства элемента всей системе нельзя. Компьютер умеет играть в шахматы, несмотря на то, что гипотетический человек, выполняющий шахматную программу вручную, играть в них не умеет.
Я не утверждаю, что компьютер, проходящий тест Тьюринга, на самом деле будет понимать естественный язык. Я только утверждаю, что рассуждение "китайская комната" совершенно не доказывает, что не будет.
Вас не затруднит указать, в каком именно месте я это заявляю?
А я не говорю, что компьютер понимает шахматы. Я говорю, что компьютер умеет играть в шахматы, несмотря на то, что гипотетический человек, выполняющий шахматную программу вручную, играть в них не умеет.
Следовательно, свойство исполнителя "не умеет играть в шахматы" нельзя переносить на всю систему, частью которой исполнитель является.
Следовательно, нельзя делать выводы о наличии или отсутствии некоторого свойства у системы на основании наличия или отсутствия этого свойства у исполнителя.
Следовательно, и отсутствие понимания у исполнителя нельзя переносить на всю систему, частью которой исполнитель является. Вполне возможна ситуация, когда у исполнителя понимания нет, а у системы оно есть.
Следовательно, то, что утверждает Сёрл, нельзя доказывать тем способом, которым он это делает. Из того, что у человека-исполнителя понимания нет, ещё не следует, что понимания нет и у системы, частью которой исполнитель является.
Может быть, и в самом деле понимания нет - но "китайская комната" это не доказывает.
Нет. Я вообще не атакую утверждение Сёрла, я атакую его метод доказательства.
Сёрл: запустим "разговор по-китайски" на субстрате человеческого разума. Человек при этом полностью аналогичен компьютеру и не знает китайский. Значит, и компьютер не знает китайский.
Я: запустим Stockfish на субстрате человеческого разума. Человек при этом полностью аналогичен компьютеру и не умеет играть в шахматы. Значит, и компьютер не умеет играть в шахматы.
А он, надо же, умеет.
/*Оффтоп
Вот это да!
Мы с вами, коллега, в одном доме живём. Снимаю шляпу, дело замечательное делаете, если придумаете, как вам помочь - мы поучаствуем обязательно.
оффтоп */
Русское слово "рискнуть" означает именно то, что собирается из смысла слов "пожертвовать с шансом".
Просто обычно "пожертвовать с шансом" не говорят - именно потому, что эти слова несовместимы по смыслу. "Шанс" означает некоторую вероятность наступления или ненаступления события, а "пожертвовать" предполагает определённость.