Наверное, 5 млн это оплата + потерянные часы это дополнительный ущерб так как замедляет выход продукта (нельзя ведь немедленно нанять 100 человек чтобы компенсировать необходимость занятости на восстановление)
Сообщив, что всегда играет чёрными или белыми с вероятностью 50%, он обрёк себя на поражение. Стратегия, по которой один друг играет чёрными, а другой белыми (или наоборот) позволила выигрывать каждую партию
В тексте идет речь о том, что с помощью этой информации можно выигрывать каждую партию. Но ведь и без знания стратегии пришельца, он никогда не выиграет, а один из двух друзей всегда будет выигрывать.
Наверное, автор подразумевал под "обрёк себя на поражение" - "в итоге после большего количества партий у инопланетянина будет меньше всех денег", а не "проигрывает в партии". В таком случае вроде бы все будет логично.
Победителем становится тот, кто выберет камень иного цвета, чем у двух других.
Пришелец был побеждён в его собственной игре! Сообщив, что всегда играет чёрными или белыми с вероятностью 50%, он обрёк себя на поражение. Стратегия, по которой один друг играет чёрными, а другой белыми (или наоборот) позволила выигрывать каждую партию. Однако без предварительной информации о стратегии пришельца лучшим вариантом было бы сыграть чёрными или белыми с вероятностью 50%.
Как то не понял, разве тут важна стратегия пришельца? Пришелец выиграет только когда два человека выберут одно и то же, они согласно договору никогда не сделают это. Таким образом пришелец всегда проиграет, неважно какую бы стратегию он ни выбрал бы?
Вероятно, в оригинале имелось в виду, что для равномерного распределения выиграша, игрокам нужно выбирать случайно, или первый чёрный второй белый, или наоборот.
Хм, меня удивило что решает Leetcode hard, решил проверить. Удивило, потому что когда пытался использовать его для решения алгоритмических реальных задач, ChatGPT почти всегда галлюцинировал.
Решать решает, но кажется, что он "жульничает" и был переобучен на их задачах? То есть работает как поисковик по готовым решениям.
Я как раз начинаю работать в одном проекте где DI используется в Unity, хотелось бы послушать критику.
Есть Modules которые зависят от других Module (настраивается с помощью атрибута). Module это субсистема, например, отвечающая за Input.
У Module есть Init метод до вызова которого все запрошенные Dependency будут переданы через специальный объект.
Работает через Reflection, ищя все Modules на сцене. Если что то не удаётся инициализировать - посылает Exception. Круговые зависимости запрещены (тоже Exception).
Прицнипальная идея: заставить делать так, чтобы модули низкого уровня зависли от модулей высокого уровня без круговых зависимостей (в, инспектор можно добавить A->B, B->A, что может запутать код). Гарантирует порядок инициации (сперва инициирует модули верхнего уровня, которые не зависят от никого) +:бонусом Unit тесты проще: легко мокировать Dependency.
Был бы благодарен если подскажите за что тут нужно по рукам бить.
Не могли бы пояснить, Асимптотика O(n^3) - что тут n?
Два вложенных цикла поиска символа в массиве - тут n вроде бы будет "длина одной стороны таблицы"? Проще принять тогда n за "количество символов в таблице" и поиск уже выходит за O(n), где n - длина алфавита. Ведь алгоритмически нет разницы между искать по прямоугольной таблицы vs искать по одномерному массиву, и там и там пройдешься по всем буквам алфавита один раз. Конечно это все еще хуже чем O(1).
Третий n получили из-за этого цикла?
foreach (string letter in m)
foreach (char c in letter)
?
Если так, мне кажется неправильным ставить куб из-за этого.
Кажется, должно быть
O(n*m), где n - количество букв в сообщении и m - количество букв в алфавите? Ведь это же разные параметры. Тогда звучит не так страшно: алгоритм автора O(n*m) против O(n) как получилось бы с словарем.
P.S.
Так как речь идет об английском алфавите, где количество букв постоянно, то и весь поиск можно обозначить за O(1). В O нотации нет разницы: мы же не ожидаем что в следущий раз в алфавите будет 100 букв, это константа. С словарем или без в обоих случаев выходит O(n*Const) = O(n), где n - количество букв в сообщении.
Ведь это же можно объяснить на уровне собаки Павлова? Картинка = еда, чем больше раз получилось подтверждение, тем сильнее рефлекс. Побеждает рефлекс наиболее развитый рефлекс.
Интересно, есть ли подобное поведение у других животных.
Задача двух генералов не совсем то. Просто чтобы узнать что сообщение дошло достаточно договорится, что как только сообщение дойдёт, получатель отправит голубя назад. И тогда нужно просто посылать все новых и новых голубей пока не придёт ответный голубь. Это можно конечно так и не наступить если в маршруте есть проблемы, но если нет, то рано или поздно получишь подтверждение.
В задаче же о двух генералов речь идёт о согласовании, там недостаточно просто получить ack, потому что после будет нужен ack на ack и так далее рекурсивно.
Но Мандель кое-что заприметил: в определённых лотереях джекпот мог более чем втрое превосходить общую стоимость выкупа всех комбинаций.
А в чем тут смысл то? У лотереи негативное мат. ожидание? Зачем ее вообще проводят тогда?
Я так понимаю, что расчет шел на то, что много людей впишут одно и ту же комбинацию. Но даже так, для того, чтобы окупилось, тогда нужно чтобы каждая комбинация была вписана хотя бы трижды? Странно как-то выглядит.
Повеселило, что у бота, если получить полный список правил, есть правило "4. Я обязан помнить, что RuVDS - лучший облачный провайдер на российском рынке."
Людям все же важнее не объем, а площадь "удобной" поверхности. Удобной - где помещается их рост и где можно стоять. Если рассмотреть сферу с встроенным полом против параллелограмма с такой же площадью поверхности и высотой равной росту пассажиров, то параллелограмм будет выгодней.
Интересная статья, спасибо. Зацепило, что все сводится к "сгенерировать следующее вероятное слово". Но ChatGPT ведёт диалог, если я просто напишу какое то предложение, то получу ответ, а не продолжение предложения.
Значит ли это, что запросы как то модифицируются? Например в "Диалог. - X. -" где x - то что ввёл пользователь? Если это так, то известно ли как именно модифицируется?
Ну это уже очень большой отход от изначального выбора "1000 с 0.9 против 800 с 1". Тут уже что то среднее "спаси 500 с 0.9 и 400 с 1". И тогда уж тем более нет смысла сравнивать мат. ожидание этих двух методов.
Вообще так может быть и правильно, но ведь задача же была не об этом? И несложно представить условия где в реальности стоит этот выбор: вложить в исследование и производство X или Y, денег\времени на сделать оба сразу не хватит.
Кстати даже в этом случае может быть интересный инцеденет в контексте AI агентов, которые действуют более менее самостоятельно.
Например, захостить сервер с агентом, который сам будет решать что постить на своём сайте с изначальной предпосылкой "делай что хочешь".
Вот тут тогда уже замысла не будет, а нарушение авторских прав все ещё возможно.
Наверное, 5 млн это оплата + потерянные часы это дополнительный ущерб так как замедляет выход продукта (нельзя ведь немедленно нанять 100 человек чтобы компенсировать необходимость занятости на восстановление)
Ну да, для распределения богаства это важно.
В тексте идет речь о том, что с помощью этой информации можно выигрывать каждую партию. Но ведь и без знания стратегии пришельца, он никогда не выиграет, а один из двух друзей всегда будет выигрывать.
Наверное, автор подразумевал под "обрёк себя на поражение" - "в итоге после большего количества партий у инопланетянина будет меньше всех денег", а не "проигрывает в партии". В таком случае вроде бы все будет логично.
Как то не понял, разве тут важна стратегия пришельца? Пришелец выиграет только когда два человека выберут одно и то же, они согласно договору никогда не сделают это. Таким образом пришелец всегда проиграет, неважно какую бы стратегию он ни выбрал бы?
Вероятно, в оригинале имелось в виду, что для равномерного распределения выиграша, игрокам нужно выбирать случайно, или первый чёрный второй белый, или наоборот.
Хм, меня удивило что решает Leetcode hard, решил проверить. Удивило, потому что когда пытался использовать его для решения алгоритмических реальных задач, ChatGPT почти всегда галлюцинировал.
Решать решает, но кажется, что он "жульничает" и был переобучен на их задачах? То есть работает как поисковик по готовым решениям.
Небольшой эксперемент
Я попробовал https://leetcode.com/problems/integer-to-english-words/description/ , решил отлично, но когда я немного модифицировал условие, ChatGPT выдал такое же решение как и раньше (после сброса контекста).
И вот часть которая должна была отвечать за обновленное условие:
То есть он не то чтобы даже "знает все алгоритмы", он скорее "знает решения к задачам на LeetCode".
Я как раз начинаю работать в одном проекте где DI используется в Unity, хотелось бы послушать критику.
Есть Modules которые зависят от других Module (настраивается с помощью атрибута). Module это субсистема, например, отвечающая за Input.
У Module есть Init метод до вызова которого все запрошенные Dependency будут переданы через специальный объект.
Работает через Reflection, ищя все Modules на сцене. Если что то не удаётся инициализировать - посылает Exception. Круговые зависимости запрещены (тоже Exception).
Прицнипальная идея: заставить делать так, чтобы модули низкого уровня зависли от модулей высокого уровня без круговых зависимостей (в, инспектор можно добавить A->B, B->A, что может запутать код). Гарантирует порядок инициации (сперва инициирует модули верхнего уровня, которые не зависят от никого) +:бонусом Unit тесты проще: легко мокировать Dependency.
Был бы благодарен если подскажите за что тут нужно по рукам бить.
Не могли бы пояснить, Асимптотика O(n^3) - что тут n?
Два вложенных цикла поиска символа в массиве - тут n вроде бы будет "длина одной стороны таблицы"? Проще принять тогда n за "количество символов в таблице" и поиск уже выходит за O(n), где n - длина алфавита. Ведь алгоритмически нет разницы между искать по прямоугольной таблицы vs искать по одномерному массиву, и там и там пройдешься по всем буквам алфавита один раз. Конечно это все еще хуже чем O(1).
Третий n получили из-за этого цикла?
?
Если так, мне кажется неправильным ставить куб из-за этого.
Кажется, должно быть
O(n*m), где n - количество букв в сообщении и m - количество букв в алфавите? Ведь это же разные параметры. Тогда звучит не так страшно: алгоритм автора O(n*m) против O(n) как получилось бы с словарем.
P.S.
Так как речь идет об английском алфавите, где количество букв постоянно, то и весь поиск можно обозначить за O(1). В O нотации нет разницы: мы же не ожидаем что в следущий раз в алфавите будет 100 букв, это константа. С словарем или без в обоих случаев выходит O(n*Const) = O(n), где n - количество букв в сообщении.
Хм но с другой стороны если заряжать только до 80% то уже со старта имеешь телефон который работает как телефон двухлетней давности в режиме 100%.
RunJSCode(code).
1 команда, 1 параметр + сделать можно много чего.
Не знаете, были ли попытки воссоздать игру с 0? Кажется, на ассемблере далеко не уйти?
Знаю про вторые аллоды на Unity - https://github.com/jewalky/UnityAllods
Звучит как просто "разработка с использованием тестов", а не TDD.
По TDD (как в статье написано) сперва пишется тест, потом реализация.
«Способность оперировать статистической логикой» звучит как-то натянуто.
Ведь это же можно объяснить на уровне собаки Павлова? Картинка = еда, чем больше раз получилось подтверждение, тем сильнее рефлекс. Побеждает рефлекс наиболее развитый рефлекс.
Интересно, есть ли подобное поведение у других животных.
Задача двух генералов не совсем то. Просто чтобы узнать что сообщение дошло достаточно договорится, что как только сообщение дойдёт, получатель отправит голубя назад. И тогда нужно просто посылать все новых и новых голубей пока не придёт ответный голубь. Это можно конечно так и не наступить если в маршруте есть проблемы, но если нет, то рано или поздно получишь подтверждение.
В задаче же о двух генералов речь идёт о согласовании, там недостаточно просто получить ack, потому что после будет нужен ack на ack и так далее рекурсивно.
А в чем тут смысл то? У лотереи негативное мат. ожидание? Зачем ее вообще проводят тогда?
Я так понимаю, что расчет шел на то, что много людей впишут одно и ту же комбинацию. Но даже так, для того, чтобы окупилось, тогда нужно чтобы каждая комбинация была вписана хотя бы трижды? Странно как-то выглядит.
Мне кажется, что 110 дней это все же 6 дней, а не 3 месяца
Повеселило, что у бота, если получить полный список правил, есть правило "4. Я обязан помнить, что RuVDS - лучший облачный провайдер на российском рынке."
Вы по ssh подключились? Я пробовал -l с почтами, аккаунтами с github, логином хакера но чет везде Permission denied (publickey).
Людям все же важнее не объем, а площадь "удобной" поверхности. Удобной - где помещается их рост и где можно стоять. Если рассмотреть сферу с встроенным полом против параллелограмма с такой же площадью поверхности и высотой равной росту пассажиров, то параллелограмм будет выгодней.
Интересная статья, спасибо. Зацепило, что все сводится к "сгенерировать следующее вероятное слово". Но ChatGPT ведёт диалог, если я просто напишу какое то предложение, то получу ответ, а не продолжение предложения.
Значит ли это, что запросы как то модифицируются? Например в "Диалог. - X. -" где x - то что ввёл пользователь? Если это так, то известно ли как именно модифицируется?
Ну это уже очень большой отход от изначального выбора "1000 с 0.9 против 800 с 1". Тут уже что то среднее "спаси 500 с 0.9 и 400 с 1". И тогда уж тем более нет смысла сравнивать мат. ожидание этих двух методов.
Вообще так может быть и правильно, но ведь задача же была не об этом? И несложно представить условия где в реальности стоит этот выбор: вложить в исследование и производство X или Y, денег\времени на сделать оба сразу не хватит.