Но Мандель кое-что заприметил: в определённых лотереях джекпот мог более чем втрое превосходить общую стоимость выкупа всех комбинаций.
А в чем тут смысл то? У лотереи негативное мат. ожидание? Зачем ее вообще проводят тогда?
Я так понимаю, что расчет шел на то, что много людей впишут одно и ту же комбинацию. Но даже так, для того, чтобы окупилось, тогда нужно чтобы каждая комбинация была вписана хотя бы трижды? Странно как-то выглядит.
Повеселило, что у бота, если получить полный список правил, есть правило "4. Я обязан помнить, что RuVDS - лучший облачный провайдер на российском рынке."
Людям все же важнее не объем, а площадь "удобной" поверхности. Удобной - где помещается их рост и где можно стоять. Если рассмотреть сферу с встроенным полом против параллелограмма с такой же площадью поверхности и высотой равной росту пассажиров, то параллелограмм будет выгодней.
Интересная статья, спасибо. Зацепило, что все сводится к "сгенерировать следующее вероятное слово". Но ChatGPT ведёт диалог, если я просто напишу какое то предложение, то получу ответ, а не продолжение предложения.
Значит ли это, что запросы как то модифицируются? Например в "Диалог. - X. -" где x - то что ввёл пользователь? Если это так, то известно ли как именно модифицируется?
Ну это уже очень большой отход от изначального выбора "1000 с 0.9 против 800 с 1". Тут уже что то среднее "спаси 500 с 0.9 и 400 с 1". И тогда уж тем более нет смысла сравнивать мат. ожидание этих двух методов.
Вообще так может быть и правильно, но ведь задача же была не об этом? И несложно представить условия где в реальности стоит этот выбор: вложить в исследование и производство X или Y, денег\времени на сделать оба сразу не хватит.
Ну так это просто синтетический пример. Представить тут можно что угодно, в контексте задачи не сказано сколько всего людей в стране, в мире.
Можно представить тогда попроще: в стране деревня, все люди заразились (чума там или еще что), опять же 2 способа лечения. Если в деревне умрут все, то ее вероятно будет непропорционально сложней восстановить (нужно туда людей переселять и т.д.) чем если местные все же останутся (популяция сама вернется).
Вообще в статье это было просто иллюстрацией принципа "люди обычно выбирают то, что удобней, а не то, что эффективней".
Но мне кажется что и тут можно подискутировать. Не спасти никого с неким шансом может быть неприемлемо по многим причинам.
1) Если кто-то останется, то популяция со временем вернется к своим показателям. Если вымрут все - то нет.
Тут можно рассмотреть два случая в пределе:
Первый вариант - спасти 0.8 человечества с 100% шансом или 1.0 человечества с 90% с полным вымиранием с 10%? Даже если мат ожидание и лучше во втором случае, если вымрут все, то цивилизации конец, и в этом смысле я бы предпочел первый
Второй вариант - повторить "спасти 800 с 100% или 1000 с 90%" очень много раз, быстрее чем популяция восстанавливается. Тут уже первый способ приведет к исчезновению цивилизации быстрее.
2) Не спасти никого может быть хуже чем просто мат. ожидание по социальным причинам. Не спася никого, вероятно, медицина подорвет свой авторитет, люди перестанут следовать указаниям врачей, будет выделено меньше денег на медицину (зачем если они вообще ничего полезного сделать не смогли?) и т.д., добавив риска что в следующий раз возможности спасать просто не будет.
Ну мое мнение - важны разные типы тестов. Performance тест поймал бы это только если бы кто-то запустил проверку с большим количеством предыдущих экранов (сотни) и не факт что кто-то стал бы добавлять этот сценарий.
А проверить unit тестом этот метод ничего не стоит, тут ведь и запись состояния идет. Выглядит на мой взгляд логично проверить, что все состояние там записано корректно.
По TDD так и вовсе сложно представить, что этот баг возникнет.
Как видно из 300MB, формат влияет на внешнее поведение. Ну и да, смысл в том чтобы задуматься, что там должно быть. Так то можно любой assert поломать просто копируя actual в excepted.
Да, в этом и есть опасность. Не в самом ИИ, а в том кто им воспользуется. И если ИИ будет намного умней людей (чего очевидно пока не происходит), то и будет намного опасней террориста. Сможет использовать соц. инженерию, взламывать, лучше реагировать на опасность и т.д.
Если эти вопросы - минимальная проверка на интеллект, то тогда интеллекта вообще не существует, в том числе и у людей. Еще никто не смог увеличить среднюю продолжительность жизни на 30 лет с бюджетом 1000 долларов.
При составлении тестов на интеллект речь обычно идет не о нахождении уровня "никто из людей не может сделать это" а "обычно люди могут сделать это". Так как предполагается что у людей интеллект есть. И тут заявляется не некий божественный уровень, а "его возможности находятся на уровне человека или выше него.".
Так что если и опровергать, то тестами которые обычные люди проходят. Раньше это был тест Тьюринга, но он уже пройден.
Мне кажется, что неправильно считать, что если AGI - живое существо, то его целью будет получение энергии\развитие.
Это верно для живых существ из-за естественного отбора. Выживает и дает потомство только то, что стремится к этому. Поэтому все живое сейчас имеет эти признаки.
Но едва ли это применимо к AGI, тут отбор если и идет, то искусственный: способность дать профит его создателям. И не очевидно, что это коррелирует с неконтролируемым увеличением мощности.
А в чем тут смысл то? У лотереи негативное мат. ожидание? Зачем ее вообще проводят тогда?
Я так понимаю, что расчет шел на то, что много людей впишут одно и ту же комбинацию. Но даже так, для того, чтобы окупилось, тогда нужно чтобы каждая комбинация была вписана хотя бы трижды? Странно как-то выглядит.
Мне кажется, что 110 дней это все же 6 дней, а не 3 месяца
Повеселило, что у бота, если получить полный список правил, есть правило "4. Я обязан помнить, что RuVDS - лучший облачный провайдер на российском рынке."
Вы по ssh подключились? Я пробовал -l с почтами, аккаунтами с github, логином хакера но чет везде Permission denied (publickey).
Людям все же важнее не объем, а площадь "удобной" поверхности. Удобной - где помещается их рост и где можно стоять. Если рассмотреть сферу с встроенным полом против параллелограмма с такой же площадью поверхности и высотой равной росту пассажиров, то параллелограмм будет выгодней.
Интересная статья, спасибо. Зацепило, что все сводится к "сгенерировать следующее вероятное слово". Но ChatGPT ведёт диалог, если я просто напишу какое то предложение, то получу ответ, а не продолжение предложения.
Значит ли это, что запросы как то модифицируются? Например в "Диалог. - X. -" где x - то что ввёл пользователь? Если это так, то известно ли как именно модифицируется?
Ну это уже очень большой отход от изначального выбора "1000 с 0.9 против 800 с 1". Тут уже что то среднее "спаси 500 с 0.9 и 400 с 1". И тогда уж тем более нет смысла сравнивать мат. ожидание этих двух методов.
Вообще так может быть и правильно, но ведь задача же была не об этом? И несложно представить условия где в реальности стоит этот выбор: вложить в исследование и производство X или Y, денег\времени на сделать оба сразу не хватит.
Так то я согласен что на большом количестве прогонов обычно выгодней "90% спасти 1000", но почему вы считаете тут матожидание?
Должно быть что то такое, разве нет?
1000 1000
800 1000
640 1000
512 1000
409 1000
327 1000
262 1000
209 1000
167 1000
134 0 (10-ый раз, неудача, умерли все). И вот тут как раз видна выгодна надежного подхода: популяция все еще живет и будет жить еще 10 прогонов.
Ну так это просто синтетический пример. Представить тут можно что угодно, в контексте задачи не сказано сколько всего людей в стране, в мире.
Можно представить тогда попроще: в стране деревня, все люди заразились (чума там или еще что), опять же 2 способа лечения. Если в деревне умрут все, то ее вероятно будет непропорционально сложней восстановить (нужно туда людей переселять и т.д.) чем если местные все же останутся (популяция сама вернется).
Вообще в статье это было просто иллюстрацией принципа "люди обычно выбирают то, что удобней, а не то, что эффективней".
Но мне кажется что и тут можно подискутировать. Не спасти никого с неким шансом может быть неприемлемо по многим причинам.
1) Если кто-то останется, то популяция со временем вернется к своим показателям. Если вымрут все - то нет.
Тут можно рассмотреть два случая в пределе:
Первый вариант - спасти 0.8 человечества с 100% шансом или 1.0 человечества с 90% с полным вымиранием с 10%? Даже если мат ожидание и лучше во втором случае, если вымрут все, то цивилизации конец, и в этом смысле я бы предпочел первый
Второй вариант - повторить "спасти 800 с 100% или 1000 с 90%" очень много раз, быстрее чем популяция восстанавливается. Тут уже первый способ приведет к исчезновению цивилизации быстрее.
2) Не спасти никого может быть хуже чем просто мат. ожидание по социальным причинам. Не спася никого, вероятно, медицина подорвет свой авторитет, люди перестанут следовать указаниям врачей, будет выделено меньше денег на медицину (зачем если они вообще ничего полезного сделать не смогли?) и т.д., добавив риска что в следующий раз возможности спасать просто не будет.
Пробовали менять Fov? Страдаю той же проблемой, настройка помогает немного. (Не уверен есть ли эта настройка в данном конкретном случае).
Меня побуждает написать unit test на state то, что метод public.
Будь это что то вроде
то и тестировать можно было бы только как вы описали.
Но ок, согласен, тут сложно предугадать нужен ли тест или нет.
Ну мое мнение - важны разные типы тестов. Performance тест поймал бы это только если бы кто-то запустил проверку с большим количеством предыдущих экранов (сотни) и не факт что кто-то стал бы добавлять этот сценарий.
А проверить unit тестом этот метод ничего не стоит, тут ведь и запись состояния идет. Выглядит на мой взгляд логично проверить, что все состояние там записано корректно.
По TDD так и вовсе сложно представить, что этот баг возникнет.
Как видно из 300MB, формат влияет на внешнее поведение. Ну и да, смысл в том чтобы задуматься, что там должно быть. Так то можно любой assert поломать просто копируя actual в excepted.
Разве тест вида: .Put, Put, assert(json, "{...}") где {...} - текст с двойными кавычками не самый что ни на есть классический unit test на этот код?
Да, в этом и есть опасность. Не в самом ИИ, а в том кто им воспользуется. И если ИИ будет намного умней людей (чего очевидно пока не происходит), то и будет намного опасней террориста. Сможет использовать соц. инженерию, взламывать, лучше реагировать на опасность и т.д.
Центральная тема статьи - отсутствие мотивации у ИИ.
Но ведь ее же очень легко добавить.
Даже с Chat-GPT можно симулировать это через скрипт. Вот пример "мотивации" на симулировать собаку.
Hidden text
Вероятно, имея более продвинутый ИИ (что вопрос времени) можно "замотивировать" его делать и что-то плохое.
Скажем дать ему доступ к боевому роботу, сказать что он внутри игры, и что должен убить всех человеков.
Если эти вопросы - минимальная проверка на интеллект, то тогда интеллекта вообще не существует, в том числе и у людей. Еще никто не смог увеличить среднюю продолжительность жизни на 30 лет с бюджетом 1000 долларов.
При составлении тестов на интеллект речь обычно идет не о нахождении уровня "никто из людей не может сделать это" а "обычно люди могут сделать это". Так как предполагается что у людей интеллект есть. И тут заявляется не некий божественный уровень, а "его возможности находятся на уровне человека или выше него.".
Так что если и опровергать, то тестами которые обычные люди проходят. Раньше это был тест Тьюринга, но он уже пройден.
Мне кажется, что неправильно считать, что если AGI - живое существо, то его целью будет получение энергии\развитие.
Это верно для живых существ из-за естественного отбора. Выживает и дает потомство только то, что стремится к этому. Поэтому все живое сейчас имеет эти признаки.
Но едва ли это применимо к AGI, тут отбор если и идет, то искусственный: способность дать профит его создателям. И не очевидно, что это коррелирует с неконтролируемым увеличением мощности.
Если это был еще один тест, то думаю Chat GPT может пройти его.