Pull to refresh

Comments 15

Уже не первый раз наталкиваюсь на статьи о невероятной глубине теоремы Байеса. Но мне как не математику интуитивно кажется, что это просто какое-то усреднение. Делаем N измерений, как-то усредняем и получаем что-то более-менее близкое к реальности. Чем больше измерений — тем ближе к реальности. Или я не прав и тут кроется какой-то очень глубокий смысл?
UFO landed and left these words here
Помните Акинатора? В первый раз очень удивляет, когда «угадывает мысли» за несколько простых вопросов. Там тоже Байес, на Хабре есть статьи про это.
Тут и кроется глубина)
Байес может «усреднить» распределение уже по одному результату. Он может выдать получившееся распределение (то какова вероятность в каждой области пространства)
Но по 100 опытам лучше все таки просто усреднить (дешевле вычислять).
UFO landed and left these words here

Так об этом и статья. Формулы есть.
Можно поменять в коде количество экспериментов с 100 до одного.
Я сделал это. Вот результат. Получившееся СКО 1.6579451124819917.

Фишка в том, что по одному опыту строится распределение вероятности, а не просто средняя оценка.

UFO landed and left these words here
Как же, однако, забавно получается. Вы знаете, что дисперсия криков перепела — 4, но при этом смогли получить оценку для этой величины меньше, чем она есть на самом деле, причем за одно измерение. Это как?

Ну вот так вот. Результат ведь формируется не по распределению измерения, а по функции правдоподобия.


И еще одно замечание. Если Вы в курсе, что дисперсия криков — 4, это значит, что Вы как-то все же провели ее оценку, нет? А этого невозможно сделать за одно измерение.

Да, а эту дисперсию нужно получать кучей измерений.


Но и в этом случае априорное распределение положения перепела не может быть равномерным в области [-20, 20], как на картинке выше. Перепел может находиться только в интервале длиной sqrt(48).

Я взял [-20, 20] только чтобы интегрирование было пополнее. А в остальном немного не понял вопрос.


И да, что Вы будете делать, когда Вам будет неизвестна дисперсия апостериорного распределения перед началом эксперимента, что бывает практически всегда? Как тут поможет Байес?

Апостериорное и ищем по теореме Байеса. Она как раз и помогает его найти.

UFO landed and left these words here

Дорогой друг. Это здорово, что ты заинтересовался темой.
Я рад этой беседе (без подкола). Так мы сможем улучшить материал, в случае ошибки.
Чтобы более структурировано вести диалог, я хотел бы уточнить суть твоей претензии.


  1. Ты не согласен с теоремой Байеса для НСВ в том виде, который предложен в статье?
  2. Ты не согласен с самими вычислениями (формулы нормальные, но результаты странные)?
  3. Ты считаешь, что теория и расчет верные, но не видишь целесообразности теоремы Байеса в том виде, который предложен в статье?
  4. Что то другое?
    Я попытаюсь тогда построить аргументацию, а то я немного не подгружаю о чем ты говоришь.
    З. Ы. За равномерное распределение спасибо. Не учел шаг. И в статье та же проблема. Починю позже. Вчера только переехал в новую квартиру. Времени не так много.
UFO landed and left these words here

Фуухх, наконец то добрался до компьютера (переезд, самоизоляция с двумя детьми и все такое)
Спасибо за диалог. Благодаря вычитке качество повышается.
Итак о моих ошибках в расчете. Они есть, я их нашел, спасибо.
За первое измерение СКО выходит то же, что и известное (то есть 2).

Уменьшается оно только далее.

Так повышается доверие к участку, от которого и приходит замер до ужасной точности в СКО = 0.19 (количество опытов 100)
Скоро внесу исправления в статью. Еще раз спасибо.
З.Ы. НСВ — непрерывная случайная величина.

Отличная статья, спасибо!

Я тем не менее выступлю с просьбой к автору — написать еще одну статью на эту тему, но понятную. Ну просто эта статья по духу («смотрите дети — это ниндзя, он хочет кушать») как бы for dummies. Ок, я тот самый dummy, мои познания в предмете ограничиваются тем самым классическим объяснением из Википедии про базовое представление теоремы Байеса. Что же полезного я могу для себя взять из вашей статьи? Как применить это на практике?

Пожалуй лучше дополню эту статью, но немного позже.
Практика тут только в том, чтобы утрясти теорию, углубить её понимание.
Этот подход дальше используется при выводе фильтра Калмана.
Вообще для слежения, когда отметки будут смещаться, а не находится в одном месте. Когда распределение по разным координатам имеет разную дисперсию.

Практика тут только в том, чтобы утрясти теорию, углубить её понимание


Конкретно в моем случае имел место отказ.
Sign up to leave a comment.

Articles