Как стать автором
Обновить

Комментарии 9

а на основе чего дказыветс эта теорема? есть что-то еще более глубинное и загадное?

... сумма многих слабо связанных величин, имеет распределение близкое к нормальному. ...

Да, абсолютно ВСЁ случайное объективно является абсолютно закономерным. :)

Случайность в науке, это непознанная закономерность.

Абсолютный детерминизм объективной реальности рулит. :)

Как бы экспериментально доказано, что это не так и случайность фундаментально не является непознанной закономерностью. См. теорема Белла.

... экспериментально доказано ... случайность фундаментально не является непознанной закономерностью ...

Вы не правы, объективно невозможен эксперимент объективно доказывающий абсолютную беспричинность, так как любое доказательство, по определению, основано на закономерности и выявляет закономерности. :)

Абсолютная беспричинность и абсолютная произвольность объективно не может иметь доказательств, в силу своей абсолютной беспричинности и абсолютной произвольности.

Именно по этой причине, в основании науки лежит принцип причинности и абсолютного детерминизма.

Абсолютная беспричинность и абсолютная произвольность, это бог, понятие которого основано не на доказательстве, а на вере. :)

Вам следует изучить диамат и логику, как философские основы науки, которые Вы не знаете. :)

Возможно вы и правы, это слишком сложные для меня материи. Я лишь сослался на известные эксперименты, проведенные не самыми глупыми людьми.

"любое доказательство, по определению, основано на закономерности и выявляет закономерности".

в аксиоматических системах это не так

в аксиоматических системах это не так

В науке, любая аксиома является обобщенной закономерностью, которая лежит в основании научной теории, которая в свою очередь описывает закономерности. :)

Разберитесь с научными определениями понятий, прежде чем писать нелепости. :)

Как практикующий перемалыватель данных и физик, хочу уточнить и дополнить вот это утверждение автора: "Нормальное распределение практически универсальный закон природы и встречается буквально везде". По-моему, и само это утверждение, и иллюстрирующие его примеры в статье - это очень серьезная

идеализация реальности

Я в курсе, что К.Ф.Гаусс жил несколько раньше, но все же подозреваю, что еще лет сто лет назад сама идея нормального распределения для многих была откровением. И хотя у меня нет сомнений, что эта идея стала серьезным научным прорывом, и что пиетет по отношению к ней имеет совершенно объективные основания в виде многочисленных научных достижений и результатов, однако у всего есть свои ограничения и области применимости. Сегодня, когда мы обрабатываем огромные массивы данных и временные ряды, уже стоит задуматься об этих границах. С точки зрения моего скромного имхо, эти границы сейчас не просто лежат у нас под ногами, но в некоторых предметных областях и вовсе давным-давно пройдены..

Безусловно, в математике есть много прекрасных моделей (включая и ЦПТ), которые "...неверны, но полезны" (с). Но используя эти модели, надо отчетливо осознавать, что это лишь приближения, которые более или менее хорошо описывают реальность. Причем неожиданно часто - гораздо менее хорошо, чем можно было предполагать априори.

Некоторые мои знакомые математики в ответ возражают, что раз так - то тем хуже для этой реальности. Но если работаешь с экспериментальными данными, то ситуация однозначна с точностью до наоборот. Как только мы накапливаем достаточно большие объемы данных, чтобы суметь диагностировать умеренные (или слабые) отклонения от нормальности, нормальное распределение

становится миражом

Ну или горизонтом который, как известно, "есть воображаемая линия, которая по мере приближения к ней удаляется" (с). Как говорится, нет здоровых людей, - есть недообследованные

И это вполне объяснимо с точки зрения физики: в реальной жизни случайные величины, входящие в сумму, очень часто все-таки связаны. Либо среди них есть те, которые вносят преобладающий вклад в результат. Либо просто есть значимая автокореляция текущих состояний системы с более ранними (это наиболее частый случай в моей работе). Этим практическая жизнь отличается от идеальных моделей.

Наиболее яркое тому подтверждение - это фликкер-шум, который тотально доминирует во всех геофизических явлениях и процессах, и далеко не только в них. Понятно, что ни о какой нормальности в этом случае речь не идет. Даже если просто добавить к измерениям любой нормально распределенной случайной величины самый незначительный тренд (т.е. небольшую добавку, растущую пропорционально номеру измерения), нормальность немедленно исчезает. Много ли вы знаете строго стационарных природных процессов (речь не о матмоделях, понятно)? Я вот не знаю ни одного...

То же самое и с песчинками или биологическими объектами. Пока у Вас есть полсотни особей (экземпляров объектов), и чувствительности критерия хи-квадрат (или любого другого) невелика, распределение еще может сойти за нормальное. Увеличьте статистику хотя бы на порядок - и чтобы вписаться в доверительные границы нормальности, вам уже придется мучительно придумывать объяснения, почему вот этот и вот этот объекты - особенные, и их надо из выборки исключить. А еще вот этот, и вот этот, а также вот эти вот все... Чтобы в оставшейся очищенной выборке критерий все-таки допускал возможность нормальности.

А если Вы увеличите число объектов еще на порядок, то там, скорее всего, станут понятны и механизмы, которые эти отклонения от нормальности генерируют. Хотя, конечно, в разных предметных областях численные критерии будут различны.

Да что далеко ходить за примерами.

Возьмите стандартный физический (чтобы не упереться в цикл повторения ГПСЧ в компьютере) генератор нормально распределенных случайных чисел и сгенерируйте выборку из нескольких тысяч значений. Почти наверняка она будет идеалом нормальности. А теперь оставьте его поработать день-два, чтобы значений стало несколько миллионов, и загрузите этот массив в пакет статистического анализа. Подозреваю, что результат может неприятно удивить некоторых людей с незамутненным складом характера, которые искренне верят в светлые истины математических идеализаций.

Понятно, что оценка "миллион точек" зависит от конкретного генератора и принципов его устройства. Иногда может понадобиться больше точек, иногда меньше... но результат будет один. Я сам впервые столкнулся с этим эффектом, анализируя радиоактивный распад. Точек там было значительно меньше миллиона, зато продолжительность работы установки - несколько месяцев. По результатам стат-ана у пациента диагностирован фликкер-шум...

На всякий случай уточню,

что именно к ядерным реакциям претензий нет ;-) Но вот засунуть всю установку вовнутрь сферического коня в вакууме организаторам эксперимента не удалось... Так что она, несмотря на все ухищрения, все-таки реагировала на сугубо земные процессы, влиявшие на эффективность регистрации. И это - конструкция, которая находилась в стабилизированных лабораторных условиях. Что уж тогда говорить про биологические явления, где о нестабильности внешних условий даже не надо забывать, так как никому в здравом уме изначально не придет в голову считать их фиксированной константой?

В сухом остатке: безусловно, при определенных достаточно специфических условиях нормальное распределение - это очень неплохая модель, весьма полезная с точки зрения практики. Однако как только Вы начинаете работать с тысячами и более измерений (а не десятками), эта модель очень часто начинает расходиться с реальностью. А для многих явлений такое расхождение становится очевидным уже при первых десятках значений в выборке, вплоть до катастрофического при большем числе отсчетов. Поэтому я бы крайне не советовал принимать гипотезу нормальности в качестве базовой априорной модели при анализе данных, если только Вы не убедились заранее в исключительности Вашего объекта изучения, которая делает такое допущение адекватным.

И во-вторых, я бы крайне не советовал формально выбраковывать из наблюдений те точки, которые "выскакивают" из гауссиана. Конечно, иногда они могут быть ошибками измерений, и тогда их выбраковка оправдана. Но в огромном множестве случаев это вовсе не брак, а следствие неадекватности модели нормальности для данного типа явлений. Есть целые предметные области, где именно эта (вторая) гипотеза должна быть принята априори в качестве базовой.

P.S. Желаю всем осторожности, адекватности и удачи при анализе данных. А главное, не забывайте слова великого Джоржда Бокса о том, что "все модели неверны, но некоторые из них полезны" ;-)

нас не бывает шести глаз или одного глаза, глаза не расположены друг над другом, не растут на ладонях или на пупке. Понятно почему это так, с глазами на пупке долго не проживешь и не успеешь оставить потомство. Но такие мутанты и не рождаются, что означает гены умеют держать свою вариативность под контролем. Гены жестко фиксируют одни параметры, а другим позволяют быть вариативными. Что означает, наша изменчивость не только результат воздействия случайных внешних факторов, а регулируется генетически.

Как же это "мутанты не рождаются"? Много таких мутантом умирает ещё в утробе или при рождении. И если визуально шести глаз не видно, то разве не может быть, что он умер от того, что его ДНК пыталось вырастить 6 глаз? Это ведь не изучают.
Нет ли тут ошибки выжившего? Или же таки мерили все выкидыши, все смерти после рождения?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Изменить настройки темы

Истории