Как стать автором
Обновить

Комментарии 62

Измерительная техника была подключена к электросети?
Имеется ввиду воздействие колебаний напряжения в единой электросети.
Или использовался независимый источник электропитания.
У меня алгоритм нашел звездный год в рядах радиоактивного распада — это 365 суток и 369 минут. То есть все минуты и +1234 и +78 вроде бы равны, но максимальная сходство функций плотности вероятности неожиданно именно на +369 минуте. К сети это не притянуть.
Требуется отметить что средние значения остаются неизменными, меняется функция распределения.
но максимальная сходство функций плотности вероятности неожиданно именно на +369 минуте.
Судя по Вашему коду на гитхабе, Вы очень странным образом оцениваете плотности распределения по исходным данным:

  1. Сначала исходная последовательность количества отсчетов детектора в секунду делится на выборки по koeff=60 (целочисленных) отсчетов;
  2. Потом для каждой такой выборки строится гистограмма из ko=60 столбиков;
  3. Далее гистограмма сглаживается.

Требование, что число столбиков должно быть много меньше числа отсчетов, очевидно не выполняется. В результате, то, что у Вас получается, гистограммой назвать сложно. Ниже — результат вашей обработки первой 60-секундной выборки из файла 0505.txt:

Есть еще одна проблема, которая заключается в том, что измерения целочисленные, и их диапазон для практически каждой выборки не кратен числу столбиков гистограммы. Т.е. если даже взять более длинную выборку, скажем первый час (3600 отсчетов), и повторить построение диаграммы по вашему способу, то можно увидеть вот такое безобразие:

Ну, да, Вы потом эти «зебры» сглаживаете, но где доказательство, что при этом функция распределения не искажается? Ага, хотя бы с использованием критерия Колмогорова-Смирнова. Да еще стоит добавить к сравнению исходное кумулятивное распределение числа отсчетов, до того, как его, возможно, «испортили» описанными выше процедурами.

На всякий случай, «правильная» максимально подробная часовая гистограмма, полученная с помощью
plt.hist(values, bins=numpy.max(values)-numpy.min(values)+1, range=(numpy.min(values)-0.5, numpy.max(values)+0.5))
выглядит так:

максимальная сходство функций плотности вероятности неожиданно именно на +369 минуте.
Про «неожиданно»… Разве это не означает, что для всех других разностей времен формы «минутных» распределений заметно непохожи друг на друга? Критерий Колмогорова-Смирнова это подтверждает? А иначе получается, что Вы берете ряд типа 1,1,1,1,1,… и утверждаете, что каждое измерение совпадает с плюс десятым в списке.

И в конце небольшой философский вопрос. Почему Вы использовали минутные выборки (по 60 значений)? Природа про минуты, впрочем как и другие шкалы измерения времени, не знает. Т.е., что случится с вашими выводами, если размер выборки изменить? Скажем, на 77? Я, после того, как окончательно пойму, что Ваш код делает, проверю.
Таков метод. Я уже упоминал, что требуются именно не состоятельные гистограммы. В этом новизна исследования. То есть мы тут остаемся на грани статистики и физики. Не уходя в математику, как с обычным распределением Гаусса.

Последнее — ничего не должно измениться. При выборке в 2 минуты (по 120 значений). На 718 отсчете будет проявляться звездные сутки.
Для меня было шоком, когда нашелся звездный год. Проверьте его обязательно

Послушайте, ну это просто ненаучно: давайте неправильно обработаем данные и будем искать в них закономерности, это астрология какая-то.

А кто решает как правильно обрабатывать данные? У бога математику заверили, что ничего больше не дополнять.
Период (особенно звездный год) то он находится.
если это Исследование, то Вам следует учесть критику.
Нет тут никакого исследования.
На Хабре автор оказался закономерно не понят, на вопросы отвечать не затруднился, и пришёл искать понимания на более молодёжный GT
Для меня было шоком, когда нашелся звездный год. Проверьте его обязательно
Для того, чтобы проверить, хотелось бы понять, что находится в ваших файлах 0505.txt и 0506.txt? В каждом из них 172800 строк, т.е. по 48 часов наблюдений.

  • Один файл — данные типа за первые 48 часов первого года, второй файл — 48 часов второго года?
  • Или первые сутки в каждом файле — один год, вторые сутки — другой?
  • Или еще как-нибудь иначе?

А то я хоть и сделал ваш код более чем в 10 раз быстрее, но все равно, если статистику собирать, не очень быстро получается.
Да — 0505.txt один год 48 часов
0506.txt — другой год
days.dat — две недели альфа распад
Добрался я наконец до моей рабочей станции с двумя 5-ядерными X5650 и проверил ваши данные из обоих массивов на наличие «кросс-корреляций».

Но начну я с того, что ваш код, вычисляющий «расстояние» между сглаженными «гистограммами» (строки 182-204 из вашего кода) часто выдает разный результат в зависимости от порядка, в каком ему «выдаются» данные. Например, если рассмотреть 3-ю и 4-ю выборку (индексация, начиная с нуля) из файла 0505.txt, то:

distance between #3 and #4 = 7.98634661639
distance between #4 and #3 = 18.7975453121

Несимметричная мера, это очень серьезная ошибка, то есть теперь все ваши утверждения про наличие всяких циклов длиной в звездный день, год в процессе радиоктивного распада уже можно считать недоказанными. Исправляйте. Ну а я пока в своем анализе буду использовать полусумму (d(x,y)+d(y,x))/2.

А теперь я приведу результаты анализа, так сказать, кросс-корреляции двух временных рядов. Алгоритм был такой:

  • Из первого 48 часового массива отсчетов дектектора (0505.txt) были с использованием Вашего алгоритма получены 2880 «минутных» сглаженных «гистограмм» G1[i];
  • Из второго 48 часового массива отсчетов дектектора (0506.txt) были получены 2880 «минутных» сглаженных «гистограмм» G2[i];
  • Далее для диапазона временных сдвигов dt от -2880 мин до 2880 мин были получены выборки вида distance(G1[i], G2[i+dt) для максимально возможного диапазона индекса i (чтобы не вылететь за границы массив, т.е. от -2879 до 2879).
  • Для каждой такой выборки были посчитаны ее минимум, среднее, максимум и 5%, 50% и 95% квантили;
  • Для этих данных были построены графики их зависимостей от dt


Резюме: с использованием Вашего способа построения «сглаженных гистограмм» и Вашего же (симметризованного, см. выше) способа вычисления «расстояний» между этими «гистограммами» никаких статистически значимых признаков годовой цикличности не выявлено. Подробности — под спойлером.

Графики указанных зависимостей и их обсужение
Первый график — зависимость максимума выборки расстояний между гистограммами из разных годов в зависимости от сдвига времени dt (тут на самом деле, минимум, среднее и максимум — но смотрите только на красную кривую, увы, шкалы сильно различаются). Видно, что максимум максимален там, где размер выборки максимален. Ну и больше ничего…

Если поменять шкалу по оси Y, то становится видна зависимость среднего расстояния между гистограммами из разных годов в зависимости от того же сдвига dt (синий цвет). Опять — никаких следов годовой кросс-корреляции.

Если еще увеличить шкалу, то становится видна зависимость минимума между гистограммами. Выборки большие, нулей (идеально похожих гистограмм из разных годов) много, но они равномерно распределены по сдвигу. Может, там и есть ноль на упоминаемых автором обсуждаемой публикации ± 369 минутах, но это ничего не значит. Ну, и понятно, что и минимум по выборке, и максимум имеют статистически сильный разброс, т.е. я и не ожидал тут ничего интересного увидеть, но уж чего бы этот «лес» не показать.

И, наконец последний график — 5% квантиль (зеленый цвет) и медиана. И снова, кроме зависимости разброса от длины выборки, ничего нет. С моей точки зрения плоский график 5% квантиля — это самое сильное доказательство отсутствия периодичности. Т.е. если хотя бы 5% диаграмм из одного года были сильно похожи на гистограммы другого года на периоде, то график бы имел минимум. Но его нет.



И в заключение — Ваш код на гитхабе годовой периодичности процесса бета-распада на ваших же данных не показывает. Это может проверить любой квалифицированный программист, выдрав нужные куски из вашего кода, оптимизировав его (ну, зачем вы в цикле читаете данные из одного и того же файла?) и реализовав мою «внешнюю» обвязку, описанную выше.

Может быть, вас есть «правильный» код? Покажите его, пожалуйста. Или, хотя бы опубликуйте алгоритм, чтобы его можно было повторить. А иначе окажется, что Вы совсем зря здесь опубликовались…
Представьте себе Галилея, который скатывает шарики с наклонной плоскости. Какая-то часть его аппаратуры сделана из пластмассы (или что более аутенично, из янтаря) и в ходе экспериментов электризуется. На шарики действует дополнительная электростатическая сила. Кроме того сами шарики имеют разброс по массе и эта сила приводит к разбросу в действующем ускорении. Потом происходит искровой пробой, заряд пропадает и начинает накапливаться снова. Если Галилей проделает очень много опытов и построит общую гистограмму (по вертикали число опытов, по горизонтали время скатывания), то получит чистый гаусс. Причём измерения будут вполне успешны, он действительно получит закон движения по наклонной плоскости. Однако тайна электростатики в этой гистограмме будет потеряна. Если бы вместо одной гистограммы он построил бы множество, гистограммы получились бы серьёзно отличные от гаусса, однако их последовательность показала бы закономерности. Например последовательное изменение в ходе эксперимента(по мере электризации) времени скатывания, с возвращением к прежнему после пробоя. Можно ли в этой ситуации сказать, что в шумах скрывается важная информация? Относительно закона наклонной плоскости безусловно нет. Однако если посмотреть на эксперимент более широко, то да. Новое явление (электризацию) скрывают именно шумы. И анализ множества гистограмм показывает закономерности (накопление заряда и разряд) этого явления. А потому такие «несостоятельные» гистограммы, которые приводит автор статьи, вообще-то говоря имеют полное право на жизнь и представляют отдельный интерес.
Если Галилей проделает очень много опытов и построит общую гистограмму (по вертикали число опытов, по горизонтали время скатывания), то получит чистый гаусс.
Нет. Гаусс получается, когда «работает» центральная предельная теорема. А вашем гипотетическом эксперименте есть некоторый неслучайный (квази)периодический эффект, который вылавливается, например, спектральным анализом временного ряда.
Если бы вместо одной гистограммы он построил бы множество, гистограммы получились бы серьёзно отличные от гаусса
Именно. И друг от друга тоже отличные. Все правильно Вы говорите — нужно доказать, что распределения в разные периоды времени — разные. А вот автор обсуждаемой публикации ищет и пытается показать наличие сходства распределений с использованием весьма неестественной метрики, да еще такой, что иногда distance(x,y) != distance(y,x). Вот взял бы он критерий Колмогорова-Смирнова (максимальное различие между кумулятивными распределениями), спорить было бы сложнее. Фокус только в том, что на маленьких выборках большие значения критерия статистически не значимы… Та же фигня творится, кстати, и с точностью оценки/сравнения параметров распределений на малых выборках. Ну, Вы же должны понимать, что это фундаментальная проблема, т.е. как данные не обрабатывай, а точности не будет? Только хуже может стать.
А потому такие «несостоятельные» гистограммы, которые приводит автор статьи, вообще-то говоря имеют полное право на жизнь и представляют отдельный интерес.
Вы можете привести хотя бы еще один пример использования такого подхода? Корректного! Я еще раз повторю, что что для дискретных случайных процессов нельзя выбирать границы и число интервалов для построения гистограмм произвольно, как это сделал автор. А последующее 5-кратное сглаживание с использованием прямоугольного окна длиной 4? Эти параметры откуда взялись?

Ну еще про использование гистограмм, построенных из последовательных выборок, Автор использовал серии по 60 измерений. Ну я я сдублировал его файл и отрезал от дубля первые 30 секунд, А потом посмотрел на кросс-корреляцию минутных гистограмм из обоих файлов. Так-вот — пропала корреляция. Как будто сравнивались два совсем разных файла… И хватит на этом.
Честно говоря кода который всё это обрабатывает я подробно не смотрел. Очень неприятный стиль. Огромные и не очевидные функции без единого комментария. Если Вы уже в этом разбирались, Вам конечно виднее, спорить не буду. Я сам хочу сделать эксперименты о которых пишет Шноль в своей книге, и посмотреть что там получается. Вот раскидаю немного текущие дела и займусь. И я разумеется буду подробно объяснять каждое своё действие.
А как при измерениях определялось откуда пришла частица — от препарата или из космоса? Проводился ли параллельный мониторинг фона?
Если повышается вероятность распада в препарате, то должна повышаться и вероятность распада и в массивных процессах типа реакторов. Неужели никто этого не заметил?
Вероятность распада не повышается, меняется функция плотности вероятности. Это самое трудное что надо объяснять! Свободный пробег частицы — пара сантиметров. Из космоса прилетают частицы с другой энергией, а в случае альфа распада энергии постоянна, в отличии от бета-распада.
Неважно какой пробег у осколков деления препарата, важно что у космического фона пробег очень большой. Счётчик, насколько я понимаю лавинный, Гейгеровского типа, а он не отличает ни направления прихода, ни энергии.
Ок, плотность вероятности.
Но мы ведь говорим о «вероятности распада» очень условно, на самом деле у нас вероятность распада на вероятность ухода осколков именно в объём счётчика, которая есть чистейшая случайность. Получается звёзды знают о его положении тоже? )
В институте Планка измерили распад изотопа германия, там была похожая картина. Но например для урана не было выявлено аномалий. Объяснили вроде колебанием влажности.
А с чего бы ей не меняться, она красивая в белом пальто стоит только в бесконечном масштабе времени, на ограниченных отрезках, она горбатая-кривая и виновников тому тьма. (стабильность определения временных масштабов, порога детектора, и путей распространения сигнала, на которых куча элементов подверженных влиянию космической фигни вроде гравитации и всего такого, прочего, что конечно-же плавает во времени как говно в проруби, и при этом покачивается)
Только даёт ли это нам знание о запрещённых\разрешенных состояниях конкретно в нашем отрезке времени, и что мы можем практически с этим знанием сотворить…

… сам в своё время изучал фликершум и ИМХО тут вся беда в интерпретации результатов, требующей широкого физико-математического кругозора, причём и там и там с залётами в фундаменталку
Получется, что глобальная вероятность (сумма всех вероятностей состояний в системе) величина постоянная. И да, ещё на бирже можно играть, применяя эту зависимость.
Ну я примерно так и делаю, но с учётом множества не очевидных но важных деталей, без которых не полетит, и тем более без DTW, абсурдность которого как раз на примере распределения моментума, очевидно что абсолютное смещение и положение и размеры артефактов тут имеют практический смысл, но для DTW это не важно, ему важней количество горбов, знание о котором может быть и занятно с точки зрения детектирования космической хрени везде, но будет абсолютно бесполезным для торговли. Ибо само по себе прогнозирование распределений будущего (супер пупер нейросетью) никак не поможет прогнозировать исходы в настоящем.
Кому интересно, смотрите вариации кумулятивной дельты от RSI до кластерного анализа.
Цепляется взгляд за две вещи:

1. Главная — выборки малые. Закон больших чисел попросту ещё не работает.

Чтобы точно подтвердить, есть что-то или нет, надо измерения проводить, пожалуй, не ограниченными выборками (создание которых может задать вполне определённую периодичность — такую, какую захотим), а запустить непрерывное измерение на длительный срок. Если хотим изучить влияние в течение звёздного года — значит, на весь год. А лучше на несколько. И непрерывно регистрировать сигнал и копить гистограмму. А найти желаемые закономерности в измерениях на ограниченных отрезках можно запросто, т.к. до гауссовой кривой при этом нам совсем далеко.

2. Менее существенно, но в ряде измерений важно — фоновый шум.
Не приводятся записи фонового сигнала, не связанного непосредственно с исследуемым объектом. Где они? Параллельно с интересующим нас измерением нужно вести измерения фонового сигнала. И из разности с поправками на усиления выделять полезный сигнал.
1. Таков метод — мы строим распределение по несостоятельным гистограммам. При большей выборке получим распределение Гаусса. Я провел сравнение алгоритмом на данных двух дней в 2005 году и в 2006 году. От календарного года +0 до календарного кода + следующих суток {+1440 минут}. И минимальная дистанция среди всех оказалась на 369 минуте. {это звездный год 365 дней 369 минут}. То есть получил результат не стараясь его найти в данных.

2. Да фоновый шум тоже интересно исследовать. Но при альфа распаде плутония порядка 300 событий распада фиксируется в секунду. Мне кажется фон будет около 0. Я занимаюсь только алгоритмическим расчетов сходности кривых.
Навскидку по пунктам.

Первое-второе: ближе к солнцу мощнее поток нейтрино и других частиц — больше вероятность инициировать процессы, связанные со слабым взаимодействием (как раз бета-распад среди них), а также интенсивнее поток частиц, пробившихся всё-таки через атмосферу (а за пределами земной магнитосферы — и подавно) при особо тонких измерениях может сыграть.
Третье: здесь не радиоактивный распад, а перевод ядра в другое энергетическое состояние. Структура и состав его не изменяются при этом, а заголовок не слишком удачен. Электродинамика + методы математической физики — в волноводе возможный спектр фотонов дискретен, и подбирая геометрию волновода, можно оставить только подходящие для перевода ядра в возбуждённое состояние, убрав остальные.
Четвёртое: ну, с интересом наблюдаю за этой и подобными работами; возможно, сложности сидят в квантовой механике и особенностях измерений на квантовом уровне, возможно — в теории поля и внесении разными методами добавочных воздействий, что на тонком уровне приводит к изменению параметра; мало ли как там физический вакуум «закипает», образно говоря.
1-2 согласно Стандартной модели влияние пренебрежимо мало.
3. Химический состав материала(метаматериала) влияет на время распада.
4. Там много расхождений и время жизни нейтрона и гравитационная постоянная и размер ядра. Но это при слабых энергиях. При энергиях порядка 10МэВ-10ГэВ расхождений нет.
Про 3 — конкретно в этой работе химический состав определяет свойства волновода; ещё раз повторюсь, что в ней речь не о радиоактивном распаде, когда из ядра вылетает альфа-частица или нейтрон превращается в протон. Речь здесь только о том, что мы закачиваем в ядро энергию, а оно через некоторое время её сбрасывает. И в подходящих условиях вероятность этого процесса можно повысить.
Измерьте флуктуацию погрешности измерения координаты неподвижного GPS приемника…
Я смотрел рассказ Шноля («Лики времён» у Гордона) про это явление, и видео меня впечатлило. Шноль не похож на мошенника, ведь он посвятил этим исследованиям много лет. Думаю, нужны дополнительные независимые проверки и исследования. Ведь если эффект будет доказан, это открывает перед физиками новое направление для исследований, и очень заманчивое.
Вставлю четыре копейки.
1. «Шноль не похож на мошенника». Настоящие мошенники никогда не похожи на мошенников. Посмотрите выступления В. Петрика. Прям хочется ему верить… )))
2. Бывают просто увлекающиеся люди. У нас есть внутренняя конференция, на которой есть раздел «Related problems». Ну и там народ с полпинка объясняет всё — от темной материи до шаровых молний. Причем иногда используют весьма крутую математику для явно завиральных идей.
3. Любые циклические процессы космических масштабов должны хотя бы опосредованно влиять на всё.
4. Неустойчивости и бифуркации могут приводить к очень странным на первый взгляд явлениям.
Читал книгу Шноля, там у него встречается, примерно по смыслу, что моя задача было собрать данные, на интерпретацию не претендую
А кто-нибудь пробовал работать с данными, выложенными CERN в открытый доступ? Вдруг там тоже частота рождения бозонов Хиггса плавает с периодом в год. Не говоря уже о других, более частых процессах — на них статистика богаче и проверить легче. Но почему-то ни в одной статье речи о таких эффектах не было.

В любом случае, уверен, что заявленные автором «флуктуации пространства времени, обусловленные неоднородностью гравитационных полей», ежели они и возникают (можно попробовать задачу двух тел в ОТО промоделировать и посмотреть, какие искажения в системе Солнце-Земля), эффекта значимого во все изучаемые процессы внести не могут. Энергия у них великовата, пожалуй. Поскольку любые эффекты в ОТО определяются параметром 8*pi*G / c^4 ~ 10^(-45) (это в СИ,) то они и работают лишь на гигантских масштабах.

Кроме того, совершенно неясно откуда может взяться статическая(!) неоднородность в пространстве-времени, которая приводит к указанному периоду в один звёздный год.

Кстати, в журнале УФН, помимо статей Шноля, была и попытка дискуссии с ним, смягченная и заглаженная редакцией: ufn.ru/ru/articles/2000/2/m

В 2015 г. в том же УФН была опубликована работа по поводу фликкер-шума, показывающая его неприятные особенности, проявляющиеся в процессе статистической обработки массивов данных: ufn.ru/ru/articles/2015/7/d

При всём уважении к работам Шноля по реакциям Белоусова-Жаботинского, в этом направлении имеют место проблемы с неверной обработкой и трактовкой результатов.

В самом УФН же имеют место и другие спорные работы. Например, не так давно там появлялись публикации по холодному термоядерному синтезу, связанному с сонолюминесценцией (работы Талейархана, которого в Штатах признали фальсификатором результатов экспериментов). Потому, увы, аппелировать к признанию чего-либо академической наукой, опираясь только на факты публикации в передовых журналах, не стоит.
Бозон Хиггса рождается слишком редко для этого.

Фразы про флуктуации пространства времени обнаруживаемые в домашних экспериментах я просто пропускаю.

Может, о порядке величины умолчу, но если есть градиент замедления времени, то это будет влиять на время жизни частицы. Насколько помню это даже проверили экспериментально для частиц на разной высоте.
Градиент формируется гравитацией солнца и неравномерностью вращения земли вокруг солнца (расстояние меняется на 3% 147,098,291км/152098233км)
Кроме того солнечные нейтрино и какие нить экзотические аксионы.

Я на 90% процентов уверен, что тут плохая постановка эксперимента или обработка или не учет фактора. возможно даже на 99%.

Бозоны Хиггса не очень часто, но уже достаточно для накопления подходящей статистики. Другие события — тем более.


Замедление времени под влиянием массы Солнца вблизи Земли по относительной величине
dt = GM/(R c^2) ~ 10^(-8)


Годичное изменение расстояния даёт поправки к dt порядка 10^(-10).


Слишком ничтожный эффект.

на БАК большие абсолютные погрешности, слишком много факторов, но маленькие относительные, так что тут ускоритель не поможет. Хороших кандидатов в бозоны вроде меньше 100?

Я не про замедление времени, про градиент замедления времени. Он приводит к декогеренции состояния изменяя скорость распада. Само замедление времени тут не играет роли.

Написанные выше 10^(-10) — это максимальная вариация dt за год. Градиент ещё на 10 порядков меньше, т.к. определяется здесь длиной земной орбиты.


Наконец, как прибор, находясь в одной системе отсчёта с процессом, может вдруг увидеть разницу? Что за такая абсолютная с.о. определяет плотности вероятности.

1. В квантовой механике в отличии от классической участвуют не только градиенты потенциалов, но и потенциалы.
2. Гравитация способна вызывать декогеренцию больших квантовых систем
Я-таки не понял, почему не учтены в рассчетах торсионные поля и не рассмотрено влияние памяти воды?
В роликах первая ссылка битая, а Гордон долбоящер.
Статья и комментарии вкратце:
ххх: наша гомеопатия великолепно работает!
ууу: а вы провели двойное слепое тестирование?
ххх: оно работает только на двойных слепых мышах, а наша гомеопатия работает на всех!
>>Два одинаковых препарата 14C измерены 250 раз 28 декабря 1980 года Вадимом Ивановичем Брусковым

Может быть в этом и есть весь секрет. Люди очень любят обманывать себя, или даже мухлевать, во все времена любили, проводить эксперименты и показывать из них, что был какой-то результат. Не хочу никого обидеть, но в советском союзе это часто было на уровне институтов и научных работ, которые с тех пор никто и не проверял, например амизоны и прочие, да, часть из них, вероятно, что-то действительно лечит, но очень часто и эффект незаметен и проверялся на 3-х человеках, и в западной медицине никакого места не имеет и не относится даже к лекарственным средствам, так что даже FDA ими не интересуется

"Время ожидания разряда в RC генераторе на неоновой лампе"


Пожалуй, тот случай, когда каждый может дома… сам...

Какой-то поток сознания...

Уважаемый blue_limon, скажите, а Вы сами не пробовали ставить эксперименты и получать данные? Если будете возиться с химией, соседи подумают что варите наркоту. Если напишете объявление что мол куплю для экспериментов немного плутония, заинтересуются люди в черном. А вот такие вещи как
Время ожидания разряда в RC генераторе на неоновой лампе
и
Шумы в диодах Зенера и других полупроводниковых генераторах шума
выглядят вполне приемлемыми для домашней лаборатории. Особенно первое, поскольку там во-первых сигнал чисто временной (длительность импульсов генератора), во-вторых довольно высокая частота (сотни и тысячи герц), что позволяет рисовать гистограмму каждую секунду, а возможно даже чаще, в третьих в отличии от шумов в полупроводниках, довольно понятная (во всяком случае на пальцах) физика, в четвертых очень дешевые компоненты (неоновые лампы стоят в чипе и дипе от 7 до 40 рублей). В течении 50 лет измерять конечно довольно напряженно, да и в течении года пожалуй тоже. Но в течении недели, почему бы и нет? Суточный ритм оно покажет. К тому же как я понял, если сделать несколько датчиков, гистограммы каждого из них измеренные в одно и то же время должны быть похожи. Не хотите заняться этим? Я например хочу. Сейчас только текущие дела немного раскидаю и попытаюсь это сделать. Кстати может получиться шикарная публикация на хабре.
Проводить эксперименты связанные с атомными и прочими квантовыми эффектами «в домашних условиях» — ну, это такое…
Чудовищные неточности не покроют даже десятилетия наблюдений. А если бы описанные эффекты имели большее влияние, их бы уже давно заметили.
Абсолютно согласен. Поэтому самое безопасное это сидеть на попе ровно и рассуждать о том что аффтар идиот, дебил и вообще нехороший человек редиска. Тут уж точно и ошибок не наловишь и даже о схемах экспериментов думать не придется. А описанные эффекты никто никогда и не искал. От них просто теми или иными способами избавлялись, как от шумов. Очень рекомендую, скачайте книгу Шноля и почитайте. Я только начал и пишет он об этом вобщем-то с самого начала.
Может вы не поняли, поэтому поясню что я имел ввиду. Если описанные эффекты настолько «тонкие», что их влиянием на остальные процессы можно пренебречь, читай — их не замечают, то «эксперименты в гараже» их точно не обнаружат, тут нужно высокоточное оборудование. Если же их можно обнаружить на «кустарном» оборудовании, то их влияние таково что его бы уже давно заметили поскольку оно бы вносило заметные искажения, и результаты экспериментов шли бы в разрез с теорией.
Вы всё-таки почитайте книжку самого Шноля. Тут вверху статьи на неё ссылка. Я только начал читать и из прочитанного понял, что эффекты совсем не тонкие. Просто ими всегда, начиная от Ньютона и Галилея, пренебрегают. В измерениях учитывается только матожидание и дисперсия. Всё. Тонкие детали функции распределения результатов измерений всегда опускаются. Шноль же обращает внимание именно на них. Насколько я знаю, он первый. До него это просто никому не было интересно. Кстати Шноль вполне серьёзный ученый. Вот гляньте новый (относительно конечно) ролик Хазина www.youtube.com/watch?v=9aUDN9Tu59s. Он там и Шноля мельком упоминает. Оказывается дядька в своё время едва не получил Нобелевку.
P.S. Что касается сугубой «тонкости» этих эффектов, только что «придумалась» хорошая аналогия. Как известно первый кто отважился рассматривать квадратные корни из отрицательных чисел был Кардано где-то 1540-х годах. Уравнения от первой до четвертой степени люди решали и до него, начиная со времён древнего Египта. То что вся эта деятельность имела тесную связь с основной теоремой алгебры и неизбежно вела к комплексным числам, никому не приходило в голову. Т.е. то же самое. «Эффекты» были, но они никому не были интересны. Ибо все обходились без них. Можно вспомнить и историю с лампочками Эдисона, когда электронный ток в вакууме открыли лет на 20 позже чем следовало, а так же много других интересных историй. Всех их объединяет одно. Эффекты лежали на поверхности. Но никому не были нужны и интересны. Так что утверждение, что новая физика лежит за шестым знаком после запятой, мягко говоря не совсем верно.
Кстати, электронного тока в ГЛУБОКОМ вакууме нет. Все радиолампы работают только при определенном остаточном давлении. Лучше всех откачиваются электрометрические лампы, но ток анода там уже никакой. Если еще откачать то тока анода не будет. Эффект первой величины, известен с незапамятных времен, нигде не описан и не упоминается, наоборот, пишут что чем лучше вакуум тем лучше радиолампы.
Так что вперед, делать новую физику.
Вот это немного странно. Я читал книжку об истории ламповой техники с 19-го века до наших дней (кстати об истории с лампами Эдисона я прочел именно там), но там речь шла о другом. О крутизне сеточной характеристики (параметр усиления лампы, грубый аналог — h21e для транзистора). При хорошем вакууме она получалась никакой и поэтому лампы выпущенные в начале 20-го века специально откачивали не слишком хорошо. Но потом научились располагать первую сетку очень близко к катоду и крутизна стала получаться приличной при любом вакууме. Более того, в современные лампы (с 40-х годов) обязательно вводят вещества типа натрия, поглощающие остаточные газы. Если найдёте лампу, можете убедиться, что в каком-то месте (чаще ближе к верху) на баллоне есть зеркальный налёт. Это оно и есть.
Кроме того если так, становится непонятным, как работают ускорители. Вакуум там просто ОБЯЗАН быть очень хорошим. Ибо частицы проходят огромный путь. А магнитная фокусировка при приличных энергиях и разумных токах магнитов, налагает достаточно жесткие требования на расходимость. Будь там не слишком хороший вакуум, частицы бы претерпевали множество столкновений с молекулами остаточных газов и до конца пути ускорения не доходило бы почти ничего.
Но потом научились располагать первую сетку очень близко к катоду и крутизна стала получаться приличной при любом вакууме.
Проверял и эту байку используя лампу в которой сетка на расстоянии 35 микрон от катода. Все как у всех, откачали и ток исчезает. Нувисторы глубоко откачанные используются на микротоках как малошумящие. У меня на таком есть один прибор на основе новой физики ибо на основе традиционной его быть не может.

Более того, в современные лампы (с 40-х годов) обязательно вводят вещества типа натрия, поглощающие остаточные газы.

Называется это геттер Для поглощения кислорода и азота, а наполняют обычно аргоном. Сам геттер может быть самым различным, есть и на основе тория (радиоактивен).
Хм… Очень и очень странно. Это единственное что я могу тут сказать. Увы, сам проверить этого не могу. Вообще мужчины разделяются на две категории — имеющие великолепно оборудованную мастерскую-лабораторию и мечтающие о таковой. Не имеющие и не мечтающие мужчинами не являются. Я увы отношусь ко второй категории. Единственно что заставляет несколько сомневаться в Ваших словах это вот что.
Лампа (сделанная нормально) это штуковина очень и очень высокочастотная. Я например прекрасно помню времена, когда транзисторы для УКВ отсутствовали как класс, и вся любительская техника на эти диапазоны была ламповой. Если верить Вам, что свойства ламп существенно зависят от остаточного газа, становится непонятным, почему они работают на таких частотах. Ударная ионизация и рекомбинация (особенно второе !) процессы достаточно инерционные. Например RC-генератор на неоновой лампе не работает на частотах выше нескольких килогерц (ещё в институте на эту тему лаба была !). Выше просто не позволяют процессы ионизации и рекомбинации в лампе. Понятно что в электронных лампах давление существенно ниже чем в неоновых. Но всё равно процессы в газе должны не позволять им работать на сотнях мегагерц. А на практике они в этой области прекрасно работают.
транзисторы для УКВ отсутствовали как класс, и вся любительская техника на эти диапазоны была ламповой

Для УКВ использовались специальные лампы, основной особенностью которых являлось малое время пролета от катода до анода. Это достигалось как раз за счет уменьшения межэлектродных расстояний до минимально возможных.
А вы читали про сетку, где были раскиданы по разным континентам генераторы шума, как раз таки на стабилитронах и показывали временами корреляцию в зависимости от крупных социальных в основном событий. Когда то даже фоточек накачал начинки и куски схем с форумов, где это обсуждалось. Т.к. сами они приборчик продают слишком дорого. Сейчас проект не гуглится, зато генераторы все также продаются, но значительно дороже :) (С чего это?:)))) Cобирать не стал, т.к. считаю, что метрология очень сложная и серьёзная тема плюс минимальные знания по радиоэлектроники подсказывают, что по любому где нибудь налажаю:(
Кстати да. Вспоминаю, читал об этом в конце 90-х начале 2000-х. Думаю будь на дворе другая эпоха, не столь пошло завязанная на бизнес и выгоду, эти опыты продолжались бы и сейчас. Увы, люди сейчас бросают то что не сулит какого-то немедленного профита. Но заниматься тем не менее этим кто-то должен. Иначе встанем на четвереньки и обрастём шерстью.
Время ожидания разряда в RC генераторе на неоновой лампе

Как калибровка обработки, выделение зависимости от атмосферного давления, дальше учет
влияния атмосферного давления и попытка найти иные фифекты, иных пока не выявлено,
за исключением колебания интенсивности естестественно рад. фона.
Всё уже украдено до нас.
Шумы в диодах Зенера и других полупроводниковых генераторах шума

Тож самое что и для неоновой лампочки, ибо суть одна и та же. Пробой в конденсаторе.

Зачем ??? Меня интересует поймать во-первых эффект ближней зоны во-вторых суточную корреляцию, в третьих корреляцию на параллельных датчиках. Если я это увижу, можно будет думать о чём-то более серьёзном. А это увидеть можно и на достаточно простом оборудовании.

В конденсаторе? Нет, пробоя диэлектрика конденсатора в релаксационном генераторе не происходит. Пробой происходит в нелинейном элементе, которым и является неоновая лампа, динистор, разрядник, и т.п.
Конечно, можно сделать и такой релаксационный генератор, где пробой происходит именно в конденсаторе. Но это смотря в каком. В бумажном, например, от этого "коза" возникнет. Металлобумажный самовосстановится за счёт испарения металлического напыления вокруг места пробоя — релаксационный генератор продолжит работать, пока не будет израсходовано всё напыление. Ну а конденсатор с воздушным диэлектриком, пожалуй, в таком релаксационном генераторе в этом режиме будет работать нормально и долго.

В неоновой лампочке происходит пробой между двух электродов (конденсатор),
тож, самое но не в таком явном виде у диодах Зенера, где приложено обратное напряжение, диод закрыт, есть емкость (как у варикапа) и она пробивается.

Если учитывать собственную ёмкость нелинейного элемента — да. Но без внешнего конденсатора (того, который не пробивается) частота будет очень большой, а главное — нерегулируемой, меняющейся в зависимости от экземпляра нелинейного элемента. А с внешним — частоту можно делать ту, которую нужно.

Несмотря на то, что меня сейчас заминусуют, скажу: чтобы понять смысл, пришлось перечитывать 3 раза, чуть мозг не сломал. Сначала вообще подумал, что статью писал какой-нибудь автоматический генератор научных текстов :) Совет автору: если захотите где-нибудь опубликовать статью, обязательно нужна редакторская правка! А теперь по сути: для того, чтобы исследование было корректным, необходимо обосновать размеры выборок, метод сглаживания и т.д. Пока это больше похоже на решение, подгоняемое под желаемый результат. Утрируя, можно предложить алгоритм сглаживания, который будет выдавать одно и то же распределение Гаусса :)
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации