Но у него, насколько я понял, пока только проверка полных подстрок, а таких вот пересечений нет. И я, к сожалению, даже не знаю, есть ли линейные алгоритмы для таких сравнений (a la алгоритм Кнута-Морриса-Пратта).
По сравнению со сигмоидальной функцией, гиперболический тангенс имеет более пологую кривую, что позволяет сети лучше распознавать сложные зависимости в данных
Они полностью взаимозаменяемы, т.к. th(x)=2σ(2x)-1, т.е. разница будет только в значениях весов (включая bias). Разницы в скорости вычисления градиента тоже нет: σ(1-σ) в одном случае и th2(x)-1 в другом.
Была свободная минутка, решил размять мозги и проверил выкладки: математически в используемом приближении b≪1 всё верно (у меня, правда, при члене db/dt получился множитель 2, но перепроверять не буду). Но это никоим образом не снимает все остальные "физические" претензии.
Вывод: ifort гораздо лучше справляется с распараллеливанием, но ifx может давать лучший результат для последовательного кода (но скорее всего это в пределах погрешности).
А если сравнить "классический" ifort (сейчас он называется "Intel Fortran Compiler Classic") с новым ifx (теперь именно он называется "Intel Fortran Compiler")?
А где статья с "критикой критики"? Я пока вижу, что с 2016 года на столь фундаментальную работу практически нет цитирований (самоцитирования не в счет) и при этом вижу аргументированную критику, как минимум:
На масштабах однородности Вселенной сколько энергии ушло из одной "ячейки", столько же пришло из соседних, поэтому переменной массе просто неоткуда возникнуть.
В статье 2018 года авторы высказывают предположение, что переменная масса берется от сливающихся черных дыр на границе видимой части вселенной, при этом все такие слияния происходят регулярно в одной точке, а масса черных дыр составляет около 5-10% от массы видимой части Вселенной. Как при этом обеспечивается однородность наблюдаемой части Вселенной авторы, понятное дело, умалчивают.
Там же авторы берут метрику для центрально-симметричной конфигурации, которая зависит от двух функций a(t,r) и b(t,r), после чего в дальнейших выкладках для a(t,r) полностью пренебрегают зависимостью от r, а для b(t,r) учитывают все производные (вплоть до лапласиана, который потом называют "космологической функцией"). И, кстати, там же должны были еще возникнуть члены, пропорциональные градиенту и квадрату градиента b(t,r), и я не очень верю, что они там полностью компенсировались. В любом случае, можно выбрать любую функциональную зависимость для метрики и получить "любой" результат, осталось только обосновать физику этой метрики, что в их случае очень и очень притянуто за уши.
Если кто-то думает, что эти черные дыры можно равномерно распределить по границе Вселенной и получить тот же результат, то придется огорчить: они должны быть именно в одной точке, иначе b(t,r) будет стремиться к локально плоской и, как следствие, в рамках этой же модели будет Λ=0.
Поскольку в эту плотность энергии входит кроме барионной, тёмной материи, излучения ещё и антигравитационная тёмная энергия, то в расширяющейся Вселенной эта плотность растёт.
Почему? Там же вклады от вещества/излучения падают, а плотность темной энергии постоянна.
В моделировании — да, может (ничто не мешает задать размер Вселенной заведомо превышающий текущий горизонт событий). Но только наблюдатель об этом скорее всего не узнает, потому что в экспоненциально расширяющейся Вселенной информация об этом событии до него просто не дойдет.
В теории относительности принято пользоваться геометрическими единицами, в которых скорость света в вакууме равна 1.
А Сергей Попов, наверное, рассказывал про сопутствующие координаты, которые более удобны при моделировании Вселенной, и там действительно возникает понятие "сопутствующая скорость света", но это не имеет отношения к реальной скорости света в вакууме, которая все-равно равна 1, и уж точно не является чем-то "мутным", поэтому что сопутствующая скорость света по определению представляет собой просто величину 1/a, где a — масштабный фактор в соответствующий момент времени.
Ускоренное расширение наблюдается вплоть до z~0.5 (если я не ошибаюсь), а на таких масштабах Вселенную уже можно считать относительно однородной. Более того, однородность подтверждена вплоть до еще больших красных смещений, что не согласуется с наличием локальных пузырей такого большого масштаба.
Теория осциллирующей Вселенной не согласуется с ускоренным расширением Вселенной и сейчас представляет скорее педагогический интерес как одно из решений уравнений Фридмана для случая положительной кривизны без лямбда-члена.
Мне кажется, пример из ядра Linux логично смотрелся бы в таком виде:
static int mmp2_audio_clk_probe(struct platform_device *pdev)
{
// ...
pm_runtime_enable(&pdev->dev);
ret = pm_clk_create(&pdev->dev);
if (!ret) {
ret = pm_clk_add(&pdev->dev, "audio");
if (!ret) {
ret = register_clocks(priv, &pdev->dev);
if (!ret) {
return 0;
}
}
pm_clk_destroy(&pdev->dev);
}
pm_runtime_disable(&pdev->dev);
return ret; // в оригинале явно возвращался 0
}
И кода меньше, и дублирования нет, и меньше вероятность допустить ошибку. Или я где-то ошибся?
Но у него, насколько я понял, пока только проверка полных подстрок, а таких вот пересечений нет. И я, к сожалению, даже не знаю, есть ли линейные алгоритмы для таких сравнений (a la алгоритм Кнута-Морриса-Пратта).
А если в одном месте строка
"Say Hello", а в другом"Hello world", то можно их аналогично объединить в единую"Say Hello world"?-
Да Вы же так любой полином к конечным разностям сведёте… :-)
Они полностью взаимозаменяемы, т.к. th(x)=2σ(2x)-1, т.е. разница будет только в значениях весов (включая bias). Разницы в скорости вычисления градиента тоже нет: σ(1-σ) в одном случае и th2(x)-1 в другом.
Была свободная минутка, решил размять мозги и проверил выкладки: математически в используемом приближении b≪1 всё верно (у меня, правда, при члене db/dt получился множитель 2, но перепроверять не буду). Но это никоим образом не снимает все остальные "физические" претензии.
Насколько я знаю, это в основе scipy лежат биндинги к фортрановскому коду, и никто там пока ничего менять не планирует.
Windows (кстати, если кто будет повторять: размер стека задается при компиляции ключом /F).
Проверил на ноутбуке i5-5200U@2.20GHz (приведен лучший из трех последовательных запусков):
Вывод: ifort гораздо лучше справляется с распараллеливанием, но ifx может давать лучший результат для последовательного кода (но скорее всего это в пределах погрешности).
А если сравнить "классический" ifort (сейчас он называется "Intel Fortran Compiler Classic") с новым ifx (теперь именно он называется "Intel Fortran Compiler")?
Считается, что плотность темной энергии постоянна, но связанная с ней полная энергия растет по мере расширения Вселенной.
А где статья с "критикой критики"? Я пока вижу, что с 2016 года на столь фундаментальную работу практически нет цитирований (самоцитирования не в счет) и при этом вижу аргументированную критику, как минимум:
Почему? Там же вклады от вещества/излучения падают, а плотность темной энергии постоянна.
Насколько я знаю, в сообществе астрофизиков отношение к его работе достаточно скептическое, например см. https://arxiv.org/pdf/1608.02882.pdf
В моделировании — да, может (ничто не мешает задать размер Вселенной заведомо превышающий текущий горизонт событий). Но только наблюдатель об этом скорее всего не узнает, потому что в экспоненциально расширяющейся Вселенной информация об этом событии до него просто не дойдет.
Такие моделирования проводятся в приближении модели Фридмана (т.е. глобального времени и масштабного фактора).
В теории относительности принято пользоваться геометрическими единицами, в которых скорость света в вакууме равна 1.
А Сергей Попов, наверное, рассказывал про сопутствующие координаты, которые более удобны при моделировании Вселенной, и там действительно возникает понятие "сопутствующая скорость света", но это не имеет отношения к реальной скорости света в вакууме, которая все-равно равна 1, и уж точно не является чем-то "мутным", поэтому что сопутствующая скорость света по определению представляет собой просто величину 1/a, где a — масштабный фактор в соответствующий момент времени.
Ускоренное расширение наблюдается вплоть до z~0.5 (если я не ошибаюсь), а на таких масштабах Вселенную уже можно считать относительно однородной. Более того, однородность подтверждена вплоть до еще больших красных смещений, что не согласуется с наличием локальных пузырей такого большого масштаба.
Теория осциллирующей Вселенной не согласуется с ускоренным расширением Вселенной и сейчас представляет скорее педагогический интерес как одно из решений уравнений Фридмана для случая положительной кривизны без лямбда-члена.
Мне кажется, пример из ядра Linux логично смотрелся бы в таком виде:
И кода меньше, и дублирования нет, и меньше вероятность допустить ошибку. Или я где-то ошибся?