Pull to refresh
0
0
Send message
Называется действительно Integrated. Он как раз и получается если взять стационарный ряд и попробовать сложить значения. У вас же наоборот, вам ряд надо получить стационарный, т.е. не интегрировать его надо, а рассматривать разности, т.е. дифференцировать.
Это вот к этой фразе комментарий
Даже если проинтегрировать, не факт, что получится стационарный процесс.
Вы издеваетесь что-ли, доказывать элементарное свойство для высоты через теорему Пифагора.
Надо просто использовать подобие треугольников. Или, что тоже самое, посчитать тангенс равных углов — тангенс угла левого в большом треугольнике = h/a. Тангенс равного угла в меньшем треугольнике b/h. Углы равны, а значит и их тангенсы. h/a = b/h => ab= h^2

Чтобы предсказывать с помощью arima можно попробовать не интегрировать, а дифференцировать. Может в статье описка, но на всякий случай, как говорится.

Пока не обещаю насчёт реализации) Вот какая мысль ещё возникла. Можно ведь организовать свертку с равномерным ядром. Эта свертка прямо нативная операция на GPU и библиотеках машинного обучения. Я имею ввиду, что надо исходное изображение свернуть с ядром размера 3*3 состоящего из единиц кроме центра который 0. И никаких 8 матриц делать не надо. Эта свертка уже оптимизирована и производится в разных алгоритмах машинного зрения. Так называемый conv слой.

Эти матрицы получаются урезанием и добавлением всего либо одного столбца либо одной строчки либо того и другого. Если поместилась в памяти одна такая матрица, то если ещё 8 поместятся вроде не должно быть проблемой с точки зрения сложности. Копирование целого массива и добавление пустых строк и столбцов. Будут размеры в 10 раз меньше условно у поля, но оно такое же громадное. Для некоторых направлений, допустим для определения соседа снизу, надо только матрицу сдвинуть вниз, в Си например, я так понимаю, можно теже ячейки памяти использовать, только указатель начала массива переместить на размер первой строки. Ну добавить ещё в конце нули в матрице. Для других направлений сложнее. Но в целом это можно обобщить. Есть матрица с padding, пустыми краями, и мы сдвигаем центр матрицы по 8 направлениям. Как потом суммировать такие матрицы. Это прям вопрос из машинного обучения. Там же есть операция свертки с ядром. Здесь просто ядро громадное.

Честно говоря, не очень понятно почему здесь такая сложность в алгоритме.
Проблема в расчете количества соседей я так понимаю. А почему просто нельзя так сделать — представить матрицу как 0 и 1. Далее чтобы подсчитать есть ли сосед справа для каждой точки, просто сместим матрицу влево. Аналогично для всех остальных направлений. Получаем 8 матриц — сдвинутая исходная матрица во всевозможных направлениях. Далее суммируем все эти матрицы и смотрим что получается. В зависимости от значения в каждой клетке получаем расклад в следующий момент. Вроде все матричные операции быстро выполняются на GPU.
Ешьте реже. (Eat less often.)
Перевод неверный. Правильный перевод, по-моему, такой-
чаще ешьте помалу
Опять силиконовая. Уж на профильном сайте и раз за разом этот силикон проскакивает. Уж прям чекер ставить надо. Ликбез для тех кто еще не знает-
silicon — кремний
silicone — силикон.
Silicon Valley — кремниевая долина.

Ждёмс продолжения. Интересно по какому алгоритму ставятся веса связи и в симметричной связи и в не симметричной.

Нефига не понятно, но очень интересно!
Спасибо за статью! Немного напоминает творения Борисова потрошителя, но все равно здорово. Ждём продолжения!

Information

Rating
Does not participate
Registered
Activity