Если посмотреть на самый простой случай — построение линейной регрессии Ах+В по массиву N точек х, у (т.е. одного уравнения), то легко получить оценку того, насколько близко расположены точки данных от линии регрессии. Будет зависимость от 1/(N-2)1/2. Подробнее см. в моей статье про корреляцию и регрессию (самый конец — последние три графика — как раз про такую оценку).
Какой-то очень суровый тест — неужели для решений диф.уравнений он используется?
Совпадение до 3-го знака (считал решение в середине стержня). Три расчета: для пространственной сетки в 100 и 200 точек (для 200 взял предыдущее и удвоенное число узлов по времени):
Решал задачу при помощи Монте-Карло, примерно в тех же условиях (автомат выбрасывает с конвейера конфеты, отличающиеся по весу на d от 25.8). Результат, очевидно, зависит от дисперсии конфеты. При весе 25.8±3 г получается d~2.0, а при весе конфеты 25.8±1.5 г получается d~2.2.
Т.е., чем ровнее отдельные конфеты, тем меньше их нужно выкидывать.
Спасибо за статью!
Я — единомышленник, да. И в области альтернативного образования, и в организации обучения (нашел для себя много полезного в Вашей методике). Я из Москвы, у меня похожий проект по школьной (с 5 класса) и ВУЗовской математике и блог на Хабре (но обучать за деньги пока не решаюсь). Было бы интересно пообщаться.
Да, скользящие медианы хорошо убирают выбросы. Смысл очень простой — по окну берется не среднее, а медианное значение. Например:
А по 5 точкам:
(это расчеты данных ионосферной станции с орбитального комплекса «Мир»)
Ну, собственно на видеолекции Воронцова в ШАД и я дал ссылку. Еще я бы отметил книжки Trevor Hastie+Robert Tibshirani+ по Statistical Learning и видеокурс NG на Курсере.
Похоже, но сам до конца не разобрался. (если я правильно понимаю терминологию, то сглаживание включает регрессию параметрическую и непараметрическую — типа скользящего среднего, медиан и т.д.). Конечно, планирую писать про разные методы «непараметрической регрессии».
…
Собственно, для того и затевался цикл статей про машинное обучение — самому разбираться на простых примерах, делясь и обсуждая с сообществом. Существующие лекции, конечно, хороши (например, русские лекции ШАД), но (для меня) как-то не очень понятны.
А я Вам в ответ расскажу быль. Мой русский коллега читал лекции по физике студентам в одной североамериканской стране. И вот, в середине лекции ему понадобилось то ли умножить, то ли разделить два числа, и он сделал это на краю доски в столбик. Это была сенсация! Студенты тут же восхищенно стали спрашивать «Маэстро, что вы сделали там, на краю доски?» и сначала не верили, что это возможно. Остаток лекции был посвящен столбику.
Еще небезынтересно рассмотреть случай АВ=0. В принципе, условия задачи явно этого не запрещают (старушки жили рядом, вышли с рассветом, посидели на лавочке и разошлись — одна в 16, другая в 21).
Когда был рассвет в этом случае?
Совпадение до 3-го знака (считал решение в середине стержня). Три расчета: для пространственной сетки в 100 и 200 точек (для 200 взял предыдущее и удвоенное число узлов по времени):
Про артефакты, маскировку частот.
Про конечность выборки.
Про фильтры и окна.
Маткадовские примеры (старый Mathcad).
Т.е., чем ровнее отдельные конфеты, тем меньше их нужно выкидывать.
PS. Пока ни с кого не взял ни копейки.
Я — единомышленник, да. И в области альтернативного образования, и в организации обучения (нашел для себя много полезного в Вашей методике). Я из Москвы, у меня похожий проект по школьной (с 5 класса) и ВУЗовской математике и блог на Хабре (но обучать за деньги пока не решаюсь). Было бы интересно пообщаться.
А по 5 точкам:
(это расчеты данных ионосферной станции с орбитального комплекса «Мир»)
…
Собственно, для того и затевался цикл статей про машинное обучение — самому разбираться на простых примерах, делясь и обсуждая с сообществом. Существующие лекции, конечно, хороши (например, русские лекции ШАД), но (для меня) как-то не очень понятны.
В мире много странных мест,
А присмотришься сурово:
В мире странном все не ново:
Труд с восхода дотемна.
Да ошибок пелена.
Когда был рассвет в этом случае?