Как стать автором
Обновить
4
0

Пользователь

Отправить сообщение

У вас не получается потусить на удалёнке, а я понятия не имею, как можно где-то развлекаться, проторчав на работе 9 часов + час на дорогу. Придти, приготовить, поесть, 3 часа на фильм/игру/самообразование и уже 11 ночи. Завтра вставать в 6.

Вы правы, МНК не ограничен линейными приближениями. Я акцентировал внимание на том случае, где знаю, как его применить. Кажется, я нигде не указывал, что МНК только для линейной модели.

Почему вы говорите, что я не показал откуда берется МНК, если я по шагам показываю, как коэффициенты вырисовываются из исходных данных?

По пунктам:

  1. Цель, обозначенная в задании не может быть достигнута, так как МНК это уже метод нахождения коэффициентов и он не может быть достигнут через спуск: это два разных способа получения одних и тех же коэффициентов. Мне кажется, из моего текста очевидно, что одно нельзя получить из другого, тем более если вы знаете про линейную регрессию и даже преподаёте.

  2. Я пишу, что ЛР это сведение зависимости к линейному уравнению, в котором ответ зависит от входных данных, умноженных на коэффициенты + свободный. Это не так? Я только что полистал источники на русском и английском - есть некоторые вариации формулы (f(x) бывает вместо Y, и иногда добавляют слагаемое шума), но это та же формула. Скопируйте пожалуйста ту формулу, которая смотрелась бы лучше

  3. В разделе ВАЖНО я объясняю, что свободный коэффициент появляется если уравнений в системе больше чем переменных на 1.Объясняю, почему. Зачем мне здесь что-то решать, неочевидно. Рассуждение про предсказательную способность, чтобы пояснить сочетание слов "идеальный коэффициенты". Они идеальны только для исходной СЛАУ и более ни для чего другого.

  4. Согласен. Исправлю.

  5. Я делал статью для начинающего, вроде себя самого за неделю до написания текста, мне трудно было представить человека, которому понадобился МНК, но он не знает про MSE. Но лучше добавить определение, соглашусь.

  6. Если уберу слово вспомогательная, будет приемлемо? Функция от функции это функционал, так?

  7. Заголовок МНК это место, где я демонстрирую из чего он получается и почему именно так.

  8. Статья заканчивается нахождением каких то коэффициентов через МНК, для этого мне потребовались какие то данные. Вот.

  9. Я осознанно взял маленькую выборку, позволяющую посчитать коэффициенты на листочке чтобы прочувствовать применение метода. Для большей выборки правила те же.

  10. Боюсь мне тут нечего прокомментировать.

  11. Цель - дать понимание, что происходит с данными при использовании МНК без сложной математики. Я нашёл формулу, и проверил её настолько насколько мог, той математикой, которую не забыл за 8 лет.

Спасибо, что уделили время на написание большого комментария, но, к сожалению, не все указанные проблемы мне понятны.

Хотел понятную статью про объясняющую что такое МНК и откуда он берётся. Вы можете уточнить, что считаете бессмысленным?

Да, с нулем я увлекся

Градиент находит коэффициенты хоть в рамках машинного обучения хоть в рамках статистики, что значит "градиент для ИИ"? В смысле пользовался я ли алгоритмом из sklearn? Нет, я использовал самописный

Из перечисленных слов я только "область определения" знаю. Имеете ввиду, что нужно было где-то указать, что C∈Rn и указать диапазон? Не уверен, что правильно Вас понимаю. Можете пояснить попроще?

Способ рабочий я сходную с автором ошибку допустил в своей СЛАУ

Мне только что потребовалось решать автоматически СЛАУ. Я списал отсюда и пожалел(пока что): ручной способ сходится с онлайн калькулятором, но не сходится с таким применением solve.

Решил на данных автора проверить и вижу косяк: в середине статьи

3х_1+2х_2=12

2х_1 - 3х_2=1

И матрица соответствующая на картинке.

А вот в коде, который зачем то скопирован со всяким мусором(Вы кодите прямо в python консоли что-ли?):

А=np.array([[3,2],[2,-1]]).

То есть -1 вместо -3.

Короче, 2 и 3 не являются решением оригинального уравнения. Но если нормально написать, то с этой СЛАУ работает. Пойду теперь искать свой косяк

Все про презентацию эту хотя бы слышали. Думал тут разбор будет, а не вот это вот

Удивляет как уверенно автор пишет про раздвоение личности и насильника Билли Миллигана. Как будто подтверждение даёт современная наука а не россказни преступника плюс снятый про него фильм. Насколько мне известно, других аргументов нет

Я не понял, может кто пояснить?

atom simple-while rule

[ simple-while 1 .seq ]

[ simple-while

cond [ some data ]

print "Hello, world" ]

Мы научились создавать конструкции ветвления через "if 1", "if 2", т.е. здесь мы аналогично с помощью simple-while 1 вызываем цикл (скорее рекурсию) конструкции. Вместо 1 у нас cond. Ok, но зачем мы в конце самого выражения для вычисления вызываем print? Зачем действие производимое внутри цикла необходимо после его окончания? Или конструкция странная или я вообще не понял синтаксиса

[ simple-while

cond

print "Hello, world!" ]

Налицо полное непонимание TREE(n).

Во-первых TREE(2) это к, с-с, с. Если вы ставите один синий на второе место, то третьего древа быть не может - оно бы содержало или красную или синюю вершину, а правила запрещают деревьям содержать в себе деревья предки. А ещё правила требуют именно максимального числа деревьев из n цветов. Так что к, с-с, с или с, к-к, к и никак иначе.

Во-вторых TREE(3) тоже не может содержать в своём начале две пары одинаковых цветов - это очень сильно ограничит длину последовательности - вон, вы уже в самом начале стали добавлять эти пары одинаковых вершин в деревья из первой десятки.

Хаба образование в России, к сожалению, не нашёл. По причине того, что школа знакомит с СИ и базовыми алгоритмами, выставил эти два. Вот, нашёл более подходящий.

Информация

В рейтинге
4 421-й
Зарегистрирован
Активность