Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
А цель статьи была пояснить только смысл линейной комбинации?
А то столько слов про логистическую регрессию, SVM, нейронные сети, простигосподи. И так быстро все кончилось.
Пс. Можно уточнить, что последнее, к чему пришли — это простой перцептрон, кирпичик, заложенный в фундамент нейросетей.
# образец 1
def line1(w1, w2):
return -3 * w1 - 5 * w2 - 8line(w1, w2) = 0line(w1, w2) > 0 выполнено для точек по одну сторону линииline(w1, w2) < 0 — по другую# служебная функция в форме w2 = f1(w1) (для наглядности)
def line1_w1(w1):
return (-3 * w1 - 8) / 5w2 в правую часть уравнения -3 * w1 - 5 * w2 - 8 = 0 и приведением коэффициента к единице.Да вполне, спасибо большое.
Еще не понятен один момент. При определении расстояния от точки до плоскости dist(x) в знаменателе норма вектора w. А зачем она там? модуль скалярного произведения |wTx+b| разве не дает нам расстояние? В коде например так и сделано.
w_1 * x_1 + w_2 * x_2 + b = 0np.abs(value) / 30
Геометрия машинного обучения. Разделяющие гиперплоскости или в чём геометрический смысл линейной комбинации?