Comments 7
Как ИИ вы назовёте так он и учиться будет :)
По поводу второй задачи
> q=(k1-10)^2+(k2+15)^2+(k3+10*k4-0.06)^2+
>она равна сумме квадратов от неких линейных функций
>У функции много локальных оптимумов, но она гладкая.
Это же просто что-то в духе МНК. И тут либо есть глобальный минимум, либо бесконечное число равнозначных минимумов (зависит от того, SPD ли матрица вторых производных, или же semi positive definite).
Я неправ?
> q=(k1-10)^2+(k2+15)^2+(k3+10*k4-0.06)^2+
>она равна сумме квадратов от неких линейных функций
>У функции много локальных оптимумов, но она гладкая.
Это же просто что-то в духе МНК. И тут либо есть глобальный минимум, либо бесконечное число равнозначных минимумов (зависит от того, SPD ли матрица вторых производных, или же semi positive definite).
Я неправ?
Я так понимаю, вы говорили о СЛАУ. Да, вы правы — у нас либо один глобальный минимум (в данном случае нет), либо бесконечно много равнозначных минимумов.
И для этой задачи есть и иные способы решения, кроме численного — просто эту задачу зачастую применяют для тестирования алгоритмов оптимизации.
И для этой задачи есть и иные способы решения, кроме численного — просто эту задачу зачастую применяют для тестирования алгоритмов оптимизации.
Ну и сильно не хватает подробного описания «Абатура», каким образом происходит обучение, и т.д.
Sign up to leave a comment.
Learning to learn. Создаём self-improving AI