Pull to refresh

Comments 4

Спасибо за популярное изложение, думаю многим будет полезно.

За KAN сетями будущее, которое на данный момент сдерживается только значительно бОльшими вычислительными затратами при обучении по сравнению с сетями-перцептронами.
Но это ненадолго, на подходе специализированные ASIC и TPU, так что тут прогресс идёт.

Правильно ли я понимаю, что, получив на вход массив данных, KAN предложит набор функций 1-2 переменных, в сумме описывающих эти данные?

Если я правильно помню, когда-то подобное предлагалось делать с помощью набора экспонент. А тут -- будет широкий набор функций (в том числе и неоднозначных, типа модуля). И этот набор будет давать нам идею о том, какая физика стоит за этими данными?

"Долгое время исследователи задавались вопросом: возможно ли создать нейронные сети, которые давали бы такие же точные результаты, но при этом работали бы более понятным образом?" Это можно перевести примерно так: долгое время у исследователей чесалось между ног и они решили наконец снять штаны и посмотреть... и вот там оказалось...Подобный посыл в дебюте не вызывает интерес, зато обесценивает задачу. Нейронные сети дают столь же точные, сколь и ненужные ответы как пастух Биллу Гейтцу на воздушном шаре, это раз(вспомним добавку нетоксичного клея в приготовлении еды), с другой стороны принцип работы нейросетей достаточно понятен тем, кто хочет и способен понять. Статья, как я понимаю, увлеченно упрощает нюансы техники, адаптируясь к способностям сантехника Васи вечером в пятницу

Да, KAN интересны и главное их достоинство интерпретируемость. Однако, алгоритм, реализованный в python, пока еще содержит отдельные досадные моменты, с которыми я столкнулся при практическом применении KAN. Например - обучаешь модель. Она выдает прогноз. Затем выводишь интерпретируемую формулу и если по этой формуле посчитать прогноз, то результат будет отличаться от первоначального. Т.е. применение функции по выводу формулы каким то образом изменяет свойства модели. А этого не должно быть. Вопрос пока повис в воздухе.

Sign up to leave a comment.

Articles