Pull to refresh

Comments 3

Спасибо за популярное изложение, думаю многим будет полезно.

За KAN сетями будущее, которое на данный момент сдерживается только значительно бОльшими вычислительными затратами при обучении по сравнению с сетями-перцептронами.
Но это ненадолго, на подходе специализированные ASIC и TPU, так что тут прогресс идёт.

Правильно ли я понимаю, что, получив на вход массив данных, KAN предложит набор функций 1-2 переменных, в сумме описывающих эти данные?

Если я правильно помню, когда-то подобное предлагалось делать с помощью набора экспонент. А тут -- будет широкий набор функций (в том числе и неоднозначных, типа модуля). И этот набор будет давать нам идею о том, какая физика стоит за этими данными?

"Долгое время исследователи задавались вопросом: возможно ли создать нейронные сети, которые давали бы такие же точные результаты, но при этом работали бы более понятным образом?" Это можно перевести примерно так: долгое время у исследователей чесалось между ног и они решили наконец снять штаны и посмотреть... и вот там оказалось...Подобный посыл в дебюте не вызывает интерес, зато обесценивает задачу. Нейронные сети дают столь же точные, сколь и ненужные ответы как пастух Биллу Гейтцу на воздушном шаре, это раз(вспомним добавку нетоксичного клея в приготовлении еды), с другой стороны принцип работы нейросетей достаточно понятен тем, кто хочет и способен понять. Статья, как я понимаю, увлеченно упрощает нюансы техники, адаптируясь к способностям сантехника Васи вечером в пятницу

Sign up to leave a comment.

Articles