Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
вспомнилась теорема Колмогорова, дающая обратное вашему утверждение
большинство программ нельзя выразить в виде непрерывного геометрического морфинга многообразия данных– то есть как раз о том случае, когда теорема не работает.
1. На фразе «для большинства задач либо не существует глубинной нейросети,… » мне резко вспомнилась теорема Колмогорова, дающая обратное вашему утверждение.
"Драматически расширит" — так по-русски не говорят. "Существенно расширит", например. Или "значительно расширит". Переводить в данном контексте dramatically как "драматически" — ложный друг переводчика.
Естественно, сети RNN всё ещё ограничены в том, что они могут представлятьИзвестно, что рекуррентные нейронные сети Тьюринг-полны (объяснение на stack exchange, в нем есть ссылки на научные статьи). То есть, для любой программы можно подобрать рекуррентную нейронную сеть конечного размера (в статье рассматривалась сеть из около 1000 элементов), которая ее реализует. Собственно, все предложения о том, что неплохо бы еще расширить выразительную способность RNN, которые приведены после этой фразы, можно вообще не читать.
Ограничения глубинного обучения и будущее