Comments 6
Вот это звучит реально круто, если конечно размер сети не растет экспоненциально с количеством задач.
Тут вопрос стоит скорее не в том, чтобы создать модель, способную аппроксимировать множество функций, а в том, чтобы обучить эту модель.
Нейронная сеть по определению идеальный аппроксиматор, так что вопрос тут стоит в размере сети и сложности обучения.
Причем, я подозреваю, что как и в случае с базисными функциями (вейвлет преобразования) размер сети при правильном подборе архитектуры (в т.ч. функций) будет значительно меньше универсальной.
Жду описания, кто попробовал.
Очень интересно.
А как это поставить, какая платформа?
Sign up to leave a comment.
Одна модель для обучения всему. Google открыла библиотеку Tensor2Tensor