Комментарии 6
Забавно. Выучиваемые операторы. Объединяя с VSA/Gumbel-Softmax, и как-то выполняя композицию операторов, можно перенести сами операторы к данным на семантический граф, или наоборот попробовать разложить готовую модель. А ещё делать операторы над операторами в формате реализации абстрактной математики. Но масштабировать непросто. Для условных операторов можно делать по аналогии с маскированием TabNet, учить дифференцируемое дерево решений. Может в формате КС-грамматики композицию можно описать? Начинает напоминать выучиваемый Wolfram language или детерминированный Neural Program Synthesis
Код через Qwen прогоняли? Он любит вставлять эмодзи в print...
Думаю, проще и надёжнее - научить сеть находить места, где нужно посчитать и заставить писать скрипт на питоне и выдавать результат. Если усложнять, вероятность ошибок растёт.
Linear -> ReLU -> Linear -> Linear
надеюсь, это просто опечатка

Нейросимвольный ИИ: архитектура семантической нейросети. Как научить LLM считать