Комментарии 1
Наобучал тут модельку по этим параметрам, весьма приятно удивила
Качество: 96.10% accuracy, 91.30% F1
Размер: 0.65M параметров
Архитектура: компактная, 2 encoder слоя
Веса: в норме, без аномалий
Диапазон: [-2.73, 4.00]Среднее: 0.0012
Стандартное отклонение: 0.096
NaN/Inf: отсутствуют
Качество модели
Validation Accuracy: 96.10% (0.9610)
Validation F1: 0.9130
Дата сохранения: 2025-11-20 19:30:48
Архитектура
Input dimension: 64 (адаптируется до 84 через input_proj)
Hidden dimension (d_model): 112
Sequence length: 256
Output classes: 3 (Down, Hold, Up)
Dropout: 0.15
Параметры
Всего параметров: 649,277 (0.65M)
Обучаемых: 649,277
Распределение по компонентам:
Encoder layers: 557,312 параметров (0.56M) — 2 слоя
Correlation: 50,400 параметров (0.05M)
Observer: 25,536 параметров (0.03M)
Input projection: 9,520 параметров (0.01M) — 84→112
Output projection: 6,499 параметров (0.01M)
Alpha параметры (TSCO): 10 параметров
Структура
Всего слоев: 82
Основные компоненты:
Input Projection (84→112)
2 Encoder слоя (Temporal Attention + Multi-Scale Convolution)
Observer модуль
Correlation модуль
Output Projection (112→3)

Бустим Transformer-модель через адаптивную TSCO-архитектуру