Как стать автором
Обновить
0
0

Пользователь

Отправить сообщение
Мы в итоге остановились на default параметрах, потому что при других результат только ухудшался.
Кросс-валидация на тренировочной выборке.
На самом деле при кросс-валидации подбирались параметры такие какие: размер фингерпринта, латентное пространство полносвязной нейросети и другие. Но вы правы, надо было это более подробно описать в статье.
Кросс валидация была использована. Например «GCN with additional features 10 Folds» означает что GCN обученная с дополнительными свойствами из бэйзлайна была обучена и протестирована на 10 фолдах, после чего ошибка была усреднена.
К сожалению школа длилась только неделю, а для добавления такого разделения на тренировочную и тестовую выборку у нас ушло бы больше времени, и мы бы не смогли реализовать другие части проекта.
Да, вы правы: как и упоминалось в статье, разбиение на тренировочную и тестовую выборку в этой задаче очень важно. Но предсказывать везде среднее в отличие от обучения модели не является масштабируемым подходом, что является важным фактором в пользу метода, описанного в статье. Надеюсь смог ответить на ваш вопрос.

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность