Как стать автором
Обновить

Комментарии 6

Этот пример даже меньше, чем те, что в официальной документации для Keras. Хоть какую-то бы дополнительную работу проделали, протестировали бы, например, разные функции оптимизации, показали бы результаты не только на обучающей выборке, но и на тестовой, показали бы разную глубину модели. Как справляется классификатор с запросами, которых не было в обучающей выборке? 97% вообще ни о чем не говорят.
Как я понял использует только знакомые слова(те что были в тесте)?
обычное линейная логистическая регрессия было бы не лучше?
Использует любые слова. Просто в разделе тестирование не отразил все те запросы, которые вводил
Слова не из списка просто игнорирует?
1. Чтобы понять, 97% — это хорошо или плохо, стоило бы обучить несколько других архитектур и сравнить результаты. SVM часто отрабатывает лучше для классификации текста, чем нейронные сети

2. Вообще был бы полезен пример анализа результатов классификации и дальнешего «тюнинга». Посмотреть на precision\recall, на confusion matrix.

97% — это вообще не хорошо и не плохо, а просто бессмысленно, потому что это результат на тренировочном датасете.
Автору нужно было по меньшей мере сравнить с каким-то бейзлайновым подходом на холдаут-датасете

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории