Комментарии 6
Этот пример даже меньше, чем те, что в официальной документации для Keras. Хоть какую-то бы дополнительную работу проделали, протестировали бы, например, разные функции оптимизации, показали бы результаты не только на обучающей выборке, но и на тестовой, показали бы разную глубину модели. Как справляется классификатор с запросами, которых не было в обучающей выборке? 97% вообще ни о чем не говорят.
Как я понял использует только знакомые слова(те что были в тесте)?
обычное линейная логистическая регрессия было бы не лучше?
обычное линейная логистическая регрессия было бы не лучше?
1. Чтобы понять, 97% — это хорошо или плохо, стоило бы обучить несколько других архитектур и сравнить результаты. SVM часто отрабатывает лучше для классификации текста, чем нейронные сети
2. Вообще был бы полезен пример анализа результатов классификации и дальнешего «тюнинга». Посмотреть на precision\recall, на confusion matrix.
2. Вообще был бы полезен пример анализа результатов классификации и дальнешего «тюнинга». Посмотреть на precision\recall, на confusion matrix.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Мульти-классификация Google-запросов с использованием нейросети на Python