Спасибо за отзыв!
Тут бытует масса мнений :-)
В данном случае есть некая коллекция model.predict(dataBatch) к которой, на мой взгляд, удобно применить модифицирующую функцию map без лишних точек.
Равносильно как здесь:
val res = x + y
val res = x.+(y)
Учитывая что в scala всё методы вторая запись не лишена смысла, но согласись, выглядет как-то не особо.
Также и с коллекциями:
val seq1 = Seq(1,2,3)
val res = seq1 map (_ + 1)
val res = seq1.map(_ + 1)
Лично для меня первый вариант выглядет предпочтительнее, но это сугубо моё мнение.
В данном случае описана часть задачи для сбора статистики по приходящим данным. Основной упор я делал на описание запуска. Да у каждой задачи будет свой sparkSession.
Это действительно проба пера + получить критику.
Спасибо за конструктивные замечания.
Интерфейс TextAnalyzer я использовал, так как в дальнейшем этот код будет встраиваться в проект (Spring проект)
На данный момент всё существует на уровне — сделано первым способом как пришло в голову :-)
Согласен что это не самое лучшее решение, я и не претендую на пальму лидера. От части пост писался для получения конструктивной критики.
Кстати за пример спасибо.
Цель этого поста была описать принцип работы. Список слов по двум сериям Вы правы выкладывать нет смысла. Вот когда мы наберем статистику хотя бы по нескольким сезонам и разных сериалов, вот тогда список будет актуальный и обязательно будет представлен. Спасибо за идею про чаты.
Я согласен, в топ безусловно попадёт много «мусора» и «шума». Второй стадией будет фильтрация этих результатов.
Что касается применения — методом анализа большого числа текстов (думаю что выберем определённую тематику) сформируются топ слов, отфильтруется от «мусора», разобьется по частям речи. Далее предполагается сделать интерфейс, который поможет запомнить эти слова.
Для нейронных сетей используем Apache MXNet :-)
Тут бытует масса мнений :-)
В данном случае есть некая коллекция model.predict(dataBatch) к которой, на мой взгляд, удобно применить модифицирующую функцию map без лишних точек.
Равносильно как здесь:
Учитывая что в scala всё методы вторая запись не лишена смысла, но согласись, выглядет как-то не особо.
Также и с коллекциями:
Лично для меня первый вариант выглядет предпочтительнее, но это сугубо моё мнение.
Спасибо за конструктивные замечания.
Интерфейс TextAnalyzer я использовал, так как в дальнейшем этот код будет встраиваться в проект (Spring проект)
Согласен что это не самое лучшее решение, я и не претендую на пальму лидера. От части пост писался для получения конструктивной критики.
Кстати за пример спасибо.
Что касается применения — методом анализа большого числа текстов (думаю что выберем определённую тематику) сформируются топ слов, отфильтруется от «мусора», разобьется по частям речи. Далее предполагается сделать интерфейс, который поможет запомнить эти слова.
Две серии просто для примера были взяты