Как стать автором
Обновить

Комментарии 2

Цитата со страницы Mahout:
«Our core algorithms for clustering, classification and batch based collaborative filtering are implemented on top of Apache Hadoop using the map/reduce paradigm.»

Очень интересно, учитывая что разработчики GraphLab утверждают что многие алгоритмы машинного обучения не достаточно эффективно «map-reducable».
Хотелось бы увидеть сравнение этих двух фреймворков например для задачи collaborative filtering.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий