Комментарии 6
Почти 16 секунд на 52 миллиона строк выглядит как-то очень медленно. Тестировали ли вы это на большем объеме? Будет ли оно пропорционально замедляться?
Ну и как я понимаю, весь column-based датасет целиком влезает в память виртуалки (т.е. получаем 16 секунд перелопачивания in-memory данных), а row-based уже нет, и системе приходится читать с диска (что сильно все замедляет).
Ну и как я понимаю, весь column-based датасет целиком влезает в память виртуалки (т.е. получаем 16 секунд перелопачивания in-memory данных), а row-based уже нет, и системе приходится читать с диска (что сильно все замедляет).
0
Данные в operational_data, historycal_data надо регулярно загонять руками или как?
0
Интересно. А вы случаем не проверяли как пойдут дела при объединении нескольких column-based таблиц?
0
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Вокруг Света за 4 Секунды на Columnstore (Часть 1)