Как стать автором
Обновить

Эволюция архитектуры данных: как потребности бизнеса изменили инструменты для хранения данных

Время на прочтение7 мин
Количество просмотров6.5K
Всего голосов 15: ↑14 и ↓1+23
Комментарии7

Комментарии 7

А можете перезалить картинки или указать их источники, т.к. мелкий шрифт не читается?

Чтобы обнаруживать новые паттерны, аналитические приложения должны обрабатывать данные на обобщенном уровне. Традиционные реляционные СУБД, например DB2, Oracle и SQL Server, которые работают на универсальном или стандартном оборудовании, не справляются с такими рабочими нагрузками.

Конкретно DB2 от рождения умеет в MPP/shared-nothing на обычных серверах и на нем вполне себе строили DWH/OLAP на десятки и даже сотни ТB еще в нулевых

Для решения этой проблемы на рынке появились СУБД Teradata, устройства Netezza, Neoview, Parallel Data Warehouse и SAP HANA. Они работают на специализированном аппаратном обеспечении

Конкретно SAP HANA никакого специализированного железа не использует (HANA-апплайнсы - обычные серверы, но в жестко прибитой гвоздями конфигурации, сейчас почти не используют - делают по workload-sizing-модели)

Про HANA в чем то верно, но есть нюанс :) Попробуйте спросить SAP "а можно ли мне раскатать на commodity hardware" их систему :)

В рамках TDI-модели и соблюдения ее ограничений спрашивать SAP про железо абсолютно не обязательно (ну разве что если сайзинг получился > 8 сокетов).

"Но из всех этих технологий большой популярностью пользуется только Teradata. "

Скорее пользовалась :) Технология по факту умерла году так в 2016-2017 и дальше есть некие попытки вендора оживить этот технологический труп чтобы хоть как то конкурировать на рынке по части TCO vs Performance

Зарегистрируйтесь на Хабре, чтобы оставить комментарий