Как стать автором
Обновить

Комментарии 11

На «The Register» была отличная новость по этому поводу :)
Особенно «что сказал NetAPP» :)
А ссылку можно?
"… данные, которые были уже были дедуплицированы на стороне клиента, могут заново дедуплицироваться при записи на дисковую библиотеку, что, разумеется, не даст дополнительного уменьшения объема резервных копий" — как это?

Например, у нас есть dataA+dataB+dataA. После дедупликации на стороне клиента мы получаем dataA + dataB + locationdata. И тут конечно ещё раз это дедуплицировать не нужно (хотя существует отличная от нуля вероятноть, что кусок из данных совпадёт с куском locationdata).
А если у нас несколько клиентов с одинаковыми данными? В данном случае под клиентами имеется ввиду, конечно же, не конечные хосты, а сервера резервного копирования.
>А если у нас несколько клиентов с одинаковыми данными?
Это можно определить только если дедупликацию запускать после того, как все данные оказались на дисковой системе резервного копирования. Такая схема работы применяется в некоторых других системах, в том числе производства HP (VLS). D2D делает дедупликацию в момент приема данных. В этом случае двойная дедупликация точно не имеет смысла.
Из Product Bulletin:
How it works
Deduplication works by examining the data stream as it arrives at the storage appliance, checking for blocks of data that are identical and eliminating redundant copies.

HP Backup systems feature HP StoreOnce deduplication which uses an optimized in-line process to provide enhanced performance and is architected to be portable to other HP products in the future.

NOTE: The HP VLS product family uses a post-process, object-level data deduplication scheme for increased performance in large scale Fibre Channel deployments. StoreOnce and VLS deduplication platforms are not compatible. They use different technologies that cannot be used together.
Ага. Понятно. В таком решении как у StoreOnce, действительно двойная дедупликация не имеет никакого смысла.
Спасибо.
Хотя некоторые вендоры предлагают решения для обоих типов дедупликации, они используют для этого два разных и слабо интегрированных между собой продукта, что существенно усложняет комплексное внедрение дедупликации для всей ИТ-инфраструктуры предприятия, включая и расположенные в удаленных филиалах серверы, например, данные, которые уже были дедуплицированы на стороне клиента, могут заново дедуплицироваться при записи на дисковую библиотеку, что, разумеется, не даст дополнительного уменьшения объема резервных копий и только напрасно удлинит резервное копирование.


Фраза настолько длинная, что я не могу понять, что в ней сказано. Можно выразить то же другими словами?
если по простому: предлагается система, использующая общий алгоритм на всех сторонах процесса:
«является единственной, которая реализует федеративную дедупликацию, т.е. использование одного и того же алгоритма дедупликации StoreOnce как на стороне клиента (source), т.е. сервера приложения или сервера резервного копирования, так и на стороне хранилища резервных копий (target).»
вот мне лично кластеризация понравилась… напомниает идею с p4000( Lefthand)
Если приглядеться, кластеризация здесь из X9000. То есть, не приведи господь.
в том числе :)
Зарегистрируйтесь на Хабре, чтобы оставить комментарий