Pull to refresh

Comments 24

Не приведёт ли дедупликация к экстремальному износу дисковой подсистемы?
Допустим, например, есть массив из 10 дисков, 9 из которых содержат данные, подпадающие под дедупликацию, и указатели с этих данных направляют на оставшийся, десятый диск. Не увеличится ли нагрузка на оставшийся диск в 9 раз?
Чтением — убьет? ORLY?
А то что данные в процессе дедупликации перемещаются, а блоки перезаписываются в счет не идет? Для SSD это очень критично? Дело не в нагрузке, но в сроке службы…
Увеличение обращений в N раз — это критично для любого диска, и по сроку службы, и по производительности.
Такой сценарий с явным указанием дисков тяжело реализовать (если возможно). Дедупликация в WS2012 оперирует на уровне томов, но не дисков. Т.е. вам сначала нужно собрать диски в RAID, в уже потом делать том с активной дедупликацией — и если это будет RAID, то трудно себе представить каким же все же макаром все уйдет на 1 конкретный диск…
Здесь сфера применения дедупликации расширяется и теперь распространяется не только на архивные данные, но и на виртуализованные среды, что вполне логично — особенно для VDI-сценариев.

Как-то не вяжется с написанным на технете:

Not good candidates for deduplication:
  • Hyper-V hosts
  • VDI VHDs
Впрочем, это относится лишь к WS2012, тот же NetApp лишен данного ограничения.
У меня VDI и Hyper-V хосты дедуплицируются в разных окружениях на 37%… Не всему на технете можно верить. Хочешь верь — хочешь проверь.
Там чуть ниже дано вполне разумное объяснение:

Deduplication is not supported for files that are open and constantly changing for extended periods of time or that have high I/O requirements, for example, running virtual machines on a Hyper-V host, live SQL Server databases, or active VDI sessions.

Deduplication can be set to process files that are 0 days old and the system will continue to function as expected, but it will not process files that are exclusively open. It is not a good use of server resources to deduplicate a file that is constantly being written to, or will be written to in the near future. If you adjust the default minimum file age setting to 0, test that deduplication is not constantly being undone by changes to the data.

Deduplication will not process files that are constantly and exclusively open for write operations. This means that you will not get any deduplication savings unless the file is closed when an optimization job attempts to process a file that meets your selected deduplication policy settings.
Тут все правильно написано — дедупликация — процесс который запускается по расписанию.
Если вы используете VDI-машины 24x7 — то это действительно плохой кандидат. И активные файлы, что разумно, если они чем-то открыты — доступ-то монопольный — спору нет.
Но никто вам не мешает проводить запланированный maintenance и дедуплицировать данные.
А по-хорошему для VDI нужно использовать дифференциальные виртуальные диски — где присутствуют отношения «родитель-потомок» — это лучший вариант.
Где можно про это почитать подробнее? спасибо
Вероятно человеку — огню стоит поставить программу проверяльщик орфографии, у Майкрософт он содержится в пакете Office. Или например в браузере Firefox.
Вероятно, если вы нашли 3 опечатки в тексте вам следует пойти в филологи или педагоги.
Но в любом случае — спасибо кэп!!!
Принято обращаться к незнакомому человеку на «Вы», если он не указал иное. А в статье действительно много опечаток, которые подсветит любой spellchecker.
А Вы знаете какие-нибудь программы проверяльщики пунктуации?
А в простой версии 2012 Standard поддерживается дедупликация, или надо на другие смотреть?
Функционал между редакциями Стандарт и Датацентр идентичен.
Довольно интересная фича даже для домашнего использования. Есть возможность запустить deduplication на Windows 8:
forums.mydigitallife.info/threads/34417-Data-deduplication-for-Windows-8-x64
(администрирование только из PowerShell)
Из недостатков обнаружил, что некоторые программы не работают с дедуплицированными файлами, например Windows Live! Mesh или Cubby (не синхронизируют эти файлы вообще)
Вот про это не знал — спасибо, однако — поизвращаюсь дома!!!
>>ReFS не поддается дедупликации,
Вот уж непонятно, почему так. ReFS поддерживает точки повторной обработки (reparse points), так что, по идее, дедупликацию можно было сделать на основе этого, как и в NTFS single intstance storage.

>>Также под дедупликацию не попадают файлы с расширенными атрибутами (extended attributes).
Это как раз понятно, почему. Потому, что к файлу с расширенными атрибутами невозможно прикрепить reparse point, они взаимоисключают друг друга. Правда, extended attributes в Windows не используется практические нигде. Ни в самой Windows, ни в сторонних приложениях. Эта технология давно забыта.
Sign up to leave a comment.