Вот классная книга Михаила Михеева тыц. Она хоть и про 5 версию, но из нее сможете узнать принцип работы гипервизора на уровне достаточном, что бы «не ходить по таким граблям».
Из 10ТБ заполненных данными — реально занятого пространства на массиве было 4ТБ. Эффективность дедупликации — 1:2.5
Как можно видеть, типы данных и гарантированный коэффициенты у них немного отличаются. К примеру, у SolidFire есть именно наш случай — Virtual Infrastructure с коэффициентом 4:1
Я что-то не так понял или цифры не сходятся?