Comments 2
Вот не все так однозначно :)
На практике на разной ширине таблицы, в зависимости от типа хранения (строчное или колоночное), на разном объеме изменений относительно общего объема таьлицы, разные методы могут давать разные результаты. Поэтому лучше практиковать поддержку всех возможным методов сравнения:
-конкатенация с равенством
-сравнения неравнества
-сравнения хэшей, причем смотреть разные доступные алгоритмы хэширования (что по всей видимости вами подразумевается в статье.)
Часто у колоночных субд от определенного объема и паттерна изменений merge вообще становится медленнее чем перезапись секций с измененными данными (для SCD2 это тоже применимо)
Также стоит помнить что разные методы сравнения требуют разного объема ресурсов.
На какие только ухищрения приходится идти, лишь бы по старинке хранить широкие ненормализованные таблицы с избыточностью, а не использовать методологию Anchor Modeling.
Почему SCD Type 2 медленно работает в DWH, и как это чинится через Merge + Hash