Приличный экспандер на такое кол-во портов уже обойдется в 2-2.5k, как я понимаю. Правда это SAS, чистых SATA-экспандеров нормального качества я еще не встречал.
в английском разные варианты есть на «что будет если», мне кажется большинство напишет «what happens if» или «what happens when», а не «what will happen if»
Любой достаточно большой набор лего — универсальный. Большинство различий — в фигурках. В магазинах просто в большинстве самые дешевые и маленькие наборы. По крайней мере в нашем городе так.
собственно эти 3 системы — OCFS2, linux-ha и RAC считаются CA.
Они не могут работать при network partition, но могут переконфигурироваться так, чтобы продолжать работу. Это занимает какое-то время, но для достаточно большого времени ожидания запросы будут обработаны и консистентность не будет нарушена.
Нода C в этом случае работать не будет. Заработает она только когда восстановится связь и она синхронизируется с {A,B}. Главная сложность тут в том, как определить, что произошел partition и корректно реализовать fence/unfence узла.
в примере, который приводится в статье (http://codahale.com/you-cant-sacrifice-partition-tolerance/, после But Never Both) можно сделать систему CA — добавить в нее роутер, который перенаправляет запросы, отправленные на C на остальные узлы.
вы просто своеобразно понимаете понятие «распределённая система». Например SMP и NUMA архитектуры тоже распределённые, но при этом они CA. Скажете, что они бесполезны?
Неработающий мастер=неработающая система. Это к CAP-теореме не относится.
Данные попадают синхронно, например с помощью синхронной репликации или 2PC.
Если связи с мастером нет — то слейв блокируется, то есть сессия клиента обрывается.
Пример CA системы будет такой:
Мастер-копия базы и несколько read-only подчиненных. Мастер-сервер считаем отказоустойчивым внутри. Подчинённый сервер при отсутствии связи с мастером блокируется и перестаёт отдавать данные (чтобы обеспечить consistency). Система в целом — доступна, целостность — соблюдается.
Вообще-то «no ip source-route» написаны большими буквами во всех best practice.
Но это, конечно, не отменяет утверждения, что NAT это не мера безопасности.
Для PowerDNS вы явно не оптимальный путь выбрали. Лучше было бы также сконвертировать старую базу в нужный ему формат и потом скриптами докидывать обновления. Или использовать materialized view костыль: www.fromdual.com/mysql-materialized-views
MSTP помимо этого нужен для того чтобы разбить сеть на субдомены и запустить отдельный STP в каждом из них и еще один — между субдоменами. Чтобы изменения топологии в одном сегменте меньше затрагивали всю сеть.
Они не могут работать при network partition, но могут переконфигурироваться так, чтобы продолжать работу. Это занимает какое-то время, но для достаточно большого времени ожидания запросы будут обработаны и консистентность не будет нарушена.
oss.oracle.com/projects/ocfs2/dist/documentation/v1.2/ocfs2_faq.html#QUORUM
www.clusterlabs.org/doc/crm_fencing.html
www.dba-oracle.com/t_rac_cluster_fencing.htm
Данные попадают синхронно, например с помощью синхронной репликации или 2PC.
Если связи с мастером нет — то слейв блокируется, то есть сессия клиента обрывается.
Мастер-копия базы и несколько read-only подчиненных. Мастер-сервер считаем отказоустойчивым внутри. Подчинённый сервер при отсутствии связи с мастером блокируется и перестаёт отдавать данные (чтобы обеспечить consistency). Система в целом — доступна, целостность — соблюдается.
Но это, конечно, не отменяет утверждения, что NAT это не мера безопасности.