Comments 4
интерконнект между узлами организовали просто соединив их через Ethernet провод – unsupported
а как надо было ? какой-то особый позолоченный кабель или спец.оптику ?
Да, использовать надо было надежные железные решения для связи узлов кластера. Это ключевой элемент, любой сбой приводит к разваливанию кластера - узлы проверяют доступность друг друга. Плюс скорость, так как по интерконнекту идет трафик блоков данных между узлами кластера. Если блок есть в памяти одного узла и его нет на запрашиваемом - читаем общий кэш кластера (Cache Fusion) через интерконнект, а не с диска. Для этих целей в Exadata использовали InfiniBand.
хорошо.
2 прямых кабеля eth cat 6 по 2.5 Гбит\с каждый, проложенных разными маршрутами, объединенных в bond средствами OS - как вам такой вариант ?
Уже лучше, народ так и колхозил кластера. Но это головные боли, поэтому мало кто связывался с этим. Все ходили в вертикальное масштабирование с Oracle, если надо было.
Железное решение понадежнее, там коррекция ошибок и прочая инфраструктура, чтобы пакеты ходили куда надо и с резервированием.
Своих багов в Oracle хватает, даже на сертифицированных конфигурациях. А если ловить еще наведенные из ОС - будет ой.
Ну и человеский фактор со шваброй еще никто не отменял.
Работа над ошибками