Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
и это материал на отдельную статью, а то и не одну.
Consider starting with a 10Gbps network in your racks. Replicating 1TB of data across a 1Gbps network takes 3 hours, and 3TBs (a typical drive configuration) takes 9 hours. By contrast, with a 10Gbps network, the replication times would be 20 minutes and 1 hour respectively.

А клиенту всё равно к какой ноде цепляться? И, возмжно стоит через днс раздавать ip сереов, тогда при вылете первой он не потеряет хранилище.
Но основной вопрос в другом, что у этой штуки с произвоительностью?
Как она себя будет вести, если скажем планово выключить хранилище.
Т.е. порядок выключения 1,2,3 (на третью что-то успели записать, после выключения 1). потом включаем 1,2 (пытаемся прочитать то, что записали на 3), потом уже включается 3.
mount -t ceph node01:6789:/ /mnt/cephfs -o name=admin,secretfile=/etc/ceph/admin.secret,noatime
— не рекомендуется маунтить туда, где крутится сам osd
— mds в данном конкретном случае очень важная штука, ей надо подкрутить ресурсов, она при большом количестве файлов жрет их очень много.
— журнал лучше убрать подальше от всего хозяйства, он прямо и четко влияет на производительность.
— btrfs лучше, чем xfs, ext4 тоже можно, но она самая медленная )
— много чего еще из нюансов.

[global] auth cluster required = cephx auth service required = cephx auth client required = cephx [osd] osd journal size = 1000 filestore xattr use omap = true [mon.a] host = lab mon addr = 8.8.8.8:6789 [osd.0] host = lab devs = /dev/sda osd mkfs type = xfs [osd.1] host = lab devs = /dev/sdb osd mkfs type = xfs [osd.2] host = lab devs = /dev/sdc osd mkfs type = xfs [osd.3] host = lab devs = /dev/sdd osd mkfs type = xfs [osd.4] host = lab devs = /dev/sde osd mkfs type = xfs [osd.5] host = lab devs = /dev/sdf osd mkfs type = xfs [osd.6] host = lab devs = /dev/sdg osd mkfs type = xfs [osd.7] host = lab devs = /dev/sdh osd mkfs type = xfs [mds.a] host = lab
Распределенная файловая система Ceph FS за 15 минут