Pull to refresh

Comments 5

Спасибо за материал!
Интересно было бы узнать, как вы готовите Cassandra.
В частности, такие аспекты:
  • каждая нода-под живет на отдельной воркер-ноде?
  • выделяете ли под commitlog и data files разные физические диски (как это советует документация — cassandra.apache.org/doc/latest/operating/hardware.html)
  • память на нодах куба, где живет cassandra — ECC? (из той же доки)
  • уже что-то можете сказать об операторе CassKop?
  • случалось ли ловить такую проблему: удалили промаркировали надгробиями какие-то данные, надгробия исчезли (но часть реплик этих данных остались живы, т.к. одна из нод была в дауне и не удалила у себя), запустили repair — данные вновь появились (здесь — www.youtube.com/watch?v=SAyClLjN6Sk докладчик рассказывал об этом)
  • можете поделиться какими-то цифрами по корреляции кол-ва записей в секунду/минуту/час/сутки и занимаемым местом на дисках?
  • такая же корреляция, но с CPU/RAM выделенных нодам-подам? (реквесты, лимиты)
Добрый день. Вот ответы на ваши вопросы:
  • Да, каждый под выкачен на свою ноду.
  • Разделения по дискам мы не делали, просто используем ssd.
  • К памяти тоже не педъявляли особых требований.
  • К оператору пока нареканий нет, работает отлично.
  • Единственная проблема с которой сталкиывались, когда переполнилось место и удалили keyspace, он не удалился на переполненной ноде и после добавления места и перезапуска пода, сохранился старый IP пира, вот в этой таблице (SELECT peer,rpc_address FROM system.peers;) Пришлось удалить в ручную. Проявилось это тем, что приложение получало не правильный адрес, и пыталось подключиться по несуществующему IP.
  • Используем выделенные ноды 16 CPU и 32Gb RAM. Данных по 2.2-2.3Тб на каждой.
  • Нагрузочное тестирование показало 360rps при размере сообщений от 400Кб до 4500Кб, трафик был в сумме 180Мб/c.
использование одинаковых pod network — не очень хорошая идея

Я правильно понял, что имелось ввиду то, что в рамках одного проекта в разных кластерах был установлен одинаковый pod-network-cidr / podSubnet?

Sign up to leave a comment.