Дима Яковлев@Dima_cloud
Занимаюсь облачными решениями для 1С
Информация
- В рейтинге
- Не участвует
- Откуда
- Караганда, Карагандинская обл., Казахстан
- Зарегистрирован
- Активность
Специализация
Системный администратор, DevOps-инженер
Ведущий
Git
PostgreSQL
Linux
Docker
Nginx
RabbitMQ
Очень интересно было ознакомиться с вашим опытом.
Несколько раз перечитал статью, но не смог понять, как происходит перенос локальных дисков по сети?
Допустим, упал какой-то из серверов, там крутилось несколько ВМ и они хранили все свои виртуальные диски на этой же ноде. Тогда как вытащить данные, если сервер не загружается, умерла мать?
В 5 минут тут не уложиться, нужно вытащить сервер из стойки, снять диски, куда-то их воткнуть, желательно с таким же контроллером, а это приключение уже на несколько часов.
Спасибо за отличную статью. Давно посматриваем на ceph, но боимся)
Как верно подмечено ceph не самая быстра sds, но тогда такой вопрос, а что сейчас работает быстрее в режиме файловой системы (fs)? чтобы как smb но только на linux. Только NFS?
но в вашей схеме указан сервер РДП, если вы подключаете все оборудование через маппинг в РДП-сессии, то никогда не добьётесь стабильности в работе этого оборудования.
Оно всегда будет отваливаться. Драйверы на принтеры чеков вечно норовят уронить спуллер. Зависшие РДП-сессии нужно выбивать с сервера, при этом может сбиваться проброс внешних устройств.
А это все время, люди стоят на кассе, ждут. Тонкий клиент здесь подходит лучше. Бонусом вы получаете меньше зависимости от МС продуктов. В нынешние времена это весомый аргумент.
Стоит отметить, что с проблемой столкнулись и те, кто был 100% лицензирован. Мы все помним этот черный вторник.
Есть такие, даже не знаю, как описать свой опыт... Есть и положительные моменты, есть увы и грусти полный вагон.
Все как сказал автор, экономим на кадрах (делаем все сами по мануалам с МС) и строим все на SuperMicro.
Получаем 49 Тб полезного места (при двойном зеркалировании).
В двухнодовом кластере обязателен диск-свидетель.
Из явных плюсов небольшие затраты на старте — можно добавлять диски по мере роста.
Относительно легко все настроить (0-day opertaion), но вот что будет на следующий день, то тут надо вникать в проблемы.
Из того с чем мы столкнулись:
Если используете роли SoFS или FileServer, то обязательно карты с поддержкой RDMA, без этого система будет сильно нагружена по ЦПУ.
Сами сетевые карты желательно все одной модели и одной прошивки (ну вы это и так знаете).
При обслуживании нод, нужно включать специальный режим. Но после выключения этого режима, производительность будет ниже, пока не выполнится синхрон. Поэтому работы лучше планировать с запасом времени.
Столкнулись с такой проблемой, что периодически происходит BSOD одной ноды, когда доустанавливает диски. После этого роли уезжают на другие машины и иногда падают в аварийное состояние. Еще много чего было но это мелочи)
В целом систему используем с 2022 года. Можно получить хорошие показатели производительности, если выполнить все требования МС.
Пока учились настраивать были факапы. Кластер кстати на 2019-ом.