Полностью подтверждаю все описанные симптомы(у меня Ubuntu 12.04) — рандомно останавливается запись + если записывается 2-ая и тд. дорожка, то запись просто не активируется в 80%.
Те. чтобы что-то записать мультитрековое, нужно 100500 раз понажимать запись.
данный глюк наблюдается у меня уже лет 5 на разных убунтах и Debian (звуковуха — Juli@)
да… представил картину, именно как «снежная лавина».
У меня задачи кластера другие — на каждой ноде лежит реплика GlusterFS, на которой в свтою очередь крутятся виртуальные машины (KVM)
Т.е. каждая нода выполняет опред. кол-во VM, образы которых лежат на «общем» разделе glusterfs.
Пока всего по паре VM на каждой ноде, и нагрузка небольшая (под рукой щас нет цифр), возможно поэтому, user space специфика glusterfs пока не проявляется.
ps — После вашего комента(спасибо кстати за подробное описание лагов) и сабжевой статьи начинаю смотреть на CEPF
плюсую вопрос!
накатил GlusterFS на тестовом кластере(proxmox+KVM) из 4-х нод, нагрузка не очень высокая, но работает стабильно. (правда конечно не продакшен задачи крутятся)
ОНО: народ, я новый нюк нашел, ща всех поубиваю!!!
ОНО: дайте ай-пи какого-нить лоха!!!
Кто-то: 127.0.0.1
ОНО: пасиба!
ОНО: щас он подохнет
* ОНО вышло из чата
все делается намноого проще и, что главное, — эффективнее:
ставится netflow сенсор для iptables(к примеру) — fprobe-ulogd и все это дело одним правилом сливается в коллектор (например flow-tools), откуда заливается в mysql — и делай с ним что хочешь :)
как конкретно здесь поможет dynamic routing (ospf)?
на BRAS прописан статик в 10.17.0.0/16
в филиалах — дефолт в тунель
в ядре — статик в 10.17.0.0/16 на BRAS
кучу полей?
если речь про клиентов, то они же просто пишут письмо на support@, а если мы говорим про техподдержку, то ответ на пришедший тикет тоже делается один кликом и заполнением одного поля(сам ответ)
Те. чтобы что-то записать мультитрековое, нужно 100500 раз понажимать запись.
данный глюк наблюдается у меня уже лет 5 на разных убунтах и Debian (звуковуха — Juli@)
У меня задачи кластера другие — на каждой ноде лежит реплика GlusterFS, на которой в свтою очередь крутятся виртуальные машины (KVM)
Т.е. каждая нода выполняет опред. кол-во VM, образы которых лежат на «общем» разделе glusterfs.
Пока всего по паре VM на каждой ноде, и нагрузка небольшая (под рукой щас нет цифр), возможно поэтому, user space специфика glusterfs пока не проявляется.
ps — После вашего комента(спасибо кстати за подробное описание лагов) и сабжевой статьи начинаю смотреть на CEPF
накатил GlusterFS на тестовом кластере(proxmox+KVM) из 4-х нод, нагрузка не очень высокая, но работает стабильно. (правда конечно не продакшен задачи крутятся)
ОНО: дайте ай-пи какого-нить лоха!!!
Кто-то: 127.0.0.1
ОНО: пасиба!
ОНО: щас он подохнет
* ОНО вышло из чата
ставится netflow сенсор для iptables(к примеру) — fprobe-ulogd и все это дело одним правилом сливается в коллектор (например flow-tools), откуда заливается в mysql — и делай с ним что хочешь :)
на BRAS прописан статик в 10.17.0.0/16
в филиалах — дефолт в тунель
в ядре — статик в 10.17.0.0/16 на BRAS
если речь про клиентов, то они же просто пишут письмо на support@, а если мы говорим про техподдержку, то ответ на пришедший тикет тоже делается один кликом и заполнением одного поля(сам ответ)