Александр @alexkuzko
DevOps, системный администратор, архитектор, лид
Information
- Rating
- 4,812-th
- Location
- Минск, Минская обл., Беларусь
- Registered
- Activity
Specialization
DevOps, Site Reliability Engineer (SRE)
Lead
Kubernetes
Windows Azure
AWS
Google Cloud Platform
А еще из тинков можно сделать такой боооольшой бонд интерфейс ;)
Я сейчас сделал простой тест (overlayfs):
1) смонтировал поверх /d1 папку со своим содержимым через bind
2) проверил — в /d123 содержимого нет ни сразу, ни после сброса кеша, ни после remount
Т.е. overlayfs продолжает «видеть» файловую ниже, а не ту, что смонтировали поверх (касается и нормальных non-bind mount).
Насчет записи я подчеркнул что не тестировал aufs на параллельной записи, да и просто на запись не использую по одной очень важной причине — aufs требует полноценного перемонтирования при отмонтировании диска из перечня, а вот mhddfs это спокойно делает. Чтобы было понятно — когда список дисков это пустые директории /d1, /d2, /d3, то смонтировав их в /d123 и затем примонтировав настоящие диски в /d1, /d2, /d3 мы сразу же получим объединенное содержимое для mhddfs, но не для aufs/overlayfs, которые покажут пустоту, как и до монтирования настоящих дисков.
Вместе с тем, aufs/overlayfs заметно быстрее работает, более стабилен и меньше грузит процессор. Поэтому для файлового хранилища я делаю виртуальные объединенные read-only папки на overlayfs. И перемонтирую их когда меняются входящие в состав диски.
Количество параллельных запросов на запись никак не ускорит работу (для mhddfs — aufs/overlayfs не тестировал так)! Запись идет последовательно до заполнения (с учетом mlimit для mhddfs) первого диска по списку, потом второго и т.д. до последнего. А еще это позволяет иметь несколько копий одного и того же файла (виден будет первый, но если его удалить, то второй, если и его удалить (что интересно, удалять можно прямо с объединенной папки, каждая итерация будет удалять вышестоящий файл!), то третий и так до последнего диска в списке).
Для поклонников RAID: ничто не мешает объединять уже защищенные массивы, получив, например, аналог RAID1+0, только предсказуемый и более отказоустойчивый (и, разумеется, менее быстрый если не думать головой, а вот если ее приложить, то скорость будет такая же или чуть выше).
Т.е. опять же, планирование и еще раз планирование! И тогда результат будет очень и очень хорошим.
> /srv/storage-storage;/srv/system-storage -> /srv/storage
echo 1 > /srv/storage-storage/test
echo 2 > /srv/system-storage/test
# cat /srv/storage/test
1
# rm /srv/storage-storage/test
# cat /srv/storage/test
2
Возможно, проблема больше в Veeam, чем в ESXi, но хотелось бы понять можно ли изменить ситуацию на стороне ESXi.
Столкнулся со странной проблемой, когда при тесте скорости чтения/записи (но первично именно чтение) внутри виртуалки все хорошо, а вот если читать файл напрямую с ESXi (в консоли), то скорость в районе 33 Мб/сек (как USB 2.0 почти!) и никак выше не выходит. Что по сети, что локально (например через dd).
Заметил это когда пытался использовать Veeam для бекапа с ESXi и обнаружил катастрофическое падение скорости по сравнению с сервером на Hyper-V. Скорости 20-30 Мб/сек против 76 Мб/сек (почти гигабит) у Hyper-V. Тестировал сеть между ESXi серверами — она около 800 мегабит, т.е. в сеть не упираемся. Все исключительно из-за дисковой. Которая представляет собой RAID10 массив из SAS дисков на контроллере P410.
Куда копать, что смотреть? Думаю что не только я буду вам благодарен!
А если включить Flash, то реальный адрес утекает (вот же какая засада!), зато проверка на двухсторонний ping проходит — зеленая.
Это фишка или баг?
Как я это понимаю, данный шаг (CE) сделан был не просто так, возможно вы были вынуждены его сделать и именно поэтому началась подобная отстройка от клиентов «второго сорта».
И претензии всего-то к тому, что использование CE осложняется невнятным «Please login to access the full list of documentation». Что это такое, full list? Вот вроде бы по вашим словам на portal.nutanix.com/#/page/docs «полная документация у нас открыта для всех», а сайт говорит что нет. Кто-то недоговаривает?
Как вести себя вашим потенциальным клиентам? Личное ощущение (говорю только за себя) что если ты не сконвертируешься в платного клиента, то рискуешь что рано или поздно что-нибудь нездоровое вылезет (изменение лицензии например — я так сразу и не понял что CE лицензию еще активировать надо). Выше RedHat упомянули, у них роль CE выполняет CentOS с которой все весьма хорошо, если ты вложишься в нее, то не рискуешь своими инвестициями, тебя не заставят перейти на платный RedHat. Насчет Nutanix CE пока такого (повторюсь, по ощущениям!) сказать нельзя.
Буду благодарен за комментарии без эмоций.
Все по своим местам экономика расставит. Что будет выгоднее, то и будут использовать. А кто-то будет первым и за все это заплатит ;)
KB у Vmware открыт, и многие вещи без него было бы делать в разы сложнее.
Не укладывается в голове ваша новая политика, как-то по-детски наивно, жалеете что в бесплатный доступ выкатили решение? Лучше сразу скажите, чем палки в колеса ставить.
Если большее количество роботов не позволит получить больший совокупный эффект (вроде как 2+2=5), то использование таких роботов будет скорее маркетинговым приемом, чем реальной потребностью.
Но, вообще, радует что такие крутые штуки начали появляться!