Присоединюсь к коменатору выше по поводу keydb — почему его не рассматривали вообще? Ну предположим страшно — переписанный redis и непонятно чего можно ожидать.
А как же решения проверенные временем для ванильного redis:
1) github.com/Netflix/dynomite — невероятно мощная штука по возможностям — сделать такое на ванильном redis невозможно в принципе — отказоустойчивость, репликация между dc и т.д.;
2) github.com/twitter/pelikan (новая инкарнация github.com/twitter/twemproxy) — так же отличное решение, с чуть менее широким кругом применения
как на счет тестов производительности? откуда 2 мсек задержки?
Далее приведены факты, они могут быть проверены из открытых источников, можно заказать оборудование на тест у местных реселлеров и т.д.
Я не имею никакого отношения к компании Nutanix и это не реклама :)
Вот эта фраза сразу цепляет:
Многие компании — производители ГКС (особенно те, у которых в портфеле нет СХД) говорят: «СХД отживает своё, гиперконвергент only!». Это смелое заявление, но оно не совсем отражает действительность
Тут явно прослеживается отсылочка к конкретному вендору т.к. по фактам реальных конкурентов особо нет — для тех кто немного в теме HCI понятно что эта фраза точно не может относится к VMware vSAN или к HPE SimpliVity и уж подавно не может относится к Cisco HyperFlex, про Microsoft с Storage Spaces Direct я вообще промолчу как и про Red Hat Hyperconverged Infrastructure на базе gluster storage.
На рынке сейчас есть решение которое является эталонной HCI системой — это Nutanix — Erasure coding(лучший на рынке), Deduplication(inline для RAM и SSD уровней и post-process для SSD\HDD capacity уровня — фактически inline позволяет в принципе меньше записывать данных на диски в реальном времени, а post-process это capacity deduplication), Compression(inline — опять же на примере записи позволяет значительно ускорить операции за счет того что нужно меньше данных записать на диски, offline), Storage Tiering(лучший или один из лучших на рынке).
Так же есть Rack Fault Tolerance позволяющий управлять отказоустойчивостью нод, блоков и стоек с учетом механизма Erasure coding.
При это все эти технологии могут быть использованы в рамках одного кластера неограниченного(!) размера.
Производительность:
очень много различных тестов, например longwhiteclouds.com/2017/11/14/1-million-iops-in-1-vm-world-first-for-hci-with-nutanix
As with any major achievement there is a big team involved. This time is no different. Felipe helped me get a single Ubuntu VM on Nutanix NX9030 cluster up to 1M IOPS at 4KB. 100% Random Read. I ran a series to tests to make sure it could be sustained and then thought why can’t we do 8KB instead of 4KB. After more work with Felipe and some last minute tuning by Malcolm Crossly (Staff Engineer on AHV Team), we got to 1M IOPS at 8KB 100% random read and could sustain it for 24 hours. What was also impressive was that the latency was just 110 microseconds, or 0.11ms.
1 миллион IOPS блоками по 8KB 100% random read непрерывно в течении 24 часов с latency 110 микросекунд.
Вопросы обычные к производителям HCI:
— почему вы против data locality раз уж у вас HCI и вы достоверно можете узнать на какой ноде работает виртуальный сервер, зачем лишний раз ходить куда-то по сети если этого можно не делать?;
— почему бы не сделать нормальный tiering — ram, optane, nvme — могут невероятно ускорить ввод-вывод и для этого не нужно делать весь кластер из них? ведь на самом деле эра AF схд настала из-за того что флеш начал быстро падать в цене и производители не могут или не хотят осилить нормальный tiering;
— почему вы вообще считаете нормальным вспоминать и даже предложить использовать аппаратные raid-контроллеры зная какое количество проблем они создают в реальной жизни и то что ваш софт в принципе не сможет понимать что происходит с дисковой подсистемой. Как не плохой пример можно вспомнить zfs которому практически 15 лет и уже тогда люди поняли что овчинка не стоит выделки и намного надежнее и проще работать с устройствами для хранения данных напрямую.
Я ничуть не умаляю ваших достижений — это на самом деле круто что вы делаете такие системы, тем более в рамках текущей политической ситуации такие решения могут быть хорошим выбором, но безапелляционность некоторых утверждений ставит прямо таки в тупик.
Можно взять лучшее что уже придумали сейчас другие, если появятся идеи как сделать лучше — доработать, но местами выглядит так что некоторые решения принципиально не хотят использовать только из-за того что их ранее придумал вендор X.
Ситуация прям напоминает то что происходит на рынке электрокаров — есть отличное решение, которое по совокупности всех факторов гениально, но при этом все вокруг упорно пытаются сделать так что только бы было так не у того кто делает качественное и успешное решение.
если бы в целом вообще понимали что происходит, то были бы в курсе что цена нового iphone 1200$ и цена в 600$ это именно стоимость компонентов+стоимость сборки+стоимость достаки с завода до магазина и прочие накладные расходы.
это наушники за 200 долларов у которых через довольно не большой промежуток времени деградирует аккумулятор это связано даже с тем как их используют всегда. В затычках нет аккумуляторов
Это скорее говорит о размерах проектов которыми вы занимались и их серьезности. Проекты на которых миллионы-десятки и более пользователей седят на таком железе, многие именно на F5 — используют для балансировки траффика. Ну и в целом любой нормальный энтерпрайз.
это каким образом ты понимаешь что ты вирусов не хватал если у тебя вообще нет антивируса? на дворе 2019 год. Вирусы не ломают тебе компьютер так что бы он не мог работать. Смешно.
вы шутите что ли? GlobalFoundries — это один из крупнейших производителей в полупроводниковой промышленности.
https://vrworld.com/2016/01/12/globalfoundries-outs-intel-from-top-3-semiconductor-manufacturers/
Кажется вы чего-то не знаете про нагиос — это давно уже система энтерпрайз-класса и она в принципе платная, то что доступно в опен сорс вообще не сравнимо с их готовым решением
почему решили писать с нуля, а не помочь доработать одно из существующих решений?
https://github.com/conprof/conprof тут идея интересная
https://github.com/segmentio/pprof-server отличный, взрослый проект
А как же решения проверенные временем для ванильного redis:
1) github.com/Netflix/dynomite — невероятно мощная штука по возможностям — сделать такое на ванильном redis невозможно в принципе — отказоустойчивость, репликация между dc и т.д.;
2) github.com/twitter/pelikan (новая инкарнация github.com/twitter/twemproxy) — так же отличное решение, с чуть менее широким кругом применения
Далее приведены факты, они могут быть проверены из открытых источников, можно заказать оборудование на тест у местных реселлеров и т.д.
Я не имею никакого отношения к компании Nutanix и это не реклама :)
Вот эта фраза сразу цепляет:
Тут явно прослеживается отсылочка к конкретному вендору т.к. по фактам реальных конкурентов особо нет — для тех кто немного в теме HCI понятно что эта фраза точно не может относится к VMware vSAN или к HPE SimpliVity и уж подавно не может относится к Cisco HyperFlex, про Microsoft с Storage Spaces Direct я вообще промолчу как и про Red Hat Hyperconverged Infrastructure на базе gluster storage.
На рынке сейчас есть решение которое является эталонной HCI системой — это Nutanix — Erasure coding(лучший на рынке), Deduplication(inline для RAM и SSD уровней и post-process для SSD\HDD capacity уровня — фактически inline позволяет в принципе меньше записывать данных на диски в реальном времени, а post-process это capacity deduplication), Compression(inline — опять же на примере записи позволяет значительно ускорить операции за счет того что нужно меньше данных записать на диски, offline), Storage Tiering(лучший или один из лучших на рынке).
Так же есть Rack Fault Tolerance позволяющий управлять отказоустойчивостью нод, блоков и стоек с учетом механизма Erasure coding.
При это все эти технологии могут быть использованы в рамках одного кластера неограниченного(!) размера.
Производительность:
очень много различных тестов, например
longwhiteclouds.com/2017/11/14/1-million-iops-in-1-vm-world-first-for-hci-with-nutanix
1 миллион IOPS блоками по 8KB 100% random read непрерывно в течении 24 часов с latency 110 микросекунд.
Вопросы обычные к производителям HCI:
— почему вы против data locality раз уж у вас HCI и вы достоверно можете узнать на какой ноде работает виртуальный сервер, зачем лишний раз ходить куда-то по сети если этого можно не делать?;
— почему бы не сделать нормальный tiering — ram, optane, nvme — могут невероятно ускорить ввод-вывод и для этого не нужно делать весь кластер из них? ведь на самом деле эра AF схд настала из-за того что флеш начал быстро падать в цене и производители не могут или не хотят осилить нормальный tiering;
— почему вы вообще считаете нормальным вспоминать и даже предложить использовать аппаратные raid-контроллеры зная какое количество проблем они создают в реальной жизни и то что ваш софт в принципе не сможет понимать что происходит с дисковой подсистемой. Как не плохой пример можно вспомнить zfs которому практически 15 лет и уже тогда люди поняли что овчинка не стоит выделки и намного надежнее и проще работать с устройствами для хранения данных напрямую.
Я ничуть не умаляю ваших достижений — это на самом деле круто что вы делаете такие системы, тем более в рамках текущей политической ситуации такие решения могут быть хорошим выбором, но безапелляционность некоторых утверждений ставит прямо таки в тупик.
Можно взять лучшее что уже придумали сейчас другие, если появятся идеи как сделать лучше — доработать, но местами выглядит так что некоторые решения принципиально не хотят использовать только из-за того что их ранее придумал вендор X.
Ситуация прям напоминает то что происходит на рынке электрокаров — есть отличное решение, которое по совокупности всех факторов гениально, но при этом все вокруг упорно пытаются сделать так что только бы было так не у того кто делает качественное и успешное решение.
https://vrworld.com/2016/01/12/globalfoundries-outs-intel-from-top-3-semiconductor-manufacturers/