>Давайте взглянем на Hadoop. Судя по всему, никто не знает как собирать Hadoop с нуля; это просто огромная куча из зависимостей, необходимых версий и утилит сборки.
Я вас скажу так, его собрать с 0 не знали как и 5 лет назад. Лично мне пришлось перечитать кучу документации и написать скрипты.
Обновлять его, это был еще более крутой квест — особенно в продакшене.
С другой стороны, опытные админы становится все меньше нужны. Всем начинай подавай devops.
Знай и bash и python,go, mysql, mongo,puppet,salt итд итп. В итоге ты знаешь это все, но не глубоко.
Беда эта и у программистов, пока выучишь один фреймворк, появится другой, третий сотня их.
Сейчас я на распутье куда идти дальше работать, админы не нужны, начинать программировать как то не хватает сил.
К сожелению не каждый может объяснить как работает почта, начиная отсылки из почтовый программы.
Да и сейчас на просторах how-to или устарели или могут содержать настройки вплоть до open relay :)
от себя скажу, что мне удалось реально самому воспроизвести исчезновения данных на данной серии.
Серия M5 была намного лучше. OCZ были проблемы очень частые под os x, лечилось сменой прошивки.
Сам я на текущий момент плавно перебрался на Samsung 850 pro, есть что сказать о нем? Хотя думаю что нет :)
Да еще неплохо дела у Intel, Intel 730 свой контролер, не быстрый но с хорошим запасом прочности, может быть актуально в системах где нет поддержки TRIM.
Ну где же у ceph сложная документация? Там сложность только в алгоритме CRUSH, достаточно сесть один раз почитать и вникнуть, все будет нормально. Ну и комьюните в рассылках вполне себе отвечает на вопросы.
Другое дело, что cephfs в продакшен не готов, все остальное в ceph вполне себе используется.
Я не знаю как сейчас, но раньше можно было задать вес арбитру (ArbitrationRank).
0 — не станет арбитром, 1 — станет арбитром с высоким приоритетом; 2 — нода станет арбитром только если нет претендентов с высоким приритетом.
Как раз очень удобно когда у вас появлялось 4 машины. Еще я тут свои заметки полистал, арбитром вроде бы становилась одна из нод? Т.е это машина так же может заниматься хранением данных или это можно вынести отдельно как управляющию ноду?
а чем будет лучше два машины + арбитратор, чем например три машины в кластере?
Что будет если арбитратор выйдет из строя?
Еще непонятно почему арбитр должен быть мощным? Он же просто вроде как принимает роль, кто остается работать в случаи фрагментации.
Я прекрасно понимаю, что docker несколько иное чем openvz/lxc.
Просто на текущий момент у меня все свелось к изоляции по процессам.
Отдельно nginx, отдельно mysql, от дельно mongo итд.
Просто например хотелось бы некоторых возможностей по миграции. Хотя вроде как все есть в монстре OpenStack.
CoreOS отказалась кстати от Docker в пользу Rocket.
<в заготовках для всех конфинах меняется только адрес ноды, имя ноды и список существущих нод. Текущая всегда будет последней в списке wsrep_urls
Что значит текущая? Речь идет о 1 ноде? Вроде бы как в wsrep_urls мы просто перечисляем список всех нод или нет?
На других нодах мы пишет адрес первой ноды (да собственно пример выше) или я как то вас не пойму?
Ну класика же! Попробуйте использовать 3 ноды для кворума, при двух непонятно кто живой и кто прав.
Правда когда я использовал 3 ноды, возникали вопросы с записью. См ниже.
Я вас скажу так, его собрать с 0 не знали как и 5 лет назад. Лично мне пришлось перечитать кучу документации и написать скрипты.
Обновлять его, это был еще более крутой квест — особенно в продакшене.
С другой стороны, опытные админы становится все меньше нужны. Всем начинай подавай devops.
Знай и bash и python,go, mysql, mongo,puppet,salt итд итп. В итоге ты знаешь это все, но не глубоко.
Беда эта и у программистов, пока выучишь один фреймворк, появится другой, третий сотня их.
Сейчас я на распутье куда идти дальше работать, админы не нужны, начинать программировать как то не хватает сил.
Да и сейчас на просторах how-to или устарели или могут содержать настройки вплоть до open relay :)
Народ как раз активно жалуется, см ниже.
Почитать, что и как можно тут
forums.overclockers.ru/viewtopic.php?f=24&t=473790&sid=d566f9e67a011b8504dd795de36017bb
от себя скажу, что мне удалось реально самому воспроизвести исчезновения данных на данной серии.
Серия M5 была намного лучше. OCZ были проблемы очень частые под os x, лечилось сменой прошивки.
Сам я на текущий момент плавно перебрался на Samsung 850 pro, есть что сказать о нем? Хотя думаю что нет :)
Да еще неплохо дела у Intel, Intel 730 свой контролер, не быстрый но с хорошим запасом прочности, может быть актуально в системах где нет поддержки TRIM.
Другое дело, что cephfs в продакшен не готов, все остальное в ceph вполне себе используется.
Под DOS были и другие программы, только вот сейчас название не вспомню.
P.S. Посмотрел на русском секунды, это же жесть какая :)
Давно я это видел, но вот теперь подумалось. Есть ли постановки с такими эффектами? Богатая же тема.
>Diana Deutsch's — Phantom Words
Мне лично слышатся no way и немного window
Вообще 10. Были 5,8 и 10.
Еще был NEC V20, который сам по себе был быстрее на 20% стандартного 8088.
0 — не станет арбитром, 1 — станет арбитром с высоким приоритетом; 2 — нода станет арбитром только если нет претендентов с высоким приритетом.
Как раз очень удобно когда у вас появлялось 4 машины. Еще я тут свои заметки полистал, арбитром вроде бы становилась одна из нод? Т.е это машина так же может заниматься хранением данных или это можно вынести отдельно как управляющию ноду?
Что будет если арбитратор выйдет из строя?
Еще непонятно почему арбитр должен быть мощным? Он же просто вроде как принимает роль, кто остается работать в случаи фрагментации.
Просто на текущий момент у меня все свелось к изоляции по процессам.
Отдельно nginx, отдельно mysql, от дельно mongo итд.
Просто например хотелось бы некоторых возможностей по миграции. Хотя вроде как все есть в монстре OpenStack.
CoreOS отказалась кстати от Docker в пользу Rocket.
Что значит текущая? Речь идет о 1 ноде? Вроде бы как в wsrep_urls мы просто перечисляем список всех нод или нет?
На других нодах мы пишет адрес первой ноды (да собственно пример выше) или я как то вас не пойму?
Можно все же пример?
У меня вот другой вопрос: Думаю уйти с openvz, насколько можно переползти с него в docker?
Возникают вопросы с кластером :)
Правда когда я использовал 3 ноды, возникали вопросы с записью. См ниже.