Добавлю про своих детей:
— старшая, сейчас 16. Отучилась в музыкальной школе, причём каждый год ей предлагалось бросить — отказывалась. Лет до 12 занималась в танцевальной секции, сейчас ходит на баскетбол, куда записалась самостоятельно.
— младший, 10. Учится в музыкальной школе (захотел по примеру сестры), бросить отказывается, занимается, кстати, серьёзней, чем старшая в его возрасте. Занимается карате c 6 лет 5 раз в неделю (3 раза — обычные тренировки, 2 — отдельные тренировки сборной), бросить отказывается.
Многое зависит от того, кто ведёт эти секции и от цели, которую преследовали, когда отдавали детей. То есть, одно дело — потешить _своё_ самолюбие на предмет «моя на концертах выступает!» или просто дать ребёнку дополнительную физическую нагрузку, так как на прогулку не выгонишь.
На самом деле тут была ошибка проектирования, достаточно было десятка на всё.
Потом пришли к этому числу, но под высокой нагрузкой всё равно связность между контейнерами накрывалась.
Менеджер в сварме не застрахован от размещения контейнеров, если не писать для этого отдельное правило руками в каждом .yml. До oom/высокого LA если и доходило, то точно не за несколько месяцев до переделки, так что тут пофиг, вобщем-то, хоть и несколько неправильно.
Что касается dns — на воркерах сварма часть контейнеров не видела ип-адреса соседей по сети. Только на воркерах. На некоторое время решалось рестартом всех зависимых друг от друга стеков в определённом порядке, но это геморрой. Однозначно решилось переделкой всех воркеров на менеджеры.
Оверлейных, конечно… Впрочем, добавление ~40 контейнеров в одну оверлейную сеть примерно так же влияло, только нагрузка требовалась бОльше.
Узлов было 8, всех пришлось сделать менеджерами как обход другого бага, на этот раз с днс внутри контейнера (на момент переделки тоже не был закрыт несколько лет).
Симптомы — тупо не было связи между контейнерами на разных узлах, никаких потерь узлов и т.п.
Подозреваю, что с host network если не все проблемы, то бОльшая часть решилась бы, но host network — это для бОльшей части контейнеров перебор, там не зря nginx с ssl auth был установлен на фронте.
Зависит от объёма кластера и нагрузки на него. Кубернетес таки местами устанавливает адекватные настройки системы, в отличие от сварма, полагающегося на админа, к примеру.
Далее, немного разные сети, в кубернетесе, к примеру, по-умолчанию все связаны со всеми, что несколько проще для понимания и даёт мЕньшую нагрузку на conntrack (если не настраивать систему, как большинство докерастов делает, позже упрётся в net.netfilter.nf_conntrack_max, который ещё и поправляется кубернетесом в бОльшую сторону).
Ну и незакрывающиеся баги тоже влияют, отчего у нас некоторое время назад _пришлось_ отказаться от сварма о девяти узлах в пользу просто кучки докеров и ручной оркестрации из-за того, что сварм после какого-то количества сетей (порядка трёх десятков) стал терять связность между контейнерами — тоже показатель (на гитхабе на момент переезда соответствующие issue открыты уже 4 года). В сторону кубернетеса смотрим, но пока именно смотрим — слишком много переделывать придётся на работающей системе.
Проблема в том, что точно такое же поведение — при исправном, но недостаточно плотно закрытом чайнике. И да, без воды — греет (один из экземпляров таки расплавился до того, как заметили и выдернули).
Ну да, ну да… Простой пример — русско-китайский чайник «Витёк».
Если крышка закрыта — таки отключается как надо, при закипании.
Если крышка чуть-чуть приоткрыта (чайник уронили, крепление крышки отломилось) — кипятит до упора.
Проблема в том, что zfs при поломках значительно сложней чинить… Под линуксом zfs всё ж менее надёжна, чем тупая и не самая быстрая ext4, но которая в 99% случаев даже не потребует fsck при ребуте кнопкой.
Под фрей поломать zfs мне не удавалось, а вот под линуксом на не слишком интенсивном i/o, но зато на требовательных по памяти задачах — получил oom с kernel panic и потерю данных в разделе с zfs. Ну и, к тому же, отдавать до четверти памяти под рабочие структуры фс — иногда перебор, тут всё ж не сервер-хранилище, а запускалка приложений в виртуалке с единственным /dev/vda.
Подозреваю, что встроенное в материнку в любом случае работает хуже программного рейда. Даже на серверах HP вполне себе аппаратный рейд тормознее, чем программный рейд поверх тех же дисков через тот же контроллер…
Ну и про fakeraid забывать тоже не стоит, бывало всякое…
Если хостер не владеет каналами связи — он не обязан фильтровать, соответственно, никаких ревизоров с этой стороны. Ну и денег за почту тоже нельзя брать, как за телематическую услугу. И некоторые другие услуги тоже нельзя оказывать (хостинг/вдс к ним не относится), дабы не попасть на лицензию.
А вот в датацентр может приходить и нефильтрованное, что иногда и случается даже с э… одним общероссийским крупным провайдером, который многие сильно ругают как за фильтрацию в частности, так и за качество услуг вообще :-)
Да вроде и гуй давно уж есть. Правда, не уверен насчёт красивости, но выбрать что-то типа «этот монитор слева от основного, вон тот — справа» можно уж точно больше 5 лет.
А это вопрос практики скорее. Лично у меня более-менее приличный навык появился после того, как в течение примерно месяца переводил объёмный текст и в процессе набора таки старался смотреть только на экран, исправляя ошибки.
— старшая, сейчас 16. Отучилась в музыкальной школе, причём каждый год ей предлагалось бросить — отказывалась. Лет до 12 занималась в танцевальной секции, сейчас ходит на баскетбол, куда записалась самостоятельно.
— младший, 10. Учится в музыкальной школе (захотел по примеру сестры), бросить отказывается, занимается, кстати, серьёзней, чем старшая в его возрасте. Занимается карате c 6 лет 5 раз в неделю (3 раза — обычные тренировки, 2 — отдельные тренировки сборной), бросить отказывается.
Многое зависит от того, кто ведёт эти секции и от цели, которую преследовали, когда отдавали детей. То есть, одно дело — потешить _своё_ самолюбие на предмет «моя на концертах выступает!» или просто дать ребёнку дополнительную физическую нагрузку, так как на прогулку не выгонишь.
Причём с gps, дабы не перепродавали.
Потом пришли к этому числу, но под высокой нагрузкой всё равно связность между контейнерами накрывалась.
Надеюсь, в хромиуме таки появится.
Что касается dns — на воркерах сварма часть контейнеров не видела ип-адреса соседей по сети. Только на воркерах. На некоторое время решалось рестартом всех зависимых друг от друга стеков в определённом порядке, но это геморрой. Однозначно решилось переделкой всех воркеров на менеджеры.
Узлов было 8, всех пришлось сделать менеджерами как обход другого бага, на этот раз с днс внутри контейнера (на момент переделки тоже не был закрыт несколько лет).
Симптомы — тупо не было связи между контейнерами на разных узлах, никаких потерь узлов и т.п.
Подозреваю, что с host network если не все проблемы, то бОльшая часть решилась бы, но host network — это для бОльшей части контейнеров перебор, там не зря nginx с ssl auth был установлен на фронте.
Далее, немного разные сети, в кубернетесе, к примеру, по-умолчанию все связаны со всеми, что несколько проще для понимания и даёт мЕньшую нагрузку на conntrack (если не настраивать систему, как большинство докерастов делает, позже упрётся в net.netfilter.nf_conntrack_max, который ещё и поправляется кубернетесом в бОльшую сторону).
Ну и незакрывающиеся баги тоже влияют, отчего у нас некоторое время назад _пришлось_ отказаться от сварма о девяти узлах в пользу просто кучки докеров и ручной оркестрации из-за того, что сварм после какого-то количества сетей (порядка трёх десятков) стал терять связность между контейнерами — тоже показатель (на гитхабе на момент переезда соответствующие issue открыты уже 4 года). В сторону кубернетеса смотрим, но пока именно смотрим — слишком много переделывать придётся на работающей системе.
Если крышка закрыта — таки отключается как надо, при закипании.
Если крышка чуть-чуть приоткрыта (чайник уронили, крепление крышки отломилось) — кипятит до упора.
Под фрей поломать zfs мне не удавалось, а вот под линуксом на не слишком интенсивном i/o, но зато на требовательных по памяти задачах — получил oom с kernel panic и потерю данных в разделе с zfs. Ну и, к тому же, отдавать до четверти памяти под рабочие структуры фс — иногда перебор, тут всё ж не сервер-хранилище, а запускалка приложений в виртуалке с единственным /dev/vda.
Т.е. под фф, к примеру, тупо не работает Ctrl-C/Ctrl-V
Ну и про fakeraid забывать тоже не стоит, бывало всякое…
А вот в датацентр может приходить и нефильтрованное, что иногда и случается даже с э… одним общероссийским крупным провайдером, который многие сильно ругают как за фильтрацию в частности, так и за качество услуг вообще :-)
UPD: буду таки обновлять комменты перед постом…