На роутере не меньше сотни, нормальный кабель, диски родные, но не должны так просаживаться, смарт проходят... Не знаю, на что грешить кроме CPU, а перепрошивать, с учетом аналогичных отзывов с уже прошитых моделей - лень. Может, каким-нибудь тоскливым осенним вечером дойду и до этого :)
В моём случае предполагается, что в шкафу лежит выключенным, так что температурного режима должна хватать :) Но видимо надо не выпендриваться, а просто брать коробку с USB 3.0 и подключать её напрямую, когда вынимаешь из шкафа.
Так в статье я и написал, что у меня сервер в писюке собран, ровно из этих соображений. Просто хочется иногда вынимать из шкафа какую-то мелкую фигню, включать её проводом в сеть и закидывать туда обновления. Казалось, что должно этой штуки ровно на такую задачу хватить, но увы.
Так, завёл его, проблема была в блоке питания. Но беда, это старая моделька wdbvht0060jch - у неё 800Mhz, 512 RAM. И даже если поставить туда Debian 12/OpenWRT - скорость записи останется примерно 10 мбит, судя по всем отзывам в интернетах. А это даже для холодного хранилища слишком мало. Видимо, придётся утилизировать... Жалко.
Вчера его нашёл в шкафу, думал оживить посмотреть. Но чёт не завёлся. Буду сегодня ночью смотреть, может диски умерли. Вроде как на одном ресурсе есть под него 12 дебиан. По идее, если поставить пустой - должно быть нормально...
Да, у меня тоже такой был, и тоже очень медленный. Так и не разобрался, почему. То ли диски уже мёртвые, то ли какие-то софтовые проблемы... Вынуть что ли из шкафа посмотреть... Ну и конечно на него фиг что поставишь дополнительно.
По CPU. Ну смотря что вы с этим хотите делать. Если оно должно просто лежать, и иногда туда-сюда копироваться, то в целом пофиг, какой там CPU. Если же хочется медиа библиотеку и поиск лиц, то лучше пошустрее. Но в целом и хилый CPU переварит такие задачи - просто займёт это дольше. Если же хочется, чтобы помимо этого там ещё какие-то сервисы крутились - то да, точно нужно что-то помощнее :)
По облаку. С такими объёмами уже появляются вопросики по стоимости и актуальности облачного бекапа. Ну и опять же вопрос - насколько это ценно, и надо ли шарить другим людям. Хотя конечно можно и со своей инсталляции шарить.
По HDD/SSD. Сама OS и софт по хорошему должна конечны на SSD стоять. Насчёт баз - тут можно потюнить, чтобы они часто на диск не писали. Ну или просто вынести раздел базы с данными на HDD. Холодный запуск будет медленнее, ну и фиг бы с ним.
В целом выглядит что неплохо бы использовать RAID, но тут не подскажу, не разбираюсь, в силу того, что мне хватает облака.
Ну и в любом случае я бы отдельно опять же использовал холодное хранилище, на которое периодически закидывал всё важное.
На всякий случай уточню, что у меня другой use case, и это скорее общие соображения, в которых я могу ошибаться.
У меня он до фригейта стоял. На первый взгляд симпатичнее и куча фич, но все в каком-то полусыром состоянии, и ресурсы жрёт дико. Но это было года три назад, может что поменялось. Тогда они кажется в паблик только старые исходники отдавали, а сейчас я вижу что вроде актуальные на гитлабе.
Ну да, я старался делать ремарки, что это кажется оптимальным лично мне конкретно для моей конфигурации, но видимо надо чаще их ставить. Пойду добавлю про это в статью.
Реплики нет, но отвал vps кажется маловероятным, меня пока это облако не подводило. Кроме того, я периодически делаю слепки его дисков, и могу его переподнять удалённо примерно за полчаса. А вот с домашним сервером такое не прокатит.
На случай, если вы не в курсе, маркетинг - это платная услуга от людей, работающих в рекламе. Я работаю в разработке, и ещё пишу учебные курсы. Не вижу оснований искажать или утаивать детали моего конкретного сетапа, ориентируясь на аллергию людей на какие-то компании. Был бы у меня какой-то софт и железо других компаний - упомянул бы их. Но не сложилось. Впрочем, есть люди, которые хотят везде грязь какую-то увидеть, печально это.
деградация производительности при таких настройках получается существенная уже при БД размером свыше гигабайта.
Ну вот опять же вопрос, что там крутится, и какая производительность нужна. У меня все базы довольно мелкие (как раз до гигабайта), и мне не требуется оптимальная производительность ни в одной из них.
Если делать пользователю неудобно - он быстро найдёт аналоги. Вспомните про рекламу и свистелки в оригинальной ICQ - кажется, большая часть пользователей довольно быстро ушли на миранду, &RQ и остальные альтернативные клиенты.
Так что бывает, что компании стреляют себе в ногу, пользователей и бюджет - но это скорее исключение.
Ну, тут строгой терминологии нет, я в статье тоже говорил, что кусок инфраструктуры у меня на тачку в облаке вынесен. И там и там есть свои плюсы и минусы. Например, облако не вытащит тётенька-клинер из розетки, его кабель питания не сожрёт кролик, оно не сгорит в пожаре, и у него с заметно меньшей вероятностью откажут диски (если мы про облако, а не колокейшн, конечно же).
А это хороший вопрос! На текущем сетапе у меня выходит 1 инстанс Postgres на домашнем сервере (для Home Assistant) и три на облачном (vaultwarden+zabbix+authentik). Всего на домашнем сервере у меня запущено 20 контейнеров и занято порядка 4 GB памяти из 8, а на удалённом - 22 контейнера и занято порядка 2.5 из 4 GB. Понятно, что на значения из вывода top и glances полагаться нельзя, потому есть shared memory. С другой стороны, по идее есть дефолтный лимит на контейнеры в 64 MB shared memory, который я нигде не поднимал. Так что отвечу так - пока что я не упирался в лимит по памяти, чтобы всерьёз об этом задуматься. И скорее всего большинство владельцев self hosted в него тоже не упрутся. Если же когда-то у меня возникнет задача хостить с десяток разных баз, то тут я уже задумаюсь.
Но, судя по тому, что три инстанса Postgres работают на сервере с 19 другими контейнерами (в том числе некоторые из них явно прожорливы по памяти), и всем хватает с избытком - речь таки не идёт про гигабайты на инстанс.
Ну и да - в целом нет проблем раздать внутри одного контейнера права доступа к базам таким образом, чтобы изолировать друг от друга данные разных приложений. И не сложно настроить бэкап. Просто станет чуток менее прозрачной нагрузка - надо будет смотреть её непосредственно в базе, а не по самому контейнеру. Так что если у вас правда много баз - почему нет.
Сделал по инструкции - всё работает.
Единственное что - почему-то не стартует самостоятельно shadowsocks:
Собственно, без запуска просто получалось, что все сайты в списке не открывались.
Как правильно запускать автоматически - не знаю, поэтому просто дописал в
/opt/etc/crontabстрочкуТак что каждые 10 минут запускает службу, если ещё не запущена.
На роутере не меньше сотни, нормальный кабель, диски родные, но не должны так просаживаться, смарт проходят... Не знаю, на что грешить кроме CPU, а перепрошивать, с учетом аналогичных отзывов с уже прошитых моделей - лень. Может, каким-нибудь тоскливым осенним вечером дойду и до этого :)
В моём случае предполагается, что в шкафу лежит выключенным, так что температурного режима должна хватать :)
Но видимо надо не выпендриваться, а просто брать коробку с USB 3.0 и подключать её напрямую, когда вынимаешь из шкафа.
Так в статье я и написал, что у меня сервер в писюке собран, ровно из этих соображений.
Просто хочется иногда вынимать из шкафа какую-то мелкую фигню, включать её проводом в сеть и закидывать туда обновления. Казалось, что должно этой штуки ровно на такую задачу хватить, но увы.
Так, завёл его, проблема была в блоке питания.
Но беда, это старая моделька wdbvht0060jch - у неё 800Mhz, 512 RAM. И даже если поставить туда Debian 12/OpenWRT - скорость записи останется примерно 10 мбит, судя по всем отзывам в интернетах. А это даже для холодного хранилища слишком мало. Видимо, придётся утилизировать... Жалко.
Вчера его нашёл в шкафу, думал оживить посмотреть. Но чёт не завёлся. Буду сегодня ночью смотреть, может диски умерли. Вроде как на одном ресурсе есть под него 12 дебиан. По идее, если поставить пустой - должно быть нормально...
Тот самый момент, когда ты считаешь себя параноиком, но узнаёшь, что кто-то бэкапит бинарники андроид приложений Т_Т
Ну вообще там есть бэкап. TakeOut называется. Я раз в несколько месяцев делаю. Правда, ни разу пока с ним не пробовал что-то сделать.
А что вы бэкапите? У меня просто ничего важного кроме фотографий, которые в облако уходят. И оттуда на мой сервер.
Да, у меня тоже такой был, и тоже очень медленный. Так и не разобрался, почему. То ли диски уже мёртвые, то ли какие-то софтовые проблемы... Вынуть что ли из шкафа посмотреть... Ну и конечно на него фиг что поставишь дополнительно.
По CPU. Ну смотря что вы с этим хотите делать. Если оно должно просто лежать, и иногда туда-сюда копироваться, то в целом пофиг, какой там CPU. Если же хочется медиа библиотеку и поиск лиц, то лучше пошустрее. Но в целом и хилый CPU переварит такие задачи - просто займёт это дольше. Если же хочется, чтобы помимо этого там ещё какие-то сервисы крутились - то да, точно нужно что-то помощнее :)
По облаку. С такими объёмами уже появляются вопросики по стоимости и актуальности облачного бекапа. Ну и опять же вопрос - насколько это ценно, и надо ли шарить другим людям. Хотя конечно можно и со своей инсталляции шарить.
По HDD/SSD. Сама OS и софт по хорошему должна конечны на SSD стоять. Насчёт баз - тут можно потюнить, чтобы они часто на диск не писали. Ну или просто вынести раздел базы с данными на HDD. Холодный запуск будет медленнее, ну и фиг бы с ним.
В целом выглядит что неплохо бы использовать RAID, но тут не подскажу, не разбираюсь, в силу того, что мне хватает облака.
Ну и в любом случае я бы отдельно опять же использовал холодное хранилище, на которое периодически закидывал всё важное.
На всякий случай уточню, что у меня другой use case, и это скорее общие соображения, в которых я могу ошибаться.
У меня он до фригейта стоял. На первый взгляд симпатичнее и куча фич, но все в каком-то полусыром состоянии, и ресурсы жрёт дико. Но это было года три назад, может что поменялось. Тогда они кажется в паблик только старые исходники отдавали, а сейчас я вижу что вроде актуальные на гитлабе.
Ну да, я старался делать ремарки, что это кажется оптимальным лично мне конкретно для моей конфигурации, но видимо надо чаще их ставить. Пойду добавлю про это в статью.
Реплики нет, но отвал vps кажется маловероятным, меня пока это облако не подводило. Кроме того, я периодически делаю слепки его дисков, и могу его переподнять удалённо примерно за полчаса. А вот с домашним сервером такое не прокатит.
На случай, если вы не в курсе, маркетинг - это платная услуга от людей, работающих в рекламе. Я работаю в разработке, и ещё пишу учебные курсы. Не вижу оснований искажать или утаивать детали моего конкретного сетапа, ориентируясь на аллергию людей на какие-то компании. Был бы у меня какой-то софт и железо других компаний - упомянул бы их. Но не сложилось. Впрочем, есть люди, которые хотят везде грязь какую-то увидеть, печально это.
Ну вот опять же вопрос, что там крутится, и какая производительность нужна. У меня все базы довольно мелкие (как раз до гигабайта), и мне не требуется оптимальная производительность ни в одной из них.
Если делать пользователю неудобно - он быстро найдёт аналоги.
Вспомните про рекламу и свистелки в оригинальной ICQ - кажется, большая часть пользователей довольно быстро ушли на миранду, &RQ и остальные альтернативные клиенты.
Так что бывает, что компании стреляют себе в ногу, пользователей и бюджет - но это скорее исключение.
Ну, тут строгой терминологии нет, я в статье тоже говорил, что кусок инфраструктуры у меня на тачку в облаке вынесен. И там и там есть свои плюсы и минусы. Например, облако не вытащит тётенька-клинер из розетки, его кабель питания не сожрёт кролик, оно не сгорит в пожаре, и у него с заметно меньшей вероятностью откажут диски (если мы про облако, а не колокейшн, конечно же).
А это хороший вопрос!
На текущем сетапе у меня выходит 1 инстанс Postgres на домашнем сервере (для Home Assistant) и три на облачном (vaultwarden+zabbix+authentik). Всего на домашнем сервере у меня запущено 20 контейнеров и занято порядка 4 GB памяти из 8, а на удалённом - 22 контейнера и занято порядка 2.5 из 4 GB. Понятно, что на значения из вывода top и glances полагаться нельзя, потому есть shared memory. С другой стороны, по идее есть дефолтный лимит на контейнеры в 64 MB shared memory, который я нигде не поднимал. Так что отвечу так - пока что я не упирался в лимит по памяти, чтобы всерьёз об этом задуматься. И скорее всего большинство владельцев self hosted в него тоже не упрутся. Если же когда-то у меня возникнет задача хостить с десяток разных баз, то тут я уже задумаюсь.
Но, судя по тому, что три инстанса Postgres работают на сервере с 19 другими контейнерами (в том числе некоторые из них явно прожорливы по памяти), и всем хватает с избытком - речь таки не идёт про гигабайты на инстанс.
Ну и да - в целом нет проблем раздать внутри одного контейнера права доступа к базам таким образом, чтобы изолировать друг от друга данные разных приложений. И не сложно настроить бэкап. Просто станет чуток менее прозрачной нагрузка - надо будет смотреть её непосредственно в базе, а не по самому контейнеру. Так что если у вас правда много баз - почему нет.
У меня когда-то были сервера в хетзнере. Всё неплохо и недорого, но иногда падают вдребезги.