Я ставил 8.0-STABLE на зеркало по методу описанному на офф сайте.
Основная проблема была в том, что после создания zraid система при копировании файлов для установки постоянно падала в панику. Победилось копированием небольшими кусками. Ну и последующей сборкой ядра с KVA_PAGES=512 и установкой при загрузке указанных в статье параметров.
В итоге получилось следующее:
А она умеет рулить массивом из 22Тб, в случае если он должен быть доступен по одной точке монтирования?
Как я понимаю тут либо zfs, либо ничего.
Или я ошибаюсь?
Вот сильно интересно посмотреть на выполненный лично вами или с вашим участием проект подобной сложности «запуска космонавта в космос». И, если не затруднит, расскажите о бюджете этого проекта.
Документы необходимо предоставить, с них снимают копии.
Может и можно, но опять же повторюсь, промышленных решений нет.
Всё остальное будет кустарничеством, а это со средним бизнесом (строительство ДЦ) не связано.
Опять же как быть с винчестерами не понятно, кому-то надо один, кому-то два.
А тут ещё SSD на подходе, которые можно в тот же атом пихать. Надо будет много разных дырок сверлить.
Я видимо, не чётко выразил свою мысль.
Проблема, как мне кажется в том, что нет стандартных промышленных решений для того что вы предлагаете.
Нет, проверка просит выдать документы на все сервера, если на какие-то нет, возникают проблемы.
Кстати, а как в вашем варианте предусмотрена замена одного из серверов?
Вынимать весь 1U?
Не думаю что с охлаждением проще, всё опять же упрётся в отсутствие стандартных решений.
Т.е. может один сервер и отдаёт 150W, а вот когда их пяток напихать в 1U, сколько оно отдавать будет и как рулить тепловые потоки внутри?
Мне реализация подобного в ДЦ видится как отдельная, специально спроектированная стойка. Где под каждый mini-itx выдаётся один слот. Ибо, как мне кажется, по другому проблему замены не решить.
Мне кажется что будут проблемы с креплением всего этого добра.
На этих корпусах даже нет крепления, как их хранить в количестве, скажем 100 штук?
Что делать с охлаждением? Ну т.е. с охлаждением стандартных 1U серверов дело откатанное, а с этими как быть?
Как быть с сертификатами? Их на сервера надо целую уйму, если их не будет, при первой проверке органами сервер «потеряется».
Не забываем про подвод питания, проводов из-за меньшего размера надо больше. Во всех ДЦ есть утверждённые схемы и подвод дополнительных кабелей может стать проблемой.
А как mini-itx горят? Вот пожар, к примеру, есть у кого статистика?
Плюс много других неясных вопросов о том как это всё будет функционировать из-за отсутствия опыта эксплуатации.
Как мне кажется предоставление услуг dedicated/collocation для mini-itx возможны только в новых ДЦ, которые для этого изначально планируются.
ps. У инфобокса как раз и есть новый ДЦ. Я не знаю в каком корпусе они ставят свои атомы. Есть мнение что всё же не на mini-itx.
Извините за дотошность, выше вы описываете затраты в 70 т.р., но я так понимаю что это совсем не полные затраты.
Не могли бы вы раскрыть другие расходы зарплаты и т.п.?
Ну это у меня богаче, а для хостинга и юзеров не объяснишь что надо писать отдельные конфиги. Если что-то будет работать не так как привыкли, техподдержку снесут звонками.
Я так понимаю инклудить надо кусок nginx конфига?
Напрямую .htaccess не получится или нет?
К сожалению, mod_rewrite over .htaccess очень популярное решение.
И пока без апача его не запустишь.
Вот если бы кто-то написал модуль для nginx для обработки директив mod_rewrite из .htaccess или, хотя бы, для конвертации «на лету» mod_rewrite директив из .htaccess в формат rewrite_nginx…
По первому пункту, датацентр выставляет нам счета с формулировкой «услуги связи», необходимо ли в этом случае что-то кроме лицензии на телематику? И какой договор необходимо заключить?
Местом предоставления услуг будет для вас место где вы принимаете деньги.
Т.е. если вы приняли деньги в РФ, значит вы оказываете эти деньги в РФ и должны иметь лицензию.
Но лицензия без узла связи в РФ не действительна, из чего следует что вы не можете предоставлять эти услуги в РФ.
Основная проблема была в том, что после создания zraid система при копировании файлов для установки постоянно падала в панику. Победилось копированием небольшими кусками. Ну и последующей сборкой ядра с KVA_PAGES=512 и установкой при загрузке указанных в статье параметров.
В итоге получилось следующее:
# gpart show
=> 34 3900682173 aacd0 GPT (1.8T)
34 128 1 freebsd-boot (64K)
162 8388608 2 freebsd-swap (4.0G)
8388770 3892293437 3 freebsd-zfs (1.8T)
=> 34 3900682173 aacd1 GPT (1.8T)
34 128 1 freebsd-boot (64K)
162 8388608 2 freebsd-swap (4.0G)
8388770 3892293437 3 freebsd-zfs (1.8T)
=> 34 3900682173 aacd2 GPT (1.8T)
34 128 1 freebsd-boot (64K)
162 8388608 2 freebsd-swap (4.0G)
8388770 3892293437 3 freebsd-zfs (1.8T)
# zpool status
pool: zroot
state: ONLINE
scrub: none requested
config:
NAME STATE READ WRITE CKSUM
zroot ONLINE 0 0 0
raidz1 ONLINE 0 0 0
gpt/disk0 ONLINE 0 0 0
gpt/disk1 ONLINE 0 0 0
gpt/disk2 ONLINE 0 0 0
errors: No known data errors
Как я понимаю тут либо zfs, либо ничего.
Или я ошибаюсь?
Может и можно, но опять же повторюсь, промышленных решений нет.
Всё остальное будет кустарничеством, а это со средним бизнесом (строительство ДЦ) не связано.
Опять же как быть с винчестерами не понятно, кому-то надо один, кому-то два.
А тут ещё SSD на подходе, которые можно в тот же атом пихать. Надо будет много разных дырок сверлить.
Проблема, как мне кажется в том, что нет стандартных промышленных решений для того что вы предлагаете.
Нет, проверка просит выдать документы на все сервера, если на какие-то нет, возникают проблемы.
Кстати, а как в вашем варианте предусмотрена замена одного из серверов?
Вынимать весь 1U?
Не думаю что с охлаждением проще, всё опять же упрётся в отсутствие стандартных решений.
Т.е. может один сервер и отдаёт 150W, а вот когда их пяток напихать в 1U, сколько оно отдавать будет и как рулить тепловые потоки внутри?
Мне реализация подобного в ДЦ видится как отдельная, специально спроектированная стойка. Где под каждый mini-itx выдаётся один слот. Ибо, как мне кажется, по другому проблему замены не решить.
На этих корпусах даже нет крепления, как их хранить в количестве, скажем 100 штук?
Что делать с охлаждением? Ну т.е. с охлаждением стандартных 1U серверов дело откатанное, а с этими как быть?
Как быть с сертификатами? Их на сервера надо целую уйму, если их не будет, при первой проверке органами сервер «потеряется».
Не забываем про подвод питания, проводов из-за меньшего размера надо больше. Во всех ДЦ есть утверждённые схемы и подвод дополнительных кабелей может стать проблемой.
А как mini-itx горят? Вот пожар, к примеру, есть у кого статистика?
Плюс много других неясных вопросов о том как это всё будет функционировать из-за отсутствия опыта эксплуатации.
Как мне кажется предоставление услуг dedicated/collocation для mini-itx возможны только в новых ДЦ, которые для этого изначально планируются.
ps. У инфобокса как раз и есть новый ДЦ. Я не знаю в каком корпусе они ставят свои атомы. Есть мнение что всё же не на mini-itx.
А как удалить аккаунт?
Здравствуйте, как удалить почтовый ящик xxx@qip.ru? Она мне совсем не нужна.
— Тема: Заявка No435397
Здравствуйте
К сожалению, удалить почтовый ящик невозможно.
— Ну нормально, да?
Это можно делать через alter?
Не надоело?
Жаль что вы этого не знаете и пишете ерунду.
Мой платёж с visa они отклонили и заморозили на 21 день.
Не могли бы вы раскрыть другие расходы зарплаты и т.п.?
Оплата бухгалтерии?
Я так понимаю инклудить надо кусок nginx конфига?
Напрямую .htaccess не получится или нет?
И пока без апача его не запустишь.
Вот если бы кто-то написал модуль для nginx для обработки директив mod_rewrite из .htaccess или, хотя бы, для конвертации «на лету» mod_rewrite директив из .htaccess в формат rewrite_nginx…
Т.е. если вы приняли деньги в РФ, значит вы оказываете эти деньги в РФ и должны иметь лицензию.
Но лицензия без узла связи в РФ не действительна, из чего следует что вы не можете предоставлять эти услуги в РФ.