В случае с нашим арктическим ЦОД речь идёт о дрейфующей льдине, и сделать там дата-центр с подходящей терморегуляцией непросто. Потому проект будет развернут на базе защищенного оборудования Dell, такие системы нередко используют военные или добывающие компании по всему миру.
Клиентских виртуалок, как вы правильно догадались, не будет – проект сугубо исследовательский. Наш сервер будет агрегировать различную телеметрию, обрабатывать данные на месте, а затем отправлять их на спутник. Со спутника информация будет уходить на «большую землю». Работа с данными на месте позволит сэкономить на связи – ведь передается уже обработанная информация. К тому же, если использовать альтернативный (в нашем случае – резервный) канал в виде системы Iridium, получится еще и сэкономить.
Мы будем отслеживать точность полученных данных и, возможно, даже потестим работу всей системы в условиях северных сияний – они, как известно, тоже могут повлиять на качество сигнала. Часть данных будет доступна в незашифрованном виде на сайте проекта. Там же есть подробная инструкция о том, как считать и получить эту информацию.
Выводов о проекте заранее мы делать не можем, но обязательно поделимся ими здесь, на Хабре. Уверены, что результаты исследования пригодятся в освоении региона в будущем.
Из шести описанных компаний мы продолжаем работать только с двумя — швейцарским дата-центром и компанией Джет.
По зарубежным дата-центрам, к сожалению, это довольно распространенная практика поддержки, тут уходить просто некуда, так что воспринимайте критику в их адрес — как крик души.
Компания Джет является одной из двух реально кредитующих краудфайндинговых платформ в нашей стране, заменить их на кого-то невозможно. Критика в их адрес — попытка улучшения качества их работы с заемщиками.
По банку. Около 2/3 клиентов юрлиц платят, повторяя предыдущий платеж, не обращая внимание на огромное предупреждение о смене реквизитов. Чтобы клиенты перестали платить по прежним реквизитам, по нашему предыдущему опыту, требуется до полугода. Соответственно, значительная часть клиентов продолжает платить по старым реквизитам, которые 29 декабря блокируются до 9 января. Предложенные банком новые реквизиты тоже не работают до 9 января, деньги автоматически отправляются отправителю, который также далеко не сразу это выясняет.
В итоге клиентам были предложены реквизиты в другом банке. Но часть платежей зависли на праздники, и услуги мы оказывали в кредит.
Вопрос — зачем нужно было осуществлять переход именно 29 декабря, когда связаться с бухгалтерией контрагентов невозможно, остается открытым.
Я пытался выиграть 2 приза, сначала авторизовавшись через Хабр, а потом через Telegram. Шутка. Но задвоение возможно действительно из-за того, что использовал рпзличные способы авторизации для двух сессий.
Смотрите, нам удобнее считать на ширину канала, потому что всё масштабируется. Есть ёмкость, есть фактическое потребление. Фактическое потребление обычно считается в объёме, а не канале, но для расчёта железа на год нам практичнее считать в утилизации канала. На каждый 1 Гбит/с утилизации приходиться 60 Тб хранилища. То есть зная утилизацию каналов группы серверов, мы прогнозируем объём хранения.
Верхняя оценка основана на опыте из различных тестов и исследований и на информации из открытого доступа.
Обычно весь NetFlow составляет от 0,5% до 1,5% от общего объема трафика.
Взята верхняя оценку из-за отсутствия сэмплирования в законе. Хранения полного объема данных нужно из-за постоянных атак с обеих сторон. А еще из-за того, что хостеры, как правило, платят за трафик постфактум, с учетом превышения. То есть если номинально гигабит, а реально больше, никто не режет.
То есть в расчетах мы исходим из худшего сценария.
Дальше математика: 1 * 60 * 60 * 24 * 365 = 31 536 000 гибит в год или 3942 Тб
1,5 % от них примерно 60 Тб
Далеко не все хостеры имеют свои маршрутизаторы в каждой точке. Обычно они ставят сервер в предоставленных ДЦ (за что им и платят). В таких случаях у хостеров может может не быть доступа к управлению и настройке NetFlow (или других инструментов для мониторинга трафика).
Нет, у меня нет подробностей. В Европе просто есть аналогичные типы оборудования, как ТСПУ у нас, точно так же приходят запросы от полиции. Просто в каждой стране по-разному.
Интернет в этом дата-центре предоставлен как местными, так и крупнейшими международными провайдерами. Связность сети внутри региона, к сожалению, действительно оставляет желать лучшего.
Проблема это довольно непростая, потому что затрагивает не всех, и сложно выявить закономерность, у кого она возникает. Операторы над улучшением связности работают, мы по-возможности разбираемся с каждым конкретным случаем. Пришлите трассировку в лс, попробуем посмотреть, что там такое.
Да, всё можно было сделать. 2.7 кельвина на низкой орбите Земли не бывает. Телеметрия со спутника же есть. Средняя температура спутника-сервера ≈4 градуса. Бывают «провалы» до -15. От 258,15 до 288,15 °K. Средняя 277,15 °K.
Ну, значит, бизнес-план такой: во-первых, построим орбитальную базу, чтобы был стабильный приём синхронизирующего лазера. Во-вторых, поставим вторую базу на орбиту где-то по дороге, или даже несколько, чтобы была сеть, обеспечивающая минимальное расстояние туда-сюда для синхронизации. В-третьих, надо успеть урвать доменные зоны типа .mars, .humans, .earth. И дальше заняться SMS/MMS-бизнесом и библиотеками!
Оценка дана со слов представителей отрасли, испытательного центра. Полный цикл разработки КА с нуля до запуска быстрее 8 месяцев нам не известен, но и каких-то официальных таблиц рекордов тоже нет. Если вы знаете быстрее, напишете, пожалуйста. А доказать отсутствие рекорда научным методом невозможно.
В случае с нашим арктическим ЦОД речь идёт о дрейфующей льдине, и сделать там дата-центр с подходящей терморегуляцией непросто. Потому проект будет развернут на базе защищенного оборудования Dell, такие системы нередко используют военные или добывающие компании по всему миру.
Клиентских виртуалок, как вы правильно догадались, не будет – проект сугубо исследовательский. Наш сервер будет агрегировать различную телеметрию, обрабатывать данные на месте, а затем отправлять их на спутник. Со спутника информация будет уходить на «большую землю». Работа с данными на месте позволит сэкономить на связи – ведь передается уже обработанная информация. К тому же, если использовать альтернативный (в нашем случае – резервный) канал в виде системы Iridium, получится еще и сэкономить.
Мы будем отслеживать точность полученных данных и, возможно, даже потестим работу всей системы в условиях северных сияний – они, как известно, тоже могут повлиять на качество сигнала. Часть данных будет доступна в незашифрованном виде на сайте проекта. Там же есть подробная инструкция о том, как считать и получить эту информацию.
Выводов о проекте заранее мы делать не можем, но обязательно поделимся ими здесь, на Хабре. Уверены, что результаты исследования пригодятся в освоении региона в будущем.
Мы терпели! Чуть не выложили вчера, но вовремя догадались.
Здесь не совсем так.
Из шести описанных компаний мы продолжаем работать только с двумя — швейцарским дата-центром и компанией Джет.
По зарубежным дата-центрам, к сожалению, это довольно распространенная практика поддержки, тут уходить просто некуда, так что воспринимайте критику в их адрес — как крик души.
Компания Джет является одной из двух реально кредитующих краудфайндинговых платформ в нашей стране, заменить их на кого-то невозможно. Критика в их адрес — попытка улучшения качества их работы с заемщиками.
По банку. Около 2/3 клиентов юрлиц платят, повторяя предыдущий платеж, не обращая внимание на огромное предупреждение о смене реквизитов. Чтобы клиенты перестали платить по прежним реквизитам, по нашему предыдущему опыту, требуется до полугода. Соответственно, значительная часть клиентов продолжает платить по старым реквизитам, которые 29 декабря блокируются до 9 января.
Предложенные банком новые реквизиты тоже не работают до 9 января, деньги автоматически отправляются отправителю, который также далеко не сразу это выясняет.
В итоге клиентам были предложены реквизиты в другом банке. Но часть платежей зависли на праздники, и услуги мы оказывали в кредит.
Вопрос — зачем нужно было осуществлять переход именно 29 декабря, когда связаться с бухгалтерией контрагентов невозможно, остается открытым.
Я пытался выиграть 2 приза, сначала авторизовавшись через Хабр, а потом через Telegram. Шутка. Но задвоение возможно действительно из-за того, что использовал рпзличные способы авторизации для двух сессий.
Проверять никак не будут, скорее всего. Но если нужно будет достать и показать, а у вас нет — после штрафа могут и отобрать лицензию.
Смотрите, нам удобнее считать на ширину канала, потому что всё масштабируется. Есть ёмкость, есть фактическое потребление. Фактическое потребление обычно считается в объёме, а не канале, но для расчёта железа на год нам практичнее считать в утилизации канала. На каждый 1 Гбит/с утилизации приходиться 60 Тб хранилища. То есть зная утилизацию каналов группы серверов, мы прогнозируем объём хранения.
Верхняя оценка основана на опыте из различных тестов и исследований и на информации из открытого доступа.
Обычно весь NetFlow составляет от 0,5% до 1,5% от общего объема трафика.
Взята верхняя оценку из-за отсутствия сэмплирования в законе. Хранения полного объема данных нужно из-за постоянных атак с обеих сторон. А еще из-за того, что хостеры, как правило, платят за трафик постфактум, с учетом превышения. То есть если номинально гигабит, а реально больше, никто не режет.
То есть в расчетах мы исходим из худшего сценария.
Дальше математика:
1 * 60 * 60 * 24 * 365 = 31 536 000 гибит в год или 3942 Тб
1,5 % от них примерно 60 Тб
Далеко не все хостеры имеют свои маршрутизаторы в каждой точке. Обычно они ставят сервер в предоставленных ДЦ (за что им и платят). В таких случаях у хостеров может может не быть доступа к управлению и настройке NetFlow (или других инструментов для мониторинга трафика).
Можно, создаёте поддомен и прописываете А-запись. "@" жёстко прописана только для корня.
https://dns.ruvds.com/
Нет, у меня нет подробностей. В Европе просто есть аналогичные типы оборудования, как ТСПУ у нас, точно так же приходят запросы от полиции. Просто в каждой стране по-разному.
Интернет в этом дата-центре предоставлен как местными, так и крупнейшими международными провайдерами. Связность сети внутри региона, к сожалению, действительно оставляет желать лучшего.
Проблема это довольно непростая, потому что затрагивает не всех, и сложно выявить закономерность, у кого она возникает. Операторы над улучшением связности работают, мы по-возможности разбираемся с каждым конкретным случаем. Пришлите трассировку в лс, попробуем посмотреть, что там такое.
А как же садовник?
Пишут, что получается, если запросить настольную версию в браузере или, наоборот, мобильную. Вообщем @Boomburumдействительно что-то сломалось.
Да, всё можно было сделать. 2.7 кельвина на низкой орбите Земли не бывает. Телеметрия со спутника же есть. Средняя температура спутника-сервера ≈4 градуса. Бывают «провалы» до -15. От 258,15 до 288,15 °K. Средняя 277,15 °K.
Есть, конечно, но мы тут не одни в разработке, а несколько компаний. У коллег эта часть информации про компоненты всё ещё закрыта.
Ну, значит, бизнес-план такой: во-первых, построим орбитальную базу, чтобы был стабильный приём синхронизирующего лазера. Во-вторых, поставим вторую базу на орбиту где-то по дороге, или даже несколько, чтобы была сеть, обеспечивающая минимальное расстояние туда-сюда для синхронизации. В-третьих, надо успеть урвать доменные зоны типа .mars, .humans, .earth. И дальше заняться SMS/MMS-бизнесом и библиотеками!
Оценка дана со слов представителей отрасли, испытательного центра. Полный цикл разработки КА с нуля до запуска быстрее 8 месяцев нам не известен, но и каких-то официальных таблиц рекордов тоже нет. Если вы знаете быстрее, напишете, пожалуйста. А доказать отсутствие рекорда научным методом невозможно.
Спасибо за тёплые слова! Заголовок поправили.
Because we can. Скажете, что за глупость?! Пожалуйста, говорите. Ведь когда-то так же наверняка говорили про запуск в космос собак и шимпанзе.
Если серьезно, то почитать о наших мотивах, сложностях разработки, предполетных испытаниях и том, что за этим последовало, можно здесь:
Космические системы становятся персональными, а серверы — космическими. Зачем RUVDS свой пико-спутник
Сложности проектирования своего пико-спутника. Или спутник разработать — не блинов напечь
В космос на попутке. Как спутник RUVDS попадёт в космос
Предполётные испытания космического сервера. Спутник «ушёл на золото»
Орбитальный сервер RUVDS доставлен на орбиту
Космический сервер уже на орбите: как принять с него сигнал
Мы разместили первый в истории сайт в космосе
Спутник, биткоины, два победителя. Итоги первого в мире космического CTF
Спасибо за поддержку! Напишите пожалуйста в суппорт Хабра с подробностями - какая ошибка выводится