На ASR пока занято 2/10 слотов. Но мы знаем, как мы быстро растём по трафику — в 50 раз за время службы (5 лет) прошлого сетевого оборудования.
Спайн-лиф нам не нужен, у нас трафик на 99% идёт снизу вверх. Потребности ACI для нас тоже пока не актуальны.
Ещё у нас Cisco Nexus 9300 есть. :)
P. S. В общем и целом мы довольны своим выбором, странный со стороны набор железа вызван конкретными задачами и требованиями. Выбирали мы почти год, вариантов смотрели множество.
Мы работаем в направлении улучшения качества доставки постоянно, мы понимаем боль пользователей. Но как правильно Myc написал выше — ресурсы ограничены. Построить новую систему кеширования — помочь гораздо большему числу пользователей, чем поставить даже 20 кешей в других сетях. В ближайшее время наша CDN прирастёт Уфой, Тюменью, Екатеринбургом, Бологим, Симферополем.
Но в любом случае, на практике это всё сложнее, чем в жизни. Далеко не все операторы с радостью размещают свой кэш. Далеко не у всех операторов есть трафик, который имеет смысл обслуживать с отдельного кеша. Далеко не все те, кто имеет достаточный трафик хотят принимать кеши.
Гугл в России совсем недавно свою сеть до нормального уровня нарастил, при том, что по возможностям наши компании находятся очень далеко.
Ну тут ситуация такая: 40G более-менее прижился только на коммутаторах для внутренних нужд ЦОД, со стороны железа для маршрутизации его поддержка сильно ограничена. С карточками, хотя 40G как стандарт уже достаточно давно существует, стабильности пока тоже нет.
А вот 100G с новыми, достаточно компактными модулями, появляются и там, и там. Плюс первые карточки на 100G для серверов уже практически доступны. И есть подозрение, что производители своё внимание перенесут именно на стандарт 100G. А 40G останется достаточно нишевым решением.
Мы пока нигде 100G в сети не используем (думали про магистральную часть), но вызвано это было чисто трезвым расчётом — зачем покупать 100G, которые нельзя передать через пассивный DWDM, если 10х10G прекрасно через него передаются (у нас есть места, где имеются агрегаты 32х10G), стоят дешевле и прекрасно поддерживаются всем оборудованием.
Но на ближайшее будущее (1-2 года) мы считаем, что 100G станет подходящим для нас стандартом.
Спайн-лиф нам не нужен, у нас трафик на 99% идёт снизу вверх. Потребности ACI для нас тоже пока не актуальны.
Ещё у нас Cisco Nexus 9300 есть. :)
P. S. В общем и целом мы довольны своим выбором, странный со стороны набор железа вызван конкретными задачами и требованиями. Выбирали мы почти год, вариантов смотрели множество.
Но в любом случае, на практике это всё сложнее, чем в жизни. Далеко не все операторы с радостью размещают свой кэш. Далеко не у всех операторов есть трафик, который имеет смысл обслуживать с отдельного кеша. Далеко не все те, кто имеет достаточный трафик хотят принимать кеши.
Гугл в России совсем недавно свою сеть до нормального уровня нарастил, при том, что по возможностям наши компании находятся очень далеко.
А вот 100G с новыми, достаточно компактными модулями, появляются и там, и там. Плюс первые карточки на 100G для серверов уже практически доступны. И есть подозрение, что производители своё внимание перенесут именно на стандарт 100G. А 40G останется достаточно нишевым решением.
Мы пока нигде 100G в сети не используем (думали про магистральную часть), но вызвано это было чисто трезвым расчётом — зачем покупать 100G, которые нельзя передать через пассивный DWDM, если 10х10G прекрасно через него передаются (у нас есть места, где имеются агрегаты 32х10G), стоят дешевле и прекрасно поддерживаются всем оборудованием.
Но на ближайшее будущее (1-2 года) мы считаем, что 100G станет подходящим для нас стандартом.
Насчёт удобства — скажите, чего именно не хватает, вдруг оно уже есть или появится в ближайшее время? :)
Или невозможностью выжать с карточки больше половины производительности.