Pull to refresh
13
0
Андрей Фролов @A_Frolov

Пользователь

Send message

Как мы делали HD Wi-Fi на стадионе в Краснодаре на 34 тысячи человек

Reading time10 min
Views26K
Может показаться, что Wi-Fi на стадионе не нужен вообще. Пришёл болеть – так смотри за игрой, а не пости селфи и читай почту. Но нет, Wi-Fi нужен по двум важным причинам. Во-первых, при таком скоплении людей будут крайне быстро разобраны каналы сотовой сети, и большая часть болельщиков останется на время без телефона. Во-вторых, собственно, владельцам стадиона очень хотелось дать специальное мобильное приложение для всех болельщиков.

Внутри – схемы расстановки игроков на поле, статистика по матчу и игрокам, плюс стриминговое видео с камер, чтобы можно было видеть крупным планом в лицах на планшете или телефоне, что происходит. Ну и сразу повторы важных моментов с разных ракурсов.


На радиообследовании


Результат обследования мембраны

Для всего этого нужен быстрый Wi-Fi высокой плотности и с минимальными интерференциональными явлениями. Обычных хотспотов тут не натыкать – нужна хорошая экспертиза радиообследования, плюс специальное оборудование. Результат – 150 хитрых точек доступа с beamforming после довольно нетривиальных работ.
Читать дальше →
Total votes 40: ↑39 and ↓1+38
Comments17

Вендорозамещение для ИТ-инфраструктуры (телекоммуникаций): какой импорт можно поменять на другой импорт

Reading time7 min
Views26K


Диспозиция по стране такая: многие большие компании (в первую очередь — банки и госкорпорации) привыкли строить инфраструктуру на известных американских брендах. Причин много, но главная — системный подход. В этом году им всем пришлось так или иначе менять поставщиков. Потому что железо завезти мимо санкций на «левое» юрлицо относительно просто (хоть и дороже), а вот закупить сервис на «Кузьмич и партнёры» для железа в ЦОДе крупного банка — почти невозможно. А решения без поддержки вендора банку не нужны.

У компаний, не попавших под санкции, история другая. Там руководство спустило служебные записки вроде «оценить возможность построения инфраструктуры на китайском (Хуавей и др.) оборудовании». Потому что, в целом, нужен план на всякий случай.

Ниже я покажу, кого и на что можно менять, и коротко пройдусь по профитам и подводным камням. Например, мало кто знает, что стоимость тот же «Хуавея» в некоторых случаях может оказаться выше, чем у «Циски».
Читать дальше →
Total votes 28: ↑24 and ↓4+20
Comments11

DWDM-линии между дата-центрами: как меняется подход, если речь про банки и ответственные объекты

Reading time9 min
Views39K

Это 8 Тбит/с (при использовании 80 длин волн с пропускной способностью 100G).

С 2006 года я сдал в эксплуатацию коммутационное оборудование полутора дюжинам банков. И ещё ряду объектов, которые не могу упоминать. Это те самые каналы, где в скорость синхронной репликации нагло и подло вмешивается скорость распространения света в оптоволокне.

Случается, что заказчики сначала строят ЦОДы, а потом задумываются, как связать их при помощи WDM. Аналогию можно привести с транспортными развязками в Москве, когда сначала строят многоэтажные здания а потом понимают, что дорога в две полосы не справляется с транспортным потоком, и строят дорогостоящие трёхуровневые развязки на пяточке земли, хотя куда более логичным было бы заложить место под будущие дороги и развязки, а уже после строить дома.

Ниже я рассказываю о нескольких типовых случаях архитектуры, где очень легко поймать ошибку масштабирования или неверного резервирования. И про магию «работает – не трогай».
Читать дальше →
Total votes 34: ↑34 and ↓0+34
Comments24

Про InfiniBand: как мы уменьшали пинг с 7 мкс до 2,4 мкс (и результаты тестов)

Reading time7 min
Views37K

InfiniBand-свитч SX6005. 12 FDR 56Gb/s портов на одном юните, коммутация 1.3Тб/с.

Многие считают, что InfiniBand — это «космос». То есть считается, что дорого и нужно только для «суперкомпьютеров» (HPC) производительностью в 1-2 Петафлопа и с гиганскими объмами обрабатываемых данных. Тем не менее, с помощью этой технологии можно организовывать не только самые скоростные межсистемные соединения в кластерах, но и радикально снижать задержки в работе критичных приложений. Конкретно – делать то, что может решаться и с помощью Ethernet, но экономичнее и быстрее. Вот пример.

Задача


У одного нашего крупного заказчика из финансовой сферы была проблема в скорости работы двух приложений. Специфика приложений заключалась в том, что необходимо было обрабатывать большое количество транзакций с минимальной задержкой. 6-7 мкс latency – это лучшие результаты, которые они достигли путем апгрейда серверов и максимальной софтверной доработкой. Дальнейшие возможные оптимизации сулили улучшения на уровне 0,3-0,5 мкс. Мы же пришли и сообщили, что сможем уменьшить задержки в два раза.
Читать дальше →
Total votes 47: ↑35 and ↓12+23
Comments49

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Registered
Activity