Andrey Bekhterev @abehterev
Backend engineer
Information
- Rating
- Does not participate
- Location
- Санкт-Петербург, Санкт-Петербург и область, Россия
- Date of birth
- Registered
- Activity
Specialization
Backend Developer, Software Architect
Lead
Backend engineer
Полагаю, что вопрос не ограничивается желанием пользователя установить время тестирования, так что можно рассмотреть зависимость от других параметров.
Возьмем для примера, пропускную способность. Поскольку она измеряется так
то задача нахождения «обеспеченной» скорости фактически решается численным методом за полиномиальное время, т.е. временные затраты на ее решение определяются достаточной для нас точностью этого измерения.
Для тестов задержки и back-to-back фактором времени будет необходимая повторяемость (для задержки 1 тест в 60 сек, а для back-to-back требуется не менее 50 измерений)
Если интересна реальная цифра — могу без проблем запустить настоящий тест и приложить скриншоты с параметрами теста и результатами.
Вы не поверите на сколько вы близки к истине. Juniper вообще изначально имеет на борту комп x86 с переработанной FreeBSD и не скрывает этого, а к компу присоединен DataPlane, который через шину (и драйвер) общается с ОС в обоих направлениях. CISCO тоже раньше ставила процы от моторолы, а на днях довелось разобрать (вроде 3750) коммутатор, так там intel и amd (я так понимаю от серии зависит) на MCU уже давно.
Не обязательно все, но те, что превышали ваш MTU — да. Далеко ведь не все пакеты посылаются с максимальным MTU.
То, что вы задаете в опции -s в man описывается как:
Т.е. опция задает размер пакета (на самом деле payload, полезной части) и трансформирует его в реальный ICMP пакет со всеми заголовками. Таким образом в скобках указывается реальный размер сформированного пакета. Именно он и должен «протиснуться» в минимально доступный MTU канала.
Как видим, в первом случае пакет вообще не прошел. Во втором, ICMP честно сказал, что нужна фрагментация (происходит это где-то на границе MTU).
Опытным путем — это путем постепенного уменьшения MTU? Можно откусывать по 1.
Что касается вашего случая, то вполне вероятно, что где-то съедено еще 12 байт. Можно предположить, что канал в vlan'е — это 4 байта, к которому добавлен mpls-vpn — еще 8 байт, итого 12. Т.е. получается VLAN+MPLS_VPN+PPPoE=4+8+8=20, соответственно при настройке хоть одного коммутатора на пцти пакета на максимальный MTU 1500 мы получаем 1500-20=1480. Вроде все сходится. Но это лишь предположение.
На самом деле не думаю, что провайдер будет делать секрет из значения MTU, если вы его спросите, разве что ребята в саппорте могут быть реально не в курсе дела и ваш вопрос им покажется из области секретных материалов.
Здесь про nginx.
Здесь про Apache.
Вы все верно описываете, я про это и писал.
Вы описали свой подход с точки зрения деанонимизации при неявном или неожиданном поведении программного обеспечения, т.е. защиты от «сюрпризов». Он действительно работает.
Я же задал свой вопрос исходя из контекста статьи и предполагал, что вы как-то решили задачу «заворота» трафика любого типа в TOR.
Простите пожалуйста, но в чем заключалось «опингвинивание» этой платы? Если только в том, чтобы собрать из стандартного тулчейна стандартную прошивку fw.bin, то какое-то странное «опингвинивание».
Скорость пересылки (особенно NAT) на больших пакетах не очень интересна, а как дела обстоят с загрузкой и потерями на «мелких» пакетах совсем на раскрыто, а было бы реально интересно, поскольку позволило бы судить о «внутренностях» карты.