Pull to refresh

Comments 17

А старому доброму апачу можно сказать, чтоб он по этому протоколу инфу отдавал?
Эту информацию сегодня рассказали на Google Chrome Developers Summit. У меня соответственно возникает вопрос — вы ее автор?
В тексте же есть ссылки на все источники.
сравнивалась работа по HTTPS и SPDY
Microsoft провел более частное исследование(.pdf) из которого следует, что «HTTP + Pipeline + Minify, No SSL» быстрее чем «SPDY + Minify, No SSL», а «SPDY + Minify, With SSL» значительно быстрее «HTTP + Pipeline + Minify, With SSL». Гугл проверил только последний.
HTTP 2.0 будет работать же только с ssl
Я вообще против того, чтобы SPDY стал основой HTTP 2.0. Хотя, кому интересно моё мнение на этот счёт?
Тем, что он несёт весьма неоднозначную пользу. Если несёт её вообще. Указание на несостоятельность независимых тестов я считаю притянутым за уши — ну прямо на всех сайтах статика вынесена с домена? Ай не гоните, часто это смысла не имеет.
А что мы получим? Усложнённую отладку (сжатие заголовков, помните?) да ещё и вместе с мультиплексированием.
Мультиплексирование само по себе хорошо, но для сетей с высокими задержками (мобильные сети типа 3g, LTE, старые технологии типа ADSL). А сколько ПО дописать (переписать) надо будет?
Затем, SPDY сделал Google. Не смотря на то же я в целом их недолюбливаю, есть и объективные причины для скепсиса. У Google уже огромное влияние на интернет. Чуть ли не решающее во многих вещах. Что получится, если мейнтейнером основного стандарта, по которому пользователи будут получать доступ к контенту в сети будет Google? А вот не знаю.
Я считаю, что к разработке HTTP/2.0 надо подходить вдумчиво, ОЧЕНЬ вдумчиво. Некоторые стандарты устаревают за 10-15 лет, а то и гораздо быстрее. Необходимо учитывать очень быстрый рост инфраструктур, характеристик железа, требований пользователей и прочие вещи.
Понятно, но лично меня это не убеждает совершенно. Заголовки — ну так вы ж не через netcat смотрите соединения, а софтина их раскакует. Мобильных сетей много и доля мобилдьного трафика постоянно растёт. Переписывать ПО не нужно — вон, HTTP 1.0 до сих пор в строю, и 1.1, небось еще лет десять будет всем поддерживаться после появления второго. А маинтайнер стандарта — тут я вообще проблемы не вижу. На худой конец, если возникнут какие-то проблемы — все кроме Гугла откатятся на 1.1, да и всё.
Вот у разработчиков tcpdump и nmаp головной боли прибавится…
Не говоря уже о всяких DPI.
Ну, у них судьба такая… А вот по поводу проблем DPI — я так понимаю, что это одна из неявных целей. которую лично я полностью поддерживаю.
Да, когда я говорил об отладке, в голове в т.ч. держал эти инструменты. Ситуации разные бывают.
Кроме усложненной разработки, которая нивелируется теми же утилитами что пользуются сейчас разработчики для дебага, ни одного объективного довода.
Понятно что у вас головная боль от названия Google, но слишком уж толсто.
Толсто? Вы или видите троллинг там, где его нет, или употребляете сленг не по назначению.
Свои доводы и мнение я никому не навязываю. Я лишь описал в ответ на вопрос, почему по моему мнению SPDY плох. Чем он мне не нравится.
Ну и в отличии от комментария выше, где есть доводы противоположные моим, у вас лишь слова о моей неправоте.
Sign up to leave a comment.

Articles