Pull to refresh

Comments 17

А старому доброму апачу можно сказать, чтоб он по этому протоколу инфу отдавал?
Эту информацию сегодня рассказали на Google Chrome Developers Summit. У меня соответственно возникает вопрос — вы ее автор?
Ализар — автор информации. Шутка года!
В тексте же есть ссылки на все источники.
сравнивалась работа по HTTPS и SPDY
Microsoft провел более частное исследование(.pdf) из которого следует, что «HTTP + Pipeline + Minify, No SSL» быстрее чем «SPDY + Minify, No SSL», а «SPDY + Minify, With SSL» значительно быстрее «HTTP + Pipeline + Minify, With SSL». Гугл проверил только последний.
HTTP 2.0 будет работать же только с ssl
Я вообще против того, чтобы SPDY стал основой HTTP 2.0. Хотя, кому интересно моё мнение на этот счёт?
А чем SPDY плох, по-вашему?
Тем, что он несёт весьма неоднозначную пользу. Если несёт её вообще. Указание на несостоятельность независимых тестов я считаю притянутым за уши — ну прямо на всех сайтах статика вынесена с домена? Ай не гоните, часто это смысла не имеет.
А что мы получим? Усложнённую отладку (сжатие заголовков, помните?) да ещё и вместе с мультиплексированием.
Мультиплексирование само по себе хорошо, но для сетей с высокими задержками (мобильные сети типа 3g, LTE, старые технологии типа ADSL). А сколько ПО дописать (переписать) надо будет?
Затем, SPDY сделал Google. Не смотря на то же я в целом их недолюбливаю, есть и объективные причины для скепсиса. У Google уже огромное влияние на интернет. Чуть ли не решающее во многих вещах. Что получится, если мейнтейнером основного стандарта, по которому пользователи будут получать доступ к контенту в сети будет Google? А вот не знаю.
Я считаю, что к разработке HTTP/2.0 надо подходить вдумчиво, ОЧЕНЬ вдумчиво. Некоторые стандарты устаревают за 10-15 лет, а то и гораздо быстрее. Необходимо учитывать очень быстрый рост инфраструктур, характеристик железа, требований пользователей и прочие вещи.
Понятно, но лично меня это не убеждает совершенно. Заголовки — ну так вы ж не через netcat смотрите соединения, а софтина их раскакует. Мобильных сетей много и доля мобилдьного трафика постоянно растёт. Переписывать ПО не нужно — вон, HTTP 1.0 до сих пор в строю, и 1.1, небось еще лет десять будет всем поддерживаться после появления второго. А маинтайнер стандарта — тут я вообще проблемы не вижу. На худой конец, если возникнут какие-то проблемы — все кроме Гугла откатятся на 1.1, да и всё.
Вот у разработчиков tcpdump и nmаp головной боли прибавится…
Не говоря уже о всяких DPI.
Ну, у них судьба такая… А вот по поводу проблем DPI — я так понимаю, что это одна из неявных целей. которую лично я полностью поддерживаю.
Да, когда я говорил об отладке, в голове в т.ч. держал эти инструменты. Ситуации разные бывают.
Кроме усложненной разработки, которая нивелируется теми же утилитами что пользуются сейчас разработчики для дебага, ни одного объективного довода.
Понятно что у вас головная боль от названия Google, но слишком уж толсто.
Толсто? Вы или видите троллинг там, где его нет, или употребляете сленг не по назначению.
Свои доводы и мнение я никому не навязываю. Я лишь описал в ответ на вопрос, почему по моему мнению SPDY плох. Чем он мне не нравится.
Ну и в отличии от комментария выше, где есть доводы противоположные моим, у вас лишь слова о моей неправоте.
Sign up to leave a comment.

Articles