
В рамках проекта «Давайте сделаем интернет быстрее», Google опубликовал некоторые статистические данные о размере, количестве ресурсов и других показателях страниц во Всемирной паутине. Статистика была собрана из выборки в несколько миллиардов веб-страниц в процессе анализа и индексирования «движком» поискового гиганта.
При обработке этих страниц алгоритмом принимались во внимание не только основные html¬-страницы сайтов, но и производились попытки обнаружить и обработать остальные ресурсы, размещаемые на сайтах: таблицы стилей, скрипты и изображения.
Основные параметры страниц
- Средний размер веб-страницы 320 Кбайт (при передаче по сети)
- Лишь две трети из сжимаемых данных были достаточно сжаты
- 80% из всех страниц загружают от 10 и более своих ресурсов с одного сервера
- Наиболее популярные сайты могут ликвидировать более 8 http-запросов на страницу, если они объединяют все скрипты на одном и том же хосте в один и все таблицы стилей на одном хосте в одну.
Основные недостатки
- Все ресурсы обрабатывались Гуглботом, таким образом они могли попасть под ограничения robots.txt. Некоторые сайты (например BBC) блокируют CSS и JS.
- Некоторые сайты могут представлять разный набор ресурсов для Гуглбота и для обычных пользователей. Например до недавнего времени собственные серверы Google хранили CSS и JS несжатыми для Гуглбота, но сжимали их для обычных браузеров.
- Если ресурсы страницы на сервере отличаются для Internet Explorer или Firefox, то в WebKit они будут не видны.
- Отбор страниц для обработки не является равномерно случайным и беспристрастным. Например, страницы с более высоким значением PageRank гораздо чаще включались в эту выборку.
В процессе анализа рассматривались отдельно популярные сайты по сравнению ко всем остальным сайтам из выборки. Как оказалось на популярных сайтах среднее количество ресурсов и запросов GET на страницу меньше чем у остальных, при этом они используют больше уникальных имен хостов, но меньше ресурсов на хост.
Средняя страница сайта из топа была меньше на 8 кб при передаче по сети, но больше на 100 кб в несжатом виде, при этом сжимались они гораздо хуже, все это следствие того, что ресурсы на таких сайтах изначально сжаты более качественно.
Страницы топ-сайтов содержат в среднем на 2 уникальных изображения меньше чем обычные, размер которых как и размер внешних скриптов немного меньше, при этом таблицы стилей на топ-сайтах в полтора раза больше стилей обычных сайтов.
Проанализировать статистику самостоятельно, а также познакомиться с проектом Let’s make web faster вы можете по адресу. На сайте также можно найти рекомендации, которые сделают ваши приложения быстрее, быть в курсе последних новостей в области веб-производительности, ознакомиться с различными инструментами, которые могут помочь в улучшении производительности вашего сайта.