Как стать автором
Обновить

Веб-метрика от Google

Время на прочтение 2 мин
Количество просмотров 4.8K
image
В рамках проекта «Давайте сделаем интернет быстрее», Google опубликовал некоторые статистические данные о размере, количестве ресурсов и других показателях страниц во Всемирной паутине. Статистика была собрана из выборки в несколько миллиардов веб-страниц в процессе анализа и индексирования «движком» поискового гиганта.
При обработке этих страниц алгоритмом принимались во внимание не только основные html¬-страницы сайтов, но и производились попытки обнаружить и обработать остальные ресурсы, размещаемые на сайтах: таблицы стилей, скрипты и изображения.

Основные параметры страниц


  • Средний размер веб-страницы 320 Кбайт (при передаче по сети)
  • Лишь две трети из сжимаемых данных были достаточно сжаты
  • 80% из всех страниц загружают от 10 и более своих ресурсов с одного сервера
  • Наиболее популярные сайты могут ликвидировать более 8 http-запросов на страницу, если они объединяют все скрипты на одном и том же хосте в один и все таблицы стилей на одном хосте в одну.

Основные недостатки


  • Все ресурсы обрабатывались Гуглботом, таким образом они могли попасть под ограничения robots.txt. Некоторые сайты (например BBC) блокируют CSS и JS.
  • Некоторые сайты могут представлять разный набор ресурсов для Гуглбота и для обычных пользователей. Например до недавнего времени собственные серверы Google хранили CSS и JS несжатыми для Гуглбота, но сжимали их для обычных браузеров.
  • Если ресурсы страницы на сервере отличаются для Internet Explorer или Firefox, то в WebKit они будут не видны.
  • Отбор страниц для обработки не является равномерно случайным и беспристрастным. Например, страницы с более высоким значением PageRank гораздо чаще включались в эту выборку.

В процессе анализа рассматривались отдельно популярные сайты по сравнению ко всем остальным сайтам из выборки. Как оказалось на популярных сайтах среднее количество ресурсов и запросов GET на страницу меньше чем у остальных, при этом они используют больше уникальных имен хостов, но меньше ресурсов на хост.
Средняя страница сайта из топа была меньше на 8 кб при передаче по сети, но больше на 100 кб в несжатом виде, при этом сжимались они гораздо хуже, все это следствие того, что ресурсы на таких сайтах изначально сжаты более качественно.
Страницы топ-сайтов содержат в среднем на 2 уникальных изображения меньше чем обычные, размер которых как и размер внешних скриптов немного меньше, при этом таблицы стилей на топ-сайтах в полтора раза больше стилей обычных сайтов.

Проанализировать статистику самостоятельно, а также познакомиться с проектом Let’s make web faster вы можете по адресу. На сайте также можно найти рекомендации, которые сделают ваши приложения быстрее, быть в курсе последних новостей в области веб-производительности, ознакомиться с различными инструментами, которые могут помочь в улучшении производительности вашего сайта.
Теги:
Хабы:
+34
Комментарии 20
Комментарии Комментарии 20

Публикации

Истории

Ближайшие события

Московский туристический хакатон
Дата 23 марта – 7 апреля
Место
Москва Онлайн
Геймтон «DatsEdenSpace» от DatsTeam
Дата 5 – 6 апреля
Время 17:00 – 20:00
Место
Онлайн