Comments 8
> vary: User-Agent
> сделает ваш сайт более дружественным к SEO, если вы раздаёте разные HTML/CSS
> в зависимости от User-Agent. Google заметит эту штучку и
Во-первых, на это может сработать алгоритм, детектирующий cloaking. («Ага!», — скажет спайдер, — «Запросил страницу с юзерагентом гуглобота — выдало одну страницу, а с юзерагентом файрфокса — другую! Что-то здесь не так!»)
Во-вторых, эта настройка убивает кэширование на стороне CDN. По сути, для каждого из over 9000 разных юзер-агентов кэшируется своя версия, даже если вы подготовили, скажем, всего три версии страницы — для Firefox, Chrome и IE.
Более разумный varyинг по юзер-агенту возможен, если где-то в цепочке стоит Varnish (или любой другой reverse proxy, который это умеет) и из заголовока User-Agent делает ещё один заголовок типа X-User-Agent-Sanitized (с тремя значениями), и уже на этот заголовок стоит Vary (или, если Varnish вместо CDN, этот заголовок съедается в vcl_hash конфигурационного файла).
> сделает ваш сайт более дружественным к SEO, если вы раздаёте разные HTML/CSS
> в зависимости от User-Agent. Google заметит эту штучку и
Во-первых, на это может сработать алгоритм, детектирующий cloaking. («Ага!», — скажет спайдер, — «Запросил страницу с юзерагентом гуглобота — выдало одну страницу, а с юзерагентом файрфокса — другую! Что-то здесь не так!»)
Во-вторых, эта настройка убивает кэширование на стороне CDN. По сути, для каждого из over 9000 разных юзер-агентов кэшируется своя версия, даже если вы подготовили, скажем, всего три версии страницы — для Firefox, Chrome и IE.
Более разумный varyинг по юзер-агенту возможен, если где-то в цепочке стоит Varnish (или любой другой reverse proxy, который это умеет) и из заголовока User-Agent делает ещё один заголовок типа X-User-Agent-Sanitized (с тремя значениями), и уже на этот заголовок стоит Vary (или, если Varnish вместо CDN, этот заголовок съедается в vcl_hash конфигурационного файла).
В зависимости от трафика и архитектуры этот номер может достигать и 90%, хотя эффект вы заметите и при меньших цифрах.
Не хочу показаться занудой, но Вы переводили случайно не гуглопереводчиком?
Самый длительный промежуток для кэша – год, или 31536000. Но это плохая идея. Это всё равно, что сделать татуировку на лице. Если ваши сервера не выдерживают хотя бы ежедневных запросов от CDN по поводу того, изменился ли ресурс,- пора менять сервера.
Это нормальная идея, более того — весьма адекватная настройка для вечной статики (а другой статики по идее и быть не должно). И дело совсем не в серверах, а банально в разнице между «платить за X трафика раз в день» или «платить за X трафика раз в год». Зачастую «X раз в год» будет размазываться и входить в бесплатный лимит, а за «раз в день» нужно будет доплатить еще 50-70$ за трафик в день ~ 1.5..2K$ в месяц.
Есть еще отличный extension под Chrome для тестирования запросов: Postman — REST Client
Еще одна альтернатива curl — httpie.org
Спасибо за статью, она помогла в реализации автоматической проверки заголовков веб-сервера.
Sign up to leave a comment.
Гид по заголовкам кэширования HTTP для начинающих