Почему медленная загрузка сайта убивает SEO. И как шиншиллам не остаться без домиков

    Медленные страницы не просто тормозят, а сводят поисковую оптимизацию на нет. Можно сколько угодно вкладываться в контент и «расшаривание» сайта, но продолжать терять позиции из-за большого количества отказов.


    Медленные сайты раздражают не только людей, но и поисковых роботов. Google и Яндекс старательно избавляются от страниц, которые грузятся дольше положенного. Таким отводится место в нижней части выдачи — чтобы не портили настроение пользователям. Мало кто покупает домики для шиншилл на сайте, открывающемся дольше 5 секунд.

    Мы уже поднимали вопрос медленных страниц. В статье «Зачем и как проверять скорость загрузки сайта» объясняется, как быстродействие влияет на SEO и на конверсию продаж. Суть в том, что поисковые системы оценивают сайты в первую очередь по поведению пользователей. А поскольку люди негативно реагируют на медленную загрузку, такие ресурсы не имеют шансов на продвижение.

    Давайте посмотрим, как это работает. Для примера возьмем условный сайт, продающий домики для шиншилл.

    Как работает SEO


    SEO расшифровывается как search engine optimization, что в переводе означает поисковая оптимизация. Это комплекс работ по усовершенствованию сайта в соответствии с требованиями поисковых систем. SEO-оптимизированный ресурс поднимается выше в поиске, чаще показывается людям, на нем больше посетителей, он лучше продает.

    Нет той волшебной кнопки, которая бы автоматически запускала сайт в ТОП-3 выдачи — слишком сложны поисковые алгоритмы. Вот почему SEO — это многоплановый и протяженный во времени процесс, который не останавливается ни на месяц.

    Внешние и внутренние факторы SEO


    Факторы, по которым оцениваются сайты, делятся на внутренние и внешние.

    Внутренние факторы держатся на трех китах:

    1. Релевантность — насколько каждая страница сайта соответствует запросу пользователя.
    2. Качество содержимого — дизайн, информативность.
    3. Юзабилити — удобство сайта.

    Основной внешний фактор — авторитетность ресурса, то есть его цитируемость в интернете. Чем больше ссылок и переходов со сторонних сайтов, тем лучше. 

    Сайт должен на 100% решать задачу пользователя в максимально удобной для него форме.

    Обратимся к домикам для шиншилл. Чтобы сделать сайт релевантным, нужно «заточить» его под коммерческие запросы: «купить домик для шиншиллы», «продажа домиков для шиншилл» и т.п.

    На страницах ресурса размещается информативный контент, четко отвечающий на вопросы пользователей: что за домики, сколько стоят, как купить. Привлекательный дизайн создает нужный эмоциональный фон и вызывает доверие.

    Не менее важно позаботиться о юзабилити — в частности, о быстродействии сайта. Если страница не откроется вовремя, пользователь уйдет. И многие шиншиллы останутся без домиков.

    Почему так важны поведенческие факторы


    Отношение людей к сайту, поведение на нем — важнейшая информация для поисковиков. Яндекс и Google внимательно анализируют то, как ведут себя интернет-пользователи. Учитывается всё:

    • откуда пришли посетители;
    • сколько времени провели;
    • на какие страницы переходили;
    •  как быстро уходили;
    • как часто возвращались к сайту.

    Каждый переход, каждый клик — плюс в копилку ранжирования. А каждый отказ — жирный минус.


    Google Аналитика, поведение пользователей

    Показатель отказов


    Один из ключевых параметров — показатель отказов. Поисковый робот учитывает, сколько людей ушли с сайта, посмотрев всего одну страницу. Для системы это означает, что ресурс нерелевантный, некачественный или неудобный. Его рейтинг автоматически понижается.

    Одна из причин большого процента отказов — медленная загрузка страниц. С трудом открывающийся сайт подрывает доверие к себе. Люди делают вывод, что здесь не очень-то заботятся о них и незачем тратить свое время.

    Скорость сайта как часть юзабилити


    Прежде чем задержаться на сайте, человек должен на него попасть. 47% пользователей утверждают, что закроют страницу, если она грузится дольше 2 секунд. 88% говорят, что вряд ли вернутся на сайт после неудачной попытки его открыть.

    По статистике, среднее время загрузки коммерческого сайта — 3,5 секунды.

    Многие современные ресурсы грузятся до 5 секунд. И задержка свыше этой цифры недопустима. Подавляющее большинство пользователей не готовы ждать так долго. Тем более, что в их распоряжении — целая поисковая выдача. А в ней немало других продавцов, более внимательных к своим клиентам.

    Скорость загрузки страниц — едва ли не главная составляющая юзабилити. Согласитесь, можно заказать супер-красивый дизайн и быть экспертом по разведению шиншилл. Но, пока сайт не станет быстрым и доступным, SEO будет буксовать.

    Поисковый интерес


    В Google убедились: люди реже пользуются их поиском, если в выдаче медленные сайты. Это заставило компанию скорректировать алгоритм ранжирования с учетом скорости загрузки ресурсов.

    Поисковым системам выгодно расширять свою аудиторию, показывать больше рекламы и увеличивать доход. Кроме того, поисковики заботятся о своих пользователях, рассчитывая на их лояльность. Поэтому за медленную загрузку накладываются санкции. Преодолеть ситуацию можно только ускорением страниц. 

    Сайт должен быстро загружаться как на компьютере, так и на мобильных устройствах (они обеспечивают не менее 50% трафика).

    Как медленные страницы убивают сайт


    Можно долго и упорно оптимизировать контент, чтобы добиться безупречной релевантности. Или «расшаривать» сайт в Сети, распространяя ссылки с приглашением посетить ресурс. Но, даже вложившись в рекламу, получить отказы.

    Большое количество отказов неизбежно приведет к санкциям. SEO не только не принесет результата, но напротив — позиции сайта могут быть понижены.  

     

    Сайт попал под фильтр, падение трафика

    Пример неудачного расшаривания


    Продавец домиков создал в соцсети сообщество для заводчиков шиншилл и в группе предусмотрительно разместил ссылку на сайт.

    Посетитель группы решил перейти по ссылке, чтобы ознакомиться с продукцией. Заметим, что это требует от пользователя усилий: он вынужден покидать «зону комфорта» своей соцсети и тратить время.  

    Соцсеть тоже не заинтересована терять посетителя, и процесс перехода затормаживается. Велика вероятность, что пользователь закроет вкладку, поэтому сайт должен загружаться как можно быстрее. Но он открывается «со скрипом», и часть людей отвечают отказом. На что обязательно обращает внимание поисковый робот.   

    Быстрый или полезный — что важнее?


    По мере развития, сайты становятся «тяжелее» — обрастают контентом и функционалом. Помимо товаров с ценами, в интернет-магазине появляются статьи, фото и видео о шиншиллах. На каждой странице «вылезает» настырный чат, приглашающий к диалогу с менеджером. А экран заслоняет заставка с акцией.

    Возникает вопрос: что важнее — быстродействие или качество? Этот компромисс решается техническими средствами.

    Безусловно, нельзя забывать о содержании ресурса. Поэтому SEO-специалисты постоянно совершенствуют контентную и функциональную части сайта. Но эти доработки не должны пагубно влиять на скорость. Иначе сайт получит отказы и «просядет» в поиске.

    Почему в ТОПе есть «медленные» сайты?


    На первых страницах поиска медленные сайты не такая уж и редкость. Ведь быстродействие — лишь один из факторов ранжирования. Значимый, но далеко не главный.

    В ТОП выдачи, как правило, попадают лидеры рынка, в том числе интернет-гипермаркеты и авторитетные порталы. Такие сайты часто перегружены контентом и функционалом. Но люди, по ряду причин, готовы прощать им неповоротливость. Например:

    •  у компании большой авторитет;
    • бизнес имеет широчайшую аудиторию;
    •  предлагается уникальная услуга и т.д.

    Когда люди настроены лояльно, поисковые роботы тоже «закрывают глаза» на технические огрехи и для многих значимых федеральных компаний делают исключения.

    Не стоит забывать и о том, что скорость, с которой открываются страницы, зависит от производительности устройства пользователя, качества интернет-соединения, настроек браузера.

    Ускорение как метод SEO


    Повышение скорости сайта — один из хрестоматийных методов поисковой оптимизации. Планируя комплекс мероприятий по оптимизации, SEO-специалист обязательно анализирует быстродействие. Для этого используются инструменты веб-аналитики и специализированные сервисы.


    Улучшение показателя page speed

    Если скорость загрузки сайта или отдельных страниц страдает, выясняются причины и предпринимаются меры по ускорению работы. Результаты отслеживают и представляют владельцу сайта в виде отчетов. На тех же графиках аналитики хорошо видно, как улучшаются поведенческие факторы и позиции в поиске.

    Больше 50% российских сайтов нуждаются в ускорении.

    Ускорение не отменяет других методов SEO. А улучшение показателя page speed не должно производиться в ущерб релевантности и качеству содержимого. Кому нужен «пустой» примитивный сайт, даже если он открывается мгновенно?  

    Мониторинг и аудит


    Медленные страницы убивают и SEO, и сам сайт. В ресурс с малой посещаемостью и плохими продажами не хочется вкладываться.

    Это напоминает замкнутый круг:

    • Люди отказываются переходить на сайт.
    • Поисковики накладывают санкции.
    • Реклама и расшаривание не срабатывают.

    Поэтому важно отслеживать скорость загрузки страниц и повышать ее. Чем быстрее работает сайт, тем меньше отказов и эффективнее SEO. А довольные шиншиллы спокойно спят в своих домиках.

    Средняя зарплата в IT

    120 000 ₽/мес.
    Средняя зарплата по всем IT-специализациям на основании 7 040 анкет, за 1-ое пол. 2021 года Узнать свою зарплату
    Реклама
    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее

    Комментарии 39

      0
      Пять секунд?! Что можно грузить пять секунд?
        +3
        Мегабайты яваскриптов для отображения 140 символов, что же ещё.
          0
          Например, большую веб-страницу, которую строит скрипт на shared хостинге.
            0
            Во-первых, если бэк не успевает отработать за 500 мс, программист делает что-то сильно не так. Во-вторых, даже с не очень хорошим пингом до сервера за 5 секунд можно загрузить 640 килобайт. Это два тома «войны и мира» в текстовом формате!
              0
              Ну вот мой пример (не 5 секунд конечно, но тем не менее):


              Google Pagespeed говорит я должен удалить скрипты гугла и яндекса.
              И как это починить? Тут всего лишь аналитика, гугл рекапча и скрипт социальных кнопок для шаринга от яндекса.
                +2
                Удаляйте. Аналитика тормозит сайты, выжирает батареи и трафик. Аналитика зло, которое должно быть искоренено. Как и шаринг соцсетей.
                  0

                  А что если владелец сайта ну ооочень хочет какой-нибудь вебвизор и отговорить его не получается?

                    0
                    Всегда можно найти другого владельца сайта.
                      0
                      Аналитика позволяет оправдать и объяснить существование сайта.

                      Положим, вызывает вас руководитель и просит доказать, что надо и дальше тратить ресурсы учреждения на этот сайт. При этом руководитель объясняет, что сайт этот никому не нужен, никакой пользы не приносит и является нецелевым использованием средств учреждения.

                      Как ему ответить, не имея статистики? Как доказать, что сайт соответствует уставным целям?
                        0

                        Распарсить access.log для сбора статистики, очевидно. Зачем для этого гугл и яндекс?

                          0
                          Согласен с вашим аргументом. Вы — опытный специалист, вы можете взять логи от shared host, распарсить их и построить инфографику скриптовым языком. Это самый гибкий и удобный способ.

                          Но смотрите: вот человек занимается веб-сайтом через CMS-движок с готовым скином, не имеет доступа к логам и не знает языков. Да, есть программы для обработки логов. Да, можно распарсить лог в Excel. Но для этого всё-таки нужны логи…

                          Без логов — остаётся только яндекс-аналитика. Некуда бежать.
                            0

                            Я не буду парсить логи, я просто поставлю какой-нибудь awstats, который сделает это за меня. А нормальные shared-хостинги предоставляют этот самый awstats из коробки. Нахрена вообще приходить к хостингу, который не даёт логи?

                              0
                              Хостер даёт логи. Компьютерный специалист не даёт доступа к логам. Поэтому сотрудник «не имеет доступа к логам».

                              (Примеры из жизни, буквально directed by Robert B. Weide.)
                                0
                                Компьютерный специалист не даёт доступа к логам.

                                Очевидно это компьютерный специалист должен предоставить информацию в читаемом формате.
                                0
                                В современных условиях многое оседает в CDN, не оставляя записей в локальных логах. И речь не только про картинки, но и про динамику для неавторизованных пользователей.
                                  0
                                  Если цель — просто зафиксировать факт посещения динамики, то можно например просто воткнуть пиксель/XMLHttpRequest/fetch на сервер в обход CDN. Городить для этого целую гугл-аналитику всё равно ни к чему
                                  0

                                  Вы вообще как давно в аналитику заходили, яндекса там или гугла?
                                  Австатс — это 90ые, там вообще нет ничего.

                                    0
                                    А так ли нужны все эти данные? И нужно ли при этом сдавать их гуглу и яндексу, зачастую одновременно?
                                      0

                                      Странный вопрос.
                                      Кому нужны, тот и ставит.

                              0
                              Аналитика позволяет оправдать и объяснить существование сайта.

                              Лучше, чем продажи с сайта, объяснить существование сайта ничего не может.
                                0
                                Если на сайте находится магазин, тогда вы правы.

                                Если на сайте ничего не продаётся, тогда дело другое. Пример, который пришёл мне на память, как раз не для продажи товаров.
                            0
                            Всегда есть альтернатива, может не такая удобная, но в е есть. А вот насчёт скриптов для шеринга я согласен, что это зло.

                            Кроме этого, если Вы взглянете на водопад загрузки, то увидите, что загрузка скриптов аналитики идёт асинхронно и основная часть скриптов грузится после загрузки страницы и ещё полусинтетический тесты типа Гугл Маяка не показывают реальной картины, т.к. искусственный тротлинг хоть и похож на настоящий, но все же далёк от средней температуры по больнице (аудитории конкретного сайта) и часто в худшую сторону. Не стоит идеализировать подобные результаты, да, они коррелируют с реальностью, но все же это не сильно реальные данные.
                          0
                          И как это починить?

                          На самом деле способы есть. Эта ругань следствие, а не причина. Причина обычно в медленно исполняющихся скриптах.
                          Всё, что может быть исполнено отложено, должно быть исполнено отложено. Рекапча? Грузите её только при появлении формы на экране, или вообще по клику на кнопку отправить. Шаринг в соцсетях? Зачем вообще левый скрипт? Кнопки реализуются простыми тегами a с подстановкой параметров либо небольшим скриптом, либо вообще на бекенде, для этого не нужны десятки килобайт минифицированных скриптов на странице вкупе с пачкой стилей и картинок оттуда же. Нужно отключить вебвизор у яндекс-метрики, если это невозможно, то нужно уменьшать число DOM элементов на странице, там чуть ли не квадратичный рост сложности от числа элементов на странице.
                          И любая страница забегает.
                            0
                            Полностью с вами согласен, но это когда сайт пишется вами. У меня же готовая CMS и компоненты к ней. Одно время я пытался самостоятельно оптимизировать и модифицировать компоненты, но при выходе их новых версий желательно делать их апдейт и соответственно все сделанные ранее изменения отменяются или становятся полностью не совместимыми. Та же капча — устанавливается компонентом комментариев JComment. Влиять не него довольно проблематично.
                            То же касается и числа элементов DOM — влиять на него в готовой CMS трудно.
                            Особенно если сам не являешься web программистом, а поддерживаемый сайт на грани между профессиональной деятельностью и хобби.
                              0
                              Вы это говорите тому, кто 2 года возился с Битриксом, в том числе и в плане оптимизации. Да, я профессиональный web программист.
                                0
                                Я вот это «Особенно если сам не являешься web программистом» говорил про себя.
                                  0
                                  Я понял. А я про себя написал ))
                                  Да, любителю сложнее.
                      0
                      Смотря что считать загрузкой.
                      загрузка хабра согласно файрфоксу, адблок включен, эта страница, из под юзера
                      56 requests
                      2.90 MB / 1.75 MB transferred
                      Finish: 14.21 s
                      DOMContentLoaded: 3.03 s
                      load: 9.63 s
                      +2
                      Поисковый робот учитывает, сколько людей ушли с сайта, посмотрев всего одну страницу. Для системы это означает, что ресурс нерелевантный, некачественный или неудобный. Его рейтинг автоматически понижается.

                      Дальше уже точно можно не читать… Предложение ну настолько бредовое…

                      Задача поискового робота предложить человеку страницу, на которой он найдет то, что ему надо. Поэтому в метриках поисковика заложено, что хорошо, когда человек просмотрел на сайте 1 страницу и закрыл поиск. Значит он нашел, что искал.

                      PS По секрету подскажу, что грубо (опять же там много факторов) минус в карму ставится за то, что в поисковой выдаче прошел клик на следующий сайт. Значит на предыдущем пользователь не нашел, что искал. И вполне возможно, что за просмотр большого количества страниц на сайте, минус в карму окажется еще больше (пути машинного обучения неисповедимы в некоторых случаях).
                        0

                        Одно другому не мешает.
                        SEO — это не программирование с чётким ТЗ, счёт тысяч долларов идёт на миллисекунды, а скорость многие недооценивают до сих пор.

                          0

                          Вы путаете поведенческие факторы на сайте и поведенческие на поиске. Да, есть понятие ласт-клика на поиске, но автор говорил про расчёт отказов на сайте. И за отказ засчитывается, в том числе, просмотр одной страницы на сайте (в гугле, у Яндекса ещё плюс время).
                          Статья, конечно, опять повторяет все, что было сказано миллион раз до этого, но бреда там нет, только банальности

                          +2
                          Я бы назвал SEO не search engine optimization, а search engine manipulation или search engine spam. И почему-то постоянно говорят, как это полезно для владельцев сайтов, но забывают про самих пользователей, которым надо пропускать всю эту шелуху на первых страницах выдачи. И почему сайт по продаже домиков для шиншилл, построенный месяц назад должен обогнать сайт с многолетней историей, с кучей статей о шиншиллах и форумом, только потому что кто-то захотел быстро продвинуть свой проект в топ. Для этого вообще то существует реклама.
                            –2

                            Почему должен?
                            Ну а — почему не должен?


                            С таким старпёрским подходом мы б ещё читали при лучине.

                            0
                            Вы меня простите.
                            Я не хочу обидеть СЕОшников.
                            Но мне кажется в аду для них установлен специальный котел.
                            Объясню, свое возмущение.
                            — В погоне за скоростью и за просмотрами страниц и за переходами.
                            Начали делать, одну статью разбивают на много маленький статей, перелинковывают все это.
                            И в место того, зайти на страницу и получить информацию, сейчас приходится переходить по страницам.
                            — Относительно текстов. Как уже достали эти копирайтеры и рерайтеры.
                            Когда владелец сайта, заказывает статья к примеру по педиатрии или медицина. В большинстве случаев, его интересует статья на определенную тему (ключи). А то, что там может оказаться не релевантная информация, его это не интересует. Главное трафик.

                            Поисковые боты, иногда тоже поступают не корректно.
                            Был у меня когда-то сайт с специфической тематикой.
                            Контент я брал с португальских сайтов. Оплачивал переводчиков.
                            Но конкуренты и плохие люди.
                            Взяли скопировали мой контент, также добавили некоторые материалы и в Википедию.
                            И вы думаете, что мой сайт был в ТОПе?
                            Нет, в топе были конкуренты, который украли контент и Википедия.
                            Вот вам и честные алгоритмы
                              0
                              Картинка «Сайт попал под фильтр, падение трафика» убила)))) и сразу трафик в ноль со всех поисковиков и с контекстной рекламы и прямые переходы даже. Видимо жёсткий фильтр попался, что аж снёс сайт или отключил сбор статистики.

                              Большое количество отказов неизбежно приведет к санкциям

                              Из-за отказов санкции и фильтры на сайт не накладывают.

                              Вообще ощущения, что прочитал seo статью от средненького копирайтера.
                                0
                                Мне кажется, если бы всё так завязывалось на скорости очевидно умные сверх индусы уже бы написали что если в юзер-агент === гугл-бот то грузим огрызок страницы. А чё, быстро бы было
                                  0
                                  Так гугл это палит и вообще накладывает санкции за такое поведение.
                                    0
                                    Интересно, и как же он палит подобное? (не сарказм, действительно не могу понять)
                                      0
                                      Очевидно заходит иногда с обычным UA с обычных сетей, и сравнивает результат. Если сильно отличается, то считает, что это клоакинг, и принимает соответствующие меры.

                                Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                Самое читаемое