Как стать автором
Обновить

Почему медленная загрузка сайта убивает SEO. И как шиншиллам не остаться без домиков

Время на прочтение6 мин
Количество просмотров9.7K
Всего голосов 15: ↑3 и ↓12-6
Комментарии39

Комментарии 39

Пять секунд?! Что можно грузить пять секунд?
НЛО прилетело и опубликовало эту надпись здесь
Например, большую веб-страницу, которую строит скрипт на shared хостинге.
Во-первых, если бэк не успевает отработать за 500 мс, программист делает что-то сильно не так. Во-вторых, даже с не очень хорошим пингом до сервера за 5 секунд можно загрузить 640 килобайт. Это два тома «войны и мира» в текстовом формате!
Ну вот мой пример (не 5 секунд конечно, но тем не менее):


Google Pagespeed говорит я должен удалить скрипты гугла и яндекса.
И как это починить? Тут всего лишь аналитика, гугл рекапча и скрипт социальных кнопок для шаринга от яндекса.
НЛО прилетело и опубликовало эту надпись здесь

А что если владелец сайта ну ооочень хочет какой-нибудь вебвизор и отговорить его не получается?

НЛО прилетело и опубликовало эту надпись здесь
Аналитика позволяет оправдать и объяснить существование сайта.

Положим, вызывает вас руководитель и просит доказать, что надо и дальше тратить ресурсы учреждения на этот сайт. При этом руководитель объясняет, что сайт этот никому не нужен, никакой пользы не приносит и является нецелевым использованием средств учреждения.

Как ему ответить, не имея статистики? Как доказать, что сайт соответствует уставным целям?
Согласен с вашим аргументом. Вы — опытный специалист, вы можете взять логи от shared host, распарсить их и построить инфографику скриптовым языком. Это самый гибкий и удобный способ.

Но смотрите: вот человек занимается веб-сайтом через CMS-движок с готовым скином, не имеет доступа к логам и не знает языков. Да, есть программы для обработки логов. Да, можно распарсить лог в Excel. Но для этого всё-таки нужны логи…

Без логов — остаётся только яндекс-аналитика. Некуда бежать.

Я не буду парсить логи, я просто поставлю какой-нибудь awstats, который сделает это за меня. А нормальные shared-хостинги предоставляют этот самый awstats из коробки. Нахрена вообще приходить к хостингу, который не даёт логи?

Хостер даёт логи. Компьютерный специалист не даёт доступа к логам. Поэтому сотрудник «не имеет доступа к логам».

(Примеры из жизни, буквально directed by Robert B. Weide.)
НЛО прилетело и опубликовало эту надпись здесь
В современных условиях многое оседает в CDN, не оставляя записей в локальных логах. И речь не только про картинки, но и про динамику для неавторизованных пользователей.
Если цель — просто зафиксировать факт посещения динамики, то можно например просто воткнуть пиксель/XMLHttpRequest/fetch на сервер в обход CDN. Городить для этого целую гугл-аналитику всё равно ни к чему

Вы вообще как давно в аналитику заходили, яндекса там или гугла?
Австатс — это 90ые, там вообще нет ничего.

НЛО прилетело и опубликовало эту надпись здесь

Странный вопрос.
Кому нужны, тот и ставит.

НЛО прилетело и опубликовало эту надпись здесь
Если на сайте находится магазин, тогда вы правы.

Если на сайте ничего не продаётся, тогда дело другое. Пример, который пришёл мне на память, как раз не для продажи товаров.
Всегда есть альтернатива, может не такая удобная, но в е есть. А вот насчёт скриптов для шеринга я согласен, что это зло.

Кроме этого, если Вы взглянете на водопад загрузки, то увидите, что загрузка скриптов аналитики идёт асинхронно и основная часть скриптов грузится после загрузки страницы и ещё полусинтетический тесты типа Гугл Маяка не показывают реальной картины, т.к. искусственный тротлинг хоть и похож на настоящий, но все же далёк от средней температуры по больнице (аудитории конкретного сайта) и часто в худшую сторону. Не стоит идеализировать подобные результаты, да, они коррелируют с реальностью, но все же это не сильно реальные данные.
НЛО прилетело и опубликовало эту надпись здесь
Полностью с вами согласен, но это когда сайт пишется вами. У меня же готовая CMS и компоненты к ней. Одно время я пытался самостоятельно оптимизировать и модифицировать компоненты, но при выходе их новых версий желательно делать их апдейт и соответственно все сделанные ранее изменения отменяются или становятся полностью не совместимыми. Та же капча — устанавливается компонентом комментариев JComment. Влиять не него довольно проблематично.
То же касается и числа элементов DOM — влиять на него в готовой CMS трудно.
Особенно если сам не являешься web программистом, а поддерживаемый сайт на грани между профессиональной деятельностью и хобби.
НЛО прилетело и опубликовало эту надпись здесь
Я вот это «Особенно если сам не являешься web программистом» говорил про себя.
НЛО прилетело и опубликовало эту надпись здесь
Смотря что считать загрузкой.
загрузка хабра согласно файрфоксу, адблок включен, эта страница, из под юзера
56 requests
2.90 MB / 1.75 MB transferred
Finish: 14.21 s
DOMContentLoaded: 3.03 s
load: 9.63 s
Поисковый робот учитывает, сколько людей ушли с сайта, посмотрев всего одну страницу. Для системы это означает, что ресурс нерелевантный, некачественный или неудобный. Его рейтинг автоматически понижается.

Дальше уже точно можно не читать… Предложение ну настолько бредовое…

Задача поискового робота предложить человеку страницу, на которой он найдет то, что ему надо. Поэтому в метриках поисковика заложено, что хорошо, когда человек просмотрел на сайте 1 страницу и закрыл поиск. Значит он нашел, что искал.

PS По секрету подскажу, что грубо (опять же там много факторов) минус в карму ставится за то, что в поисковой выдаче прошел клик на следующий сайт. Значит на предыдущем пользователь не нашел, что искал. И вполне возможно, что за просмотр большого количества страниц на сайте, минус в карму окажется еще больше (пути машинного обучения неисповедимы в некоторых случаях).

Одно другому не мешает.
SEO — это не программирование с чётким ТЗ, счёт тысяч долларов идёт на миллисекунды, а скорость многие недооценивают до сих пор.

Вы путаете поведенческие факторы на сайте и поведенческие на поиске. Да, есть понятие ласт-клика на поиске, но автор говорил про расчёт отказов на сайте. И за отказ засчитывается, в том числе, просмотр одной страницы на сайте (в гугле, у Яндекса ещё плюс время).
Статья, конечно, опять повторяет все, что было сказано миллион раз до этого, но бреда там нет, только банальности

Я бы назвал SEO не search engine optimization, а search engine manipulation или search engine spam. И почему-то постоянно говорят, как это полезно для владельцев сайтов, но забывают про самих пользователей, которым надо пропускать всю эту шелуху на первых страницах выдачи. И почему сайт по продаже домиков для шиншилл, построенный месяц назад должен обогнать сайт с многолетней историей, с кучей статей о шиншиллах и форумом, только потому что кто-то захотел быстро продвинуть свой проект в топ. Для этого вообще то существует реклама.

Почему должен?
Ну а — почему не должен?


С таким старпёрским подходом мы б ещё читали при лучине.

Вы меня простите.
Я не хочу обидеть СЕОшников.
Но мне кажется в аду для них установлен специальный котел.
Объясню, свое возмущение.
— В погоне за скоростью и за просмотрами страниц и за переходами.
Начали делать, одну статью разбивают на много маленький статей, перелинковывают все это.
И в место того, зайти на страницу и получить информацию, сейчас приходится переходить по страницам.
— Относительно текстов. Как уже достали эти копирайтеры и рерайтеры.
Когда владелец сайта, заказывает статья к примеру по педиатрии или медицина. В большинстве случаев, его интересует статья на определенную тему (ключи). А то, что там может оказаться не релевантная информация, его это не интересует. Главное трафик.

Поисковые боты, иногда тоже поступают не корректно.
Был у меня когда-то сайт с специфической тематикой.
Контент я брал с португальских сайтов. Оплачивал переводчиков.
Но конкуренты и плохие люди.
Взяли скопировали мой контент, также добавили некоторые материалы и в Википедию.
И вы думаете, что мой сайт был в ТОПе?
Нет, в топе были конкуренты, который украли контент и Википедия.
Вот вам и честные алгоритмы
Картинка «Сайт попал под фильтр, падение трафика» убила)))) и сразу трафик в ноль со всех поисковиков и с контекстной рекламы и прямые переходы даже. Видимо жёсткий фильтр попался, что аж снёс сайт или отключил сбор статистики.

Большое количество отказов неизбежно приведет к санкциям

Из-за отказов санкции и фильтры на сайт не накладывают.

Вообще ощущения, что прочитал seo статью от средненького копирайтера.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории