Комментарии 39
Google Pagespeed говорит я должен удалить скрипты гугла и яндекса.
И как это починить? Тут всего лишь аналитика, гугл рекапча и скрипт социальных кнопок для шаринга от яндекса.
А что если владелец сайта ну ооочень хочет какой-нибудь вебвизор и отговорить его не получается?
Положим, вызывает вас руководитель и просит доказать, что надо и дальше тратить ресурсы учреждения на этот сайт. При этом руководитель объясняет, что сайт этот никому не нужен, никакой пользы не приносит и является нецелевым использованием средств учреждения.
Как ему ответить, не имея статистики? Как доказать, что сайт соответствует уставным целям?
Распарсить access.log для сбора статистики, очевидно. Зачем для этого гугл и яндекс?
Но смотрите: вот человек занимается веб-сайтом через CMS-движок с готовым скином, не имеет доступа к логам и не знает языков. Да, есть программы для обработки логов. Да, можно распарсить лог в Excel. Но для этого всё-таки нужны логи…
Без логов — остаётся только яндекс-аналитика. Некуда бежать.
Я не буду парсить логи, я просто поставлю какой-нибудь awstats, который сделает это за меня. А нормальные shared-хостинги предоставляют этот самый awstats из коробки. Нахрена вообще приходить к хостингу, который не даёт логи?
(Примеры из жизни, буквально directed by Robert B. Weide.)
Вы вообще как давно в аналитику заходили, яндекса там или гугла?
Австатс — это 90ые, там вообще нет ничего.
Кроме этого, если Вы взглянете на водопад загрузки, то увидите, что загрузка скриптов аналитики идёт асинхронно и основная часть скриптов грузится после загрузки страницы и ещё полусинтетический тесты типа Гугл Маяка не показывают реальной картины, т.к. искусственный тротлинг хоть и похож на настоящий, но все же далёк от средней температуры по больнице (аудитории конкретного сайта) и часто в худшую сторону. Не стоит идеализировать подобные результаты, да, они коррелируют с реальностью, но все же это не сильно реальные данные.
То же касается и числа элементов DOM — влиять на него в готовой CMS трудно.
Особенно если сам не являешься web программистом, а поддерживаемый сайт на грани между профессиональной деятельностью и хобби.
2.90 MB / 1.75 MB transferred
Finish: 14.21 s
DOMContentLoaded: 3.03 s
load: 9.63 s
Поисковый робот учитывает, сколько людей ушли с сайта, посмотрев всего одну страницу. Для системы это означает, что ресурс нерелевантный, некачественный или неудобный. Его рейтинг автоматически понижается.
Дальше уже точно можно не читать… Предложение ну настолько бредовое…
Задача поискового робота предложить человеку страницу, на которой он найдет то, что ему надо. Поэтому в метриках поисковика заложено, что хорошо, когда человек просмотрел на сайте 1 страницу и закрыл поиск. Значит он нашел, что искал.
PS По секрету подскажу, что грубо (опять же там много факторов) минус в карму ставится за то, что в поисковой выдаче прошел клик на следующий сайт. Значит на предыдущем пользователь не нашел, что искал. И вполне возможно, что за просмотр большого количества страниц на сайте, минус в карму окажется еще больше (пути машинного обучения неисповедимы в некоторых случаях).
Одно другому не мешает.
SEO — это не программирование с чётким ТЗ, счёт тысяч долларов идёт на миллисекунды, а скорость многие недооценивают до сих пор.
Вы путаете поведенческие факторы на сайте и поведенческие на поиске. Да, есть понятие ласт-клика на поиске, но автор говорил про расчёт отказов на сайте. И за отказ засчитывается, в том числе, просмотр одной страницы на сайте (в гугле, у Яндекса ещё плюс время).
Статья, конечно, опять повторяет все, что было сказано миллион раз до этого, но бреда там нет, только банальности
Я не хочу обидеть СЕОшников.
Но мне кажется в аду для них установлен специальный котел.
Объясню, свое возмущение.
— В погоне за скоростью и за просмотрами страниц и за переходами.
Начали делать, одну статью разбивают на много маленький статей, перелинковывают все это.
И в место того, зайти на страницу и получить информацию, сейчас приходится переходить по страницам.
— Относительно текстов. Как уже достали эти копирайтеры и рерайтеры.
Когда владелец сайта, заказывает статья к примеру по педиатрии или медицина. В большинстве случаев, его интересует статья на определенную тему (ключи). А то, что там может оказаться не релевантная информация, его это не интересует. Главное трафик.
Поисковые боты, иногда тоже поступают не корректно.
Был у меня когда-то сайт с специфической тематикой.
Контент я брал с португальских сайтов. Оплачивал переводчиков.
Но конкуренты и плохие люди.
Взяли скопировали мой контент, также добавили некоторые материалы и в Википедию.
И вы думаете, что мой сайт был в ТОПе?
Нет, в топе были конкуренты, который украли контент и Википедия.
Вот вам и честные алгоритмы
Большое количество отказов неизбежно приведет к санкциям
Из-за отказов санкции и фильтры на сайт не накладывают.
Вообще ощущения, что прочитал seo статью от средненького копирайтера.
Почему медленная загрузка сайта убивает SEO. И как шиншиллам не остаться без домиков