Pull to refresh

Исправили технические ошибки на сайте недвижимости в Канаде и трафик вырос в 2 раза

На протяжении долгого времени между спикерами и seo специалистами ходят споры, на сколько техническая сторона сайта важна в поисковом продвижении. Слышал не раз мнение, что Seo надо начинать с семантического ядра(списка запросов), а “техничка” сейчас не играет никакой роли. Кто-то говорит, что техническая составляющая самая важная и максимально чистят код и увеличивают скорость сайта, но при этом практически не занимаются текстовыми фактора.

Меня зовут Иван Жданович, я занимаюсь клиентским продвижением сайтов в СНГ, Европу и США. Опыт работы с клиентскими проектами  более 10 лет. Так вот, попался мне проект на продвижение недвижимости в Канаде, где технические работы позволили мне увеличить поисковый трафик в 2 раза на крупном агрегаторе в 10 млн. страниц.

Пришел на продвижение крупный агрегатор под Канаду. Основными требованиями клиента было вывести несколько запросов в топ и мне это удолось сделать, но здесь я все же хочу показать, важность технического SEO, поэтому я бы не хотел отвлекаться на текстовую и ссылочную оптимизацию.

Основные проблемы технического анализа больших сайтов:

1.      Нет возможности просканировать все страницы сайта из-за их объемов.

2.      Сложности с индексацией сайта в поисковых системах Google.

3.      Отсутствие какой-либо CMS и сложность внесения правок на сайт из-за множества раз переписанного кода разработчиками.

Вот с такими проблемами мы столкнулись при анализе сайта. Далее более подробно о проблемах сайта агрегатора недвижимости Канады:

1.      На сайте были проблемы с индексацией. На сайте присутствовало более 10 млн. страниц, и при этом в индексе было менее 1 млн. страниц. Исключено по версии Google Search Console 1.36 млн. страниц.

Исключенные страницы из поисковой выдачи
Исключенные страницы из поисковой выдачи

Что было сделано? Первым делом, необходимо было понять, почему не индексируются страницы, поэтому в Google Search Console в разделе “Индекс” ->”Покрытие” мы выгрузили возможные 1000 страниц, как это показано на изображении ниже.

Проблемы сайта с поисковой индексацией
Проблемы сайта с поисковой индексацией

Далее зашли в Screaming Frog (популярная программа для Seo анализа) и во вкладке “Mode” выбрали режим “List”

Изменение режимов сканирования в Screaming Frog
Изменение режимов сканирования в Screaming Frog

Следующим этапом мы загрузили страницы из Вебмастера Google в Screaming Frog для анализа адресов. Загрузка осуществляется по кнопке ”Upload” и выбирается пункт “Enter Manually”.

Загрузка страниц для анализа
Загрузка страниц для анализа

Как только были получены данные, мы сразу поняли, в чем здесь проблема. На многих страницах стоял тег “noindex”.

Закрытые от индексации страницы с тегом noindex
Закрытые от индексации страницы с тегом noindex

Программист, закрывая технических страницы от индексации, закрыл также и огромную часть товарных страниц нескольких разделов.

Основные проблемы индексации были в следующих причинах:

a.      Карточки товаров некоторых разделов были закрыты от индексации тегом noindex.

b.      Более 100 тыс. страниц были с переиндексацией.

c.      Столько же страниц имело тег rel canonical с неверными значениями. Канонические страницы закрывали уникальные страницы фильтрации с хорошим контентом.

d.      Около 50 тысяч страниц было с битыми ссылками.

Итогом нашей работы стало удаление тега noindex и атрибута каноникал, что позволило индексировать полезный контент посиковыми роботами.

2.      Следующая большая проблема была связана с дублями страниц. Движок данного сайта работал следующим образом:

a.      Пользователь переходил в любой раздел сайта, например https://site/mainland/agassiz,bc/   

b.      К данному адресу добавлялся параметр 12_zm и получался новый адрес страницы https://site/mainland/agassiz,bc/12_zm - “висящие узлы” или страницы без ссылок на них.

c.      В поисковой системе индексировалась страница без параметра, а поведенческие факторы и ссылочные работали на адрес с параметром 12_zm. Мета-теги можно было прописать только для страницы без параметра.

Что было сделано? Было поставлено задание формировать адреса без дополнительных параметров, чтобы можно было прокачивать один адрес, ссылочным, поведенческими факторами и усиливать их текстовыми. Работа затянулась на 3 месяца и пришлось переписать огромный кусок кода.

3.      Далее шла проблема с 404 битыми ссылками на страницах сайта. Как уже ранее было сказано, страниц на сайте было огромное количество и просканировать программой Screamin Frog не было возможности.

Что было сделано? При помощи программы Screaming Frog было просканировано около 100 тысяч страниц и выгружен список страниц с 404 ответом кода сервера. Выгрузить данные страницы можно следующим образом:

a.      Нажать на вкладку “Bulk Export”.

b.      Выбрать вкладку “Response Codes”

c.      Выбрать вкладку “Client Errors 4xx inlinks”

В документе будут первым столбцом идти страницы, на которых стоят удаленные ссылки. Вторым столбцом – 404 страницы.

Выгрузка битых ссылок из Screaming Frog
Выгрузка битых ссылок из Screaming Frog

После выгрузки данный страниц, необходимо понять, почему та или иная ссылка стоят на удаленную страницу. Для большинства сайтов не надо полностью выгружать все страницы и анализировать, но важно понять причину постановки такой ссылки.

У клиента была не банальная ошибка забытой ссылки, хотя и таких хватало на сайте. Основной причиной агрегатора в формировании битых ссылок были:

a.      Клиент размещал недвижимость на продажу на агрегаторе.

b.      Как только она продавалась, страница автоматически становилась 404.

c.      На странице оставалась форма заказа продавца, т.к. он еще не распродал всю свою недвижимость.

d.      В разделах появлялись ссылки на 404 страницы.

С точки зрения  Seo, данная реализация функционала не подходила для продвижения сайта, т.к. клиенты по факту еще долго взаимодействовали со страницей, поисковые системы считали ее удаленной.

В итоге мы рекомендовали убрать с каталога проданную недвижимость, чтобы избавится от битых ссылок. Также настроить 301 редиректы на карточку продавца, где была размещена контактная форма и вся остальная недвижимость клиента.

4.      Последней значимой проблемой было дублирование категорий товаров недвижимости. На сайте функционал категорий был реализован таким образом, что было две категории недвижимости: одна с картой, другая - без карты. При этом все карточки товаров, тексты и мета-теги были одинаковые.  

Пример неправильной реализации каталога
Пример неправильной реализации каталога

Дублирование категорий товаров приводил к выпадению одной из страниц из индекса поисковой системы Google.

Что было сделано? Было предложено клиенту раздел по кнопки “List View” сделать основным, а кнопка с картой “Map View” подгружать без перезагрузки страницы, чтобы не менялся URL.

Также на проекте было огромное количество менее интересных ошибок, таких как 301 и 302 редиректы, неправильно сформированные мета-теги, проблемы с переездом на https, дубли контента и другое…

На протяжении 5 месяцев работы надо проектом, были выполнены следующие работы:

1.      Решены проблемы с индексацией сайта. На момент написания статьи в индексе поисковой системы google более 3 млн. страниц.

2.      Решены проблемы с битыми ссылками. Реализация карточек товаров помогла увеличить конверсию продаж для рекламодателей.

3.      Решены проблемы с дублированием страниц и контентом.

4.      Решены проблемы с пагинацией и атрибутом canonical для категорий.

5.      Решены проблемы с переездом на https. Все статические ссылки были скорректированы, настроены редиректы.

Итогом нашей работы только по ТЕХНИЧЕСКОЙ части сайта стало увеличения трафика в 2 раза

Результаты технической оптимизации
Результаты технической оптимизации

В следующей статье расскажу, как будет себя вести трафик после проведения работ над текстовыми и ссылочными факторами ранживарония поисковой системы Google.

Tags:
Hubs:
You can’t comment this publication because its author is not yet a full member of the community. You will be able to contact the author only after he or she has been invited by someone in the community. Until then, author’s username will be hidden by an alias.