Pull to refresh

Улучшение качества поиска или субъективизм Яндекса?

Reading time4 min
Views1.4K
Все мы давно и много слышим от Яндекса о постоянном улучшении качества поиска. Алгоритмы АГС-17 и АГС-30, борьба с дорвеями и так далее. Многие радуются «хорошей выдаче», многие плачут о вылетевших сетках своих говносайтов, приносивших в светлом прошлом хорошую прибыль. Но так ли эти алгоритмы хороши? Не допускают ли они ошибок? Как Яндекс «чистит» Рунет?

Я занимаюсь развитием сервиса «Квартирка» — сети сайтов, предлагающих каталог квартир посуточно в 24 городах России. Цель проекта – упростить взаимодействие владельцев квартир посуточно со своими потенциальными клиентами. Владельцы квартир размещают свои предложения о сдаче квартир с ценами, фотографиями и так далее. Посетители сайта могут выбрать подходящее им жилье из множества вариантов и связаться напрямую с владельцами. Такой проект позволяет сделать этот хаотичный рынок цивилизованным, владельцы находят своих клиентов, а желающие снять квартиру избавляются от необходимости платить комиссии бесчисленным агентствам и покупать «кота в мешке».

Проект реализован на 24 доменах (один домен – один город). Выбрать другой город с домена можно (ссылки имеются), но для избегания проблем с драконовскими алгоритмами Яндекса блок выбора города был добавлен в тэг noindex.

Однако проблем избежать не удалось.

Все началось еще осенью, когда 5 городов попали под фильтр АГС-17. В индексе остались только главные страницы этих сайтов. По обнаружению этого факта было написано письмо в Яндекс, на что был получен шаблонный ответ:
Не все страницы сайта, известные поиску Яндекса, включены в индекс и
ранжируются высоко. Их включение и позиция зависят от качества сайта и его
контента с точки зрения пользователей, и многих других факторов. В множество
критериев, отражающих качество сайта, входит и размещение на его страницах
SEO-ссылок, что мы считаем плохой практикой, вредящей пользователям поиска.

Стоит отметить, что никаких SEO-ссылок на сайте нет и не было. Причина введения фильтра более или менее очевидна – 24 домена с одинаковым дизайном мимо зоркого фильтра Яндекса пройти не могут. Что такое «контент с точки зрения пользователей»? Каким образом они определили, что он их не устраивает? Лично поговорили с каждым? Я.Метрики на сайтах установлено не было.

Но так как главная страница, которая привлекала с Яндекса большое количество посетителей, была все-таки в индексе, то введение фильтра несущественно отразилось на работе проекта в целом.

Другой серьезный удар Яндекс нанес по проекту 15 февраля 2010 года. 6 сайтов полностью вылетели из индекса. На бан похоже не было – сайты замечательно добавлялись в addurl. Но ответ Яндекса ошеломил:
После анализа и классификации страниц Вашего сайта наши алгоритмы приняли
решение не включать его в поиск. Обратите внимание, что не все сайты,
известные поиску Яндекса, включены в индекс и ранжируются высоко. Их включение
и позиция зависят от качества сайта и его контента. На решение алгоритма может
оказать влияние использование поискового спама, наличие на сайте страниц
предназначенных для робота-индексатора, а не для чтения пользователями,
размещение уникальной информации и др. факторы.

Какие правила нарушил сайт? Где на нем размещен спам, контент для робота-индексатора и другие мерзости? Ответ Яндекса был такой:
Мы не вступаем в переписку по поводу конкретных технических приемов на сайте
или адресов некачественных страниц. Пожалуйста, внимательно ознакомьтесь с
нашими рекомендациями:

Рекомендации были внимательно изучены, но, разумеется, ни под один пункт нарушений сайты не попадали. Было написано еще одно письмо, в которых я цитировал и комментировал правила Яндекса с просьбой ответить по существу либо снять санкции к сайтам. Ответом было:
Если Вы будете развивать свой сайт для пользователей, размещать на нем
уникальную и полезную информацию, то он должен будет появиться в поиске.

Замечательно! «Вы нарушили то, не скажем что, делайте то, не знаем чего».
Сайт достаточно самодостаточен и удобен – мы нередко получали положительные отзывы о нашей работе, как со стороны владельцев, так и со стороны посетителей сайта. Какая уникальная и полезная информация еще нужна сайту, если он и так отвечает полностью всем требованиям посетителей?

Немного статистики одного из доменов:
image
image

Как видите, выпадение из индекса Яндекса нанесло определенный ущерб посещаемости, но не такой значительный, чтобы вешать клюшку на двери. О качестве контента говорят цифры – среднее время пребывания больше 5 минут, почти 4 страницы просмотров на человека в среднем. Для такого сервиса это хорошие показатели — пяти минут вполне достаточно, чтобы выбрать подходящее предложение и решить.

Почему сервис, существующий на 24 доменах, непременно является некачественным? Это всего лишь форма работы, не более того. Яндекс же, по всей видимости, посчитал это дублированием и повесил ярлык «некачественный».
Как определяется полезность сайта для пользователей? Секундный взгляд модератора на ресурс? Яндекс берет на работу лучших в мире маркетологов и садит их в отдел поиска и службу поддержки?
Почему полезные и относительно качественные ресурсы должны попадать под фильтры, настроенные на уничтожение ГС и дорвеев из выдачи только по совпадению крайне субъективных параметров?

По моему мнению, поисковая система должна предоставлять возможность поиска по всем ресурсам, созданным для людей. Убивать дорвеи и ГС – это одно, а вот выкидывать нормальные «белые сайты» из индекса только потому, что фильтры и платоны посчитали ресурс «некачественным» и наполненным неинтересным пользователям контентом – это уже совсем другое.

UPD: Сайты вернулись в индекс =)
Tags:
Hubs:
+54
Comments99

Articles