Pull to refresh

Десять популярных SEO – мифов о продвижении в Google

Reading time 7 min
Views 54K
Привет, Хабрахабр!

При продвижении сайтов в Google в среде веб-мастеров возникли и утвердились несколько SEO – мифов и заблуждений.

Причины — отсутствие информации или подтверждений от первоисточника (Google); невнимательное прочтение или неправильное понимание справочной информации.


1. Существование «Песочницы»


Бытует мнение, что Google применяет к молодым сайтам некий алгоритм, влияющий на их ранжирование.

Webeffector в своей Wiki энциклопедии написал:
«Внешне помещение сайта в песочницу выглядит так. С ресурсом, кажется, всё в порядке, он находится в кэше Google, никаких претензий к нему не высказывается. Однако на странице выдачи ресурс не только не появляется при наборе в поисковой строке уникальных для этого сайта ключевых запросов, но даже не стоит в первой строчке выдачи при наборе в поисковой строке сетевого адреса сайта! Ресурса словно не существует для поисковой машины. Если это так, то будьте уверены – сайт в песочнице Google. Срок действия фильтра составляет от 6 месяцев до 1 года».

Что происходит на самом деле?

Нет «песочницы», — рассказывает сотрудник Google Андрей Липатцев, — пару-тройку месяцев мы собираем о сайте все данные, и в этот срок он ранжируется по тем, что есть, а потом может начать ранжироваться как выше, так и ниже.

То же самое, но другими словами, написано в часто задаваемых вопросах Google:
«В первое время страницы нового сайта могут ранжироваться без учёта некоторых факторов [например, гео-зависимость контента — прим.авт.], которые для этого сайта ещё не выяснены. Могут быть не сразу определены полные и нечёткие дубликаты страниц, контент, скопированный с других сайтов, слабо наполненные страницы, некачественные тексты и другие недостатки сайта. Но в дальнейшем они скажутся, и сайт потеряет первоначальные позиции».

2. «Сопли» Google


Наверно, каждый веб-мастер слышал о таком понятии, как supplemental index (дополнительный индекс) или его сленговом названии «сопли». Принято считать, что получить список страниц сайта, которые находятся в основном индексе, можно используя оператор site:yoursite.ua/&. Соответственно, список страниц из дополнительного индекса якобы можно получить используя комбинацию site:yoursite.ua -site:yoursite.ua/&.

Основания считать, что дополнительный индекс Google существовал действительно были. О нём была публикация в Google Webmaster Central Blog от 31 июля 2007 года.

С момента публикации прошло почти 8 лет, и все поменялось.

«Если ввести в адресную строку site:pdapps.ru/ — то весь индекс страниц, а если ввести site:pdapps.ru/& — это основной индекс, который по идее должен быть в поиске. Поправьте, если я ошибаюсь» — спросили Андрея Липатцева на справочном форуме для веб-мастеров.

Действительно, ошибаетесь, — ответил он. — Никакой полезной информации добавление & к запросу Вам не даёт.

Специалист Google, к которому мы обратились за разъяснением ситуации, сообщил, что существование supplemental index – это устаревшая информация.

3. «Фильтры» Google


Фильтр – сленговый термин, используемый веб-мастерами, который подразумевает обработку данных сайта и влияние на ражирование и индексирование.

Google не использует никакие фильтры. Использование подобного сленга приводит к искажению смысла сообщений, поскольку до конца неясно, что именно тот или иной веб-мастер в данный момент времени понимает под словом фильтр.

Если вы обсуждаете или публикуете какую-то информацию, связанную с Google, желательно использовать точную терминологию.

Поисковая система Google представляет в упрощённом виде некое подобие часового механизма, где все «детали» являются постоянно взаимодействующими друг с другом алгоритмами. Поэтому, если вы столкнулись с понижением рейтинга сайта в SERP, исключением из индекса и так далее, лучше использовать термин «алгоритм [название]» или меры, принятые вручную.

Нигде в официальных справках или публикациях Google для веб-мастеров, в том числе в интервью, слово фильтр не используется.

4. Влияние поведенческих факторов на ранжирование


Ещё один SEO – миф состоит в том, что Google учитывает влияние поведенческих факторов для целей ранжирования. На эту тему веб-мастера массово пишут статьи и ведут обсуждения на форумах.

Google не использует поведенческие факторы и социальные сигналы в ранжировании сайтов. Об этом на конференции CyberMarketing-2014 рассказал специалист службы качества поиска Google Андрей Липатцев[1].

После этого заявления почти на всех конференциях его обязательно спрашивают об этом. Ну, не верят веб-мастера в якобы очевидное, и всё тут.

Позже Андрей Липатцев подтвердил ранее высказанную точку зрения:
«Мы не учитываем данные, предоставляемые через Google Analytics при ранжировании. «Накликивание» на ссылки в выдаче через псевдо-сервисы, подобные юзератору и иже с ним, — бесполезная трата ресурсов для веб-мастеров, которые могли бы с большей пользой употребить их другим образом». «Мэтт Катс — такие показатели, как CTR и показатель отказов не принимаются во внимание в алгоритме ранжирования».

Для понимания общего подхода приводим цитаты еще двух сотрудников Google.

John Mueller сказал: «я не предполагаю, что [поведение пользователей] это то, что #Google будет использовать как фактор ранжирования.[2]

Использование кликов напрямую в ранжировании не будет иметь смысла из-за шума,— сказал Gary Illyes[3].

5. До первой звезды нельзя


Помните этот слоган в одной из реклам известного бренда? Среди веб-мастеров бытует мнение, что достаточно добавить в код страниц соответствующую валидную разметку, и в результатах поисковой выдачи появятся расширенные сниппеты.

Суть в том, что сама по себе разметка даже трижды валидная не является гарантией появления расширенного сниппета. Рекомендуем очень внимательно изучить и обдумать ответ Андрея Липатцева.
«…я бы рекомендовал Вам заняться удалением ведущих на сайт покупных ссылок, так как при их наличии показ расширенных описаний может быть отключён автоматически, и простого их отклонения может оказаться недостаточно. После очередной регулярной переоценки сайта он оказался несколько ниже того порога, над которым для страниц сайтов отображаются расширенные описания. Такие переоценки происходят постоянно и для всех сайтов. Учитывая, что показ расширенных описаний ни в коем случае не гарантируется, я бы просто продолжал работать над сайтом, как и раньше, предоставив Google производить свои оценки и принимать соответствующие решения.
Замечу, что по запросу site: расширенные описания могут и отображаться, так как для него действуют особые критерии».

6. Все страницы сайта должны быть в индексе


Можно открыть любой SEO-форум и найти там тему «Почему Google не индексирует страницу...». Миф основан на том, что якобы абсолютно все страницы сайта должны быть в индексе.

Индекс не резиновый, — сказал на одной из конференций инженер Google Ринат Сафин.

Google-бот периодически сканирует сайт и передает соответствующую информацию алгоритмам, которые отвечают за оценку качества сайта, ранжирование и индексирование страниц.

Допустим, на сайте есть две страницы с примерно одинаковым содержанием, но одна из них содержит более качественный контент, чем вторая. Ресурсы Google тоже не безграничны, потому в нашем примере в индекс будет добавлена только одна страница — с более качественным и информативным контентом.

Отдельные страницы сайта могут быть исключены из индекса. Дополнительно читайте нашу статью на Хабрахабр — У вашего сайта проблемы с Google?

Точное количество проиндексированных страниц можно узнать только в Google Search Console.

7. Важность ошибки 404 для SEO


В среде веб-мастеров распространено заблуждение, что наличие на сайте страниц, отдающих 404 ошибку (Error 404 или Not Found стандартный код ответа HTTP), может негативно сказаться на индексировании или ранжировании сайта. Многие веб-мастера считают, что алгоритм Panda учитывает эту информацию при оценке качества сайта.

Webmaster Trends Analyst Google Gary Illyes предельно чётко пояснил позицию Google: «Мнение, что ошибки 404 влекут за собой какие-либо наказания для сайта, в корне неверно».

Веб изменчив, старые ссылки могут вести в никуда. Гуглоботу такие ссылки безразличны [читай, не влияют ни на какие показатели — прим.авт.]. Если вдруг вы найдете битые ссылки, то просто исправьте их, чтобы посетители могли нормально пользоваться сайтом, — говорил на одной из видеоконференций John Mueller. — Я бы не рассматривал эту проблему, как что-то важное с точки зрения SEO. Это просто часть работы по поддержке сайта — следить, чтобы ссылки были в актуальном состоянии.

404 ошибка на неправильном URL не навредит индексации вашего сайта или его ранжированию в любом случае. Даже если таких ошибок 100 или 10 миллионов, они не повредят рейтингу вашего сайта, — пишет John Mueller на своей странице в Google плюс.

Одиннадцатого августа 2015 года в Twitter обсуждался вопрос, влияет ли 404 ошибка на то, как алгоритм Panda воздействует на рейтинг сайта.

На этот вопрос Gary Illyes дал отрицательный ответ.

8. Вернись, я всё прощу


Не секрет, что большинство сайтов использовали или используют для продвижения покупные (неестественные) ссылки.

Google умеет распознавать такие ссылки и, как Виктор Марьяныч из кинофильма «Наша Раша», – жестоко наказывает. Получив меры, принятые вручную, за покупные ссылки, сайт может потерять рейтинг и видимость в результатах поиска.

Добившись отмены мер, веб-мастера зачастую недоумевают и спрашивают, почему не возвращаются позиции сайта. Они забывают, что ранее достигнутые позиции сайт получил обманным путём.

Анализируя один из таких сайтов на Справочном форуме для веб-мастеров, Андрей Липатцев ответил:
«Вы полностью упустили из виду, что для «оптимизации» сайта кто-то занимался покупкой ссылок. Эффект этого допинга рано или поздно должен был прекратиться, что и произошло. На данный момент ваш сайт ранжируется так, как и должен, без учёта покупных ссылок».

9. Я всё отклонил


В продолжение описанного в пункте восемь заблуждения рассмотрим другой миф — «Сайт получил меры за покупные ссылки? Отклоняйте покупные (некачественные) ссылки и будет вам счастье».

Это не совсем так. Действительно, добавление таких ссылок в инструмент disavow tool, — это важная процедура «излечения» пострадавшего сайта. Но этого явно недостаточно.

Согласно официальной документации веб-мастер сначала должен удалить проблемные ссылки. Затем крайне желательно в запросе на повторную проверку разместить ссылку на доказательства осуществления этого процесса. Требование Google о физическом удалении проблемных ссылок отчасти обусловлено тем, что удаление ранее отклонённых ссылок из файла disavow восстанавливает статус этого ссылочного.

Неестественные ссылки, которые не смогли удалить, добавляются в disavow tool.

Читаем документацию:
Добавление всех обратных ссылок в файл отклонения не считается решением проблемы, и вам не удастся пройти проверку.
В нём [в запросе на повторную проверку – прим.авт.] подробно описываются действия, предпринятые для устранения проблем.
В нём [в запросе на повторную проверку – прим.авт.] приведены все результаты ваших действий.

10. Отклонение ссылок и Search Console


Некоторые веб-мастера считают, что отправив в disavow tool ссылку из Google Search Console, она должна через время пропасть из раздела «ссылки на ваш сайт».

Это разные инструменты. На справочном форуме был задан вопрос – «… есть версия, что в панели веб-мастера отображаются только физически размещённые обратные ссылки и инструмент disavow никак не влияет на данный список?». На что Андрей Липатцев (Google) ответил: «Правильная версия».

Ссылки, добавленные в disavow tool, не удалены физически и потому логично, что исчезнуть из Search Consol они не могут.

Мы надеемся, что изложенная в статье информация будет полезна для веб-мастеров.

Примечания


1. searchengines.ru. Поисковые системы. Google не использует в ранжировании социальные и поведенческие сигналы.
2. @SeoTelegraph. Twitter журнал о SEO. Твит от 12 авг. 2015.
3. Блоgгер. Поисковая оптимизация — Как Google определяет качество контента?
Tags:
Hubs:
+18
Comments 26
Comments Comments 26

Articles