Привет, Хабрахабр!
При продвижении сайтов в Google в среде веб-мастеров возникли и утвердились несколько SEO – мифов и заблуждений.
Причины — отсутствие информации или подтверждений от первоисточника (Google); невнимательное прочтение или неправильное понимание справочной информации.
Бытует мнение, что Google применяет к молодым сайтам некий алгоритм, влияющий на их ранжирование.
Webeffector в своей Wiki энциклопедии написал:
Что происходит на самом деле?
Нет «песочницы», — рассказывает сотрудник Google Андрей Липатцев, — пару-тройку месяцев мы собираем о сайте все данные, и в этот срок он ранжируется по тем, что есть, а потом может начать ранжироваться как выше, так и ниже.
То же самое, но другими словами, написано в часто задаваемых вопросах Google:
Наверно, каждый веб-мастер слышал о таком понятии, как supplemental index (дополнительный индекс) или его сленговом названии «сопли». Принято считать, что получить список страниц сайта, которые находятся в основном индексе, можно используя оператор site:yoursite.ua/&. Соответственно, список страниц из дополнительного индекса якобы можно получить используя комбинацию site:yoursite.ua -site:yoursite.ua/&.
Основания считать, что дополнительный индекс Google существовал действительно были. О нём была публикация в Google Webmaster Central Blog от 31 июля 2007 года.
С момента публикации прошло почти 8 лет, и все поменялось.
«Если ввести в адресную строку site:pdapps.ru/ — то весь индекс страниц, а если ввести site:pdapps.ru/& — это основной индекс, который по идее должен быть в поиске. Поправьте, если я ошибаюсь» — спросили Андрея Липатцева на справочном форуме для веб-мастеров.
Действительно, ошибаетесь, — ответил он. — Никакой полезной информации добавление & к запросу Вам не даёт.
Специалист Google, к которому мы обратились за разъяснением ситуации, сообщил, что существование supplemental index – это устаревшая информация.
Фильтр – сленговый термин, используемый веб-мастерами, который подразумевает обработку данных сайта и влияние на ражирование и индексирование.
Google не использует никакие фильтры. Использование подобного сленга приводит к искажению смысла сообщений, поскольку до конца неясно, что именно тот или иной веб-мастер в данный момент времени понимает под словом фильтр.
Если вы обсуждаете или публикуете какую-то информацию, связанную с Google, желательно использовать точную терминологию.
Поисковая система Google представляет в упрощённом виде некое подобие часового механизма, где все «детали» являются постоянно взаимодействующими друг с другом алгоритмами. Поэтому, если вы столкнулись с понижением рейтинга сайта в SERP, исключением из индекса и так далее, лучше использовать термин «алгоритм [название]» или меры, принятые вручную.
Нигде в официальных справках или публикациях Google для веб-мастеров, в том числе в интервью, слово фильтр не используется.
Ещё один SEO – миф состоит в том, что Google учитывает влияние поведенческих факторов для целей ранжирования. На эту тему веб-мастера массово пишут статьи и ведут обсуждения на форумах.
Google не использует поведенческие факторы и социальные сигналы в ранжировании сайтов. Об этом на конференции CyberMarketing-2014 рассказал специалист службы качества поиска Google Андрей Липатцев[1].
После этого заявления почти на всех конференциях его обязательно спрашивают об этом. Ну, не верят веб-мастера в якобы очевидное, и всё тут.
Позже Андрей Липатцев подтвердил ранее высказанную точку зрения:
Для понимания общего подхода приводим цитаты еще двух сотрудников Google.
John Mueller сказал: «я не предполагаю, что [поведение пользователей] это то, что #Google будет использовать как фактор ранжирования.[2]
Использование кликов напрямую в ранжировании не будет иметь смысла из-за шума,— сказал Gary Illyes[3].
Помните этот слоган в одной из реклам известного бренда? Среди веб-мастеров бытует мнение, что достаточно добавить в код страниц соответствующую валидную разметку, и в результатах поисковой выдачи появятся расширенные сниппеты.
Суть в том, что сама по себе разметка даже трижды валидная не является гарантией появления расширенного сниппета. Рекомендуем очень внимательно изучить и обдумать ответ Андрея Липатцева.
Можно открыть любой SEO-форум и найти там тему «Почему Google не индексирует страницу...». Миф основан на том, что якобы абсолютно все страницы сайта должны быть в индексе.
Индекс не резиновый, — сказал на одной из конференций инженер Google Ринат Сафин.
Google-бот периодически сканирует сайт и передает соответствующую информацию алгоритмам, которые отвечают за оценку качества сайта, ранжирование и индексирование страниц.
Допустим, на сайте есть две страницы с примерно одинаковым содержанием, но одна из них содержит более качественный контент, чем вторая. Ресурсы Google тоже не безграничны, потому в нашем примере в индекс будет добавлена только одна страница — с более качественным и информативным контентом.
Отдельные страницы сайта могут быть исключены из индекса. Дополнительно читайте нашу статью на Хабрахабр — У вашего сайта проблемы с Google?
Точное количество проиндексированных страниц можно узнать только в Google Search Console.
В среде веб-мастеров распространено заблуждение, что наличие на сайте страниц, отдающих 404 ошибку (Error 404 или Not Found стандартный код ответа HTTP), может негативно сказаться на индексировании или ранжировании сайта. Многие веб-мастера считают, что алгоритм Panda учитывает эту информацию при оценке качества сайта.
Webmaster Trends Analyst Google Gary Illyes предельно чётко пояснил позицию Google: «Мнение, что ошибки 404 влекут за собой какие-либо наказания для сайта, в корне неверно».
Веб изменчив, старые ссылки могут вести в никуда. Гуглоботу такие ссылки безразличны [читай, не влияют ни на какие показатели — прим.авт.]. Если вдруг вы найдете битые ссылки, то просто исправьте их, чтобы посетители могли нормально пользоваться сайтом, — говорил на одной из видеоконференций John Mueller. — Я бы не рассматривал эту проблему, как что-то важное с точки зрения SEO. Это просто часть работы по поддержке сайта — следить, чтобы ссылки были в актуальном состоянии.
404 ошибка на неправильном URL не навредит индексации вашего сайта или его ранжированию в любом случае. Даже если таких ошибок 100 или 10 миллионов, они не повредят рейтингу вашего сайта, — пишет John Mueller на своей странице в Google плюс.
Одиннадцатого августа 2015 года в Twitter обсуждался вопрос, влияет ли 404 ошибка на то, как алгоритм Panda воздействует на рейтинг сайта.
На этот вопрос Gary Illyes дал отрицательный ответ.
Не секрет, что большинство сайтов использовали или используют для продвижения покупные (неестественные) ссылки.
Google умеет распознавать такие ссылки и, как Виктор Марьяныч из кинофильма «Наша Раша», – жестоко наказывает. Получив меры, принятые вручную, за покупные ссылки, сайт может потерять рейтинг и видимость в результатах поиска.
Добившись отмены мер, веб-мастера зачастую недоумевают и спрашивают, почему не возвращаются позиции сайта. Они забывают, что ранее достигнутые позиции сайт получил обманным путём.
Анализируя один из таких сайтов на Справочном форуме для веб-мастеров, Андрей Липатцев ответил:
В продолжение описанного в пункте восемь заблуждения рассмотрим другой миф — «Сайт получил меры за покупные ссылки? Отклоняйте покупные (некачественные) ссылки и будет вам счастье».
Это не совсем так. Действительно, добавление таких ссылок в инструмент disavow tool, — это важная процедура «излечения» пострадавшего сайта. Но этого явно недостаточно.
Согласно официальной документации веб-мастер сначала должен удалить проблемные ссылки. Затем крайне желательно в запросе на повторную проверку разместить ссылку на доказательства осуществления этого процесса. Требование Google о физическом удалении проблемных ссылок отчасти обусловлено тем, что удаление ранее отклонённых ссылок из файла disavow восстанавливает статус этого ссылочного.
Неестественные ссылки, которые не смогли удалить, добавляются в disavow tool.
Читаем документацию:
Некоторые веб-мастера считают, что отправив в disavow tool ссылку из Google Search Console, она должна через время пропасть из раздела «ссылки на ваш сайт».
Это разные инструменты. На справочном форуме был задан вопрос – «… есть версия, что в панели веб-мастера отображаются только физически размещённые обратные ссылки и инструмент disavow никак не влияет на данный список?». На что Андрей Липатцев (Google) ответил: «Правильная версия».
Ссылки, добавленные в disavow tool, не удалены физически и потому логично, что исчезнуть из Search Consol они не могут.
Мы надеемся, что изложенная в статье информация будет полезна для веб-мастеров.
1. searchengines.ru. Поисковые системы. Google не использует в ранжировании социальные и поведенческие сигналы.
2. @SeoTelegraph. Twitter журнал о SEO. Твит от 12 авг. 2015.
3. Блоgгер. Поисковая оптимизация — Как Google определяет качество контента?
При продвижении сайтов в Google в среде веб-мастеров возникли и утвердились несколько SEO – мифов и заблуждений.
Причины — отсутствие информации или подтверждений от первоисточника (Google); невнимательное прочтение или неправильное понимание справочной информации.
1. Существование «Песочницы»
Бытует мнение, что Google применяет к молодым сайтам некий алгоритм, влияющий на их ранжирование.
Webeffector в своей Wiki энциклопедии написал:
«Внешне помещение сайта в песочницу выглядит так. С ресурсом, кажется, всё в порядке, он находится в кэше Google, никаких претензий к нему не высказывается. Однако на странице выдачи ресурс не только не появляется при наборе в поисковой строке уникальных для этого сайта ключевых запросов, но даже не стоит в первой строчке выдачи при наборе в поисковой строке сетевого адреса сайта! Ресурса словно не существует для поисковой машины. Если это так, то будьте уверены – сайт в песочнице Google. Срок действия фильтра составляет от 6 месяцев до 1 года».
Что происходит на самом деле?
Нет «песочницы», — рассказывает сотрудник Google Андрей Липатцев, — пару-тройку месяцев мы собираем о сайте все данные, и в этот срок он ранжируется по тем, что есть, а потом может начать ранжироваться как выше, так и ниже.
То же самое, но другими словами, написано в часто задаваемых вопросах Google:
«В первое время страницы нового сайта могут ранжироваться без учёта некоторых факторов [например, гео-зависимость контента — прим.авт.], которые для этого сайта ещё не выяснены. Могут быть не сразу определены полные и нечёткие дубликаты страниц, контент, скопированный с других сайтов, слабо наполненные страницы, некачественные тексты и другие недостатки сайта. Но в дальнейшем они скажутся, и сайт потеряет первоначальные позиции».
2. «Сопли» Google
Наверно, каждый веб-мастер слышал о таком понятии, как supplemental index (дополнительный индекс) или его сленговом названии «сопли». Принято считать, что получить список страниц сайта, которые находятся в основном индексе, можно используя оператор site:yoursite.ua/&. Соответственно, список страниц из дополнительного индекса якобы можно получить используя комбинацию site:yoursite.ua -site:yoursite.ua/&.
Основания считать, что дополнительный индекс Google существовал действительно были. О нём была публикация в Google Webmaster Central Blog от 31 июля 2007 года.
С момента публикации прошло почти 8 лет, и все поменялось.
«Если ввести в адресную строку site:pdapps.ru/ — то весь индекс страниц, а если ввести site:pdapps.ru/& — это основной индекс, который по идее должен быть в поиске. Поправьте, если я ошибаюсь» — спросили Андрея Липатцева на справочном форуме для веб-мастеров.
Действительно, ошибаетесь, — ответил он. — Никакой полезной информации добавление & к запросу Вам не даёт.
Специалист Google, к которому мы обратились за разъяснением ситуации, сообщил, что существование supplemental index – это устаревшая информация.
3. «Фильтры» Google
Фильтр – сленговый термин, используемый веб-мастерами, который подразумевает обработку данных сайта и влияние на ражирование и индексирование.
Google не использует никакие фильтры. Использование подобного сленга приводит к искажению смысла сообщений, поскольку до конца неясно, что именно тот или иной веб-мастер в данный момент времени понимает под словом фильтр.
Если вы обсуждаете или публикуете какую-то информацию, связанную с Google, желательно использовать точную терминологию.
Поисковая система Google представляет в упрощённом виде некое подобие часового механизма, где все «детали» являются постоянно взаимодействующими друг с другом алгоритмами. Поэтому, если вы столкнулись с понижением рейтинга сайта в SERP, исключением из индекса и так далее, лучше использовать термин «алгоритм [название]» или меры, принятые вручную.
Нигде в официальных справках или публикациях Google для веб-мастеров, в том числе в интервью, слово фильтр не используется.
4. Влияние поведенческих факторов на ранжирование
Ещё один SEO – миф состоит в том, что Google учитывает влияние поведенческих факторов для целей ранжирования. На эту тему веб-мастера массово пишут статьи и ведут обсуждения на форумах.
Google не использует поведенческие факторы и социальные сигналы в ранжировании сайтов. Об этом на конференции CyberMarketing-2014 рассказал специалист службы качества поиска Google Андрей Липатцев[1].
После этого заявления почти на всех конференциях его обязательно спрашивают об этом. Ну, не верят веб-мастера в якобы очевидное, и всё тут.
Позже Андрей Липатцев подтвердил ранее высказанную точку зрения:
«Мы не учитываем данные, предоставляемые через Google Analytics при ранжировании. «Накликивание» на ссылки в выдаче через псевдо-сервисы, подобные юзератору и иже с ним, — бесполезная трата ресурсов для веб-мастеров, которые могли бы с большей пользой употребить их другим образом». «Мэтт Катс — такие показатели, как CTR и показатель отказов не принимаются во внимание в алгоритме ранжирования».
Для понимания общего подхода приводим цитаты еще двух сотрудников Google.
John Mueller сказал: «я не предполагаю, что [поведение пользователей] это то, что #Google будет использовать как фактор ранжирования.[2]
Использование кликов напрямую в ранжировании не будет иметь смысла из-за шума,— сказал Gary Illyes[3].
5. До первой звезды нельзя
Помните этот слоган в одной из реклам известного бренда? Среди веб-мастеров бытует мнение, что достаточно добавить в код страниц соответствующую валидную разметку, и в результатах поисковой выдачи появятся расширенные сниппеты.
Суть в том, что сама по себе разметка даже трижды валидная не является гарантией появления расширенного сниппета. Рекомендуем очень внимательно изучить и обдумать ответ Андрея Липатцева.
«…я бы рекомендовал Вам заняться удалением ведущих на сайт покупных ссылок, так как при их наличии показ расширенных описаний может быть отключён автоматически, и простого их отклонения может оказаться недостаточно. После очередной регулярной переоценки сайта он оказался несколько ниже того порога, над которым для страниц сайтов отображаются расширенные описания. Такие переоценки происходят постоянно и для всех сайтов. Учитывая, что показ расширенных описаний ни в коем случае не гарантируется, я бы просто продолжал работать над сайтом, как и раньше, предоставив Google производить свои оценки и принимать соответствующие решения.
Замечу, что по запросу site: расширенные описания могут и отображаться, так как для него действуют особые критерии».
6. Все страницы сайта должны быть в индексе
Можно открыть любой SEO-форум и найти там тему «Почему Google не индексирует страницу...». Миф основан на том, что якобы абсолютно все страницы сайта должны быть в индексе.
Индекс не резиновый, — сказал на одной из конференций инженер Google Ринат Сафин.
Google-бот периодически сканирует сайт и передает соответствующую информацию алгоритмам, которые отвечают за оценку качества сайта, ранжирование и индексирование страниц.
Допустим, на сайте есть две страницы с примерно одинаковым содержанием, но одна из них содержит более качественный контент, чем вторая. Ресурсы Google тоже не безграничны, потому в нашем примере в индекс будет добавлена только одна страница — с более качественным и информативным контентом.
Отдельные страницы сайта могут быть исключены из индекса. Дополнительно читайте нашу статью на Хабрахабр — У вашего сайта проблемы с Google?
Точное количество проиндексированных страниц можно узнать только в Google Search Console.
7. Важность ошибки 404 для SEO
В среде веб-мастеров распространено заблуждение, что наличие на сайте страниц, отдающих 404 ошибку (Error 404 или Not Found стандартный код ответа HTTP), может негативно сказаться на индексировании или ранжировании сайта. Многие веб-мастера считают, что алгоритм Panda учитывает эту информацию при оценке качества сайта.
Webmaster Trends Analyst Google Gary Illyes предельно чётко пояснил позицию Google: «Мнение, что ошибки 404 влекут за собой какие-либо наказания для сайта, в корне неверно».
Веб изменчив, старые ссылки могут вести в никуда. Гуглоботу такие ссылки безразличны [читай, не влияют ни на какие показатели — прим.авт.]. Если вдруг вы найдете битые ссылки, то просто исправьте их, чтобы посетители могли нормально пользоваться сайтом, — говорил на одной из видеоконференций John Mueller. — Я бы не рассматривал эту проблему, как что-то важное с точки зрения SEO. Это просто часть работы по поддержке сайта — следить, чтобы ссылки были в актуальном состоянии.
404 ошибка на неправильном URL не навредит индексации вашего сайта или его ранжированию в любом случае. Даже если таких ошибок 100 или 10 миллионов, они не повредят рейтингу вашего сайта, — пишет John Mueller на своей странице в Google плюс.
Одиннадцатого августа 2015 года в Twitter обсуждался вопрос, влияет ли 404 ошибка на то, как алгоритм Panda воздействует на рейтинг сайта.
На этот вопрос Gary Illyes дал отрицательный ответ.
8. Вернись, я всё прощу
Не секрет, что большинство сайтов использовали или используют для продвижения покупные (неестественные) ссылки.
Google умеет распознавать такие ссылки и, как Виктор Марьяныч из кинофильма «Наша Раша», – жестоко наказывает. Получив меры, принятые вручную, за покупные ссылки, сайт может потерять рейтинг и видимость в результатах поиска.
Добившись отмены мер, веб-мастера зачастую недоумевают и спрашивают, почему не возвращаются позиции сайта. Они забывают, что ранее достигнутые позиции сайт получил обманным путём.
Анализируя один из таких сайтов на Справочном форуме для веб-мастеров, Андрей Липатцев ответил:
«Вы полностью упустили из виду, что для «оптимизации» сайта кто-то занимался покупкой ссылок. Эффект этого допинга рано или поздно должен был прекратиться, что и произошло. На данный момент ваш сайт ранжируется так, как и должен, без учёта покупных ссылок».
9. Я всё отклонил
В продолжение описанного в пункте восемь заблуждения рассмотрим другой миф — «Сайт получил меры за покупные ссылки? Отклоняйте покупные (некачественные) ссылки и будет вам счастье».
Это не совсем так. Действительно, добавление таких ссылок в инструмент disavow tool, — это важная процедура «излечения» пострадавшего сайта. Но этого явно недостаточно.
Согласно официальной документации веб-мастер сначала должен удалить проблемные ссылки. Затем крайне желательно в запросе на повторную проверку разместить ссылку на доказательства осуществления этого процесса. Требование Google о физическом удалении проблемных ссылок отчасти обусловлено тем, что удаление ранее отклонённых ссылок из файла disavow восстанавливает статус этого ссылочного.
Неестественные ссылки, которые не смогли удалить, добавляются в disavow tool.
Читаем документацию:
Добавление всех обратных ссылок в файл отклонения не считается решением проблемы, и вам не удастся пройти проверку.
В нём [в запросе на повторную проверку – прим.авт.] подробно описываются действия, предпринятые для устранения проблем.
В нём [в запросе на повторную проверку – прим.авт.] приведены все результаты ваших действий.
10. Отклонение ссылок и Search Console
Некоторые веб-мастера считают, что отправив в disavow tool ссылку из Google Search Console, она должна через время пропасть из раздела «ссылки на ваш сайт».
Это разные инструменты. На справочном форуме был задан вопрос – «… есть версия, что в панели веб-мастера отображаются только физически размещённые обратные ссылки и инструмент disavow никак не влияет на данный список?». На что Андрей Липатцев (Google) ответил: «Правильная версия».
Ссылки, добавленные в disavow tool, не удалены физически и потому логично, что исчезнуть из Search Consol они не могут.
Мы надеемся, что изложенная в статье информация будет полезна для веб-мастеров.
Примечания
1. searchengines.ru. Поисковые системы. Google не использует в ранжировании социальные и поведенческие сигналы.
2. @SeoTelegraph. Twitter журнал о SEO. Твит от 12 авг. 2015.
3. Блоgгер. Поисковая оптимизация — Как Google определяет качество контента?