Pull to refresh

Cлив данных Google

Level of difficultyEasy
Reading time3 min
Views2.2K

24 мая 2024 года произошла утечка определенных алгоритмов ранжирования Google, что представляет собой значительное преимущество для всех, стремящихся увеличить поисковый трафик из Google в различных странах. Этот материал окажется ценным для маркетологов, бизнес-лидеров и SEO-экспертов.

Про авторитетность сайта

Не смотря на предыдущие заявления Google о том, что параметр "Авторитетность сайта" не используется, на самом деле он применяется в их алгоритмах. Это подтверждает существование такого показателя, как траст домена, который, по моим наблюдениям, играет ключевую роль в успехе SEO-стратегий в течение последних 3-4 лет.

Про поведенческие факторы

Google активно интегрирует поведенческие факторы в свои механизмы ранжирования. Из анализа документации становится очевидным, что Google анализирует действия пользователей не только в поиске, но и в других своих сервисах, таких как Google Chrome, Google Карты, YouTube и прочих. Эти данные имеют важное значение для определения ранжирования сайтов.

Некоторые ключевые поведенческие факторы, влияющие на ранжирование, включают:

  • CTR (коэффициент кликабельности) вашего сайта в поиске. Низкий CTR может отрицательно сказаться на ранжировании.

  • Продолжительность взаимодействия с контентом сайта после клика (длинные клики). Время пребывания на сайте может различаться в зависимости от конкретной ниши, подчеркивая значение качества контента.

  • Негативным фактором является быстрое возвращение пользователя обратно в поиск после посещения вашего сайта, что может привести к понижению позиций в поисковой выдаче.

  • Влияние кликов из поиска на ранжирование может варьироваться; некоторые клики могут иметь большее значение, чем другие.

  • В документации также упоминается специальный алгоритм защиты от клик-спама, который разделяет пользователей на доверенных, с активной историей в Google Chrome, и на недоверенных, у которых такой истории нет. Это делает сложнее манипуляции с поведенческими факторами.

Отдельное внимание в документации заслуживает алгоритм NevaBoost, который, судя по всему, играет значительную роль в определении ранжирования, предоставляя новые подходы к оценке пользовательского опыта и взаимодействия.

Про ссылки

Документ содержит обширную информацию о роли ссылок в ранжировании сайтов, подчеркивая их значимость как стабильный и эффективный сигнал для поисковых систем. Вот ключевые выводы из этой информации:

  • Ссылки продолжают оставаться критически важным элементом для ранжирования сайтов, и данные указывают на то, что их роль не уменьшается. Это означает, что инвестиции в качественное ссылочное окружение остаются актуальными.

  • Качество ссылок оценивается на основе доверия к главной странице сайта-донора. Следовательно, нет смысла наращивать большое количество низкокачественных ссылок с сайтов сомнительного содержания.

  • Эффективность ссылки также зависит от кликов и трафика генерируемого сайтом-донором, что делает бесполезными дешевые покупки ссылок с неактивных ресурсов.

  • Google активно борется с ссылочным спамом, классифицируя анкоры на спамные и неспамные. Сайты с высоким процентом спамных анкоров в анкор листе могут подвергнуться санкциям, хотя умеренное количество спамных ссылок еще допускается.

  • Поисковая система отслеживает скорость нарастания ссылочной массы и может наказать за слишком быстрое и массовое появление новых ссылок.

  • Исключение сделано для новых сайтов, которые защищены от негативного воздействия большого числа первоначальных ссылок, предполагая, что это может быть результатом активных PR-компаний.

  • Ссылки с авторитетных СМИ по умолчанию считаются качественными.

  • Для сайтов с высоким уровнем доверия даже спамные анкоры могут трактоваться как не спамные, что указывает на определенный дисбаланс в восприятии авторитетности ресурсов.

Таким образом, стратегия построения ссылок остается важной частью SEO, требующей внимания к качеству и источнику ссылок, а также к модерации их прироста.

Про контент

Метатеги, включая заголовки и описания страниц, сохраняют свою значимость и не должны упускаться из виду. Согласно документу, Google применяет продвинутые технологии обработки естественного языка (NLP) для анализа тем и подтем текста, а также для оценки полноты покрытия статьей всех необходимых аспектов поискового запроса.

Поисковик также способен распознавать оригинальный контент в статье, включая уникальные мысли и мнения автора, отличая их от простого переписывания уже существующих текстов. К тому же, Google отслеживает время последнего обновления страницы и может определить, были ли внесены значимые изменения в контент или же была произведена лишь поверхностная корректировка даты обновления.

В алгоритме Google множество факторов ранжирования, направленных на оценку качества контента, подчеркивающих важность его актуальности и уникальности для достижения высоких позиций в поисковой выдаче.

Как только получится более детально изучить документ, я обязательно поделюсь другими важными аспектами, которые Google учитывает при ранжировании контента.

Если будут вопросы, то я, Иван Жданович, жду ваших вопросов здесь в комментариях и на моем проекте Seo House.

Tags:
Hubs:
Total votes 3: ↑3 and ↓0+3
Comments0

Articles