Комментарии 31
Сам инструмент, кстати, находится тут.
Костыль, конечно. Связанный с несовершенной системой ранжирования. Но костыль нужный, потому как пока удачную независимую систему ранжирования построить не получается даже гуглу.

Извиняюсь конечно, но откуда брать эти самые «плохие» внешней ссылки? Как отличать «плохие» они или «хорошие»?
Вот здесь написано.
Отклонение обратных ссылок
Эту функцию нужно использовать осмотрительно, поскольку результат может негативно повлиять на эффективность вашего сайта в результатах поиска Google. Мы рекомендуем отклонять обратные ссылки только в том случае, если вы уверены, что они действительно являются искусственными или расположены на сайтах, распространяющих спам, и вредят вашему сайту. Чаще всего алгоритмы Google могут самостоятельно распознать ненадежные ссылки, поэтому владельцам большинства сайтов не нужно использовать этот инструмент.
Их берут на специализированных сервисах (соломон, ахреф) или при помощи сеошных прог (семонитор, язл и т.п.), кроме того они есть в вебмастере, и наверное, в самом инструменте (не смотрел ещё). Плохие от хороших отличить достаточно просто, если занимаешся сео. Если нет — то эту функцию лучше и не использовать, можно сильно не угадать.
Статья в оригинале начинается с того, что Google будет слать сообщения веб-мастерам владельцам сайтов, на которые по мнению гугла стоят «плохие» ссылки.
ну и список всех ссылок на сайт там же в интерфейсе веб-мастера «Трафик > Ссылки на ваш сайт > Наиболее часто ссылаются > Дополнительно»
Тогда в чем прикол? Сами не могут сразу не учитывать эти ссылки?
По-моему это как то даже глупо… Любой владелец ресурса получивший такое уведомление пойдет в панель управления и заблокирует указанные ссылки.
По-моему это как то даже глупо… Любой владелец ресурса получивший такое уведомление пойдет в панель управления и заблокирует указанные ссылки.
Сначала нужно понять влияние каждой ссылки на выдачу сайта. А то стрельнёшь в «спамовую» ссылку, а окажется что она давала самый большой эффект ранжирования.
До этого сам Каттс авторитетно заявлял, что никакие внешние факторы не могут привести к понижению сайта в выдаче.
Они могут сильно замедлить рост. Иногда у «застывших» сайтов сносят все покупные ссылки и покупают новые. Кроме того, одни и те же действия в разной последовательности обычно приводят к совершенно разным результатам. Так что возможно он сказал правду. Возможно… =)
А мне другой момент нравится. Вебмастерам предлагают заняться работой поисковой системы по поиску некачественных внешних ссылок. Это экономия на вычислительных мощностях и на работе по совершенствованию алгоритмов?
Партия жуликов и воров одобряет.
Гм… взлом гугл-аккаунта владельца сайта становится всё более и более вкусным… С помощью этой тулзы можно ведь обнулить рейтинг. Там нет ограничений на количество удаляемых ссылок?
На Нигме, помнится, была кампания борьбы со спамовыми ссылками — авторизованному пользователю можно было нажать кнопку «это спам» в результатах выдачи.
Такой способ не более эффективен?
Для отсеивания умышленного занижения рейтинга конкурентами можно сделать «индекс доверия» сообщившего о спаме пользователя.
Наверное, единственный минус такой системы — ручная проверка результатов, поскольку любую автоматику, скорее всего, можно обмануть.
Такой способ не более эффективен?
Для отсеивания умышленного занижения рейтинга конкурентами можно сделать «индекс доверия» сообщившего о спаме пользователя.
Наверное, единственный минус такой системы — ручная проверка результатов, поскольку любую автоматику, скорее всего, можно обмануть.
По-моему Google в этом случае пошёл навстречу SEOшникам, которые закупились низкокачественными ссылками и потом их сайты были пессимизированы обновлением алгоритма «Penguin». Многие из них не смогли избавиться от этих ссылок, из-за чего остались на низких позициях, поэтому Google предложил такой инструмент.
К сожалению, вчера я немного опоздал на презентацию Disavow links на PubCon (Matt Cutts выступал во время перерыва на обед).
Если я все правильно понял с выступление, Google будет понижать рейтинги сайта с «плохими» входящими ссылками.
Год назад на PubCon он говорил, что «плохие» ссылки просто не будут учитываться.
Если я все правильно понял с выступление, Google будет понижать рейтинги сайта с «плохими» входящими ссылками.
Год назад на PubCon он говорил, что «плохие» ссылки просто не будут учитываться.
Несколько недель?!
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Google представил функцию «Disavow links» для выборочного снятия влияния спамных внешних ссылок