Pull to refresh

Comments 21

А сколько страница будет храниться в кеше? Я так понимаю, гугл ее удалит через пару недель?
Зависит от авторитетности сайта. Кэш некоторые сайты может обновляться каждый день. А на некоторые сайты может и не заходить месяцами.
Гугл ничего, никогда не удаляет.
А почему именно гугл? Да наверняка их кэш не вечен, а если и вечен — то не для посетителей. Для кэша — можно использовать упоминаемый в статье интернет архив, в нем реально найти ежемесячный бекап большинства сайтов. Вот например, версия хабра 2006 года
В принципе увеличение числа битых ссылок логично: сайты меняют свою структуру, переходят на другие CMS, файлобменники тоже удаляют старые файлы, а иногда и погибают вовсе (все знают случай с ipicture.ru).
Было бы неплохо, если бы возможность автоматической, фоновой проверки внешних ссылок включалась бы разработчиками современных CMS в основной дистрибутив или дополнялась в виде плагинов, дабы не использовать сомнительные сторонние решения.
Если бы по какой-нибудь методике можно было таким образом находить проэкспайренные домены, на которые стоит много ссылок — цены бы ей не было.
Я думаю, киберсквоттеры так и поступают. У доменов, на которые стоит много ссылок, будет высокий Pagerank и тИЦ.
а вот у меня вопрос — судя по описанию «эксперимента» — наращивание числа ссылок — это SEO-методы… вот сколько в озвученных процентах — естественные ссылки? и были ли они...?
Ничего не понял :)
Еще раз объясняю эксперимент:
Есть википедия, в ней много разных статей, в статьях есть ссылки на внешние источники.
Я слил часть базы данных, где хранились эти самые ссылки (БД википедии лежит в открытом доступе).
Потом проверил программой сколько из них не работают — оказалось больше 20%.

Причем здесь SEO?
Просто все на SEO помешаны. Как услышат слово «ссылки», так сразу почему-то думают про SEO. Статью уже никто не читает. :)
тогда я не очень понимаю… вы отслеживаете эффект от однажды проставленных ccылок с Википедии??? Но тогда процесс сугубо субъективный — администраторы Википедии просто не следят за этим… за этим — это за изменением / удалением УРЛа… логично предположить, что меняются движки, домены, и прочее…
тогда логично предположить, что админы / юзеры Википедии просто не следят за ссылками, проставленными на ресурсы и не обновляют их…

Почему SEO — да просто потому, что «покупные» ссылки как раз стараются отслеживать и информировать администраторов сайтов в связи со сменой страницы/домена и т.д… и не только покупные…

очевидно из Вашей статистики, что 90% — это изменение урла (из-за удаления ли, из-за движка — не важно)…

кстати, на SEO не помешаны… просто ассоциации по ссылкам сразу навевают об этом мысли…

а теперь вопрос на засыпку к владельцам сайтов — кто-то хоть однажды пытался при смене движка/урла информировать доноров о смене???.. думаю как раз этим и озабочены прежде всего SEO и около-SEO специалисты… а жаль… очень жаль… вот отсюда и такое количество «мертвяков»…

сугубо ИМХО
Да, на большинстве ресурсов администраторы не следят за ссылками. А надо бы. Вот я о чем.
При смене движка можно озаботиться и сделать так, чтобы ссылки не перестали работать.
таким образом вывод один напрашивается:
1) со стороны владельцев сайтов — использовать локальные скрипты ссылок с периодическим чеком на работоспособность и инициированием письма веб-мастеру
2) со стороны веб-мастера — при изменении движка/домена сохранять старые ссылки с помощью редиректов и уведомлений сайтов-доноров…

одно НО… и то, и другое — ну слишком трудозатратно… гораздо легче получить новые ссылки (с точки зрения веб-мастера акцептора), и гораздо проще — по возможности ставить ссылки на «серьезные» ресурсы, которые вряд ли «вольно» будут изменять движок и структуру (со стороны веб-мастера)…
UFO just landed and posted this here
Я предлагаю решение проблем битых ссылок путём использования специальной информационной системы. Подробности тут
Как показательно: статья про битые ссылки спустя 2 года содержит битые ссылки, в частности, ссылка на изображение:
itolimp.no-ip.org/misc/stat.png
является битой.
Sign up to leave a comment.

Articles