Pull to refresh

Comments 58

По сути получается сокращалка ссылок, со своим главным недостатком — я не вижу, куда эта ссылка меня уведет. Считаю, что ПСы должны просто выкидывать (или пессимизировать) страницы с битыми ссылками при поиске (не специалист, возможно они уже и так это делают?). Вручную все отслеживать слишком сложно.

В конце концов, если раздел на сайте переехал, что мешает хранить в БД пару «старые адреса» => «новые адреса» и либо перенаправлять туда автоматом, либо в сообщении 404 указывать (возможный) новый адрес страницы. Но это наверное слишком идеальный вариант
>> По сути получается сокращалка ссылок, со своим главным недостатком — я не вижу, куда эта ссылка меня уведет.

К счастью эта проблема решаема. На своем сайте есть возможность организовать автоматическую замену на лету «экранированных» ссылок на оригинальные. На чужих конечно сайтах это не сработает.

Выкидывать страницы с битыми ссылками из поиска вряд ли удастся (тоже не специалист), так как тогда искать будет нечего.
Когда с вас скопируют статью, то скопируют и ссылки. Выходом может быть использование атрибута title с адресом редиректа — не совсем привычный способо, да и требует доверия к сайту, но лучше чем ничего.

Если продолжать заботиться о пользователях, то можно модернизировать вашу систему так, чтобы она при проверке работающей ссылки скачивала текст страницы, а когда ссылка не рабочая выдавала этот текст с пояснением типа «эта ссылка вела туда-то, но там такой страницы больше нет, мы сохранили её для вас»

>> Если продолжать заботиться о пользователях, то можно модернизировать вашу систему так

Идея неплохая, спасибо, подумаем. Сходу правда видна проблема с копирайтами — прямо так взять и выкачать чужую статью не многим позволено (как Google).
Может, тогда имеет смысл давать ссылку на кэш компании Google с потерявшейся страницей?
Тоже была такая идея, но два момента:
1. Кеш со временем очистится.
2. Слишком уж сложная система получается :-).
Я лично не уверен, что в таком возрасте рационально заниматься изучением C#
Я очень сомневаюсь, что ребенок продвинется дальше «Часть 1. Первое знакомство»
Я очень сомневаюсь, что школьник тринадцати лет после этого отправится в Google искать для скачивания чудо-зверя «Microsoft Visual C# 2008 Express Edition»

Какое-то у вас предвзятое отношение к молодым людям.
>> Какое-то у вас предвзятое отношение к молодым людям.

У автора есть опыт преподавательской деятельности :-)
да, в 13 лет я качал паскаль а не не C#
правда я и сейчас C# не качаю, но это другой вопрос :)
Я в 11 лет С++ изучал. Горькое знание о Паскале пришло классе в 9м
Как показывает история, устранение битых ссылок создает больше проблем, чем сами битые ссылки.
Не зря главной заслугой Тима Бернерса-Ли считают введение ошибки 404.
>> Как показывает история, устранение битых ссылок создает больше проблем, чем сами битые ссылки.

Почему? Поясните, пожалуйста.
У Реймонда подробно описано.
В крадце: до www предпринималось много попыток этого избежать, в итоге все они выливались либо в сложные автоматизированные индексаторы, либо в подобие катлогов.
HTTP заменил их все быстро и уверенно именно за счет простоты и общей прозрачности. Worse is better и все такое.
Во-первых, умный хранение структуры «новая ссылка» < — «старые ссылки» — это не устрание битых ссылок, а их предупреждение.

Во-вторых, что значит заменил? Не работает ведь! ;-)
*хранение структуры с умным редиректом
Звучит хорошо.
И всё же, лицом статьи напрашивается быть Дон Кихот Ламанчский, а не Д'Артаньян :)
Зачем? у Дон Кихота были мельницы :)
Это своего рода юмор, на тему, что у меня синдром д'Артаньяна. :)
Да-да, у меня тоже юмор :) с намёком…
Они С# на котах 16-летним «детям» объясняют? :) Забавно.
Не поверите, но это делал еще Гради Буч для младших научных сотрудников еще более старшего дошкольного возраста :)

Абстракция фокусируется на существенных с точки зрения наблюдателя характеристиках объекта.


Инкапсуляция скрывает детали реализации объекта.


Сохраняемость поддерживает состояние и класс объекта в пространстве и во времени.

И книга эта является бестселлером по ООП подходу в С++
UFO landed and left these words here
Сча народ ринется проверять :) Лучше такое в личку кидать…
код вообще фееричен чуть более, чем полностью… $HTTP_GET_VARS уже лет пят как deprecated, да и mysql_insert_id вкупе с auto_increment PRIMARY_KEY было бы логичнее использовать, чем вести параллельно какой-то искусственный идентификатор.
UFO landed and left these words here
Не так много, редиректы они где надо поставили.
Интересно, а google снижает позицию сайтам за дохлые ссылки? если нет, то это был бы неплохой способ заставить мелкие и средние сайты следить за достоверностью ссылок. С крупными сайтами, конечно, ничего особо не поделаешь, если уж им лень строчку редиректа добавить…
В случае изменений своей структуры ссылок каким-то сайтом (то есть если по внешним ссылкам попадаешь на 404, а не на нужную страницу) обычно у него происходит обвал рейтинга, пузомерок.
При полной переработке старого ресурса это, на мой взгляд, одна из самых важных проблем…
Просто видел ситуации, когда из-за смены движка сайта его иЦ падал более чем в 2 раза — старые ссылки не были сохранены.
Проблема есть, но вы драматизируете.
Это проблема добросовестной разработки, адекватности разработчиков и тех, кто принимает решения.

Предлагаемое решение — ужасно.
Твиттеру, как инициатору, и человеку, придумавшему «короткие ссылки» давно пора что-нибудь отрезать, в рамках превентивных мер.

Достаточно при любых изменениях в путях сайта (а даже такое понятие есть далеко не у всех, массово пихают ID) добавлять перенаправление с «было» на «стало».
Чем проще структура, тем проще такое реализовать — простую и логичную структуру использовать выгодно.

Обходить ссылки — избыточно, если сайт не закрыт от индексации роль такого обходчика выполнит поисковых паук.
Нужно лишь мониторить 404 ошибки в логах.
Мы с разных планет. Я вообще не понимаю Вас. Есть моя статья, скажем на сайте Intel или на Хабре. В ней ссылка на MSDN. В MSDN что-то поменялось. Ссылки в моих статьях указывают в никуда. И причем здесь поисковики и какие логии я должен мониторить? Вы о чем? Я хочу, чтобы мои тексты адекватно ссылались на другие ресурсы.
Мониторить логи и следить за ссылками должен Intel и MSDN, разумеется. Проблема у них, вы как можете боретесь и её последствиями.

Если статья ваша, к чему вводить дополнительный уровень сокращённой ссылки, а не исправить ссылку на новую, отредактировав материал? Нет доступа к тексту, ссылка часто упоминается в разных материалах?

Сокращённая ссылка решает проблему с достаточно простым исправлением ссылки, но заранее «убивает» все ссылки материалов, приводя их в нечитаемый вид.
Так ли часто бывают смены адресов, чтобы ради удобства их исправления жертвовать прямыми и понятными ссылками из материалов?

Вы о чем? Я хочу, чтобы мои тексты адекватно ссылались на другие ресурсы.

Я больше о причине. Следить за ссылками, в идеале, должен сам владелец.
Как уже написал, сокращённые ссылки, на мой взгляд, большее зло, нежели ссылки битые.
Причем тут вообще сокращение ссылок?

P.S. Для тех кто опять ищет рекламу – это внутренняя закрытая функциональность.
Хм, «внутренняя закрытая» и то использование таких ссылок на хабре — как-то не сходится.
Все сходится. Добавлять ссылки можем только мы. Это не открытый сервис, а внутренняя система. А пользуется любой читатель, кто переходит по ссылкам туда, куда нужно.
А, в этом смысле закрытая. Рекламу можно просто по-разному искать :)
А аналогия с сокращателями ссылок очевидная же.
БольшАя или бОльшая часть проблемы с битыми ссылками — это ссылки на всякие файловые хранилища с варезных форумов. Там уже через месяц файлов может не быть. А такие ссылки как правило скрыты от гостей, что не позволит сторонним скриптам проверить ссылки. А даже, если не скрыты, то, например depositfiles, выдаёт 200 на несуществующий файл. — Часть этих проблем относится не только файловым хранилищам и варезным форумам.

Кто следит за тем, чтобы ссылки на сайте не были битыми, и после изменения структуры сайта все ссылки вели на нужные разделы и статьи? СЕОшники. Потому что они заинтересованы денежно. Вот, если бы Интел и Микрософт были заинтересованы напрямую (взяли бы и начали продавать ссылки: ) ) в работающих ссылках на своём сайте, то они бы следили за ними.
Это все конечно правильно и хорошо, но исключительно теоретически. Лучше делать хоть что-то, чем ничего не делать.
«но хоть на минутку хочется себя д'Артаньяном почувствовать» — ага, очень замечательно.
Предложить неработающее решение высосоной из пальца проблемы — истинный д'Артаньян…

«Очень легко испортить весь свой материал, пост в блоге, сервис, книгу или любой другой проект из-за того что кто-то другой (или вы сами) возьмет и поменяет адрес ресурса на который вы ссылаетесь. » — это говорит только о том, что самому материалу грош цена, если он так смертельно зависит от какой-то конкретной странички в MSDN.
Кстати, у вас все примеры в статье на microsoft.com Совпадение? :)
Совпадение. Множество других не лучше. Просто с microsoft.com больше общаюсь.
К слову, заставил себя вспомнить когда последний раз мне пришлось искать инфу по битой ссылке — не смог! :)
ИМХО, проблема надумана. Если статья с битой ссылкой старая, что не редкость для ИТ, то и вероятнее всего, она морально устарела. А если материал фундаментальный и неустаревающий, то смотрители сайта, что его постят — уроды, а сам материал, скорее всего, уже продублирован на просторах интернета.
Ничего себе надуманная. 20% ссылок в википедии в никуда… habrahabr.ru/blogs/webdev/102527/
Я думаю просто зависит от задач. Я например очень часто стакиваюсь с описанной проблемой.
UFO landed and left these words here
Скорее, поисковики могли бы отслеживать/регистрировать изменения ссылок (и визуализировать, например, в просмотре кэшированной версии страницы). Слабосвязанная природа контента — основа концепции Web, с ней бессмысленно бороться.

Кстати, если ввести ссылку из топика в Гугль, то ссылка на интересующую страницу находится первой в результате выдачи, так что проблемы автора особо и не существует.
Проблема есть — общее количество битых ссылок со временем будет увеличиваться.
Пока кто нибудь не придумает как на этом делать деньги.
UFO landed and left these words here
Мне нравится как ссылки сделал мыло.ру — например, r.mail.ru/n49626431, если не обзывать это сокращалко ссылки (и убрать этот функционал) то хоть заперемещай документ, но он будет иметь уникальный ничегонезначащий урл. А то что это непонятные цифры — большинству инет населения без разницы.
Проблема высосана из пальца!

Школьник пойдёт на торрент и скачает полную, уже крякнутую версию.
Ему вообще привычней качать с торрента, чем с HTTP. Думаю скоро ссылки исчезнут и останутся одни md5/sha-хэши, а поисковики будут в качестве редиректора. (по крайней мере для файлов, ещё там seo-блок «previous version hashes:»)
Учимся думать:
1) Она и так бесплатная!
2) Проблема неверных ссылок не равна проблеме скачивания крякнутых программ. Вы просто еще не сталкивались с ситуацией, когда это отнимает реальное время и реальные деньги.
Ну и к чему все придрались к слову «крякнутая», потому что я не заострял на нём внимание, скорее, если бы microsoft позаботился о рабочей ссылке, школьники и не узнали бы про полные версии на торрентах.
Из-за такого подхода как у Вас, многие наши сограждане ищут кряки даже на бесплатные продукты.

Стыдно должно быть, товарищ!
Я что, говорил про свой подход? Это моё мнение об обычных пользователях, которые действительно ищут кряки на бесплатные программы.
И да, Microsoft уже ведёт активную работу в вузах и школах. И теперь каждому школьнику/студенту на время обучения доступны полные версии большинства продуктов Microsoft (Windows, Visual Studio, SQL Server)

например: www.mai.ru/life/soft/soft2.php
Лично я вижу решение проблем битых ссылок в том, чтобы сами пользователи могли пополнять базу данных таких ссылок, точнее переадресаций с недействительных (исходных) адресов на действительные (результирующие). Я попытался воплотить такую систему в виде интернет-сервиса 404help.net
Принцип действия таков:
Пользователи, которые хотят разместить переадресацию, пополняют базу данных системы.
Пользователи, которые хотят пользоваться системой, устанавливают для своих браузеров (строже говоря, программ доступа) дополнения (расширения, плагины), которые перехватывают и обрабатывают ошибки доступа к ресурсам (например, ошибку 404). Либо же пользователь вручную задействует дополнение в случае проблемы доступа к ресурсу.
Дополнения подают запрос в информационную систему, содержащий информацию об исходном адресе, и система возвращает соответствующий исходному результирующий адрес, производя на него переаресацию. Или же дополнение может само обрабатывать часть исходных адресов — например, производя переадресацию с алиасов на локальные и сетевые ресурсы.
Это всё малая часть задуманного. Ажиотажа особого нет — система будет иметь смысл только когда будет достаточно заполнена, набрав критическую массу. Пока что только приступаю к пополнению базы. Но считаю что уже полезны плагины системы к браузерам, производящие переадресации с алиасов на ресурсы.
Прошу высказать ваше мнение, критику, пожелания. Можно это делать в блоге системы: 404help.livejournal.com/668.html

Спасибо )
Привет из 2020-го.

Битьё ссылок продолжается.
Sign up to leave a comment.