Д'Артаньян и интернет, или работа над проблемой битых ссылок

    Picture 1
    Господа, хватит уже рассматривать ссылки исключительно в контексте их количества, купли/продажи и считать PR сайта, где они расположены. Пора заботиться не о роботах, а о людях. Работать с интернетом становится все невыносимее. Цветут и множатся фермы автогенерируемых сайтов с говнотекстами, да простят меня дамы. Из-за них невозможно найти даже технические материалы, не говоря про обыкновенные. Но я бы так не переживал про поиск технических материалов, если бы в них были корректные ссылки. Ссылки дохнут как мухи и, читая пост годичной давности в форуме или блоге, нет почти никаких надежд перейти по указанным ссылкам.

    Я считаю нерабочие ссылки очень большой проблемой современного интернета, хотя про нее как-то не говорят или не задумываются. Думаю пора делать хоть что-то. Мы уже что-то делаем, про это и расскажу. Надеюсь, пример кого-то воодушевит, и он тоже захочет позаботиться о своих пользователях.



    Неработающих ссылок в интернете такое количество, что даже невозможно выбрать что-то для примера. Каждый сталкивался, что прочитав интересную информацию о чем то, он уверенно нажимал на ссылку и попадал в никуда. Причем конечная цель обычно вовсе не мертвый сайт, а вполне живой. Причем настолько живой, что постоянно правится без заботы о перенаправлении пользователей приходящих с внешних ресурсов. Впрочем, часто не заботятся и о переходах с внутренних ресурсов. Хороший тому пример статьи в MSDN.

    Кто-то возразит, что в том, что материал куда то переехал, нет ничего страшного. Его всегда можно легко найти в Google. Во-первых даже если можно, то это тратит огромное количество времени. И эта большая проблема. Один единственный, но полезный ресурс, перемещенный по прихоти администратора сайта, отнимет время у тысяч, а в некоторых случаях и миллионов людей. Каждый из них будет вынужден искать нужный материал и переходить по ссылкам.

    В других случаях найти материал бывает крайне сложно или тот, кому он нужен, не может это сделать. Приведу два примера, когда «отправляйтесь в Google» не помогает.

    Первый пример. Для того чтобы выпустить плагин для Microsoft Visual Studio необходимо для каждой версии получать на сайте Microsoft специальный ключ (PLK). Несколько лет этот ключ выдавали на странице msdn.microsoft.com/en-us/vsx/cc655795.aspx (ссылка не работает). Пару месяцев назад кто-то решил, что называть раздел «vsx» идеологически не верно, и его переименовали в «vstudio», соответственно ссылка стала новой http://msdn.microsoft.com/en-us/vstudio/cc655795.aspx. Но ВЕЗДЕ включая сайты Microsoft ссылки были старыми, а не новыми. Поиск Google также выдавал только старую ссылку, поскольку новая нигде не фигурировала. Помогли в форуме Microsoft, где явно указали новую страницу. Вопрос — кому-то стало лучше от того, что поменяли ссылку? Какое количество людей по всему миру было вынуждено искать ответ на этот вопрос? Если так хочется поменять ссылку, неужели было сложно сделать редирект?

    А вот другой, более эмоциональный пример. Есть такая книга «C# для школьников», выпущенная при поддержке Microsoft и ориентированная на детей 12-16 лет.
    Picture 2
    Я лично не уверен, что в таком возрасте рационально заниматься изучением C#, но книга в целом производит весьма приятное впечатление. По крайне веселых поясняющих картинок там очень и очень много.
    Picture 3
    Так вот представьте, сколько сил люди приложили, чтобы создать такую книгу. Кем-то была придумана рекламная инициатива Microsoft познакомить детей с C# еще в школе, человек книгу написал, затем ее переводили, художник рисунки перерисовывал, чтобы текст был на русском и, наверное, на других языках. Было потрачено много денег и времени. И какой результат? А уверен, что никакого!

    Я очень сомневаюсь, что ребенок продвинется дальше «Часть 1. Первое знакомство», ибо там ему объясняется о необходимости скачать и установить Microsoft Visual C# 2008 Express Edition. Я не сомневаюсь в способностях школьника. Starcraft 2 они без сторонней помощи выкачивают и устанавливают, а в разных iPhone лучше меня разбираются. Все банальнее. Просто там предлагается скачать с адреса, которого уже не существует:
    Picture 4
    Результат перехода:
    Picture 5
    И спрашивается, зачем было заниматься с созданием этой книги, если все разбивается о бездумное перекладывание данных на сайте с места на место? Я очень сомневаюсь, что школьник тринадцати лет после этого отправится в Google искать для скачивания чудо-зверя «Microsoft Visual C# 2008 Express Edition». С вероятностью 90% на этой главе с изучением C# все будет покончено.

    Да, может показаться, что я критикую Microsoft. Нет, на других сайтах не лучше, просто такие примеры получились.

    Какие я делаю из всего этого выводы?


    Очень легко испортить весь свой материал, пост в блоге, сервис, книгу или любой другой проект из-за того что кто-то другой (или вы сами) возьмет и поменяет адрес ресурса на который вы ссылаетесь. После этого ценность вашего творения если не станет равна нулю, то по крайней станет значительно ниже, так как вашим читателям/пользователям придется тратить нервы и время на самостоятельный поиск нужной ссылки.

    Как мы решаем эту проблему


    Мы пишем технические статьи и часто ссылаемся на различную документацию, инструменты, записи в сторонних блогах. Как следствие мы также часто сталкиваемся с проблемой перемещения материалов и статей на сторонних сайтах. Особенно этим почему-то грешат такие сайты крупных компаний, как Microsoft, Intel или AMD. Они перемещают целые разделы и в результате, например, искать помощи в статьях сотрудников Microsoft/Intel, которым исполнился хотя бы год весьма неблагородное дело. На какую ссылку не кликни — попадаешь в никуда. Думаю, что многие программисты поймут мои переживания.

    Уверен многим на это наплевать, не работает переход куда-то, ну и ладно. Собственно так и есть, раз в интернете такое количество мертвых ссылок. Однако мы пишем статьи для людей, а не для поисковых систем. И заявляю я об этом с гордостью. Хоть миллионы не заработали пока, но хоть на минутку хочется себя д'Артаньяном почувствовать.

    Так вот, нам важно чтобы в статьях были корректные ссылки не только на материалы на нашем собственном сайте, но и на внешние сайты. Следовательно, нам необходимо исправлять те ссылки, которые начинают вести в никуда. Задача осложняется тем, что мы публикуем наши статьи на многих других сайтах. И естественно править ссылки в них нет никаких сил, а иногда и технической возможности.

    Естественным решением является создание системы редиректа. Я расскажу как у нас все это работает, возможно, кто-то захочет сделать у себя нечто подобное. Я даже очень хочу, чтоб кого-то это заинтересовало, так надоели дороги в никуда!

    Система состоит из базы, хранящей пару короткая ссылка — ссылка на внешний ресурс. Пользовательский интерфейс добавления ссылок достаточно прост и показан на рисунке ниже.
    Picture 6
    Просто вводим ссылку на внешнем ресурсе и получаем короткую ссылку для вставки в статьи, блоги и так далее. Если адрес внешнего ресурса уже находится в базе, то возвращается уже созданная ранее короткая ссылка:
    Picture 7
    Если в базе такой ссылки нет, то создается новая пара и генерируется новая короткая ссылка:
    Picture 8
    Технически запись хранится в базе данных в таблице links и представляет собой набор следующих полей:
    • id — первичный ключ
    • num — номер ссылки, как раз по этому номеру определяется какую ссылку достанет из базы скрипт qwerty.php
    • link — собственно сам текст ссылки
    • link_category_id — номер категории в которой находится ссылка, для работы скрипта это поле несущественно, но для удобства пользователя введены категории ссылок

    При нажатии кнопки «Generate» сайту viva64.com посылается запрос, содержащий адрес ссылки, которую необходимо добавить. Скрипт обрабатывающий запрос выглядит примерно так:
    $sql = "select * from links where link='".$add_url."'";
    $link = mysql_query($sql);
    if(mysql_num_rows($link)){
        $row = mysql_fetch_array($link,MYSQL_ASSOC);
        $new_url = "http://www.viva64.com/qwerty.php?url=".$row['num'];
    }
    else{
        $sql = "select * from links order by num desc";
        $link = mysql_query($sql);
        $row = mysql_fetch_array($link, MYSQL_ASSOC);
        $last_num = $row['num']+1;
        $sql = "insert into links (num,link) values
               (".$last_num.",'".$add_url."')";
        $link = mysql_query($sql);
        $new_url = "http://www.viva64.com/qwerty.php?url=".$last_num;
    }

    Скрипт получает этот адрес переменной $add_url и проверяет, есть ли в базе данных такой адрес:
    $sql = "select * from links where link='".$add_url."'";
    $link = mysql_query($sql);

    Если есть, то в переменную $new_url будет просто записана ссылка для вызова скрипта перенаправления с идентификатором адреса полученного из базы:
    if(mysql_num_rows($link)){
        $row = mysql_fetch_array($link,MYSQL_ASSOC);
        $new_url = "http://www.viva64.com/qwerty.php?url=".$row['num'];
    }

    Если же адрес не найден, то произойдет вычисление максимального уникального идентификатора адреса из тех, что содержаться в таблице links и добавление новой записи в базу данных с инкрементированным максимальным идентификатором, после чего в переменную $new_url записывается значение новой ссылки для вызова скрипта перенаправления:
    else{
        $sql = "select * from links order by num desc";
        $link = mysql_query($sql);
        $row = mysql_fetch_array($link, MYSQL_ASSOC);
        $last_num = $row['num']+1;
        $sql = "insert into links (num,link) values
                 (".$last_num.",'".$add_url."')";
        $link = mysql_query($sql);
        $new_url = "http://www.viva64.com/qwerty.php?url=".$last_num;
    }

    После чего пользователь получает ссылку перенаправления, независимо от того была ли добавлен новый адрес в базу данных или же просто получена один из уже существующих

    Механизм перенаправления


    Скрипт перенаправления на сайте viva64.com не сложен. По сути все, что он делает, это принимает номер ссылки в качестве параметра, затем получает из базы данных саму ссылку с таким номером и осуществляет переадресацию по ссылке. В коде это выглядит:
    $s = substr($HTTP_GET_VARS['url'], 0, 15);
    $u = "http://www.viva64.com/";
    $isConnect = mysql_connect($sqlserver,$sqluser,$sqlpassword);
    if($isConnect){
        $isSelectDatabase = mysql_select_db($database);
        if($isSelectDatabase){
             $currentLink = $s;
             $sql = "SELECT * FROM links WHERE num='".$currentLink."'";
             $link = mysql_query($sql);
             if($link && mysql_num_rows($link)){
               $row = mysql_fetch_array($link,MYSQL_ASSOC);
               $u = $row['link'];
             }
    }
    }
    print Header('Location: '.$u);


    Поиск и исправление неработающих ссылок


    Задача поиска неработающих ссылок решается средствами программы Fast Link Checker. Программа обходит все страницы сайта и пытается пройти по всем найденным ссылкам. Затем результаты фильтруются и, на заранее заданные e-mail адреса, отправляется письмо со списком неработающих ссылок. Запуск программы автоматизирован, раз в неделю происходит проверка работоспособности ссылок.

    После определения неработающей ссылки вручную осуществляется поиск материала, на который указывает ссылка. Обычно можно легко определить новый адрес, по которому доступен материал. На таких сайтах как Microsoft, Intel, AMD очень любят просто перенести материал в другой раздел.

    Если найти этот или практически идентичный ресурс невозможно, что бывает крайне редко, то ссылка удаляется из статей сайта. На внешних сайтах ссылка в нашей статье будет указывать в никуда, но тут уже ничего сделать невозможно. Раз пропал некоторый материал/сайт, значит пропал.

    Когда новая ссылка определена она заносится в базу данных и таким образом во всех статьях сайта ссылка снова рабочая.

    Для изменения ссылки через интерфейс администратора будет выполнен запрос вида:
    UPDATE 'links' SET
     'link' = 'http://msdn.microsoft.com/en-us/isv/bb190527.aspx' 
    WHERE 
     'links'.'numn = 341 LIMIT 1 ;

    Совсем уж в подробно работу системы я расписывать не стал, я, если честно пользователь это системы, а не разработчик. Но если будет интерес со стороны читателей, то мой коллега Антон Дубровин опишет все подробнее и ответит на вопросы.

    Инициатива для Intel


    Сам я не сотрудник Intel, но знаю, что этот блог читают многие из сотрудников компании. Именно поэтому я пишу сюда, так как хочу предложить инициативу. Я знаю что Intel постоянно проводит различные программы и летние школы, где стажируются студенты, выполняя различные интересные задания. Если кто-то из читателей Хабрахабре не в курсе, то вот несколько ссылок по этой тематике: 1, 2, 3, 4.

    Хочу предложить в качестве одного из заданий поразмышлять над реализацией системы, которая позволит содержать имеющихся ссылки на сайте Intel в адекватном состоянии. К сожалению нерабочих ссылок на сайте Intel, пожалуй не меньше чем на сайте Microsoft. Начать можно с небольшой части. Например, подумать, над поддержкой русскоязычной части ISN (статей, форумов, блогов). То что я описал в статье, это все таки некоторая поделка, решающая только одну задачу и очень узко. А проблема неверных ссылок требует более серьезных исследований и работы.

    Заранее спасибо тем, кто захочет тоже немного улучшить мир.
    Intel
    151,00
    Компания
    Поделиться публикацией

    Комментарии 57

      +6
      По сути получается сокращалка ссылок, со своим главным недостатком — я не вижу, куда эта ссылка меня уведет. Считаю, что ПСы должны просто выкидывать (или пессимизировать) страницы с битыми ссылками при поиске (не специалист, возможно они уже и так это делают?). Вручную все отслеживать слишком сложно.

      В конце концов, если раздел на сайте переехал, что мешает хранить в БД пару «старые адреса» => «новые адреса» и либо перенаправлять туда автоматом, либо в сообщении 404 указывать (возможный) новый адрес страницы. Но это наверное слишком идеальный вариант
        +1
        >> По сути получается сокращалка ссылок, со своим главным недостатком — я не вижу, куда эта ссылка меня уведет.

        К счастью эта проблема решаема. На своем сайте есть возможность организовать автоматическую замену на лету «экранированных» ссылок на оригинальные. На чужих конечно сайтах это не сработает.

        Выкидывать страницы с битыми ссылками из поиска вряд ли удастся (тоже не специалист), так как тогда искать будет нечего.
          +3
          Когда с вас скопируют статью, то скопируют и ссылки. Выходом может быть использование атрибута title с адресом редиректа — не совсем привычный способо, да и требует доверия к сайту, но лучше чем ничего.

          Если продолжать заботиться о пользователях, то можно модернизировать вашу систему так, чтобы она при проверке работающей ссылки скачивала текст страницы, а когда ссылка не рабочая выдавала этот текст с пояснением типа «эта ссылка вела туда-то, но там такой страницы больше нет, мы сохранили её для вас»

            +1
            >> Если продолжать заботиться о пользователях, то можно модернизировать вашу систему так

            Идея неплохая, спасибо, подумаем. Сходу правда видна проблема с копирайтами — прямо так взять и выкачать чужую статью не многим позволено (как Google).
              +1
              Может, тогда имеет смысл давать ссылку на кэш компании Google с потерявшейся страницей?
                +1
                Тоже была такая идея, но два момента:
                1. Кеш со временем очистится.
                2. Слишком уж сложная система получается :-).
        +3
        Я лично не уверен, что в таком возрасте рационально заниматься изучением C#
        Я очень сомневаюсь, что ребенок продвинется дальше «Часть 1. Первое знакомство»
        Я очень сомневаюсь, что школьник тринадцати лет после этого отправится в Google искать для скачивания чудо-зверя «Microsoft Visual C# 2008 Express Edition»

        Какое-то у вас предвзятое отношение к молодым людям.
          +5
          >> Какое-то у вас предвзятое отношение к молодым людям.

          У автора есть опыт преподавательской деятельности :-)
            0
            да, в 13 лет я качал паскаль а не не C#
            правда я и сейчас C# не качаю, но это другой вопрос :)
              0
              Я в 11 лет С++ изучал. Горькое знание о Паскале пришло классе в 9м
          –2
          Как показывает история, устранение битых ссылок создает больше проблем, чем сами битые ссылки.
          Не зря главной заслугой Тима Бернерса-Ли считают введение ошибки 404.
            +1
            >> Как показывает история, устранение битых ссылок создает больше проблем, чем сами битые ссылки.

            Почему? Поясните, пожалуйста.
              +2
              У Реймонда подробно описано.
              В крадце: до www предпринималось много попыток этого избежать, в итоге все они выливались либо в сложные автоматизированные индексаторы, либо в подобие катлогов.
              HTTP заменил их все быстро и уверенно именно за счет простоты и общей прозрачности. Worse is better и все такое.
                0
                Во-первых, умный хранение структуры «новая ссылка» < — «старые ссылки» — это не устрание битых ссылок, а их предупреждение.

                Во-вторых, что значит заменил? Не работает ведь! ;-)
                  0
                  *хранение структуры с умным редиректом
            +2
            Звучит хорошо.
            И всё же, лицом статьи напрашивается быть Дон Кихот Ламанчский, а не Д'Артаньян :)
              +1
              Ну тогда уж один, сражающийся с другим :-).
                +1
                Зачем? у Дон Кихота были мельницы :)
                +2
                Это своего рода юмор, на тему, что у меня синдром д'Артаньяна. :)
                  +2
                  Да-да, у меня тоже юмор :) с намёком…
                0
                Они С# на котах 16-летним «детям» объясняют? :) Забавно.
                  +7
                  Не поверите, но это делал еще Гради Буч для младших научных сотрудников еще более старшего дошкольного возраста :)

                  Абстракция фокусируется на существенных с точки зрения наблюдателя характеристиках объекта.


                  Инкапсуляция скрывает детали реализации объекта.


                  Сохраняемость поддерживает состояние и класс объекта в пространстве и во времени.

                  И книга эта является бестселлером по ООП подходу в С++
                • НЛО прилетело и опубликовало эту надпись здесь
                    +1
                    Сча народ ринется проверять :) Лучше такое в личку кидать…
                      +7
                      код вообще фееричен чуть более, чем полностью… $HTTP_GET_VARS уже лет пят как deprecated, да и mysql_insert_id вкупе с auto_increment PRIMARY_KEY было бы логичнее использовать, чем вести параллельно какой-то искусственный идентификатор.
                      0
                      А представляете, сколько появилось битых ссылок после покупки Ораклом Sun Microsystems?
                        +3
                        Не так много, редиректы они где надо поставили.
                        +3
                        Интересно, а google снижает позицию сайтам за дохлые ссылки? если нет, то это был бы неплохой способ заставить мелкие и средние сайты следить за достоверностью ссылок. С крупными сайтами, конечно, ничего особо не поделаешь, если уж им лень строчку редиректа добавить…
                          +1
                          В случае изменений своей структуры ссылок каким-то сайтом (то есть если по внешним ссылкам попадаешь на 404, а не на нужную страницу) обычно у него происходит обвал рейтинга, пузомерок.
                          При полной переработке старого ресурса это, на мой взгляд, одна из самых важных проблем…
                          Просто видел ситуации, когда из-за смены движка сайта его иЦ падал более чем в 2 раза — старые ссылки не были сохранены.
                          +8
                          Проблема есть, но вы драматизируете.
                          Это проблема добросовестной разработки, адекватности разработчиков и тех, кто принимает решения.

                          Предлагаемое решение — ужасно.
                          Твиттеру, как инициатору, и человеку, придумавшему «короткие ссылки» давно пора что-нибудь отрезать, в рамках превентивных мер.

                          Достаточно при любых изменениях в путях сайта (а даже такое понятие есть далеко не у всех, массово пихают ID) добавлять перенаправление с «было» на «стало».
                          Чем проще структура, тем проще такое реализовать — простую и логичную структуру использовать выгодно.

                          Обходить ссылки — избыточно, если сайт не закрыт от индексации роль такого обходчика выполнит поисковых паук.
                          Нужно лишь мониторить 404 ошибки в логах.
                            +2
                            Мы с разных планет. Я вообще не понимаю Вас. Есть моя статья, скажем на сайте Intel или на Хабре. В ней ссылка на MSDN. В MSDN что-то поменялось. Ссылки в моих статьях указывают в никуда. И причем здесь поисковики и какие логии я должен мониторить? Вы о чем? Я хочу, чтобы мои тексты адекватно ссылались на другие ресурсы.
                              +1
                              Мониторить логи и следить за ссылками должен Intel и MSDN, разумеется. Проблема у них, вы как можете боретесь и её последствиями.

                              Если статья ваша, к чему вводить дополнительный уровень сокращённой ссылки, а не исправить ссылку на новую, отредактировав материал? Нет доступа к тексту, ссылка часто упоминается в разных материалах?

                              Сокращённая ссылка решает проблему с достаточно простым исправлением ссылки, но заранее «убивает» все ссылки материалов, приводя их в нечитаемый вид.
                              Так ли часто бывают смены адресов, чтобы ради удобства их исправления жертвовать прямыми и понятными ссылками из материалов?

                              Вы о чем? Я хочу, чтобы мои тексты адекватно ссылались на другие ресурсы.

                              Я больше о причине. Следить за ссылками, в идеале, должен сам владелец.
                              Как уже написал, сокращённые ссылки, на мой взгляд, большее зло, нежели ссылки битые.
                            +4
                            Это реклама ещё одной сокращалки ссылок?

                            А если не изобретать велосипед, то уже давно придумали Persistent Uniform Resource Locator.
                              0
                              Причем тут вообще сокращение ссылок?

                              P.S. Для тех кто опять ищет рекламу – это внутренняя закрытая функциональность.
                                +1
                                Хм, «внутренняя закрытая» и то использование таких ссылок на хабре — как-то не сходится.
                                  +1
                                  Все сходится. Добавлять ссылки можем только мы. Это не открытый сервис, а внутренняя система. А пользуется любой читатель, кто переходит по ссылкам туда, куда нужно.
                                    +1
                                    А, в этом смысле закрытая. Рекламу можно просто по-разному искать :)
                                    А аналогия с сокращателями ссылок очевидная же.
                              +2
                              БольшАя или бОльшая часть проблемы с битыми ссылками — это ссылки на всякие файловые хранилища с варезных форумов. Там уже через месяц файлов может не быть. А такие ссылки как правило скрыты от гостей, что не позволит сторонним скриптам проверить ссылки. А даже, если не скрыты, то, например depositfiles, выдаёт 200 на несуществующий файл. — Часть этих проблем относится не только файловым хранилищам и варезным форумам.

                              Кто следит за тем, чтобы ссылки на сайте не были битыми, и после изменения структуры сайта все ссылки вели на нужные разделы и статьи? СЕОшники. Потому что они заинтересованы денежно. Вот, если бы Интел и Микрософт были заинтересованы напрямую (взяли бы и начали продавать ссылки: ) ) в работающих ссылках на своём сайте, то они бы следили за ними.
                                +1
                                Это все конечно правильно и хорошо, но исключительно теоретически. Лучше делать хоть что-то, чем ничего не делать.
                                +1
                                «но хоть на минутку хочется себя д'Артаньяном почувствовать» — ага, очень замечательно.
                                Предложить неработающее решение высосоной из пальца проблемы — истинный д'Артаньян…

                                «Очень легко испортить весь свой материал, пост в блоге, сервис, книгу или любой другой проект из-за того что кто-то другой (или вы сами) возьмет и поменяет адрес ресурса на который вы ссылаетесь. » — это говорит только о том, что самому материалу грош цена, если он так смертельно зависит от какой-то конкретной странички в MSDN.
                                  +1
                                  Кстати, у вас все примеры в статье на microsoft.com Совпадение? :)
                                    +1
                                    Совпадение. Множество других не лучше. Просто с microsoft.com больше общаюсь.
                                      +2
                                      К слову, заставил себя вспомнить когда последний раз мне пришлось искать инфу по битой ссылке — не смог! :)
                                      ИМХО, проблема надумана. Если статья с битой ссылкой старая, что не редкость для ИТ, то и вероятнее всего, она морально устарела. А если материал фундаментальный и неустаревающий, то смотрители сайта, что его постят — уроды, а сам материал, скорее всего, уже продублирован на просторах интернета.
                                        0
                                        Ничего себе надуманная. 20% ссылок в википедии в никуда… habrahabr.ru/blogs/webdev/102527/
                                        Я думаю просто зависит от задач. Я например очень часто стакиваюсь с описанной проблемой.
                                  • НЛО прилетело и опубликовало эту надпись здесь
                                      –1
                                      Скорее, поисковики могли бы отслеживать/регистрировать изменения ссылок (и визуализировать, например, в просмотре кэшированной версии страницы). Слабосвязанная природа контента — основа концепции Web, с ней бессмысленно бороться.

                                      Кстати, если ввести ссылку из топика в Гугль, то ссылка на интересующую страницу находится первой в результате выдачи, так что проблемы автора особо и не существует.
                                      +1
                                      Проблема есть — общее количество битых ссылок со временем будет увеличиваться.
                                      Пока кто нибудь не придумает как на этом делать деньги.
                                      • НЛО прилетело и опубликовало эту надпись здесь
                                        +2
                                        Мне нравится как ссылки сделал мыло.ру — например, r.mail.ru/n49626431, если не обзывать это сокращалко ссылки (и убрать этот функционал) то хоть заперемещай документ, но он будет иметь уникальный ничегонезначащий урл. А то что это непонятные цифры — большинству инет населения без разницы.
                                          –3
                                          Проблема высосана из пальца!

                                          Школьник пойдёт на торрент и скачает полную, уже крякнутую версию.
                                          Ему вообще привычней качать с торрента, чем с HTTP. Думаю скоро ссылки исчезнут и останутся одни md5/sha-хэши, а поисковики будут в качестве редиректора. (по крайней мере для файлов, ещё там seo-блок «previous version hashes:»)
                                            +2
                                            Учимся думать:
                                            1) Она и так бесплатная!
                                            2) Проблема неверных ссылок не равна проблеме скачивания крякнутых программ. Вы просто еще не сталкивались с ситуацией, когда это отнимает реальное время и реальные деньги.
                                              0
                                              Ну и к чему все придрались к слову «крякнутая», потому что я не заострял на нём внимание, скорее, если бы microsoft позаботился о рабочей ссылке, школьники и не узнали бы про полные версии на торрентах.
                                              +5
                                              Из-за такого подхода как у Вас, многие наши сограждане ищут кряки даже на бесплатные продукты.

                                              Стыдно должно быть, товарищ!
                                                0
                                                Я что, говорил про свой подход? Это моё мнение об обычных пользователях, которые действительно ищут кряки на бесплатные программы.
                                                0
                                                И да, Microsoft уже ведёт активную работу в вузах и школах. И теперь каждому школьнику/студенту на время обучения доступны полные версии большинства продуктов Microsoft (Windows, Visual Studio, SQL Server)

                                                например: www.mai.ru/life/soft/soft2.php
                                                +2
                                                лично я обычно периодически проверяю ссылки с помощью бесплатной программы Find broken links on your site with Xenu's Link Sleuth
                                                  0
                                                  Лично я вижу решение проблем битых ссылок в том, чтобы сами пользователи могли пополнять базу данных таких ссылок, точнее переадресаций с недействительных (исходных) адресов на действительные (результирующие). Я попытался воплотить такую систему в виде интернет-сервиса 404help.net
                                                  Принцип действия таков:
                                                  Пользователи, которые хотят разместить переадресацию, пополняют базу данных системы.
                                                  Пользователи, которые хотят пользоваться системой, устанавливают для своих браузеров (строже говоря, программ доступа) дополнения (расширения, плагины), которые перехватывают и обрабатывают ошибки доступа к ресурсам (например, ошибку 404). Либо же пользователь вручную задействует дополнение в случае проблемы доступа к ресурсу.
                                                  Дополнения подают запрос в информационную систему, содержащий информацию об исходном адресе, и система возвращает соответствующий исходному результирующий адрес, производя на него переаресацию. Или же дополнение может само обрабатывать часть исходных адресов — например, производя переадресацию с алиасов на локальные и сетевые ресурсы.
                                                  Это всё малая часть задуманного. Ажиотажа особого нет — система будет иметь смысл только когда будет достаточно заполнена, набрав критическую массу. Пока что только приступаю к пополнению базы. Но считаю что уже полезны плагины системы к браузерам, производящие переадресации с алиасов на ресурсы.
                                                  Прошу высказать ваше мнение, критику, пожелания. Можно это делать в блоге системы: 404help.livejournal.com/668.html

                                                  Спасибо )

                                                  Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                                  Самое читаемое