Search
Write a publication
Pull to refresh

Comments 33

Видя 404 — даже супер халяву туда запихни, я лично не буду ее читать.
Тем не менее, нужно бережно относиться к содержанию документов.
У меня при отсутствии страницы просто перенаправляет на главную. Думаю, главная будет информативнее креатива в 404 :)
Но это не всегда правильно. Человек, если вручную вводит адрес неверный или копирует его, дважды подряд увидев, что вместо искомой страницы, его кидает на главную, может подумать что просто сайт нерабочий, расстроиться и уйти. Ясное дело, что случай немного надуманный, но информировать о 404 надо бы.
Информировать нужно в любом случае. Представьте, что человек страницу в закладках сохранил. Попадет на главную, подумает, что обманули или что-то не так делает. А если написать, что страницу удалили или она переехала — все понятно.
Моментальный редирект — это наиболее отвратительный способ. Зачастую свидетельствует о том, что вебмастеру наплевать на возникающие ошибки впринципе. А пользователю совершенно не очевидно, что именно произошло не так и почему его перекинули.
Совсем не наплевать. Стараюсь, чтобы несуществующих страниц вовсе не было. Возможно, это что-то вроде стимула)
Все зависит от проекта. Иногда полезна страница 404 а иногда лучше будет перенаправить на главную сообщив что страница не найдена. Факт в том что это эти ситуации всегда должны быть обработаны.
Я вот вижу полосатый экран и посередине надпись «нажмите здесь, чтобы загрузить плагин». Без установленного флэша попробуй догадайся, что это 404. При этом сайт в целом без флэша работает. Что бы там ни было, считаю, что в погоне за красотой забыли подумать о юзабилити. Я должен ставить плагин исключительно ради того, чтобы узнать, что я попал не туда?

Только не надо говорить, что я сам дурак. По долгу службы мне нужно иметь один из браузеров без интегрированного флэша. И люди без флэша или со старой версией вообще встречаются и в наши дни.
UFO landed and left these words here
я не мифический. у меня вот флеш постоянно отключен, и включается вручную для конкретных сайтов — вкладок много, и чтобы всякие говнобаннеры не тормозили процесс.
UFO landed and left these words here
меня совершенно не напрягает реклама, меня напрягает тяжелый кривой флеш.

именно поэтому, даже если я о чем-то там догадаюсь — я необязательно буду включать флеш, чтобы посмотреть очередной тяжелый кривой флеш на полстраницы.
Меня наоборот сбивают с толку красочно оформленные страницы 404. Если страница сделана как у гугла, а еще лучше у вконтакта, то я сразу понимаю в чем тут дело. А если я буду видеть кучу ненужной информации (спецпредложения, скидки, скачать бесплатно без смс), то я скорее решу, что сайт пытается навешать мне лапши на уши.
Все верно. Перебарщивать не нужно. Основное внимание — пользователю, чтобы показать, как ему дальше работать с сайтом.
проверять свой сайт на наличие «битых» ссылок

Можно посоветовать несколько онлайн сервисов. Например www.brokenlinkcheck.com, который проверят:
— внутренние и внешние ссылки
— показывает ошибки Url'ов в коде
— хвастается кроссплатформенностью и AJAX'ом
Спасибо. Очень проверенные ссылки!
Если администратор/разработчик/вебмастер ресурса в ладах с головой, то поймёт, что эффективнее анализировать error log'и вебсервера, чем нагонять на сайт сторонние сервисы (тем более, это далеко не всегда возможно и эффективно).

Например, так:
cat /var/log/nginx/error.log | grep 'No such file or directory' | perl -nle 'print $1 if /open\(\) "(\S+?)"/' | sort -u

Фильтрует из лога сообщения о не найденных файлах, сортирует список и удаляет дубликаты.

Более продвинутый вариант, теперь уже для логов Apache:
cat /var/log/apache2/error.log | perl -nle 'print $1 if /File does not exist: (\S+?), referer:/' | awk '{ requests_count[$1]++ } END { for (url in requests_count) { print requests_count[url] ": " url; } }' | sort -nr

Аналогично фильтрует, но помимо вывода уникальных имён выводит ещё и частоту их повторяемости в логе.
Не у всех есть полный доступ. Но ваш вариант — идеальный.
А полный и не нужен. Любой уважающий себя хостер обязан предоставлять клиентам доступ к оригинальным логам вебсервера. :)
Я не про хостера. Я про того, кто занимается сайтом. Владельцы не всегда дают полный доступ.
Нет народ. Не с той стороны подходим к задаче. Обработчик 404 — хорошо, нужная вещь, НО! Мне, как пользователю, пофиг, что вы хотите мне предложить статью о фиолетовых свистелках, и что у вас их еще три десятка о всех цветах радуги, кроме зеленого, который я искал, и который был здесь, согласно гуглу, неделю назад. Независимо от того, увижу я красивый 404 или некрасивый, перебросит меня на главную или нет, с большой вероятностью я уже утерян для сайта — ушел к конкуренту или к кешу гугла, без разницы — не к вашим же баннерам.

Вот мое решение этой проблемы: думать. Думать при каждом обновлении сайта. Страницы не должны исчезать. Структура не должна менятся. Если структура меняется — ставим редиректы. Пользователь не должен видеть 404 в случаях, отличных от одного: он опечатался при наборе адреса. Но тут уже сам дурак, как говорят.
Есть разные ситуации. Пример: документ потерял актуальность. Оставить страницу? А если она повредит имиджу сайта?
Ну так дайте ему сообщение о том, что информация, которая была на странице неактуальна или убрана по требованию ФБР. Причем обязательно — осмысленную, и относительно конкретной страницы, а не универсальную 404.
Так она не запрещать, она наоборот, манить должна =)
Она говорит «Стоп! Следуй за мной и я покажу тебе нужное!» :)
девственность not found? сиськи not found? мозги? или что именно?
периодически проверять свой сайт на наличие «битых» ссылок, в том числе и внешних
Полезно мониторить все случаи попадания на страницу 404 и принимать меры по восстановлению правильной навигации. Тогда на 404 попадёт, грубо говоря, один посетитель, и если сразу поправить ссылки, то остальные уже будут сразу попадать куда нужно.
Sign up to leave a comment.