Pull to refresh

Comments 20

Итак, Ваш сайт должен отдавать правильные заголовки сервера. Ответ — 200 Ок, ответ 404 — not found, ответ 403— forbiddeen, ответ 301 — moved permanently. Ваш сайт не должен отдавать ошибка 500 — server error, ошибка 502 — bad gateway.

Чем обоснована эта рекомендация?
Наш SEO-оптимизатор настаивал на замене 404 ошибок 301 редиректом на главную страницу.
Вбейте осиновый кол в бестолковую голову Вашего оптимизатора! Редирект 301 делается страницам, которые поменяли адрес или удалены на страницы по новому адресу либо релевантные ей. Но ни в коем случае не на главную. Ошибка 404 вызывается несколькими способами: удалена страница или опечатка. Если удалена, то редирект, если опечатка, то корректная страница 404. (прошу прощение за грубость)
Мне известно что означают эти коды. Мне не понятно, чем руководствуются оптимизаторы, когда настаивают на их какой-либо настройке. Какая для поисковика разница между 403 и 404? 500?

В догонку: по настоянию того же подрядчика 302 редиректы со временно пустующих разделов каталога были заменены на 301. А потом в этих разделах появилсь товары… но зайти туда никто не мог, потому что браузер закэшировал 301 редирект.
Какая для поисковика разница между 403 и 404? 500?

Ну это разные ошибки, для поисковика это ошибки. Другое дело если ты отдаёшь инфу для поисковика что контент перенесён, то есть вводишь его в заблуждение.

В догонку: по настоянию того же подрядчика 302 редиректы со временно пустующих разделов каталога были заменены на 301. А потом в этих разделах появилсь товары… но зайти туда никто не мог, потому что браузер закэшировал 301 редирект.


Это факт, есть конечно методы сгладить такое поведение, но больно костыльные они. А вообще лишний раз редиректить туда-сюда не лучшая практика. Лучше заранее продумывать как будет расположен контент и не рассылать юзеров в разные места.
Так же избегай несколько редиректов: со страницы на страницу, а потом еще на страницу.
Никогда так не делал, но всё же… а почему? Рейтинг для поисковой выдачи последней страницы в цепочке редиректов уменьшается? Этому есть подтверждение?
Ну во первых робот дальше второй страницы редирект игнорирует, а во вторых пользователь уйдет со страницы которая постоянно перезагружается.
Давайте сосредоточимся на индексировании поисковиками. Я не могу найти описания этого ограничения в вебмастере. Откуда эта информация?

В хелпе Гугла есть (если вдруг удалили — ищите видеоответы Мюллера или Каттса — они не раз говорили об этом): робот понимает цепочку не более 5 редирект на — это техническое ограничение. Но чем меньше редиректов, тем лучше, снова же связано с принципом действия краулера.

Зачем же так грубо, хотя порой и сам бешусь когда что-то делают из вон рук плохо.
Это с одной стороны хорошо, ты не теряешь клиента в случае 404 ошибки, но с другой стороны поисковики такое не оценят. И вообще можно сделать свою ошибку 404 которая оставит человека на сайте, возможно выставить поисковую строку на этой странице или предложение перейти на главную или в каталог. Если сделать так, то и клиент вероятно не потеряется и поисковики правильно воспримут потерю страницы.
Ну поисковую строку или меню с основными разделами, без разницы, главное стилизовать красиво!
Была рабочая страница 404. Т.е. сайт нормально грузился (шапка, меню, подвал), просто в месте содержимого было написано, что страница не найдена.
Мы добились от подрядчика обоснования. Он объяснил это требование редиректа тем, что 404 страницы поисковый бот периодически перепроверяет. А 301 редирект у бота кэшируется на длительный срок и это хорошо для продвижения, т.к. тогда поисковый бот успевает обходить большее число страниц, не тратя время на 404.
Где-то существует описание такой механики поисковых ботов?
Яндекс Вебмастер, там непосредственно в цвете расписано.
UFO just landed and posted this here
А 301 редирект у бота кэшируется на длительный срок и это хорошо для продвижения, т.к. тогда поисковый бот успевает обходить большее число страниц, не тратя время на 404.


Враньё, есть один проект у меня, так вот там был поддомен moscow, его убрали 4 года назад. Гугл до сих пор на него ходит, получает 301 редирект и зараза всё равно через пару дней снова стучится. И так года 4)))

Где-то существует описание такой механики поисковых ботов?


Вообще толковых описаний нет, есть рекомендации от яндекса и гугла, да и от прочих тоже наверное есть. Да только это рекомендации, чётких правил игры нет.
Да только это рекомендации, чётких правил игры нет.

Проблема в том, что люди начинают эти правила выдумывать. Иногда кажется, что сео-оптимизатор получает значения аналогично суеверному голубю.
Есть такое дело. Кто-то выдумывает, а кто-то делает выводы основываясь на своём опыте. Правда не все и не всегда делают верные выводы))
Sign up to leave a comment.

Articles