Как стать автором
Обновить

Комментарии 11

Вот это интересно!
Думаю, после того, как технология разовьется, то она понизит уровень глубокого веба.
лучшее — враг хорошего )))
Может пусть поисковики попарятся, а мы будем продолжать в том же духе — то есть в вольном? Или нам надо работать на гугл. Он же бабки будет на этом зашибать. Хотя это довольно спорный вопрос. Но я думаю поисковику реально выполнить некий скрипт и посмотреть контент, но конечно ссылку на него выдать трудновато будет.
Очень спорный вопрос)
Мы и работаем на качества своих сайтов, только вот никому не нужно будет это качество, если его никто не сможет найти. Так что гугл, конечно, зашибает на этом деньги, но и сайтовладельцам предоставляет зашибать за счет трафика.
А клиентский скрипт робот выполнить не может — таков основополагающий принцип поисковой системы — важна информация, а не красивые навороты. Сколько бы времени требовалось на выполнение всяких выпадающих/выползающих и других увеселительных элементов и мы б ругались в этом случае, что поисковая база медленно обновляется.
Ну я поэтому и сказал, что спорный вопрос, потому что индексация такого контента взаимовыгодное дело.
А вот клиентский скрипт выполнить поисковику — да раз плюнуть — это что касается гугла и т.п. по масштабу.
Хорошая идея :)
Если я ничего не путаю предлагается стандартизовать обращение паука как _escaped_fragment_=state.
Если так то это скажи клоакингу ДА!!!

Если пауку сложно отработать AJAX, то как он убедиться в идентичности контента?
Если он может отрабатывать запросы, то зачем весь этот огород?
Вебразработчик показывает роботу, что на странице есть аякс знаком "!" — остальное делает сервер и робот — разработчик может только посмотреть что там наделал сервер и браузер, но поменять не может. Паук принимает информацию от сервера и браузера, индексирует текст и отдает пользователю снова страницу с "!"
Обрабатывая таким образом страницы на стороне сервера, владелец сайта может управлять сгенерированным HTML кодом и удостовериться, что весь Javascript выполнился корректно.
На сервере стоит нечто. Кто помешает это снести и поставить другое или просто пропатчить?
Скорее пропатчить. Но, надо думать, что гугл не все карты раскрыл и что-нибудь придумает против клоакинга — тем более это входит в одну из задач.
Ну а вебразработчики придумают как обходить — вечное противостояние людей и машин :)
Глупость какая-то, извините… зачем такие сложности?

Я сделал всё очень просто:

Так как роботы не исполняют js, то они видя только обычные страницы:

tanyao.ru/ru/work/scarfs2/

Сайт при этом работает без js в нормальном режиме, без проблем.

Если же js есть, то включаются ajax-удобства для быстроты и чтобы картинки оставались на своём месте:

tanyao.ru/ru/#/ru/work/scarfs2/

При этом, если данный url передадут другому человеку, то он увидит именно то, что нужно.

Спасибо, критику жду (-:

зы. В общем, на сайте все ссылки работают по ajax-каналу, включая переключение языка (-:
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации