Pull to refresh

Comments 14

Если код JavaScript слишком сложный или запутанный, Google может проанализировать его некорректно. Стоит задуматься, нельзя ли упростить код без ущерба для функциональности.

Это как? Написано так, как будто сидят 200 китайцев и не могут скомпилировать в голове сложный запутанный код. Проясните, пожалуйста, какая разница V8 какой код обрабатывать?

Возникла мысль только о различных таймаутах, но сложный код как будто тут не причем…
Вполне возможно, что под «сложностью» и понимается асинхронность и несвязность функционала. Вероятно, бот не просто компилирует DOM по загрузке, но и анализирует простейшие случаи динамики, типа смены локации по клику, для дальнейшей инджексации, например.
Только догадки.
Мне так видится, что одно дело код интерпретировать построив DOM (задача чисто техническая, реализуется просто), другое дело, как оно ведет себя в рамках реальной страницы. Задача «прокликать» ботом страницу более сложная. Например, выпадающее меню при наведении/проходе на нем курсора. Человек глазами видит «о, меню, что тут у нас» и может дальше двигаться по сайту. У бота глаз нет и видеть страницу как человек он не может.
Ну все правильно, я думаю они ориентируются не на дизайн, а на навешенные события (например, клик).
Та же смена локации отслеживается изменением location, history, hash и т.д.
Сменился контент, опять же следим за этим

Т.е. как я это вижу — есть определенные триггеры после определенных событий, которые важны для поискового бота: смена URL, смена контента и т.д., какая разница сколько и какого кода при этом выполнится — непонятно.
Если бы все было просто по кликам, проблем бы небыло. А на практике приходится писать свой кастомный бот под каждый из скачиваемых ресурсов. Очевидно, что поисковик так делать не будет. Отсюда, имхо, и идет упоминание «сложности» кода.
На счёт сложного кода — Гугл просто пытается сэкономить время обработки одной страницы своим ботом. Понятное дело, что ему выгоднее иметь дело с Javascript, отрабатывающем за 1 мс, а не с тем, который что-то делает целую 1 секунду.
А если я выдаю контент, например, список итемов, без перезагрузки страницы, а при помощи Ajax, это плохо или хорошо?
Теперь спрятать контент от индексации не выйдет. Google надо добавить свой . Или нам придется изголяться сильней, дробить js на файлы, которые могут индексироваться, и которые не могут.
Интересно, может сейчас робот индексировать сайты с java script шаблонизацией? Например использующие ангуляр и Ajax через $http service.
Получается, что теперь добросовестный вебмастер, желающий скрыть неуникальный контент / ссылки / многократное повторение ключевых слов с помощью javascript на части страницы полностью лишается этой возможности?
Только 3 пункт правилен.

Рекомендуем также создать упрощенную версию сайта. Тогда пользователи смогут просматривать ваши материалы даже в браузере, который не поддерживает JavaScript.
По-моему, все рекомендации можно было бы заменить одной единственной:
Если хотите, чтобы гугл индексировал ваш контент, предоставьте к нему доступ через ссылки
По-моему, легче запилить карту сайта, и вставить ссылку на нее в html страницы через тэг <link> (ну или даже видимой ссылкой внизу страницы), чем еще и при написании JavaScript думать о том, чтобы он понравился Google.
Если в интернете сделать сайт с единственной кнопкой «получить 100000 рублей на свою банковскую карту», который сам будет угадывать номер вашей карты и отправляет на нее деньги, то 50% пользователей все равно поленятся туда заходить. А вы говорите о картах сайта для индексации контента… Sitemap то не каждый сайт имеет, а тут еще и html страницы создавать.
P.S. На самом деле похожая штука есть, почитайте о индексации ajax сайтов. Например, у Яндекса — help.yandex.ru/webmaster/robot-workings/ajax-indexing.xml
Sign up to leave a comment.