Comments 6
Толку-то от индексации SPA?
Он никогда не будет даже в первой двадцатке выдачи по ВЧ запросам, если есть сайты на 100500 страниц по данной тематике.
Дайте ссылку на парочку, только чтобы там были обоснованные аргументы, а не предполагаемые
Ровно наоборот - это вы дайте ссылку где SPA будет выше по ВЧ ВК запросам (высокочастотным и высококонкурентым) по поисковой выдаче яндекса, хотя бы 1 пруф. Действительно уже 10 лет твердят такой миф но ни одного пруфа с реальной выдачи нету.
Ваш пример из прошлой статьи просто ничтожный, поиск абсолютно непопулярный и не конкурентный по прямому вхождению запроса. Вы в реальности попробуйте обойти по СЧ СК хотя-бы 1 SSR сайт, а не просто тестируйте "увидит ли поисковик title моего сайта"
p.s. желательно пример еще из РФ или хотябы СНГ сегмента. Можете начать с запроса "пластиковые окна" например и поискать там SPA ну или "купить квартиру в Москве" и там поискать. В таких запросах уже не получится обьяснить отсутствие SPA отсутствием бюджетов на разработку)
Спа может быть на миллион страниц, вы с одностраничниками перепутали
Снова ради рекл тэгэшечки
Vercel в прошлом году провели исследование о влиянии подходов к рендерингу на SEO и написали статью. Не знаю, насколько это предвзято, учитывая интерес Vercel в продвижении Next и инфраструктуры для него. Тем не менее, исследование внушительное и разрушает несколько мифов.
Если говорить в целом, то у гугла нет проблем с индексацией SPA. Но в итоговой таблице CSR всё равно помечен как худший из всех способов рендеринга (SSG, ISR, SSR, CSR). Как бы гугл классно не справлялся, для сканирования CSR нужно поднять инстанс безголового браузера, запустить там код, дождаться его выполнения, взять HTML и только потом можно работать. Это никак не может быть быстрее, чем взять сразу готовый HTML. Для гугла это лишние ресурсы, всё ещё проще индексировать статику. Поэтому какие-то квоты по индексации CSR всё равно есть.
Плюс к этому есть другие факторы. Те же Web Vitals. Мало просто попасть в индекс, нужно ещё и конкурентов обгонять. CSR из-за обилия JS для всего (отрисовка статического контента, роутинг, стейт, стор, API) будет уступать по перформансу аналогичному сайту на статике/островах. Потому что JS критический ресурс для перфоманса. Чем его меньше, тем лучше. Учитывая что маркетологи добавят Tag Manager и напихают на сайт десятки трекеров, пикселей, чат-ботов, куки баннеров и прочего добра.
Что касается гигантских Ecommerce с хорошим SEO: Walmart рендерит на сервере, на клиент приходит разметка с контентом, Ebay использует Marko, ориентированный на стриминг HTML с сервера, у Amazon тоже разметка с сервера отдаётся
Yandex индексация для SPA приложений