не всегда дело в процентах. Вот возьмем конкретный пример. Сравним наш основной блог https://blog.promopult.ru/ и этот блог на Хабре. Они решают несколько разные задачи. Первый — отличный трафико- и лидогенератор. Второй — больше для имиджевой составляющей, формирования репутации и узнаваемости в профессиональной среде. Хотя и отсюда лидов идет достаточно. Но тут вопрос ресурсов. Если у вас ресурсов достаточно (денежных и интеллектуальных), можно позволить себе разные каналы, даже если некоторые из них показывают меньшую эффективность. В противном случае приходится выбирать, и обычно лучшим решением становится именно собственный блог — хотя бы потому, что вам не нужно платить за размещение.
как, кроме пропорционального ограничения расходов на менее эффективные площадки?
еще количество и качество публикаций. Если площадка себя хорошо показывает, наращиваем количество публикаций, уделяем больше внимания качеству контента. А если плохо, то или сворачиваемся, или размещаемся для "галочки" — ссылки тоже полезны. Думаю, тут мы ничего нового не открываем.
Тут скорее дело не в продукте, а в задачах, которые он решает. Возьмем, к примеру, лопаты. Продукт вроде однообразный. Но можно копать на дачном участке, на огороде, весной и осенью, окоп или траншею, в конце концов) Это утрированно, но примерно так. Но даже если ваш продукт решает только одну задачу для одной ЦА, как минимум можно сделать одну или пару нишевых статей. Они точно не помешают. Кроме того, всегда можно подняться на уровень выше — взять более широкую тему и там уже показать, чем полезен ваш продукт. Если хотите, приведите пример продукта — сможем дать более предметный ответ.
Может быть, некорректно спрашивать, но что конкретно вы хотите узнать?
Различия в эффективности разных площадок? Они есть. И мы их учитываем при подготовке материала для публикации.
Тут не все так однозначно. Если посмотреть справку Гугла, то там сказано: "Этот файл (это про роботс — прим.) не предназначен для того, чтобы запрещать показ веб-страниц в результатах поиска Google. Если вы не хотите, чтобы какие-либо материалы с вашего сайта были представлены в Google, применяйте директивы noindex". Тем не менее ваш совет прописать «Disallow: /» применять не хотим). Но то, что в индекс "просачиваются" некоторые страницы, запрещенные в роботс, то это бывает. В контексте этого, скорее всего, корректней говорить именно о правилах сканирования, нежели индексации. Хотя для реальной практики это не столь важно)
спасибо за уточнение, вы правы. В robots.txt устанавливаются правила посещения разделов сайта роботами. Не просканируют — не проиндексируют. Это в идеале. Хотя на практике robots.txt отрабатывает не на 100%
По данным исследования, тег keywords заполнен примерно на трети сайтов. Конечно, можно и отсюда парсить. Функция =IMPORTXML("URL";"//keywords") справится с этим без проблем. Но на практике тут особо нечем поживиться в плане НЧ запросов — чаще здесь прописывают более общие ключи, нежели интересные с хвостами. Хотя способ имеет право на жизнь, почему нет)
Вы имеете в виду URL вида https://www.site.ru/kids-home/?zbs_content=main_page_teasers_781264? В этом случае используйте знак & между get-параметрами. Если мы правильно вас поняли, то вы все делаете верно. В любом случае корректность разметки можно проверить в системах аналитики — учитывается трафик, значит все ок.
Вы судите с позиции вебмастера — и понять вас можно.
Но сайты создаются не ради скорости и не ради чистоты кода. Их создают (зачастую), чтобы заработать денег. Да, с помощью логов вы отследите посещаемость, время на сайте и даже страну пользователя. И это хорошо.
А как же достижение целей, структура аудитории (возраст, пол, интересы?), источники трафика (например, по тем же UTM меткам), пути конверсии и многое другое?
Одними логами тут не обойтись.
А по поводу вреда кода Яндекс.Метрики или Гугл Аналитики — знаете, это как муха на теле слона))
Практически на любом сайте (особенно если дело касается интернет-магазинов) столько тормозящих загрузку моментов, что одна строчка кода погоды не сыграет. Если сомневаетесь, посмотрите наше исследование скорости загрузки топовых интернет-магазинов РФ https://habr.com/ru/company/promopult/blog/470604/
Резюмируем известной польской поговоркой: co za dużo to niezdrowo.
Бороться за чистоту кода важно, но не всегда это уместно, а иногда даже вредно.
В статье как раз исследуются лейблы изображений, занимающих ТОП выдачи по картинкам, так что можно говорить о некой корреляции между информативностью картинки и местом в выдаче.
Если проскролить интерактивные графики по ссылкам в статье глубже, можно увидеть: чем ниже в ТОПе картинка, тем меньше лейблов смог поставить на ней Гугл. Это вроде как подтверждает тезис о связи тегирования и ранжирования)
Директива all означает, что нет ограничений на индексирование страницы, ссылок на ней и показ контента. То же самое при совместном использовании директив index,follow. То есть разницы нет. Более того, если вы не хотите задавать ограничения при индексировании страницы, то прописывать отдельно директивы all или index,follow нет смысла — поисковик по умолчанию следует им. А вот если нужно что-то ограничить — тогда уже используем nofollow, noindex. О возможных ситуациях, когда эти атрибуты полезны, вы можете почитать в нашем блоге https://blog.promopult.ru/seo/4-sluchaya-ispolzovaniya-noindex-i-nofollow.html
не всегда дело в процентах. Вот возьмем конкретный пример. Сравним наш основной блог https://blog.promopult.ru/ и этот блог на Хабре. Они решают несколько разные задачи. Первый — отличный трафико- и лидогенератор. Второй — больше для имиджевой составляющей, формирования репутации и узнаваемости в профессиональной среде. Хотя и отсюда лидов идет достаточно. Но тут вопрос ресурсов. Если у вас ресурсов достаточно (денежных и интеллектуальных), можно позволить себе разные каналы, даже если некоторые из них показывают меньшую эффективность. В противном случае приходится выбирать, и обычно лучшим решением становится именно собственный блог — хотя бы потому, что вам не нужно платить за размещение.
еще количество и качество публикаций. Если площадка себя хорошо показывает, наращиваем количество публикаций, уделяем больше внимания качеству контента. А если плохо, то или сворачиваемся, или размещаемся для "галочки" — ссылки тоже полезны. Думаю, тут мы ничего нового не открываем.
Тут скорее дело не в продукте, а в задачах, которые он решает. Возьмем, к примеру, лопаты. Продукт вроде однообразный. Но можно копать на дачном участке, на огороде, весной и осенью, окоп или траншею, в конце концов) Это утрированно, но примерно так. Но даже если ваш продукт решает только одну задачу для одной ЦА, как минимум можно сделать одну или пару нишевых статей. Они точно не помешают. Кроме того, всегда можно подняться на уровень выше — взять более широкую тему и там уже показать, чем полезен ваш продукт. Если хотите, приведите пример продукта — сможем дать более предметный ответ.
Может быть, некорректно спрашивать, но что конкретно вы хотите узнать?
Различия в эффективности разных площадок? Они есть. И мы их учитываем при подготовке материала для публикации.
Спасибо, что обратили наше внимание.
Недавно менялся формат, выгрузка в Директ скоро добавится.
решили сработать на упреждение — а то, мало ли, кто-то еще пойдет пробовать)
Тут не все так однозначно. Если посмотреть справку Гугла, то там сказано: "Этот файл (это про роботс — прим.) не предназначен для того, чтобы запрещать показ веб-страниц в результатах поиска Google. Если вы не хотите, чтобы какие-либо материалы с вашего сайта были представлены в Google, применяйте директивы noindex". Тем не менее ваш совет прописать «Disallow: /» применять не хотим). Но то, что в индекс "просачиваются" некоторые страницы, запрещенные в роботс, то это бывает. В контексте этого, скорее всего, корректней говорить именно о правилах сканирования, нежели индексации. Хотя для реальной практики это не столь важно)
да, спасибо, исправили)
спасибо за уточнение, вы правы. В robots.txt устанавливаются правила посещения разделов сайта роботами. Не просканируют — не проиндексируют. Это в идеале. Хотя на практике robots.txt отрабатывает не на 100%
Какой именно функционал инструмента вас интересует? Конкретизируйте, чтобы мы могли ответить
И правильно делаете, что автоматизируете. Что тут еще добавить)
По данным исследования, тег keywords заполнен примерно на трети сайтов. Конечно, можно и отсюда парсить. Функция =IMPORTXML("URL";"//keywords") справится с этим без проблем. Но на практике тут особо нечем поживиться в плане НЧ запросов — чаще здесь прописывают более общие ключи, нежели интересные с хвостами. Хотя способ имеет право на жизнь, почему нет)
Вы имеете в виду URL вида https://www.site.ru/kids-home/?zbs_content=main_page_teasers_781264? В этом случае используйте знак & между get-параметрами. Если мы правильно вас поняли, то вы все делаете верно. В любом случае корректность разметки можно проверить в системах аналитики — учитывается трафик, значит все ок.
И вам спасибо, что читаете нас)
В тексте есть же совет.
)
Спасибо за отзыв. Только не дает покоя ваше "в остальном все правильно". То есть в чем-то мы не правы. Уточните, пожалуйста, в чем именно.
Спасибо за комментарий.
Вы судите с позиции вебмастера — и понять вас можно.
Но сайты создаются не ради скорости и не ради чистоты кода. Их создают (зачастую), чтобы заработать денег. Да, с помощью логов вы отследите посещаемость, время на сайте и даже страну пользователя. И это хорошо.
А как же достижение целей, структура аудитории (возраст, пол, интересы?), источники трафика (например, по тем же UTM меткам), пути конверсии и многое другое?
Одними логами тут не обойтись.
А по поводу вреда кода Яндекс.Метрики или Гугл Аналитики — знаете, это как муха на теле слона))
Практически на любом сайте (особенно если дело касается интернет-магазинов) столько тормозящих загрузку моментов, что одна строчка кода погоды не сыграет. Если сомневаетесь, посмотрите наше исследование скорости загрузки топовых интернет-магазинов РФ https://habr.com/ru/company/promopult/blog/470604/
Резюмируем известной польской поговоркой: co za dużo to niezdrowo.
Бороться за чистоту кода важно, но не всегда это уместно, а иногда даже вредно.
Спасибо)
Мы старались.
В статье как раз исследуются лейблы изображений, занимающих ТОП выдачи по картинкам, так что можно говорить о некой корреляции между информативностью картинки и местом в выдаче.
Если проскролить интерактивные графики по ссылкам в статье глубже, можно увидеть: чем ниже в ТОПе картинка, тем меньше лейблов смог поставить на ней Гугл. Это вроде как подтверждает тезис о связи тегирования и ранжирования)
Директива all означает, что нет ограничений на индексирование страницы, ссылок на ней и показ контента. То же самое при совместном использовании директив index,follow. То есть разницы нет. Более того, если вы не хотите задавать ограничения при индексировании страницы, то прописывать отдельно директивы all или index,follow нет смысла — поисковик по умолчанию следует им. А вот если нужно что-то ограничить — тогда уже используем nofollow, noindex. О возможных ситуациях, когда эти атрибуты полезны, вы можете почитать в нашем блоге https://blog.promopult.ru/seo/4-sluchaya-ispolzovaniya-noindex-i-nofollow.html