Обновить
0
4.6

Рекламная экосистема для контекста и таргета

Отправить сообщение

Конечно, чем больше данных, тем лучше. С другой стороны, это 48 топовых интернет-магазинов. В контексте того, что именно топы задают тренды, всегда интересно посмотреть, как там у них.

Спасибо! Исправили

Хорошо, когда всем хорошо)
Спасибо за уточнение.

Спасибо.
Поюзали VStat — это не совсем парсер. Это скорее анализатор статистики. Хотя в платной версии там вроде бы как есть функция парсинга ключей. Если вам нужно спарсить ключи бесплатно, велкам в наш SEO-модуль — здесь вы можете выгрузить ключи, по которым сайт стоит в ТОП-50 Яндекса/Google и ключи сайтов-конкурентов.

В тексте был указан вариант для xHTML. Но для HTML нужно указывать именно <html prefix="og: http://ogp.me/ns#"> — как в документации. Спасибо, что обратили внимание.

Open Graph описывается с помощью синтаксиса RDFa (JSON-LD — нет). JSON-LD подходит для семантической разметки на базе Schema.org (равно как и RDFa, как и Microdata). Open Graph и Schema.org решают разные задачи. Open Graph — грубо говоря, для красивых репостов, Schema.org — опять же, грубо говоря, для красивых сниппетов в поиске. Оба вида разметки прекрасно уживаются на одной странице, о дублировании переживать не стоит.

это единицы, десятки или сотни процентов?

не всегда дело в процентах. Вот возьмем конкретный пример. Сравним наш основной блог https://blog.promopult.ru/ и этот блог на Хабре. Они решают несколько разные задачи. Первый — отличный трафико- и лидогенератор. Второй — больше для имиджевой составляющей, формирования репутации и узнаваемости в профессиональной среде. Хотя и отсюда лидов идет достаточно. Но тут вопрос ресурсов. Если у вас ресурсов достаточно (денежных и интеллектуальных), можно позволить себе разные каналы, даже если некоторые из них показывают меньшую эффективность. В противном случае приходится выбирать, и обычно лучшим решением становится именно собственный блог — хотя бы потому, что вам не нужно платить за размещение.


как, кроме пропорционального ограничения расходов на менее эффективные площадки?

еще количество и качество публикаций. Если площадка себя хорошо показывает, наращиваем количество публикаций, уделяем больше внимания качеству контента. А если плохо, то или сворачиваемся, или размещаемся для "галочки" — ссылки тоже полезны. Думаю, тут мы ничего нового не открываем.

Тут скорее дело не в продукте, а в задачах, которые он решает. Возьмем, к примеру, лопаты. Продукт вроде однообразный. Но можно копать на дачном участке, на огороде, весной и осенью, окоп или траншею, в конце концов) Это утрированно, но примерно так. Но даже если ваш продукт решает только одну задачу для одной ЦА, как минимум можно сделать одну или пару нишевых статей. Они точно не помешают. Кроме того, всегда можно подняться на уровень выше — взять более широкую тему и там уже показать, чем полезен ваш продукт. Если хотите, приведите пример продукта — сможем дать более предметный ответ.

Может быть, некорректно спрашивать, но что конкретно вы хотите узнать?
Различия в эффективности разных площадок? Они есть. И мы их учитываем при подготовке материала для публикации.

Спасибо, что обратили наше внимание.
Недавно менялся формат, выгрузка в Директ скоро добавится.

«Disallow: /» — а я это не вам писал, а товарищу выше )

решили сработать на упреждение — а то, мало ли, кто-то еще пойдет пробовать)

Тут не все так однозначно. Если посмотреть справку Гугла, то там сказано: "Этот файл (это про роботс — прим.) не предназначен для того, чтобы запрещать показ веб-страниц в результатах поиска Google. Если вы не хотите, чтобы какие-либо материалы с вашего сайта были представлены в Google, применяйте директивы noindex". Тем не менее ваш совет прописать «Disallow: /» применять не хотим). Но то, что в индекс "просачиваются" некоторые страницы, запрещенные в роботс, то это бывает. В контексте этого, скорее всего, корректней говорить именно о правилах сканирования, нежели индексации. Хотя для реальной практики это не столь важно)

да, спасибо, исправили)

спасибо за уточнение, вы правы. В robots.txt устанавливаются правила посещения разделов сайта роботами. Не просканируют — не проиндексируют. Это в идеале. Хотя на практике robots.txt отрабатывает не на 100%

Какой именно функционал инструмента вас интересует? Конкретизируйте, чтобы мы могли ответить

И правильно делаете, что автоматизируете. Что тут еще добавить)

По данным исследования, тег keywords заполнен примерно на трети сайтов. Конечно, можно и отсюда парсить. Функция =IMPORTXML("URL";"//keywords") справится с этим без проблем. Но на практике тут особо нечем поживиться в плане НЧ запросов — чаще здесь прописывают более общие ключи, нежели интересные с хвостами. Хотя способ имеет право на жизнь, почему нет)

Вы имеете в виду URL вида https://www.site.ru/kids-home/?zbs_content=main_page_teasers_781264? В этом случае используйте знак & между get-параметрами. Если мы правильно вас поняли, то вы все делаете верно. В любом случае корректность разметки можно проверить в системах аналитики — учитывается трафик, значит все ок.

И вам спасибо, что читаете нас)

В тексте есть же совет.


  • Смириться.
  • Попросить (откажут).
  • Найти другую картинку (или переложить к себе).

Информация

В рейтинге
1 089-й
Зарегистрирован
Активность