Что можно сказать точно, так это то, что 100 наших коммерческих сайтов, сделанных под копирку: каталог, цены, контакты — пойдут после энциклопедий, справочников и форумов в неочевидном порядке.
Ну вы же тогда хоть сами не путайте сослагательное наклонение с повелительным. Я хоть и по вашему витаю в облаках, не путаю желательное положение вещей с текущим. А вы теряетесь в иллюзии, задавая не мотивированные условия. Вот с чего вы взяли, что энциклопедии будут выше коммерческих сайтов обязательно? С того, что вы знаете о текущих алгоритмах ранжирования? А с какой стати вы свое знание, явно не достаточное, проецируете на совершенно другую ситуацию? Или вы считаете, что кроме гипотетического отсутствия мусорщиков в выдаче больше ничего не изменится? Так я вас разочарую — поисковики изменятся. Не имея нужды отбиваться от спамеров (давайте рассмотрим все-таки утопию, как источник здравых позиций) они сосредоточатся на том, чтобы более полно представить выдачу соответственно интересам пользователя. Не нам с вами решать каким способом они это сделают, но что будут делать они не скрывают — предсказание интереса посетителя (например по его профилю и прошлым запросам) с уточнениями к результатам выдачи. Это значит, что они заинтересованы найти более точные параметры соответствия ответа запросу и пользователю и дать только ограниченные результаты. повтрюсь, как они будут отбирать сайты не важно. важно, что стремятся к тому, что первыми будут те, что лучше себя показали. и когда вы говорите, что существует проблема похожих как две капли воды конкурентов, то эта проблема существует только у самих идиотов, которые не умеют делать что-то уникальное, а для пользователя поиска это не проблема, он может ткнуть в любого из равных и ожидать одинаковый результат. И к этому поисковики стремятся, а пользователи готовы. Не согласны только владельцы тупого не уникального бизнеса, которые готовы толкаться локтями в толпе лишь бы не искать уникальную нишу. Вы предлагаете их жалеть? Я — нет.
С помощью sitemaps.xml невозможно «наеб@ть поисковик». Можно только расставить приоритеты в индексации, снижая вероятность повторной индексации для одних страниц и увеличивая для других. Этот файл не может заставить поисковик неиндексировать какую-то страницу или наоборот прибавить этой странице рейтинга в серпе. Единственное, что по-настоящему делает этот файл — экономит электричество в датацентрах поисковых систем. Есть этот файл или его нет, ни скорость индексации ни рейтинг сайта не изменятся. Это с большой натяжкой можно назвать инструментом оптимизации, поскольку помогает не столько сайту, сколько поисковику.
Вы пытаетесь подвести под формальные рамки. А это зря. robots.txt не создан для SEO, не разрабатывался для него и используется там просто как костыль, просто это дешевле и менее наказуемо, чем клоакинг. Но по сути то же самое. robots.txt предназначен для пауков, а не для людей это правда, но это не значит, что он предназначен для целей SEO. Он нужен просто для того, чтобы сайт мог попросить пауков не перенагружать его. Показывает какие url нельзя загружать, изначально для того, чтобы сайт не падал под нашествием роботов. Опять же этот сайт не может заставить поисковик поднять мнение о какой-то странице или всём сайте, а наоборот — только исключить какие-то страницы или домены из индексации. Формальным целям SEO эта функция не отвечает. и если SEO требуется скрыть от поисковиков какую-то страницу, то это как раз означает отказ от ее участия в поиске.
А вот Брин с Пейджем как раз начали с того, что фантастические ситуации стали обсуждать и обдумывать. Сравните их положение с вашим, чтобы решить так ли вы правы, экономя мышление, не желая обсуждать варианты перспектив.
И правильно делаете, как хороший Кибальчиш просто помогаете экономить электричество в датацентрах. Но эта работа ни на йоту не улучшает положение вашего сайта. Закинуть определенные страницы перед другими (с какой-то вероятностью) так можно, сделать так, чтобы какая-то страница выбиралась не каждый днеь, а раз в месяц — тоже полезно, чтобы сэкономленный запрос послужил инждексации какой-то новой страницы. Но если на старте сайта Google выбрал индексировать не более 10 страниц в неделю, то хоть об стену расшибись, а 100 страниц проиндексируется не раньше 3х месяцев. К счастью если не стоять на месте, то скорость индексации растет, и через 3 месяца уже будет индексировать по 40-50 в день, а может и 100, как раскачаешь ссылками.
Что же касается robots.txt, то это вообще древняя технология, которую начали использовать костылем в SEO, но вообще-то у нее другие задачи.
Рискую показаться повторяющимся, но sitemap.xml не гаранирует, что проиндексируется больше страниц, чем без него. Не гарантирует и что быстрее проиндексируются, если вы еще не набрали высокой репутации, этот файл элементарно экономит ресурсы поисковых пауков. В этом его смысл, а не в какой-то там магии с ускорением индексации сайта.
Глупость. robots.txt появился не из-за SEO, а из-за необходимости регулирования деятельности роботов. Этот файл нужен не только и не столько для того, чтобы исключить из поисковиков конкретные страницы, а и для того, чтобы по некотрым ссылкам ходили только люди. Изначально это были ресурсоемкие ссылки. Что касается sitemap, то он не дает сайту никаких преимуществ. Этот файл дает поисковикам выбор, в каком порядке контент индексировать. И если вы думаете, что страницы, которые не включены в sitemap не будут проиндексированы или гарантированно попадут в индекс позже тех, что туда вписаны, то вы серьезно ошибаетесь.
Вы когда-нибудь знакомились с антимонопольным законодательством? Если знакомились, то почему задаете глупые вопросы? Чтобы не показаться нетактичным все-таки озвучу — если вы монополист, то демпинг попадает под «регулирование», если нет, то вы в праве демпинговать без ограничений. Вам уже ясен ответ или надо разжевать?
Это заблуждение. Поисковики имеют фиксированную скорость индексации (которая зависит от существующего рейтинга сайта) и этим файлом вы можете повлиять только на порядок принятия страниц в индекс, но скорость останется такой, какой она вам назначена. Говорю это как разработчик не мелкого новостного сайта с уникальным контентом на основе трехлетних практических наблюдений.
хотите, чтобы его не было — сделайте его невыгодным.
То есть вы призываете, как и в случае с преступлениями, сделать SEO рискованным для жизни, сулящим многолетние проблемы? Насколько мне известно пока не нашли другого способа сделать преступления не выгодными.
Но и тематика с подачей на коммерческих сайтах, а равно и ссылки на них в сравнении со ссылками на некоммерческие это совсем разные ситуации.
Одно дело вы получите какую-нибудь википедию по запросу «пластиковые окна», а другое, какой шанс (при чистой выдаче) получить ее для запроса «пластиковые окна москва» или «пластиковые окна купить»? Лично я был бы рад получить энциклопедию (которых, согласитесь, не 500 штук) на первом месте по запросу «установка пластиковых окон», а уже на втором и третьем месте рекламу услуг этого плана. Надеюсь в этот раз я ясно изложил мысль?
Фирма GoldStar уже 11 лет как сменила название на LG после репутационного провала. Никакой PR и ребрендинг не помогли вернуть позиции. А вы про 6-12 месяцев говорите. )
Вы действительно считаете, что само наличие этих файлов хоть на единицу повышает позицию? Надеюсь нет, и вы наверняка в курсе, что иметь значение для результата будет только то, что вы запретите к индексации в этих файлах (не упомянете в sitemap.xml чтобы что-то из упомянутого проиндексировалось быстрее). А «запрещать» вам там придется то, что вы сделали по той или иной ошибке, осознавая, что поисковики за это накажут. То есть можно вернуться к идее изготовления сайта по рекомендациям поисковиков.
PS если вы уверены в том, что содержимое sitemap может заставить поисковик что-то проиндексировать лучше, чем в отсутствие этого файла, то так и скажите — я буду понимать со специалистом какого уровня общаюсь.
Нет, но если вам говорят, что у нас он стоит 2000 потому, что освящен Аланом Чумаком и потому никогдане сломается, а у конкурентов по 1500 подделка (а реально брали с одного склада), то это будет недобросовестная реклама — разновидность мошенничества.
И вы думаете PR-щики более уважаемы, чем SEO? На даже в PR нельзя за 2 месяца создать бренд мирового уровня, а раньше, чем через год пользования товаром настоящая репутация не появится. Поэтому бренды строятся долго и на рекламе, а за счет PR живут политики и прочие «однодневки». А SEO ставят сайт которому без году неделя рядом с сайтами, которые заработали честно каждый отзыв. Это обман.
Разумное решение как раз в том, чтобы для начала назвать мошенничество мошенничеством и дать SEO-шникам ощущение, что они на самом деле занимаются как минимум аморальным делом. Не надо пытаться убедить противников SEO, что мошенничество это хорошо, только потому, что это эффективно и приносит выгоды. Ведь то же самое можно сказать и про наркоторговлю и про разбой.
Попытки искоренить преступность это тоже казалось бы нерешаемая задача, но попробуйте сказать, что эту цель не надо и рассматривать, а надо, как в вашем случае учиться у мошенников мухлевать в своих интересах.
Ну вы же тогда хоть сами не путайте сослагательное наклонение с повелительным. Я хоть и по вашему витаю в облаках, не путаю желательное положение вещей с текущим. А вы теряетесь в иллюзии, задавая не мотивированные условия. Вот с чего вы взяли, что энциклопедии будут выше коммерческих сайтов обязательно? С того, что вы знаете о текущих алгоритмах ранжирования? А с какой стати вы свое знание, явно не достаточное, проецируете на совершенно другую ситуацию? Или вы считаете, что кроме гипотетического отсутствия мусорщиков в выдаче больше ничего не изменится? Так я вас разочарую — поисковики изменятся. Не имея нужды отбиваться от спамеров (давайте рассмотрим все-таки утопию, как источник здравых позиций) они сосредоточатся на том, чтобы более полно представить выдачу соответственно интересам пользователя. Не нам с вами решать каким способом они это сделают, но что будут делать они не скрывают — предсказание интереса посетителя (например по его профилю и прошлым запросам) с уточнениями к результатам выдачи. Это значит, что они заинтересованы найти более точные параметры соответствия ответа запросу и пользователю и дать только ограниченные результаты. повтрюсь, как они будут отбирать сайты не важно. важно, что стремятся к тому, что первыми будут те, что лучше себя показали. и когда вы говорите, что существует проблема похожих как две капли воды конкурентов, то эта проблема существует только у самих идиотов, которые не умеют делать что-то уникальное, а для пользователя поиска это не проблема, он может ткнуть в любого из равных и ожидать одинаковый результат. И к этому поисковики стремятся, а пользователи готовы. Не согласны только владельцы тупого не уникального бизнеса, которые готовы толкаться локтями в толпе лишь бы не искать уникальную нишу. Вы предлагаете их жалеть? Я — нет.
Что же касается robots.txt, то это вообще древняя технология, которую начали использовать костылем в SEO, но вообще-то у нее другие задачи.
То есть вы призываете, как и в случае с преступлениями, сделать SEO рискованным для жизни, сулящим многолетние проблемы? Насколько мне известно пока не нашли другого способа сделать преступления не выгодными.
Одно дело вы получите какую-нибудь википедию по запросу «пластиковые окна», а другое, какой шанс (при чистой выдаче) получить ее для запроса «пластиковые окна москва» или «пластиковые окна купить»? Лично я был бы рад получить энциклопедию (которых, согласитесь, не 500 штук) на первом месте по запросу «установка пластиковых окон», а уже на втором и третьем месте рекламу услуг этого плана. Надеюсь в этот раз я ясно изложил мысль?
PS если вы уверены в том, что содержимое sitemap может заставить поисковик что-то проиндексировать лучше, чем в отсутствие этого файла, то так и скажите — я буду понимать со специалистом какого уровня общаюсь.