Comments 17
Если бы такой инструмент существовал, то в поисковике бы найти было бы ничего нельзя — вернулись бы во времена, когда в подвале вываливали тонну ключевых слов белым по белому. Нет, спасибо, не надо.
+6
UFO just landed and posted this here
Я же написал, что можно создать несуществующий запрос на сотне сайтов, и отслеживать как его отранжируют, подобными вещами занимаются аналитики, что бы выявить влияние определенных факторов. Таким образом остаются только те факторы которы находятся именно в ввыдаче ПС (на какой сайт кликнули первым, после какого сайта поисковик был закрыт и так далее) таких факторов менее 10%. Остальное более менее доподлинно известно, и основная часть описана в рекомендациях для вебмастеров у поисковых систем.
+1
UFO just landed and posted this here
Самая главная суть не в том что бы определить какой конкретно фактор и какое его значение и как влияет на выдачу. Задача выявить именно важность факторов по отношению друг к другу. Какой из факторов важнее чем другой.
0
UFO just landed and posted this here
Это все выясняется опытным путем, и можно описать в формуле инструмента.
0
А как же время и изменения? Ведь в поисковую выдачу нужно попасть. Кто-то за неделю попадает в индекс, кто-то за пол года. Это ещё до определения релевантности. А дальше, поисковики не стоят на месте и изменяют алгоритм.
В итоге пока ведётся эксперимент и ожидается результат, поисковики несколько раз успели изменить алгоритмы. :-)
В итоге пока ведётся эксперимент и ожидается результат, поисковики несколько раз успели изменить алгоритмы. :-)
0
Мда. Наверное, большая часть SEO-шников еще мечтает а таком чудесном алгоритме, который бы создавал тексты на 99% уникальными. Скрестить бы с вашей этой потогонкой Андерсона — от клиентов отбоя не будет.
0
Я и не мечтаю, я реалист, и прекрасно понимаю что задачка нереальная. Хотя бы потому что ни один компьютер не способен обрабатывать такое количество информации.
0
Тогда попробуйте объяснить сказанную вами фразу, а то мне кажется, что вы теряетесь в своих доводах.
>> Хотя бы потому что ни один компьютер не способен обрабатывать такое количество информации.
>>«Я же написал, что можно создать несуществующий запрос на сотне сайтов, и отслеживать как его отранжируют»
Просто смысл вашей статье сводится к повышению активности на пустом месте — по сути, предлагаете заниматься алхимией.
>> Хотя бы потому что ни один компьютер не способен обрабатывать такое количество информации.
>>«Я же написал, что можно создать несуществующий запрос на сотне сайтов, и отслеживать как его отранжируют»
Просто смысл вашей статье сводится к повышению активности на пустом месте — по сути, предлагаете заниматься алхимией.
0
То что вы описали в статье — этими вещами занимается машинное обучение. Конкретнее — выделением факторов и их значимости. Известно, что для ранжирования поисковые системы тоже используют машинное обучение. Создать нейросеть, которая изучает свойства другой нейросети — звучит безумно, но по-моему очень интересно
+3
Проверял эту же идею пару лет назад. На ИНС. Даже тогда не получилось. Сейчас — тем более. Проблема в том, что обучающая выборка ВСЕГДА будет неполна. Те факторы, что есть в открытом доступе не позволяют обучить ИНС с последующими корректными результатами на валидационной выборке (т.е. неизвестной до обучения). Это говорит о том, что выборка для обучения неполна и/или противоречива.
Иными словами — весь бизнес Google и Яндекса базируется на том, что они скрывают не только и не столько алгоритм ранжирования, сколько состав и реальные значения факторов ранжирования. Это поведенческие, данные с рекламы, социалка, офлайн, цитируемость бренда, возрасты страниц и т.д. и т.п. Чтобы собрать такую же базу данных нужно быть хотя бы Яндексом, а лучше Гуглом. Со своим браузером. Плюс не забывайте про «руки» на значимых коммерческих запросах типа «Окна в Москве», «Купить авто в кредит», «Ноутбук года» и т. д.
Короче. Нереально это.
Иными словами — весь бизнес Google и Яндекса базируется на том, что они скрывают не только и не столько алгоритм ранжирования, сколько состав и реальные значения факторов ранжирования. Это поведенческие, данные с рекламы, социалка, офлайн, цитируемость бренда, возрасты страниц и т.д. и т.п. Чтобы собрать такую же базу данных нужно быть хотя бы Яндексом, а лучше Гуглом. Со своим браузером. Плюс не забывайте про «руки» на значимых коммерческих запросах типа «Окна в Москве», «Купить авто в кредит», «Ноутбук года» и т. д.
Короче. Нереально это.
0
Для того, чтобы создать такой алгоритм, придется создать свой Гугл. Как считать, например, такой важный фактор как «Цитируемость»? Для этого весь интернет надо проиндексировать.
0
Sign up to leave a comment.
Выявление алгоритмов ранжирования поисковых систем