Как стать автором
Обновить

Комментарии 17

Если бы такой инструмент существовал, то в поисковике бы найти было бы ничего нельзя — вернулись бы во времена, когда в подвале вываливали тонну ключевых слов белым по белому. Нет, спасибо, не надо.
В те времена когда можно было спамить ключами в подвале, такие инструмены были не нужны. Но когда факторов ранжирования более 800, как минимум как идея, такой инструмент имеет права на существование.
НЛО прилетело и опубликовало эту надпись здесь
Я же написал, что можно создать несуществующий запрос на сотне сайтов, и отслеживать как его отранжируют, подобными вещами занимаются аналитики, что бы выявить влияние определенных факторов. Таким образом остаются только те факторы которы находятся именно в ввыдаче ПС (на какой сайт кликнули первым, после какого сайта поисковик был закрыт и так далее) таких факторов менее 10%. Остальное более менее доподлинно известно, и основная часть описана в рекомендациях для вебмастеров у поисковых систем.
НЛО прилетело и опубликовало эту надпись здесь
Самая главная суть не в том что бы определить какой конкретно фактор и какое его значение и как влияет на выдачу. Задача выявить именно важность факторов по отношению друг к другу. Какой из факторов важнее чем другой.
НЛО прилетело и опубликовало эту надпись здесь
Это все выясняется опытным путем, и можно описать в формуле инструмента.
А как же время и изменения? Ведь в поисковую выдачу нужно попасть. Кто-то за неделю попадает в индекс, кто-то за пол года. Это ещё до определения релевантности. А дальше, поисковики не стоят на месте и изменяют алгоритм.
В итоге пока ведётся эксперимент и ожидается результат, поисковики несколько раз успели изменить алгоритмы. :-)
Мда. Наверное, большая часть SEO-шников еще мечтает а таком чудесном алгоритме, который бы создавал тексты на 99% уникальными. Скрестить бы с вашей этой потогонкой Андерсона — от клиентов отбоя не будет.
Я и не мечтаю, я реалист, и прекрасно понимаю что задачка нереальная. Хотя бы потому что ни один компьютер не способен обрабатывать такое количество информации.
Тогда попробуйте объяснить сказанную вами фразу, а то мне кажется, что вы теряетесь в своих доводах.

>> Хотя бы потому что ни один компьютер не способен обрабатывать такое количество информации.
>>«Я же написал, что можно создать несуществующий запрос на сотне сайтов, и отслеживать как его отранжируют»

Просто смысл вашей статье сводится к повышению активности на пустом месте — по сути, предлагаете заниматься алхимией.
На обработку и подстроку факторов только одной позиции необходимо 800 операций возведенное в степень 800. Это число операций с 200+ нулями. Какой компьютер современный с этим справится?
То что вы описали в статье — этими вещами занимается машинное обучение. Конкретнее — выделением факторов и их значимости. Известно, что для ранжирования поисковые системы тоже используют машинное обучение. Создать нейросеть, которая изучает свойства другой нейросети — звучит безумно, но по-моему очень интересно
Проверял эту же идею пару лет назад. На ИНС. Даже тогда не получилось. Сейчас — тем более. Проблема в том, что обучающая выборка ВСЕГДА будет неполна. Те факторы, что есть в открытом доступе не позволяют обучить ИНС с последующими корректными результатами на валидационной выборке (т.е. неизвестной до обучения). Это говорит о том, что выборка для обучения неполна и/или противоречива.

Иными словами — весь бизнес Google и Яндекса базируется на том, что они скрывают не только и не столько алгоритм ранжирования, сколько состав и реальные значения факторов ранжирования. Это поведенческие, данные с рекламы, социалка, офлайн, цитируемость бренда, возрасты страниц и т.д. и т.п. Чтобы собрать такую же базу данных нужно быть хотя бы Яндексом, а лучше Гуглом. Со своим браузером. Плюс не забывайте про «руки» на значимых коммерческих запросах типа «Окна в Москве», «Купить авто в кредит», «Ноутбук года» и т. д.

Короче. Нереально это.
Для того, чтобы создать такой алгоритм, придется создать свой Гугл. Как считать, например, такой важный фактор как «Цитируемость»? Для этого весь интернет надо проиндексировать.
Нет, весь интернет нам не нужно индексировать, тот же гугл уже это сделал, и все проиндексируемы ссылающиеся страницы можно взять у него. И нужны нам они будут только для конкретной страницы, а не для всего интернета.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории