Как стать автором
Обновить

Комментарии 27

НЛО прилетело и опубликовало эту надпись здесь
а скопированные тексты итак вроде меньший приоритет имеют. да и в википедии наверно не та частота слов в тексте встречается.
НЛО прилетело и опубликовало эту надпись здесь
:-)
Это судя по всему затронет только так называемый "Keyword stufing". Т.е. страницы целиком сгенерированные из баз кейвордов, или с использованием излишне разноплановых кейвордов, или с использованием повторяющихся фраз.

Марков (в грамотной имплементации) при использовании описанного алгоритма как раз палиться не будет, так как описанный алгоритм так же частично базируется на маркове.
Параметров для продвижения ресурса счас стало 2. И судя по всему использование только одно из них не даст нужного результата.
Соответственно, использовать black SEO станет сложнее и будет приносить меньший эффект.
господи ну в который раз ужо это все происходит...смерть блек сео..уу..что то я не заметил уменьшения доров в выдаче и дорвейщики не умерли с голоду пока
Согласен про смерть чего-либо говорить глупо, а тот кто говорит такое просто устраивает панику. В принципе сейчас все к идет только к усложнению, и не только блэк сео но и белоепушистое становиться сложнее, также как и поисковикам становится сложнее бороться и с теми и с теми. И это будет продолжаться бесконечно... пока ИИ не придумают :)))
"пока ИИ не придумают :)))"
А как ИИ придумают пойдет гонка вооружений у кого ИИ круче: тот который сайты генерит, или тот который их выцепляет.
Главный плюс в этом - люди в этой борьбе изобретают все более сложные новые технологии и алгоритмы.
А потом будут книги писать и лекции читать..
А как ИИ придумают пойдет гонка вооружений у кого ИИ круче: тот который сайты генерит, или тот который их выцепляет.

Или как вариант: придется делать хорошоие полезные сайты :)))))
Так и вижу, сайт с порнографией для искусственных интеллектов... - очень полезная штука с точки зрения ИИ.
при любых изменениях алгоритма раздача поискового трафика не увеличится и не уменьшиться, она просто перераспределится.
если выдача гугла улучшится то народ станет меньше кликать на рекламные ссылки тем самым снизится доход гугла, но если гугл станет ухудшать выдачу и выводить плохие результаты то реклама станет более релевантной и более кликабельной. Если гугл будет оценивать выдачу своими заработками то он только ухудшит ее.
Я бы на месте гугла ничего бы не трогал :) Но всегда быдержал руку на спксковом крючке.
если выдача гугла улучшится то народ станет меньше кликать на рекламные ссылки

Аргументировать можете?

А вообще то это ведет как минимум к увеличению аудитории и лояльности ;)
НЛО прилетело и опубликовало эту надпись здесь
Можно рекламные ссылки напрямую вместо мусора подмешивать прямо в выдачу (или над ней). Вы про это не задумывались, видимо ;)
Их засудят потом. В соответствии с их законами полагается сообщать пользователям что они видят рекламу. Поэтому она выделяется другим цветом и надписью спонсоред резалтс или что нить вроде этого.
ладно, ОК, пусть будет так...
только у меня возникает другой вопрос, на каком основании Гугл может скрывать свои надписи на Adsense для порталов с большим количеством посещений?
Это на самом деле правда. Чем хуже ссылки тем больше кликают на рекламу. Если сломать поиск вообще, то CTR на рекламу будет под 50%.

Но то, что поисковые системы специально ухудшают выдачу это тотальный бред. Сейчас они все оптимизируют market share, а не cash flow. Глупо пытаться заработать лишних 10% денег, и потерять 10% market share, на рынке растущем вдвое за год. Плюс опять же есть моральные ограничения, миссия компании и прочее(хотя эти тезисы не всем понятны).
НЛО прилетело и опубликовало эту надпись здесь
Странно :) и Яндексу и Гуглу советуют ничего не трогать, но они, гады, почему-то все время трогают...
Основной денежный поток у Google идёт от продажи контекстной рекламы, вот от этого они и пляшут.
На самом деле идея старая как мир - с последнего www2006 привозили 2 или 3 доклада с похожим содержимым. Все очень просто - берутся меряються все параметры хорошего текста, которые можно придумать - на них натравливается Machine Learning, а потом отсекаются тексты которые под них не подходят.
До тех пор пока не известно какие параметры ты меряешь, обойти алгоритм достаточно сложно. Тут же прямо рассказали, что и как собираются померять, что скорее свидетельствует о том что его просто запатентовали "чтобы был, и потом не засудили" а применяться будет что-то с похожим принципом, но не в точности оно.
"чтобы был, и потом не засудили"

Неверно. Это нужно чтобы не сперли и чтобы кого-нибудь потом засудить :)))
применяться будет что-то с похожим принципом, но не в точности оно

Так всегда и делается, патентуется только основа. PageRank тоже запатентован, но никто ведь не знает как он в реальности расчитывается, можно только догадываться, зная основу ;)
"Неверно. Это нужно чтобы не сперли и чтобы кого-нибудь потом засудить :)))"
Извини, за точность формулировки, но "чушь собачья". Во первых в гугле знают, что их заклятые друзья во всех остальных компаниях это тоже давно изобрели. Прямо сейчас во всех поисковиках уже применяются похожие алгоритмы антиспама.

Во вторых, обычно по патентам маленькие компании пытаются засудить большие. Просто потому, что с больших можно взять много денег. Вспомни сколько раз гугль или M$ кого нибудь судил, и сколько исков на них подавали всякие ненатуралы(последний раз отожгла Borland получив несколько сотен миллионов долларов с M$ за правый клик мышкой).
"чтобы был, и потом не засудили" нас, но мы то уж всех засудим!
ничего полезного это не дает из зи неправильного понимания причины спама.
спам очень легко определяется по такому характретному параметру что послано он правктически всегда со взломанной затрояненной виндовс
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории