
Засим, так как по профессии я инженер, к решению для себя этого вопроса решил подойти с научной точки зрения и провести эксперимент.
Идея проста, на сайте одновременно были размещены 3 одинаковых текста, разница заключалась лишь в плотности ключевых слов. Старался, чтобы влияние других факторов оказалось минимальным. Тема статей — “Продвижение по низкочастотным запросам”, соответственно изменяемым параметром для меня было количество повторений слов с основанием “низкочастотн”.
Значение количества слов 427 в трех статьях было одинаковым. В первой статье было использовано 3 слова с основанием “низкочастотн”, соответственно индекс равнялся 0,702 на 100 терминов в тексте

Во второй статье я использовал 7 ключевых слов, и индекс поднялся до 1.639

Третья статья содержала 13 слов с основанием “низкочастотн” и эта статья ушла с индексом 3.044

Прошла неделя, Гугл успешно проиндексировал все три статьи и оказалось, что статья, содержавшая максимальное количество ключевых слов ранжируется выше, чем две предыдущие. Причем на втором месте была статья с 7-ю словами, на последнем — с тремя. Что примечательно, вначале в индекс попали две статьи с наименьшей плотностью, а через три дня гугл проиндексировал третью статью и оценил ее выше остальных

Из всего вышесказанного для себя делаю вывод, что поисковые системы обращают внимание на плотность ключевых слов и чем больше, тем лучше. Наверняка, есть граница насыщения, после которой поисковики сочтут вашу страницу нечитабельной и такая страница вообще не попадет в индексы. Вопросы определения максимально возможного индекса ключевых слов будем обсуждать в следующих топиках.
Оригиналы статей, участвовавших в экспериментах:
Статья а “Продвижение по низкочастотным запросам” с индексом 0,702
Статья б “Продвижение по низкочастотным запросам” с индексом 1,639
Статья в “Продвижение по низкочастотным запросам” с индексом 3,044