История поисковой оптимизации
Вероятно, история поисковой оптимизации сайтов (англ. Search engine optimization, SEO) ведёт своё начало со времени появления первых поисковых систем. Именно тогда, в середине 90-х, начал формироваться рынок SEO. В тот период времени влиять на поисковую выдачу действительно было достаточно легко. Первые поисковые системы, такие как AltaVista и Yahoo, придавали огромное значение тому, что позднее назовут "внутренними факторами ранжирования". Формулы ранжирования (то есть определения, насколько страница сайта соответствует конкретному запросу), используемые поисковиками, учитывали главным образом содержимое мета-тегов и текстовую составляющую страниц.

Многие поисковики изначально не имели фильтров на слишком частое употребление слов поисковых запросов. По причине этого на первых позициях поисковых результатов оказывались сайты, буквально нафаршированные частым употреблением слов из поискового запроса. Естественно, качество поиска ухудшалось. Ухудшалось и отношение поисковых систем к оптимизаторам. Наверное, именно тогда поисковая оптимизация разделилась на два противоположных направления.
SEO «чёрное» и «белое»
«Белая» оптимизация подразумевала под собой улучшение сайта, наполнение его интересным и полезным содержимым об определенной предметной области. Благодаря таким улучшениям сайта алгоритмы поисковой системы должны были бы относиться к нему более благосклонно и показывать именно этот сайт в поиске на запросы, которые относились бы к нему. Также «белое» SEO не исключало написания текстов специально для каких-либо поисковых запросов. Однако существовал более быстрый и лёгкий путь.
SEO «чёрное»
Как я уже упоминал выше, алгоритмы, используемые поисковыми системами, были крайне несовершенны. Поэтому было возможно легко и без особого риска поднять свой сайт на первое место в поисковой выдаче, просто нафаршировав его словами из запроса. Появились дорвеи. Текст на таких страницах не нёс никакого полезного смысла для посетителя. Единственным его предназначением было поднятие сайта в выдаче по нескольким запросам.
Также появилась практика использования невидимого текста. За счёт текста, насыщенного ключевыми фразами, удавалось поднимать сайты в глазах поисковиков.
Ещё одним методом «чёрной» оптимизации является клоакинг. Суть этого метода в том, что страница, которую видят поисковики, и страница, которую видят люди, полностью отличались.
Однако в самом начале эры поисковых систем, как правило, хватало простого манипулирования мета-тегами и насыщения поисковыми фразами страниц. Конечно, поисковикам не нравилось ухудшение качества поиска. Не нравилось им и то, что кто-то способен по собственному желанию изменить их выдачу. И поисковики продолжали совершенствовать свои алгоритмы. Так, со временем утратили своё значение мета-теги — из-за возможности лёгкого манипулирования ими со стороны оптимизаторов.
Именно поисковая система Google совершила революцию в поисковых технологиях. Для поисковиков всегда было тяжело определить, какой сайт более релевантен (соответствует) запросу. Особенно тяжело было определить это в «высокочастотных» запросах, содержимое сайтов по которым было во многом похоже. Выбрать определённый сайт было тяжело. Ларри Пейдж и Сергей Брин нашли решение этой проблемы. Так появился Page Rank.
Page Rank
Технология Page Rank была основана на цитируемости страниц сайтов другими страницами в интернете. Действительно, если тяжело выбрать из страниц с похожим содержимым, то почему бы не выбрать те, на которые чаще ссылаются? Идея, в которую не поверила AltaVista, заработала в Google. Качество поиска значительно улучшилось. Не стали довольствоваться старыми методами продвижения и поисковые оптимизаторы.
Внешние факторы ранжирования
Само собой разумеется, что если поисковая система придаёт большое значения ссылкам, указывающим на страницу, то эти ссылки необходимо проставить. Так как наибольшее значение придавалось ссылкам с других сайтов, а не с других страниц продвигаемого сайта, то именно эти ссылки и были необходимы. Причём не любые ссылки, а ссылки с определённым «анкором» — текст ссылки должен был соответствовать поисковому запросу, по которому оптимизатор хотел «поднять сайт в топ поисковых систем. Ссылкам придавалось огромное значение в поисковых алгоритмах. Достичь высоких позиций в поисковиках по конкурентным запросам стало возможно только при проставлении на свой сайт таких ссылок. В то время активно расширялась группа оптимизаторов, которых называли „серыми“
„Серое“ SEO
Как правило, „серые“ оптимизаторы применяют все методы оптимизаторов „белых“. Но так как этого зачастую недостаточно, такие оптимизаторы стали пытаться как-то обойти алгоритмы поисковых систем. Но только немного. И только осторожно. Чтобы не попасть под санкции или под бан. Из-за постоянного совершенствования поисковых алгоритмов таким оптимизаторам постоянно приходилось изменять свои методы. Поисковики по прежнему не терпели влияния сторонних людей на свою выдачу. И пытались от этого влияния избавиться.
Среди оптимизаторов же обрели популярность так называемые „ссылочные биржи“. На таких биржах любой владелец сайта мог предложить оптимизаторам расположить их ссылки на своём сайте. Но алгоритмы поисковых систем не стояли на месте. Примерно в 2004 году началась серьёзная борьба со ссылочным спамом.
За десятилетие, которое прошло с момента появления первых SEO-оптимизаторов произошло очень много событий. Изменились алгоритмы работы поисковых систем. Кардинально изменились методы работы оптимизаторов. Интернет активно расширялся, многие компании открывали свои онлайн-представительства и хотели, чтобы эти сайты были как можно выше в поисковой выдаче. Расширялось и сообщество SEO-оптимизаторов.
Впрочем, последующие годы принесут ещё большие перемены: темп развития алгоритмов значительно ускорится, активно начнёт расти Рунет, а вместе с ним и российские поисковые системы. Впрочем, не всем из них удастся выстоять в конкурентной борьбе. Всё тяжелее будет приходится оптимизаторам-одиночкам и даже крупным SEO-компаниям. Многие изменения в алгоритмах будут нацелены напрямую на оптимизаторов. Яндекс, Рамблер, ссылочные биржи, самообучающийся алгоритм Матрикснет, крупные поглощения в поисковом бизнесе — обо всём этом я надеюсь написать в следующей статье.
Конец первой части