Генеративный поиск быстро эволюционирует: он предъявляет более высокие требования к надежности источников, использует ограниченный объем текста и при этом остается заметно вариативным в рекомендациях. Это меняет фокус GEO: вместо попыток добиться разовых упоминаний важнее обеспечить устойчивое присутствие бренда в ответах и AI-блоках поиска. Для этого нужны доказательные материалы, четкая структура страниц, понятные метрики присутствия и понимание того, как AI-поиск использует информацию с сайта.

Ниже – мой разбор 4 недавних публикаций, которые дополняют друг друга и дают цельную картину изменений в генеративной выдаче на начало 2026 года. 

Меня зовут Роман Ковалёв и я совладелец рекламного агентство «Ковалевы» и создатель GEO-сервиса «Тунец». Стараюсь следить за всеми новостями в мире оптимизации под нейросети.

О чем пойдет речь?

  1. Как меняются требования к источникам?

  2. Сколько текста реально попадает в контекст генеративного ответа?

  3. Почему рекомендации нейросетей нестабильны – и как тогда измерять GEO?

  4. Почему тема контроля контента в AI-поиске стала стратегической?

1. Какие рекомендации Google все чаще считает недостоверными – и почему это важно для GEO?

Показательный пример — разбор Lily Ray: на нескольких доменах она фиксирует, что подборки best с саморекламой регулярно попадают в зону риска и после волатильности в поиске могут сопровождаться заметными просадками видимости.

Проблема не в самом формате «подборка/рейтинг», а в том, как он сделан. Когда компания публикует материал вида «Топ X в нише» и стабильно ставит себя на первое место, читатель (и алгоритмы) ожидают независимую оценку. Если при этом нет прозрачной методики, критериев, доказательств реального сравнения и понятной логики ранжирования, такой текст выглядит не как рекомендация, а как самопрезентация под видом обзора.

Кейс в цифрах: что именно показала Lily Ray

В одном из примеров, приведенных в материале, видимость сайта снизилась на 49% за короткий период 21 января → 2 февраля 2026. 

При этом 77% всей видимости обеспечив��л блог – то есть удар пришелся прежде всего по контентному контуру, а не по коммерческим страницам. Внутри блога было найдено 191 саморекламная публикация формата best (по сути, подборки где бренд ставит себя на верхние позиции).

Дополнительно автор отмечает, что проверка ряда текстов детектором originality.ai показывала 100% уверенность в генерации ИИ – это не приговор, но усиливает ощущение шаблонности и слабой доказательной базы, если такие страницы масштабируются сотнями.

Практический вывод

Формат подборок сам по себе не запрещен и не бесполезен. Но когда рейтинговый формат превращается в массовый конвейер без проверяемой методики, он становится уязвимым при переоценке качества контента.

Устойчивыми становятся те материалы, которые можно цитировать как источник:

  • с понятными критериями и методикой,

  • с проверяемыми основаниями и ограничениями,

  • с аккуратным разделением «объективного обзора» и «страницы о себе».

2. Сколько контента доходит до генерации ответа – и как это влияет на структуру страниц?

После разговора о надежности источников возникает второй, менее очевидный фильтр: даже качественная статья не попадает в генеративный ответ целиком. Модель работает не со всем текстом, а с ограниченным набором фрагментов, которые поисковая система отбирает из нескольких источников.

Хороший ориентир дает исследование Dejan.ai (Dan Petrovic) о размере так называемых grounding fragments – фрагментов текста, которые Google передает модели как опору перед генерацией ответа. Авторы сопоставили фрагменты, использованные при ответе, с полным текстом страниц на выборке 7 060 запросов и 2 275 страниц.

Ключевые выводы исследования

  1. Есть общий лимит текста на один запрос: около 2 000 слов суммарно по всем источникам, с медианой 1 929 слова и 95-м перцентилем 2 798 слов. Важно, что этот лимит выглядит довольно стабильным и почти не зависит от длины страниц и числа источников.

2. Этот лимит делится между источниками по «рангу» (по сути – по тому, насколько источник признан релевантным в наборе):

  • источник №1 получает медианно 531 слово (28% общего объема),

  • источник №5 – 266 слов (13%).

То есть конкуренция идет не за «самый длинный текст», а за долю в фиксированном объеме.

3. По отдельной странице отбор еще жестче: медианно в «опорный контекст» попадает около 377 слов, и в 77% случаев отбирается 200-600 слов.

4. Доля «покрытия» падает по мере роста страницы: у коротких страниц (<1 000 слов) в среднем попадает 61% текста, а у длинных (3 000+ слов) – около 13%. 

При этом объем отобранного текста выходит на плато примерно на уровне ~540 слов/~3 500 символов: добавление текста увеличивает длину страницы, но почти не увеличивает то, что будет использовано в генерации.

Что это меняет для GEO на практике?

  1. Важнее «первый слой смысла», чем максимальная полнота.
    Если в генерацию часто попадает 200-600 слов, то именно в этом диапазоне должны жить вещи, без которых ответ неизбежно станет неточным: определения, условия применимости, ключевые ограничения, критерии выбора, базовые сравнения.

  2. Структура начинает работать как фактор точности.
    Заголовки, короткие абзацы, списки, таблицы с критериями, блоки «подходит/не подходит» повышают шанс, что нужные фрагменты будут извлечены целиком и без смысловых разрывов.

  3. Длинные материалы не исчезают – но меняют роль.
    Подробные тексты по-прежнему нужны человеку (чтобы убедиться, понять детали, принять решение). Но для генеративного ответа критично, чтобы у материала было компактное и однозначное «ядро», которое можно взять без потери смысла.

  4. Побеждает не длина, а релевантность в конкретном запросе.
    Так как общий лимит фиксирован и делится между источниками, рост «доли» достигается не добавлением абзацев, а тем, что страница становится более подходящей под конкретный вопрос и яснее отвечает на него.

Логическое продолжение этого вывода – проблема измерения: если контент попадает в ответ ограниченно, а рекомендации еще и меняются от запроса к запросу и от пользователя к пользователю, то классические метрики видимости начинают давать сбой. Именно к этому подводит следующий материал.

3. Почему рекомендации нейросетей нестабильны – и как тогда измерять GEO?

В исследовании SparkToro и Gumshoe проверяли, насколько стабильно три популярных инструмента (ChatGPT, Claude и Google AI в поиске) выдают списки брендов/товаров в ответ на одинаковые формулировки. Данные соби��ались через массовые повторы: 600 волонтеров прогоняли 12 запросов в 3 системах суммарно 2 961 раз, фиксируя ответы и приводя результаты к единому виду.

Почему это важно? Некоторые команды до сих пор пытаются измерять видимость бренда в нейроответах как привычное SEO – через «место в списке». Если сами списки и порядок в них нестабильны, такая метрика быстро начинает вводить в заблуждение.

Насколько случайны списки рекомендаций на практике?

Ключевой вывод исследования: повторяемость очень низкая.

  • Вероятность получить один и тот же список брендов в двух запусках – меньше 1% для ChatGPT и Google AI (то есть меньше 1 случая на 100 прогонов).

  • С порядком еще хуже: одинаковая последовательность в списке встречается примерно на уровне 1 раза на 1 000 запусков.

Почему позиция в списке перестает быть надежной метрикой?

Если списки и их порядок меняются от запуска к запуску, место в выдаче перестает быть надежным сигналом: в одном ответе бренд может быть пятым, в другом – исчезнуть, в третьем – появиться в другом наборе и с другим количеством рекомендаций. Поэтому для GEO единичная проверка ничего не доказывает.

Но на больших объемах появляется устойчивый показатель: если сделать много повторов и считать долю упоминаний, видно «ядро» брендов, кото��ые система стабильно считает релевантными данному намерению. В исследовании это показано на примере выбора наушников для поездок: по 142 разным формулировкам одного намерения собрали 994 ответа, и ключевые бренды (Bose, Sony, Sennheiser, Apple) встречались в 55–77% ответов – списки менялись, но лидеры повторялись.

Важно и то, что формулировки вопросов были очень разными: средняя семантическая близость оценивалась как низкая (0,081), однако системы все равно распознавали общий смысл и возвращали похожий круг лидеров.

Как тогда правильно строить измерения GEO?

  1. Считать не места, а долю присутствия
    Не «какое место в списке», а как часто бренд упоминается по фиксированному набору намерений (и отдельно – как часто источником становится сайт/страница).

  2. Работать сериями, а не одиночными проверками
    Повторяемость низкая, поэтому нужен пакет запусков на один запрос (десятки прогонов), иначе выводы будут случайными. В исследовании сами запросы прогонялись многократно (десятки раз).

  3. Разделять намерения пользователя
    Один и тот же бренд может быть стабилен в «выборе туроператора» и почти не появляться в «куда поехать с детьми». Для GEO важнее карта намерений, чем общий «средний процент».

  4. Фиксировать набор формулировок и менять его осознанно
    Иначе вместе с контентом меняется и измерение. Исследование показывает, что люди формулируют запросы крайне разнообразно – это нормальная часть канала.

4. Какие механизмы контроля для сайтов обсуждает Google – и почему это важно для GEO?

Этот блок основан на официальной позиции Google о том, какие настройки уже доступны владельцам сайтов и какие варианты компания рассматривает для AI-функций поиска. Важно разделять: часть описанного – действующие механизмы, а часть – направление развития, то есть планы без гарантий сроков и финального формата.

Что можно контролировать уже сейчас

Google прямо указывает, что у сайтов уже есть инструменты, которые влияют на то, как контент показывается и используется в поиске, и эти же настройки применимы к AI-сводкам в поиске:

  • robots.txt – управление доступом для краулинга (что можно обходить и индексировать).

  • nosnippet – запрет на показ текстовых фрагментов из страницы в выдаче.

  • max-snippet – ограничение длины текстового фрагмента, который может быть показан.

  • Google-Extended – отдельный контроль, который относится к использованию контента для обучения моделей Gemini (это именно про обучение, а не про участие страницы в AI-сводке).

Практический смысл: даже без «специальных GEO-настроек» у сайта уже есть рычаги, которые задают, какой объем текста может быть извлечен и показан и какие страницы вообще доступны для обхода.

Что Google рассматривает как следующий шаг

Ключевой тезис документа: Google сообщает, что изучает возможность отдельного контроля, который позволил бы сайтам отказаться именно от AI Overviews и AI Mode, но при этом сохранить участие в обычном поиске. То есть речь о более точном выборе, чем бинарное «в выдаче/не в выдаче».

Google отдельно подчеркивает требования к будущим контролям: они должны быть простыми, масштабируемыми и не ухудшать качество поиска. Это показывает общий вектор: участие контента в генеративных элементах выдачи постепенно становится отдельной управляемой зоной, а не просто побочным эффектом индексации.

Подводя итоги

  1. Надежность источника становится решающей. Рекомендательные материалы без прозрачной методики и доказательств легче попадают в зону риска. Для GEO это означает, что устойчивость дают не форматы, а основания: критерии, примеры, ограничения, подтверждаемая логика.

  2. Побеждает не объем, а плотность и структура. Даже сильные статьи используются частично: в ответ обычно попадает ограниченный фрагмент. Поэтому ценность смещается в сторону «ядра смысла» – определений, критериев и условий применимости, которые расположены близко к началу и сформулированы однозначно.

  3. Измерять нужно не «место», а присутствие и качество. Рекомендации в генеративных ответах вариативны, поэтому единичные проверки почти ничего не доказывают. Управляемая работа начинается там, где измеряются доля упоминаний, корректность контекста и устойчивость результатов на серии повторов по одному и тому же пулу намерений.

  4. Контроль участия контента становится частью стратегии. По мере развития настроек и обсуждения правил использования материалов в AI-поиске командам важно заранее определить границы: что можно безопасно пересказывать как справку, а где критично сохранить контекст, условия и точность формулировок.

В сумме это и задает практическое определение GEO на 2026 год: не искать разовые удачные упоминания, а строить воспроизводимый результат – через качество источников, структуру страниц, корректные измерения и понятные правила участия контента в AI-поиске.