…. и программиста. 

Нейросети меняют паттерны поведения людей при поиске информации. В частности они становятся сложнее и длиннее. Если вы спросите ChatGPT, куда дольше ехать из Москвы — в Питер, Казань или Краснодар, то классический поиск не найдет статью, которая полностью ответит на вопрос. А вот нейросеть, понимая интент, разобьет промпт на три простых поисковых запроса:

  • «расстояние Москва-Санкт-Петербург», 

  • «расстояние Москва-Казань»,

  • «расстояние Москва-Краснодар». 

В ответе нейросеть использует конкретные источники информации — реальные сайты, которые показались ей авторитетными, и их суммарное содержимое отвечает на мой вопрос.

Мир поиска изменился навсегда. Бизнесу нужен инструмент для изучения, анализа и создания такого контента, который не только попадет в эти источники, но и будет максимально полезным для людей

Оглавление

Проблема, которую мы решили

Первый эксперимент и прототип инструмента

Архитектура, технический стек и нейросети для создания

Борьба с техническими ограничениями

Ключевой функционал

Реальные результаты и кейсы

Монетизация и пользовательский опыт

Планы развития

В процессе изучения алгоритмов нейросетей, в моем агентстве появилась услуга «GEO», и с этого началась история «Тунца» — сервиса для GEO-продвижения, который помогает попадать в ответы ChatGPT, Perplexity, Яндекс GPT и других нейросетей. Я понял, что традиционной SEO-оптимизации теперь мало: нужен новый подход к созданию контента, который будут цитировать AI-системы.​

Проблема, которую мы решили

Весной 2025 года наша команда столкнулась с проблемой. Клиенты рекламного агентства занимали топовые позиции в Яндексе и Google, но когда пользователи задавали те же вопросы нейросетям, в источниках зачастую оказывались совсем другие сайты. 

Причина проста: AI-системы используют собственные критерии «полезности» информации, и классическая SEO-оптимизация здесь не помогала.​ Закономерно возник следующий вопрос: почему тот или иной сайт отбирался нейросетями как источник информации?

Я начал проверять вручную, какие домены цитируют Perplexity, ChatGPT и YandexGPT по запросам наших клиентов. Процесс шел мучительно медленно: каждый запрос нужно вбивать в четыре-пять нейросетей, фиксировать источники, анализировать позиции и формы упоминаний. На проверку 10-15 ключевых запросов уходил рабочий день.​

Стало очевидно: без автоматизации масштабировать GEO-услугу невозможно. Я приступил к разработке «Тунца» — инструмента, который проводит весь этот многоступенчатый энергоемкий анализ автоматически.​

Что такое GEO и почему это вообще отдельная услуга, а не «ещё одно SEO», подробно разбирал в отдельной статье на Хабре.

Первый эксперимент и прототип инструмента для попадания в ответы AI

Первая версия Тунца была далека от того, что мы имеем сейчас. Я собрал команду из двух человек: себя, как продакт-менеджера, и фулстек-разработчика. Мы начали с простого MVP: пользователь вводит список URL своего сайта и ключевые запросы, система автоматически проверяет их в нейросетях, возвращает ответ и список источников-конкурентов.​

Уже на этапе прототипа мы столкнулись с техническими сложностями:

  • Разнообразие API нейросетей: у каждой системы свой формат запросов и ответов. Perplexity предоставляет API через модель Sonar-Pro, ChatGPT работает через GPT-4-search, а для Яндекс GPT нужна интеграция через YandexCloud.​

  • Ограничения по запросам: многие API имеют rate limiting, и при массовой проверке сотен запросов мы регулярно получали ошибку 429.​

  • Извлечение источников: каждая нейросеть форматирует ссылки по-своему — Google AI Overviews добавляет карточки, Perplexity использует нумерацию, ChatGPT показывает блок "Sources".​

Тем не менее, мы запустили первую рабочую версию за полтора месяца. На этом этапе платформа умела только одно: проверять наличие нейроответов и собирать список доменов-источников. Но даже это был огромный шаг вперед по сравнению с ручным анализом.

Архитектура и технический стек

Для масштабируемого решения мы выбрали проверенную связку: Django в качестве бэкенда и Celery для асинхронной обработки задач. PostgreSQL стал нашей основной базой данных благодаря поддержке JSONField, который идеально подходит для хранения сложных структур данных от API нейросетей.​

Почему именно такая архитектура? Анализ одного проекта может требовать проверки сотен запросов в четырех-пяти нейросетях — это тысячи API-вызовов. Многие нейросети возвращают ответ в течение 30-60 секунд, что при синхронной обработке создавало бы неприемлемые задержки. Celery решил эту проблему: пользователь создает задачу → она уходит в очередь → обрабатывается в фоне → а по завершении система отправляет уведомление.​

Для работы с каждой нейросетью мы разработали отдельные сервисные классы:

Каждый сервис инкапсулирует логику взаимодействия с конкретной AI-системой, включая обработку ошибок и retry-логику при сбоях. Это позволило легко добавлять новые нейросети по мере их появления.

Важная часть этой архитектуры — использование самих нейросетей вну��ри «Тунца» не только как объекта анализа, но и как движка разработки и генерации.​ Приведу пример использования ИИ в «Тунце». Perplexity собирает всю информацию для GPT, который по этому промту и собранным данным формирует кодовую базу реализации по аналогии с другими интеграциями.

Пример работы с готовым user‑промтом в ИИ:

Фронтенд «Тунца» на 100% создан силами двух нейросетей: 

  • Perplexity разработала все виды дизайна — от макетов до финальных визуалов, 

  • а ChatGPT полностью реализовала их в коде проекта.

На 65-70% код пишет GPT, а Perplexity готовит user-промпты и собирает необходимую информацию. Время разработки тратится больше в лаборатории Perplexity, чем в IDE — интерфейс там работает быстрее, чем генерируется код. Поэтому генерация запускается сразу в 2-3 окнах.

Цель на ближайшее время — перевести 100% разработки «Тунца» на ИИ и полностью отказаться от ручного написания кода.

Главные подводные камни — в архитектуре: здесь все нужно держать под жёстким контролем. Вторая проблема — постоянный рефакторинг, без которого файлы разрастаются в простыни, нечитабельные даже для самого ИИ.

Борьба с техническими ограничениями

Самой большой головной болью стала нестабильность API нейросетей. Мы реализовали комплексную систему retry-логики с экспоненциальной задержкой: при ошибке 429 (rate limiting) система автоматически повторяет запрос через увеличивающиеся интервалы — сначала через 2 секунды, потом через 4, 8, 16. Максимальное число попыток ограничили тремя, после чего задача помечается как failed.​

Еще одна проблема — извлечение источников из ответов. Мы разработали специализированные парсеры для каждой платформы, которые нормализуют данные и извлекают домены, позиции упоминаний и текстовые фрагменты цитирований. Это позволило унифицировать данные из разных источников и показывать их пользователю в едином формате.​

Однако в процессе работы стало ясно, что проблема гораздо глубже, чем просто разные форматы ответов. Нейросети далеко не всегда могут получить доступ к самим страницам-источникам: сайты блокируют AI-краулеры через robots.txt, Cloudflare, rate limiting, нестандартные HTTP-статусы или отдают основной контент через JavaScript, недоступный для простых HTTP-запросов. В результате модель либо вовсе не может извлечь контент, либо вынуждена «достраивать» ответ без реального анализа источника. Я подробно разобрал технические причины недоступности контента для ботов нейросетей в отдельной статье на Хабре.

Ключевой функционал «Тунца»

После нескольких итераций мы пришли к четкой структуре работы сервиса. Всё начинается с создания проекта — пользователь вводит название, домен и список URL страниц, которые хочет продвигать. Система автоматически сканирует предоставленные страницы и извлекает ключевую информацию: заголовки, мета-описания, структуру контента, наличие Schema.org разметки и дает рекомендации по улучшению.

Автоматическая генерация ключевых слов

Самое интересное начинается дальше. Вместо того, чтобы просить пользователя придумывать, искать, собирать поисковые запросы, «Тунец» генерирует их автоматически с помощью AI. Для каждой страницы система создает до 50 ключевых фраз, по которым имеет смысл продвигаться в нейроответах.​

Далее платформа проверяет частотности через Yandex Wordstat API. И вот здесь важный момент: многие запросы, по которым нейросети дают развернутые ответы, имеют нулевую частотность в Wordstat. Почему? Потому что люди задают нейросетям гораздо более сложные и длинные вопросы, чем обычно вбивают в поисковую строку. Но нейросеть разбивает такой вопрос на простые запросы и ищет информацию по каждому из них.​

Вместе с ключевыми фразами система собирает LSI-термины (Latent Semantic Indexing) — дополнительные слова, которые должны присутствовать в тексте для полного раскрытия темы. Например, для запроса «курсы по нейросетям» LSI-терминами будут слова «онлайн», «ChatGPT», «промпты», «обучение». Эти термины система извлекает из хвостов запросов в Wordstat, убирая повторы.​

Анализ присутствия в нейросетях

Следующий этап — проверка, есть ли вообще нейроответы по собранным ключевым словам. «Тунец» отправляет каждый запрос в Яндекс, Google, ChatGPT и Perplexity, фиксируя наличие или отсутствие AI-ответа. Если ответ есть, система собирает список доменов, которые использовались как источники информации.​

Здесь происходит магия: мы видим, какие именно площадки доминируют в нейроответах по вашей тематике — это может быть Хабр, VC, Пикабу, профильные СМИ или сайты конкурентов. 

Дополнительно «Тунец» анализирует пересечения доменов между нейросетями: если один и тот же сайт используется как источник одновременно в Perplexity, ChatGPT и Яндекс Нейро, это сильный сигнал высокого «нейроавторитета». Такие площадки становятся приоритетными для размещения контента, поскольку именно они максимизируют шансы попасть в ответы сразу нескольких AI-систем и напрямую влияют на формирование контент-плана.

Почему нейросети могут игнорировать сильные сайты

Даже с хорошими позициями в классическом поиске и высоким доверием домена сайты часто не попадают в источники нейросетей просто потому, что страница «неудобна» для AI. Чтобы это понять и формализовать, в «Тунце» есть отдельный этап проверки страницы под E-E-A-T и нейроавторитетность.

Задача данного шага — ответить на вопрос — будет ли нейросеть считать конкретную страницу надежным источником, который подходит для цитирования в ответе? На этапе E-E-A-T система анализирует страницу по набору сигналов, которые регулярно встречаются у сайтов, используемых нейросетями как источники:

  • наличие автора и информации об экспертизе,

  • указана ли дата публикации или обновления,

  • есть ли внешние источники и ссылки на первоисточники,

  • присутствует ли краткое резюме (TL;DR), которое легко извлекается в summary,

  • есть ли структурированные блоки вроде FAQ,

  • насколько структурирован сам текст (заголовки, списки, таблицы),

  • общий уровень доверия домена (Domain Rating).

Каждый из перечисленных пунктов — это сигнал, который нейросети используют, чтобы быстро оценить надежность страницы. Этап E-E-A-T-анализа нужен именно для этого:

  • быстро показать, каких сигналов не хватает странице,

  • превратить абстрактное «нужно повысить доверие» в конкретный список доработок,

  • понять, имеет ли смысл продвигать страницу дальше, или сначала нужно привести её в формат, понятный нейросетям.

Как это используется дальше? Результаты проверки напрямую влияют на следующие шаги:

  • при генерации контент-плана система учитывает, какие элементы доверия нужно встроить в будущие материалы,

  • при выборе площадок для размещения контента приоритет получают сайты, которые уже соответствуют E-E-A-T-критериям, 

  • при повторных проверках можно отслеживать, как изменения в структуре страницы влияют на появление в нейроответах.

Фактически, это точка, где GEO перестаёт быть интуитивным процессом и превращается в управляемую понятную задачу.

На этом же этапе проверки «Тунец» не просто показывает, что не так, а формируе�� конкретные рекомендации по доработке страницы, ранжированные по приоритету.

Каждая рекомендация сопровождается объяснением почему это важно для нейросетей и оценкой уверенности AI.

Проверка позиций в классической выдаче

Важный нюанс: чтобы попасть в ответы нейросетей, нужно присутствовать в индексе обычных поисковых систем. Поэтому GEO-инструмент «Тунец» параллельно проверяет позиции ваших страниц в Яндексе, Google и Bing через Arsenkin Tools API. Это дает полную картину: где вы находитесь в классической выдаче и используют ли вас нейросети как источник.​

Интересно, что некоторые AI-системы, такие как Google AI Overviews, напрямую используют результаты обычного поиска для формирования своих ответов. Поэтому работа над классическим SEO остается важной частью GEO-стратегии продвижения.​

Генерация контент-планов и ТЗ

Финальный этап — создание технических заданий для копирайтеров. Система анализирует топ-5 страниц в Яндексе и Google по каждому ключевому запросу, извлекает их содержимое и с помощью нейросети создает summary: какие темы раскрыты, какая структура используется, какой средний объем текста, сколько заголовков, есть ли видео и изображения.​

На основе этого анализа «Тунец» генерирует подробное ТЗ, которое включает:

  • Рекомендованную структуру статьи с примерами заголовков H2.

  • Список обязательных SEO-ключей для включения в текст.

  • LSI-термины для естественного расширения семантики.

  • Рекомендованный объем (обычно 2000-3000 слов).

  • Список площадок, где нужно разместить контент для максимального эффекта​.

Последний пункт особенно важен. Если вы разместите экспертную статью только на своем сайте, нейросети могут не счесть его достаточно авторитетным. Но если та же статья появится на Хабре, VC или в профильном СМИ, шансы попасть в источники резко возрастают.​​

Реальные результаты и кейсы

Один из первых экспериментов мы провели для застройщика недвижимости. Задача была проста: добиться упоминаний компании в ответах нейросетей на запросы типа «новостройки в Омске», «ТОП застройщиков Омской области» и подобные.​

За две недели мы создали серию структурированных статей с четкими утверждениями, таблицами сравнений и ссылками на авторитетные источники. Эти материалы разместили на сайте клиента и нескольких внешних площадках с высоким доверием. Результат превзошел ожидания: несуществующая нигде ранее компания начала стабильно появляться в ответах Perplexity, Яндекс Нейро, ChatGPT и даже DeepSeek AI.​

Ключом к успеху стали несколько факторов:

  • Структурированность: нейросети любят четкую иерархию заголовков, маркированные списки, таблицы.

  • Конкретика: вместо расплывчатых формулировок — точные цифры, даты, характеристики.

  • Авторитетность площадки: размещение на доверенных ресурсах с высоким Domain Rating.

  • Внешние ссылки: цитирование других авторитетных источников повышает доверие к вашему материалу.

Монетизация и пользовательский опыт

С самого начала мы решили сделать прозрачную модель оплаты через внутренние монеты. Пользователь пополняет баланс, а система списывает средства поэтапно:​

  • Сканирование страниц и генерация ключей — самый дорогой этап, так как включает множество AI-запросов.

  • Проверка частотности в Wordstat — оплата за каждую проверенную фразу.

  • Анализ площадок в нейросетях — списание за каждую проверку запроса в 4-5 AI-системах.

  • Проверка позиций — оплата через Arsenkin Tools API.

  • Генерация контент-плана — итоговое ТЗ на основе всех собранных данных​.

Блок услуги

Действие / единица учета

Стоимость, монет

Сканирование

одного URL

40

одного запроса в одной нейросети

10

Проверка позиций

в Яндекс для одного запроса

1

в Google для одного запроса

1

Запросы

Проверка частотности одного запроса

1

Сбор LSI

1

Технические задания

Генерация до 10 тем статей

4

Создание финального ТЗ

150

Такой подход позволяет контролировать расходы и оплачивать только те функции, которые действительно нужны. Например, можно ограничиться только анализом ключевых слов или проверить позиции только для части страниц, отметив их галочками.

Важный момент UX: при создании проекта пользователь может не вводить поисковые запросы вручную — система генерирует их автоматически на основе содержимого страниц, экономя часы работы. При этом платформа не ограничивает ручной контроль: любые ключевые фразы можно добавить или отредактировать самостоятельно, если нужно проверить конкретные гипотезы или запросы.

Экономия времени и ресурсов при использовании «Тунца»

Этап работы

Ручной подход

Автоматизация в «Тунце»

Аудит страниц

30–60 минут на одну страницу

~30–60 секунд (загрузка + парсинг)

Сбор семантического ядра (Wordstat)

2–4 часа на проект

5–10 минут (API + обработка)

Анализ конкурентов

4–8 часов (анализ ~10 страниц)

15–30 минут

Подготовка ТЗ для контента

2–3 часа

5–10 минут (AI-генерация + форматирование)

Проект целиком (10 страниц)

50–80 часов

5–10 часов

Что дальше: планы развития

Разработка «Тунца» не останавливается. В ближайших планах несколько важных направлений:

  • Дополнительные нейросети. На подходе интеграция с DeepSeek и Claude.

  • Сейчас «Тунец» проверяет наличие страниц в индексе Яндекса и Google, в ближайших планах — проверка индексирования и позиций в Bing и Baidu, чтобы закрыть международные и азиатские рынки.

  • White-label решения. SEO-агентства смогут предлагать своим клиентам GEO-аналитику под собственным брендом, укрепляя конкурентные позиции на рынке.​

  • Автоматическая классификация площадок. AI будет определять тип каждого домена (СМИ, UGC-платформа, социальная сеть, корпоративный сайт, отзовик), чтобы пользователь мог быстро находить подходящие для размещения ресурсы.​

  • Генерация контента на основе ТЗ. Уже внедряем возможность автоматически создавать полноценные статьи на основе сформированного технического задания. После генерации контент будет проходить проверку на уникальность через сервис Text.ru, а также оценку рисков переоптимизации и качества текста по алгоритмам «Тургенева». Это позволит получать материалы, готовые к публикации и безопасные с точки зрения поисковых систем.

Новая эра поиска

Создание Тунца стало нашим ответом на то, насколько сильно изменился способ, которым люди ищут и получают информацию в интернете. Эпоха, когда достаточно было оптимизировать сайт под классические поисковики, уходит. На смену приходит многоуровневая экосистема, где нейросети становятся полноценными посредниками между контентом и пользователями.​

GEO платформа «Тунец» — это не замена классическому SEO. Лучшие результаты показывают сайты, которые одновременно ранжируются в топе Google и Яндекса и при этом регулярно цитируются нейросетями как авторитетные источники.​

По мере того как генеративный поиск занимает всё больший объем пользовательского внимания, инструменты для GEO-оптимизации станут обязательными в арсенале каждого маркетолога. Я верю и уже вижу, что будущее за систематичным и измеримым подходом к продвижению в нейросетях — не угадывание, а точная аналитика и данные о реальном поведении AI-систем.​

Потыкать тунца можно тут https://to-nets.ru/