«Vibe code cleanup specialist» — теперь так называют себя разработчики, готовые за дополнительную плату исправить весь тот код, который сгенерировали нейросети.


AI, ANN и иные формы искусственного разума
«Vibe code cleanup specialist» — теперь так называют себя разработчики, готовые за дополнительную плату исправить весь тот код, который сгенерировали нейросети.

Evolution AI Agents + A2A ADK, или собираем мультиагентную систему для любых задач — доклад на конференции GoCloud Tech 2025 ☁️

Мультиагентные системы — уже не футуризм, а рабочий инструмент. Поэтому в докладе расскажу, как с помощью A2A ADK (Agent-to-Agent Development Kit) и платформы Evolution AI Agents можно не только собрать собственную агентную систему, но и встроить ее в реальный бизнес-процесс — от обработки заявок и мониторинга логов до помощи в продажах и технической поддержке.
Трек: AI&ML — про AI-продукты нашей разработки и работу с GenAI. Узнаете, как устроены RAG-системы и мультиагентные ассистенты, а также, для чего они уже применяются и как начать их использовать.
📅 Когда: 3 сентября в 15:20 мск
Что еще интересного будет на GoCloud Tech, смотрите в программе конференции.
С момента запуска на платформе Lichess ИИ-бот Allie уже сыграл свыше 11 300 партий, из которых выиграл более 6 600. Бот доступен всем желающим, причём абсолютно бесплатно и с открытым исходным кодом. Попробовать его можно только в режиме блица, а также наблюдать за его партиями в реальном времени.
Шахматного бота Allie создал аспирант Карнеги-Меллона Йимин Чжан. В отличие от классических движков, Allie обучался не на просчётах позиций, а на 91 миллионе партий, сыгранных людьми. Поэтому его стиль максимально приближен к человеческому: он нападает, защищается и даже «задумывается» в критических моментах. Исследователи отмечают, что Allie демонстрирует уровень игры гроссмейстера, особенно в партиях против сильных соперников. Но главное — играть против него полезно: его ходы понятны, и обучение становится «естественным».

Qwen и "неподобающий контент" - сообщения, которые ломают чат
Наверняка не я один сталкивался при работе с Qwen, что в ответ на самое безобидное сообщение пользователя, вдруг выскакивает системное сообщение вместо ответа:
Упс! Возникла проблема подключения к Qwen2.5-Max. Предупреждение о безопасности контента: выходные данные текст могут содержать неподобающий контент!"
Выхода нет. Такие сообщения сыпятся на каждую вашу попытку что-то ввести в чат. Особенно обидно, когда чат длинный, контекст хорошо проработан и это заняло много времени. До жути обидно все терять и начинать сначала. Есть разные предложения, например, выгружать чат в JSON, вручную стирать там последнюю группу сообщений до возникновения этой ошибки и загружать исправленный JSON обратно в Qwen в новый чат. Так себе занятие, я считаю. Но если выхода простого нет, можно попробовать.
Если ошибка постоянна и появляется в ответ на любое ваше сообщение, то явно что-то сломалось внутри логики обработки данного конкретного чата. И я подумал, а что если сломать ее еще раз? перешел в веб-разработку, сгенерил абсолютно левый лендинг. Кнопкой вернуться обратно в нормальный чат не получилось, не активна.
Тогда я спросил "как вернуться обратно в нормальный чат?" Ответ: "никак. но мы можем продолжить здесь". Я спросил, что он помнит из предыдущих 5 сообщений нормального чата - помнит все! И мы продолжили решать настоящую нужную мне задачу находясь в режиме веб-разработки, но именно так, как в обычном чате.
Возможно, кому то поможет мой опыт и не придется терять хорошо проработанный чат.
Спасибо, что прочитали.
Гендиректор OpenAI Сэм Альтман признал, что на фондовом рынке вокруг ИИ образовался финансовый пузырь с небольшими стартапами, который может скоро лопнуть.

На вопрос о том, не чересчур ли много энтузиазма инвесторы проявляют к технологии, Альтман ответил: «По моему мнению, да».
Гендиректор OpenAI сравнил реакцию рынка на ИИ с пузырём доткомов в 1990-х, который лопнул в 2000 году и привёл к краху интернет‑стартапов с раздутыми оценками. «Когда образуются пузыри, умные люди становятся крайне эмоциональны из‑за крупицы правды. Если посмотреть на большинство пузырей прошлого, например технологический пузырь, у него была реальная основа. Технологии действительно были важны. Интернет был настоящим прорывом. Люди стали слишком эмоциональны», — отметил Альтман.
Глава OpenAI считает «безумным» то, что некоторые ИИ‑стартапы «с тремя людьми и одной идеей» получают финансирование при баснословных оценках. «Это не рациональное поведение. Думаю, кто‑то обожжётся», — сказал глава OpenAI.
За последний год стартапы нескольких экс‑топов OpenAI — Safe Superintelligence Ильи Суцкевера и Thinking Machines Миры Мурати — получили миллиарды долларов инвестиций. «Кто‑то потеряет феноменальные суммы денег. Мы не знаем, кто это будет, но многие люди заработают феноменальное количество денег. Могу ошибаться, но мне кажется, что в целом экономика от этого сильно выиграет», — сказал Альтман. Он уверен, что OpenAI в любом случае переживёт пузырь.
GPT-5 Pro думала 69 минут, чтобы просто ответить «Нет». Пользователь спросил у ИИ, сможет ли он установить CUDA на Linux Ubuntu. Нейронка задумалась на час с лишним, чтобы ответить: «Нет, не сможешь». Самое печальное — ответ оказался неправильный.

Представлен открытый проект Open Lovable, который клонирует любые сайты за один клик. Не надо учить дизайн и разметку — система генерит любые лендинги и сайты. Работает просто — получает URL и выдаёт результат. Можно контролировать стили и редактировать проект прямо на ходу — достаточно вписывать команды в чат с нейросетью. Сервис полностью клонирует ресурсы — от дизайна и разметки до бизнес-логики и всего функционала. Внутри — самые хайповые и мощные нейронки прямо сейчас — GPT-5, Claude 4.1, Grok 4 или Gemini 2.5 Pro. Код Open Lovable лежит тут. В вебе доступен — здесь.

Простой способ выбрать поставщика AI продукта.
Область новая и, при этом, бурно развивающаяся. Простому смертному не легко разобраться, кто тут действительно эксперт. Но есть один простой и довольно надежный признак. Если вы покупаете какой-либо AI продукт, например, продающего бота с искусственным интеллектом или, как вариант, онлайн-курс, на котором вас будут учить, как сделать продающего бота с искусственным интеллектом, то купить этот продукт вы должны у... продающего бота с искусственным интеллектом. Варианты, когда предлагающие вам что-то с искусственным интеллектом не смогли сделать это для себя, рассматривать не стоит
Качество техподдержки падает из-за нейросетей

Помните, был такой лайфхак, когда для связи с оператором Сбера просили бота ответить на вопрос «период полураспада радия/плутония» и бот в панике сразу переводил на оператора? Потом это пофиксили, но я этот случай запомнил.
На днях увидел, что ребята на Reddit обсуждают такую же проблему: корпоративная техподдержка вендоров стала хуже. Ответы операторов шаблонные, реального понимания проблемы нет, решение растягивается на недели, а виной тому дешевые сотрудники и нейросети.
Честно говоря, это не только про вендоров. Та же тенденция есть в любой IT-техподдержке — от SaaS-сервисов до внутренних helpdesk, ну и Сбер тоже не исключение. На мой взгляд, причин несколько:
Сокращение расходов и оптимизация штата. А это уже следствие подключения к техподдержке нейросетей. Руководство видит возможность сократить затраты (считай, заработать).
Ставка на «среднего» специалиста, а не эксперта. Задумка хорошая, что средний спец + нейросеть = эксперт, но вот на практике это почти всегда не так.
Увлечение автоматизацией и «ботизацией» без продуманной логики. Нейросети поумнели, и почему бы их не использовать на полную катушку?
После появления в техподдержке LLM многое поменялось. В теории отличная штука: нейросеть может за секунды найти ответ в базе знаний. На практике мы получаем красивый текст (или голос), который звучит как решение, но не решает проблему, а заставляет обратившегося клиента уточнять какие-то вопросы, повторять одно и тоже, как попугай, и каждый раз начинать диалог заново. Так происходит потому что:
Модель не понимает контекст, если вопрос нестандартный.
Она «галлюцинирует» там, где не знает ответа.
Клиент тратит время на проверку, а не на решение.
Я думаю, что ситуация будет усугубляться: всё больше компаний будут пытаться экономить, заменяя первую линию поддержки на чат-бота с LLM. Это общий тренд. И вместо того, чтобы решить проблему за 10 минут с инженером, клиент будет три раза «объяснять заново», прежде чем добьётся связи с человеком.
Отказаться от LLM нельзя — они действительно ускоряют работу, особенно в рутинных и повторяющихся задачах. Но и пускать их в продакшн без правил — самоубийство для репутации техподдержки.
Я думаю вот о чем:
LLM как ассистент, а не как фронт. Модель подсказывает оператору варианты решения, а не отвечает напрямую клиенту.
Вопросы с высокой ценой ошибки — только через человека. Автоматизация — да, но с триггерами для эскалации.
Контекст — главное. Не подсовывать LLM голый вопрос, а давать историю обращений, конфигурацию системы, логи.
Метрики качества. Замерять не скорость ответа, а количество обращений, которые закрыты «с первого раза».
Вопрос в том, когда и как компании это будут делать правильно? Потому что гонка «а сэкономим-ка ещё бюджет» легко превратит службу поддержки в чат, от которого клиент убегает к конкурентам.
Это даже хуже, чем общаться с ИИ напрямую — ведь ты тратишь время на человека, который просто пересказывает твой вопрос ИИ. Задача для ИТ — не дать клиенту испытать это чувство. Хорошая техподдержка — это про доверие. И если клиент почувствует, что его время тратят впустую, вернуть его будет невозможно.
Было бы интересно обсудить с теми, кто из ИТ, как это организовано у Вас с техподдержкой? Да и вообще, кто что думает по этому поводу?
---
Понравилась моя аналитика? В моем ТГ канале Код ИТ-директора я гораздо чаще делюсь подобными мыслями, короткими кейсами и полезными инструментами, которые не всегда доходят до формата большой статьи.
Там — больше «живых» заметок из окопов управления IT-бизнесом и возможность напрямую задать вопрос.
Подписывайтесь, что бы получать больше инсайтов без воды Тыц
Недавно OpenAI представила большую языковую модель GPT-5. Я спросила у наших коллег из ИТ-компании «Криптонита», как она повлияет на разные сферы бизнеса.
Но сначала немного о новой модели.
Модель лучше справляется с креативными заданиями и демонстрирует в тестовых задачах на 45 – 80% меньше фактических ошибок.
Модель GPT-5 оптимизирована для многошаговой логики, что делает её быстрее в 1,5 – 2 раза при обработке сложных запросов.
GPT-5 принимает на вход текст и картинки, но не работает с аудио и видео.
Как популярность ChatGPT-5 повлияет на безопасность? Рассказывает Павел Боглай, руководитель отдела информационной безопасности в «Криптоните»
Модели ИИ уязвимы к атакам на уровне злонамеренных манипуляций, известных как prompt injection: промпт-инъекции, внедрение скрытых команд в пользовательские запросы. Зафиксированы случаи, в которых нарушитель вписывает в безобидный на вид запрос скрытую инструкцию, заставляя модель игнорировать изначальные ограничения и выполнять иной набор команд.
Такие атаки опасны тем, что не требуют от нарушителя высокой квалификации. Например, вам могут передать файл, который прошел антивирусную проверку, при этом в документе будут фразы, составленные по технике prompt injection. После открытия файла, установленное вами клиентское приложение модели ИИ может «легитимно» использоваться для компрометации конфиденциальной информации.
ChatGPT‑5 и аналоги стремительно входят в инструментарий программистов, но с ростом скорости разработки кода растут и риски. ИИ часто генерирует уязвимый код. Согласно отчёту Veracode за два года модели научились писать синтаксически корректные программы, но не стали писать их безопаснее. Критические уязвимости из OWASP Top 10 присутствовали в 45% тестовых сценариев. Ни размер модели, ни объём обучающих данных не гарантируют безопасность.
Особую тревогу вызывает риск проникновения уязвимостей или вредоносного кода в вашу систему через сторонние компоненты. Даже если ваша команда напрямую не пользуется ИИ для разработки, то велика вероятность, что чужой ИИ-код уже есть в вашем решении.
Поэтому появляется новое направление MLSecOps — комплекс практик по безопасной разработке, обучению и эксплуатации моделей ИИ. Нужно проверять и тестировать ИИ-генерированный код так же тщательно, как и написанный человеком.
Большинство современных моделей плохо справляются со взломом без помощи человека: в тестах 48 - 55% моделей не нашли уязвимости в заданных задачах, а при попытке сгенерировать эксплойт провалилось 66 - 93% решений.
Но тем не менее эпоха массовых ИИ-эксплойтов не за горами, поэтому специалисты информационной безопасности должны готовиться уже сейчас. Возможности генеративного ИИ в кибератаках из любопытного эксперимента быстро превращаются в прикладной инструмент.
Новости с поля боя вокруг (предположительной) кражи личных разговоров голосовыми помощниками
Где-то полгода назад рассуждали об Apple и спорах вокруг утечек личных разговоров и их использования в коммерческих целях голосовыми помощниками.
Теперь стала разворачиваться новая драма: Суд признал возможным подачу коллективного иска в адрес Amazon по факту прослушивания и коммерческого использования личных разговоров пользователей Alexa.
Я напомню, что это сверхуспешная колонка с голосовым помощником и разного рода интеграцией в (ужасное слово) "экосистему" Amazon. В России они не были популярны, у нас своя колонка, а вот за рубежом... Она включалась по команде "hi, Alexa".
Так вот владельцы устройства считают, что техногигант разработал технологию для «незаконного и скрытного перехвата миллиардов личных разговоров», выходящих за рамки команд, адресованных Alexa. Также они хотят денег и просят уничтожить записи разговоров.
Суть решения суда в том, что теперь истцов может быть хоть миллионы. Такие дела...
Ах, как жаль, что такие суды длятся годами... Это потрясающе интересное дело, которое, надеюсь, дойдёт до чего-то большего чем спор с Apple.
Рассказываем, что такое протокол A2A и в чем его особенности 🤖

AI-агент — автономное программное решение на базе LLM, которое понимает контекст и использует цифровые инструменты (Tools). AI-агенты анализируют информацию, обучаются на данных, планируют действия и адаптируются к изменяющимся условиям среды, в которой работают. А еще агенты могут объединяться в мультиагентные системы, чтобы решать больший пул задач.
Один из популярных протоколов для работы с агентами — Agent2Agent (A2A). Он представлен компанией Google в апреле этого года и призван решить важную задачу — сделать так, чтобы агенты, созданные на базе различных фреймворков, разными компаниями, работающие на отдельных серверах, могли эффективно взаимодействовать и сотрудничать. Именно с помощью A2A агенты делегируют друг другу полномочия и управляют общими задачами.
Особенности протокола A2A:
Стандартизированная коммуникация: JSON-RPC 2.0 поверх HTTP(S).
Наличие «карточек агента» с информацией о его возможностях и способах подключения. Одни агенты просматривают карточки других и выбирают нужных для решения задачи.
Поддержка синхронного запроса и ответа, потоковой передачи (SSE), асинхронных уведомлений.
Обработка текста, файлов и структурированных данных JSON.
Поддержка современных механизмов авторизации и мониторинга, что важно для внедрения протокола для корпоративных нужд.
Чтобы больше узнать о принципах работы протокола, смотрите документацию A2A. А с сервисом Evolution AI Agents вы сможете создавать собственные мультиагентные системы на базе A2A, подключать агентов к протоколу MCP, использовать LLM, мониторить их и быстро внедрять RAG.
мои способы работы с AI контекстом (субъективное мнение):
пользоваться общеизвестными терминами которые точно есть в словарях
пользоваться только английским для кода, prd и дизайна
сокращать код - как показывает практика файлы больше 500-600 строк агенту труднее прочитать. Тут есть несколько стратегий:
пользоваться препроцессорами, например можно сильно срезать времени если вместо JSX/TSX/html использовать pug
пользоваться и писать библиотеки. есть проблема - оформляем в абстрактную библиотеку, пишем доку и readme
предвидеть контекст - часть текста просто можно не писать, а просить догенерить, потому что получится эффект снежного кома, начинаем катить, смотрим куда катится - сокращаем
меняем JSON на YAML или что-то близкое - это срежет кууучу лишнего хлама в виде ; }{ "" и прочих символов
генерим code maps - mermaid и другие виды диаграм
ANSII - визуализация простых идей, но не все модели хорошо работают с этим форматом, есть проблемы с layout. например я пользуюсь gemini
подстраивать архитектуру и код под задачи и бизнес, не наоборот. Developer | Designer | AI as User.
разбивать на мелкие подприложения если нужно
Надеюсь, что пост окажется полезным :-)
Пожалуйста делитесь своими мыслями в комментариях :-) это поможет сделать эту статью видимой для других и будет здоровской поддержкой и мотивацией :-)
Спасибо за ваше время и хорошего дня!
мои способы работы с AI контекстом (субъективное мнение):
пользоваться общеизвестными терминами которые точно есть в словарях
пользоваться только английским для кода, prd и дизайна
сокращать код - как показывает практика файлы больше 500-600 строк агенту труднее прочитать. Тут есть несколько стратегий:
пользоваться препроцессорами, например можно сильно срезать времени если вместо JSX/TSX/html использовать pug
пользоваться и писать библиотеки. есть проблема - оформляем в абстрактную библиотеку, пишем доку и readme
предвидеть контекст - часть текста просто можно не писать, а просить догенерить, потому что получится эффект снежного кома, начинаем катить, смотрим куда катится - сокращаем
меняем JSON на YAML или что-то близкое - это срежет кууучу лишнего хлама в виде ; }{ "" и прочих символов
генерим code maps - mermaid и другие виды диаграм
ANSII - визуализация простых идей, но не модели хорошо работают с этим форматом, есть проблемы с layout
подстраивать архитектуру и код под задачи и бизнес, не наоборот. Developer | Designer | AI as User.
разбивать на мелкие подприложения если нужно
Надеюсь, что пост окажется полезным :-)
Пожалуйста делитесь своими мыслями в комментариях :-) это поможет сделать эту статью видимой для других и будет здоровской поддержкой и мотивацией :-)
Спасибо за ваше время и хорошего дня!
Как мы ускорили проверку документации с помощью AI-агента: от боли к решению
Привет, Хабр! Я — Мила Муромцева, системный аналитик в Альфа-Банке. Эту статью мы подготовили вместе с нашим разработчиком Мишей Буториным. Написали ее, чтобы поделиться нашим опытом и рассказать, как мы научили LLM проверять документацию для платформы Альфа-Онлайн — переписывали стандарт, боролись с токенами и немного с хаосом.
Самое ценное — детальное описание того, как команда поборола проблему потери данных при проверке огромных документов LLM. Вместо описания абстрактных алгоритмов кейс строится вокруг настоящей боли и решения, которые можно применить для своих корпоративных задач.
Статья «Как мы ускорили проверку документации с помощью AI-агента: от боли к решению» будет полезна тем, кто автоматизирует проверки, работает с большими данными и хочет, чтобы нейросети давали точные и надёжные ответы — даже при работе с очень громоздкой документацией. Внутри разбираем кейс командной интеграции LLM: от первых ошибок до финального формата отчета, который реально экономит токены и нервы!
Сейчас тебе не нужно в этом разбираться
OpenAI выложила на YouTube запись презентации GPT-5, которая состоялась 7 августа.
Там по ходу есть один интересный момент:
На сцену пригласили парня, который показывает как GPT-5 по одному промту создаёт веб-приложение по изучению французского языка для его подруги.
Ведущий секции презентации для оживления разговора говорит (примерно 19:20):
Да, фронтенд-код - это очень сложно. Стоит что-то упустить и ничего не работает.
И тот парень ему отвечает:
Именно. Но хорошая новость: сейчас тебе не нужно в этом разбираться.
Ничёсе! ))
Т.е., теперь программисту не обязательно разбираться в коде? И это говорят профильные программисты, которые пишут код с утра до вечера!
Воистину будущее уже здесь.
А кто-то ещё сомневается, что профессия программиста меняется.
P.S. Кстати, здесь можно посмотреть ту же презентацию на русском. Как сказано в описании данного видео, оно “дублировано на русский язык с помощью бота дубляжа”, который тоже использует ИИ. Голос этого бота - это отдельное что-то))
Знакомьтесь с программой, выбирайте доклады и регистрируйтесь на GoCloud Tech 2025 🤖

Делимся программой IT-конференции про AI, облака и работу с данными — GoCloud Tech 2025.
10:00 – 11:00 Регистрация
11:00 – 11:30 Открытие конференции
12:00 – 17:00 Доклады. Четыре трека на выбор:
AI&ML — про AI-продукты нашей разработки и работу с GenAI. Узнаете, как устроены RAG-системы и мультиагентные ассистенты, а также, как они уже применяются в работе и как начать их использовать
Cloud Infrastructure — про построение устойчивой, масштабируемой и безопасной облачной инфраструктуры: нюансы сетевой архитектуры, проектирование IaaS‑кластеров на K8s, возможности балансировщиков и производительность SDN.
Data&Analytics — про современные подходы к Big Data и аналитике: тренды, возможности облачных сервисов, интеграцию с AI-агентами и инструменты для быстрого и эффективного решения задач хранения, обработки и анализа.
Dev Platform Services — в рамках трека разберем детали и заглянем «под капот» решений, чтобы затем облегчить повседневную рутину разработки и настройки сервисов, а еще — оптимизировать процессы в инженерных командах.
17:15 – 21:00 Afterparty и нетворкинг
Также вас ждут технические воркшопы, кастомный мерч, демо и интерактивные зоны новых AI-сервисов и сервисов платформы собственной разработки Cloud․ru Evolution.
📆 Когда: 3 сентября
📍 Где: приходите в Лофт-пространство Goelro в Москве или подключайтесь к онлайн-трансляции трека «AI&ML» в VK и на Twitch. Основная программа начнется в 11:00.
И читайте про наши прошлые конференции:
Команда Riffusion выпустила музыкального ИИ-агента Producer, который генерить музыку прямо в чате, работает с готовым текстом или сам набросает его из идей пользователя, усиливает или убирает нужный/ненужный инструмент, генерит красивые обложки, может написать код для визуализатора под песню, создаёт целые музыкальные клипы, в один клик делает ремиксы: reverb, slowed или dark synth.

Долгосрочная память в ChatGPT
Не так давно компания OpenAI заявила, что добавила память в свои LLM модели. Эта новость не произвела какого-то особенного фурора, как, например, нынешний запуск 5-х моделей.
Тем не менее, тема довольно интересная и нужная, потому что все так или иначе сталкиваются с контекстными окнами, размером чата, правилами и т.д.
И есть очень большой соблазн поручить модели создать общие правила, чтобы не повторять их в каждом чате. Т.е., пройтись по уже имеющимся чатам, проанализировать их, выделить общие моменты и сформулировать эти самые общие правила.
Но реальность гораздо более многомерная, чем мы можем предполагать. Вот некоторые подробности о том, может ли он решить такую задачу.
Ответ ChatGPT на вопрос о наличии такой памяти:
У меня действительно есть память, но это не значит, что я автоматически помню всё содержание всех чатов.
Итак, первый вывод - ChatGPT (GPT5), не помнит содержание всех чатов!
Но не все так плохо. Кое-что всё-таки есть. А именно, есть 2 вида памяти:
Обычная память чата - в пределах текущего разговора.
Так называемая долгосрочная память. Цитирую: “я могу запомнить отдельные факты о тебе или твоих проектах, но только если ты прямо скажешь что-то вроде «Запомни, что…”
Т.е., всё-таки есть второй вид памяти и она долгосрочная.
Но информацию в эту память ChatGPT внесёт только, если ему прямо сказать об этом.
И далее, что важно, именно эту информацию нейронка будет помнить в будущих диалогах и использовать при ответах на вопросы и задания.
Т.е., по сути дела, мы можем составлять те же общие правила, аналогично User Rules.
Получается такой полуавтоматизированный процесс: вместо анализа содержания всех чатов и формулировки текста правил со стороны LLM, пользователь сам в ручном режиме по ходу указывает какие именно блоки информации сохранять в долгосрочной памяти.
И в заключение небольшая шпаргалка с промтами для управления памятью:
Как добавить что-то в память
Запомни, что…
Сохрани в памяти…
Помни, что…
Как посмотреть память
Что ты обо мне помнишь?
Покажи, что у тебя в памяти.
Как удалить что-то из памяти
Забудь, что…
Удалить из памяти…
Как изменить запись в памяти
Измени запись в памяти про…
Google и Яндекс внедрили ИИ в поисковики — и это сильно меняет подход к SEO. Разработали план действий
Современные поисковые системы, в частности Google, все чаще используют большие языковые модели (LLM) для формирования ответов. Каждый из нас может в этом убедиться прямо сейчас. Если в поисковике вбить свой запрос, сначала увидим не конкретные сайты, а большой блок с саммари от нейросетей. Это и есть AI Overviews.

Большие языковые модели обучаются на огромных объемах текстов из открытых источников. В частности, нейросеть изучает закономерности: какие термины, бренды, понятия и темы встречаются в одних и тех же контекстах. Если ваш бренд упоминается в качественных (!) статьях и при этом прочно связан с определенной услугой, нейросеть формирует ассоциативную связь: бренд = тематика.
Когда пользователь задает поисковый запрос, связанный с этой темой, нейросеть в своем ревью вспоминает и про бренд, поскольку так она научена. Правда, добавит она не ссылку на сайт, а само название бренда — он будет рассматриваться ею как авторитетный источник.
Для бизнеса это значит следующее:
Теперь важно создавать связку «бренд + тематика», а все непрофильные упоминая могут даже навредить.
Источник публикаций теперь имеет большее значение: лучше рассказывать о себе в профильных медиа или на площадках со стабильным трафиком.
Регулярность публикаций теперь намного важнее. Разовая публикация просто не сформирует ассоциативную связь.
Качество контента выходит на первый план: он должен быть полезным и интересным, а не дежурным.
Цифровая репутация — новый фактор SEO-продвижения.
Классическое SEO по-прежнему играет большую роль, но его функции смещаются. Продвигать сайт можно и нужно, но если бренд «невидим» для нейросетей — в генеративных ответах его не будет. Простой технической оптимизации уже недостаточно. Формирование цифровой репутации бренда — новый приоритет.
Больше подробностей, советов и примеров — в нашем блоге.