Привет, я Дима. Больше пяти лет я проработал продактом в инфлюенс-техе — той самой сфере, где бренды охотятся за блогерами, договариваются о нативках, а потом недели тратят на согласование сторис с логотипом под углом 45°.
Когда я начинал, всё строилось на людях. Мы вручную искали микрокреаторов в соц.сетях, писали им в директ, собирали Excel-таблицы с охватами. UGC (user generated content) был честным, сырым, живым. Бренды хотели «человечности».
Потом пришли платформы автоматизации — Influence, HypeFactory, LabelUp. Они научились находить блогеров по метрикам: ER, гео, возраст, тональность. Контент стал потоковым. Кампании — предсказуемыми. Всё шло к тому, чтобы заменить хаос системой. Но человеческий фактор оставался: блогеры срывали сроки, писали тексты с ошибками, теряли файл на телефоне.
Если интересно как создавать UGC-контент для рекламы чего угодно, то в этом канале выпустили подробный авторский гайд, с которым получатся идеальные реалистичные генерации.
И вот в 2022-м всё резко качнулось. Вышел Stable Diffusion.
Впервые стало реально сгенерировать картинку «девушка держит чашку кофе в утреннем свете» без фотографа и модели. Тогда это казалось игрушкой. Никто не воспринимал ИИ как угрозу контент-рынку. Мы просто добавляли такие картинки в презентации, чтобы “сэкономить сток”.

А потом наступил 2023-й. И в ленте соц.сети с картинками внезапно появилась она — Aitana Lopez. Розовые волосы, идеальные пропорции, легкая небрежность на снимках, тысячи подписчиков, бренды в комментариях. Испанская фитнес-модел��, блогер, вроде бы настоящая. Только она не существовала...
Aitana была полностью создана ИИ-моделью из агентства The Clueless. Не CGI-аватар, не рекламный персонаж, а симуляция блогера: эмоции, позы, тексты, реакции. Алгоритмы генерировали кадры под актуальные тренды, а посты писали копирайтеры, имитируя стиль живого человека.
Сначала все решили, что это маркетинговая акция. Потом — что “просто эксперимент”.
А потом у Aitana появились реальные коллаборации с брендами одежды и косметики.
Да, у блогера-фантома были реальные рекламные контракты.
Тогда многие из нас в индустрии начали чесать затылки. Если аудитория реагирует на синтетического персонажа как на живого, где проходит граница между контентом и симуляцией?
В тот же год появились десятки “aitan” по всему миру. Кто-то делал виртуальных музыкантов, кто-то фэшн-инфлюенсеров, кто-то просто “красивых людей” для рекламы. И параллельно с этим — Runway и Pika позволили оживлять статику.
Я помню, как на встрече один бренд-менеджер сказал:
— А давайте не снимать обзор, а просто сгенерируем девушку, которая расскажет о шампуне?
Мы посмеялись. Тогда это звучало как шутка.
В 2024-м смеяться перестали.
Runway Gen-2, Pika, HeyGen, Synthesia, D-ID — все эти инструменты сделали видео-генерацию доступной. Можно было загрузить текст и получить ролик с “говорящей головой”, которая моргает, улыбается, даже дышит. Поначалу выглядело немного “зомби-подобно”. Но темпы улучшения поражали.
К концу года бренды начали экспериментировать:
тестировать анонимных UGC-аккаунтов,
снимать видео с синтетическими лицами,
писать сценарии под ИИ-видео, не под живых людей.
Точка невозврата наступила, когда OpenAI показала Sora, а теперь — Sora 2. Полное видео из текста. Без актёров. Без камеры. Без монтажа.
Я смотрел демо и чувствовал лёгкое дежавю: то же ощущение, как когда впервые услышал “автопилот в Tesla”. Понимаешь, что технология ещё сырая, но направление уже задано, и назад никто не пойдёт.
Sora делает то, что раньше считалось главной фишкой UGC — реализм человеческого присутствия. Микродвижения, дыхание, текстура кожи, отражения света. Это уже не “анимация”. Это симуляция реальности.
UGC-рынок всегда был про доверие. Но доверие можно эмулировать. ИИ-модели обучаются на миллиардах видео TikTok, ловят паттерны речи, темп, структуру, даже акценты. Промт “парень из провинции рассказывает, как выбрать недорогой ноутбук” — и ты получаешь абсолютно правдоподобный ролик.
Это не просто автоматизация. Это новая форма авторства. Теперь автор — тот, кто придумывает промт, а не тот, кто стоит в кадре.
Я недавно общался с ребятами из агентства — у них десятки “виртуальных инфлюенсеров” на разных языках. Под каждым — ИИ-текст, синтетический голос и видео, сгенерированное под бренд. Обычный зритель не отличит. Они говорят: “Мы не обманываем, мы оптимизируем”. И я понимаю, о чём они.
Тренд последних лет читается так:
2020–2021 — блогеры → личный бренд.
2022–2023 — блогеры → конвейер контента (автоматизация).
2024–2025 — блогеры → промт-инженеры, режиссёры ИИ.
Контент перестаёт быть “производством”, он становится проектированием внимания. Блогер нового поколения не держит телефон, он пишет сценарий для нейросети. UGC становится синтетическим — но остаётся “человечным” на уровне идеи.
И если раньше я думал, что нейросети “заменяют блогеров”, то теперь вижу — они расширяют их. Обычный человек с фантазией может создать контент уровня продакшена, не выходя из дома. Главное — знать, что написать.
И вот тут появляется новая профессия: prompt-creator. Не видеограф, не режиссёр, не блогер. А человек, который умеет описывать сцену так, чтобы ИИ создал эмоцию.
Будет ли рынок старых блогеров умирать? Нет. Но он уже перестал быть единственным.
Как когда-то фотография не убила живопись, но изменила её навсегда.
