Как стать автором
Обновить
7
10.9
Петр Трипольский @tripolskypetr

Backend разработчик

Отправить сообщение

Нужно уметь.

А давайте сделаем ту самую допэмиссию!

Инвестирование в создание контента на YouTube в условиях цензуры, копирайтинга и насыщения научпопом требует анализа с точки зрения "data capitalism", где контент выступает валютой, а внимание пользователей — ресурсом. Применим экономические концепции для прогноза.

1. Контент как валюта

Контент на YouTube — это средство обмена, за которое создатели получают внимание аудитории, конвертируемое в доход (через рекламу, подписки, спонсорство). Однако, как и в экономике, избыточная "эмиссия" контента (перепроизводство) ведет к инфляции данных:

  • Рынок перенасыщен: миллионы видео конкурируют за ограниченное внимание пользователей. По данным на 2025 год, на YouTube ежедневно загружаются сотни тысяч часов контента, а средний пользователь тратит около 40 минут в день на платформу.

  • Снижение ценности единицы контента: из-за обилия видео (особенно в популярных нишах, таких как научпоп) уникальность и вовлеченность падают. Видео должны быть короче, ярче и чаще, чтобы удержать внимание, что повышает затраты на производство.

2. Инфляция данных

  • Причины:

    • Низкий порог входа: любой может создать канал, что увеличивает объем контента.

    • Алгоритмы YouTube: предпочтение отдается вирусному, короткому или трендовому контенту, что снижает ценность глубокого научпопа.

    • Цензура и копирайтинг: ограничения на монетизацию (например, за "спорный" контент) и страйки за использование материалов снижают доходность.

  • Последствия:

    • Девальвация контента: видео в перенасыщенных нишах (научпоп, лайфстайл) теряют просмотры, так как аудитория распыляется.

    • Стагфляция: рост затрат на производство (качественный монтаж, графика, реклама) при стагнации доходов. Например, средний CPM (доход за 1000 просмотров) в 2025 году варьируется от $0,5 до $3 в зависимости от ниши и региона, но конкуренция снижает шансы на высокий охват.

3. Ликвидность инвестиций в контент

  • Риски:

    • Высокая конкуренция: научпоп-направление уже насыщено каналами (например, Kurzgesagt, Veritasium), и новым игрокам сложно выделиться без значительных вложений.

    • Цензура: YouTube усиливает контроль за контентом (например, за дезинформацию или политические темы), что может ограничить монетизацию.

    • Копирайтинг: использование чужих материалов (даже с лицензией) усложняет создание оригинального контента и повышает риск страйков.

    • Краткосрочность трендов: форматы и темы быстро устаревают из-за алгоритмов и предпочтений аудитории.

  • Возможности:

    • Нишевые темы: узкоспециализированный контент (например, квантовые вычисления или биоинформатика) может привлечь лояльную аудиторию с меньшей конкуренцией.

    • Кроссплатформенность: использование YouTube как части экосистемы (например, с Patreon, Substack, Telegram) для диверсификации доходов.

    • Локализация: создание контента на языках с меньшей конкуренцией (например, на русском или других языках СНГ) может быть более ликвидным.

    • Инновационные форматы: эксперименты с интерактивным контентом, AR/VR или интеграцией ИИ могут выделить канал.

4. Прогноз

  • Краткосрочная перспектива (1–2 года): инвестиции в контент могут быть ликвидными только при низких затратах и четком таргетинге на узкую аудиторию. Без значительного стартового капитала (на оборудование, маркетинг, команду) вероятность успеха низка.

  • Среднесрочная перспектива (3–5 лет): усиление цензуры и алгоритмической конкуренции приведет к дальнейшей девальвации массового контента. Успешными будут каналы с уникальным стилем или доступом к эксклюзивным данным/экспертам.

  • Долгосрочная перспектива: возможен переход внимания аудитории к новым платформам (например, децентрализованным аналогам YouTube), что потребует адаптации стратегий.

5. Экономический подход к стратегии

  • Диверсификация: не полагаться только на YouTube. Использовать другие платформы (TikTok, X, Rumble) и монетизацию (курсы, мерч, краудфандинг).

  • Оптимизация затрат: минимизировать расходы на производство, используя ИИ-инструменты для монтажа, сценариев или графики.

  • Анализ рынка: изучить тренды через инструменты вроде VidIQ или Social Blade, чтобы найти недооцененные ниши.

  • Инфляционная защита: создавать "вечнозеленый" контент, который сохраняет актуальность годами (например, фундаментальные научные темы).

6. Теоретический взгляд: Data Capitalism

Если контент — валюта, то:

  • Центральный банк: алгоритмы YouTube, регулирующие "эмиссию" (видимость) контента.

  • Инфляция: перепроизводство однотипного контента снижает его ценность.

  • Капитал: каналы с большой аудиторией становятся "корпорациями", поглощающими мелких игроков.

  • Кризис перепроизводства: перенасыщение контентом может привести к "краху" ниш, где зрители перестанут потреблять из-за усталости.

Вывод

Инвестировать в создание контента на YouTube в 2025 году ликвидно только при условии:

  1. Четкой нишевой стратегии.

  2. Минимизации затрат через ИИ и аутсорсинг.

  3. Диверсификации платформ и источников дохода.

  4. Готовности к высоким рискам из-за цензуры, конкуренции и алгоритмических изменений.

Без уникального подхода и капитала рынок научпопа и других популярных ниш близок к стагфляции. Если хотите разработать "второй том Капитала: Data Edition", начните с анализа внимания как ресурса и алгоритмов как регулятора — это основа экономики данных.

Так же, рекомендую посмотреть https://docs.docker.com/desktop/features/model-runner/

Это Docker Model Runner. Представьте будущее, где вам не то, что не нужно программировать, а не дадут писать код для RAG, так как это не безопасно. Только обучать модели.

RAG подразумевает tool_call, помимо оплаты генерации embedding.

- Это дороже в эксплуатации так как сама запись в RAG базу платная (генерация embeddings)

- Это дороже в программировании, так как это нужно программировать и администрировать в класическом понимании (DevOps, DBA)

- Это медленней на порядок, так как tool_calling подразумевает запуск LLM модели второй раз после получения ответа

- Это медленней, так как Embedding поиск подразумевает большой трафик памяти (2 миллиона записей будут обрабатываться 30 секунд)

- Это плохо применимо к русскому языку, так как nomic-embed-text релизнулся 2023-11-01, разве что делать вендор лок под яндекс

Fine tuning подразумевает, что думает сам ИИ, а не база данных

- Малому и среднему бизнесу дешего взять студента текстовика, можно и бесплатно

- Обновление дообучение модели можно автоматизировать скриптом

- Базу данных не нужно мониторить на предмет поломки, так как её нет: нейронка ничего не пишет на жесткий диск вовсе, а вся работает в оперативе видеокарты как stateless.

Чтобы был work-life balance бизнес должен масштабироваться. Книги нужно читать, наёмные сотрудники не будут это делать.

P.S. Прочитайте техническую документацию, там не много https://github.com/tripolskypetr/agent-swarm-kit

Есть ещё кое что, специалист Langchain это абсурд, так задача ИИ убить профессию программиста...

Чем торгует этот чат бот?
Чем торгует этот чат бот?

Проблема в том, что это книга... ПО на фреймворках до 2019 года спокойно пишет Grok без нужны изменений кода программистом в 99% случаев. А после релиза ChatGPT опенсорс умер, как минимум с точки зрения примеров кода в документации, и для того же Langchain код генерируется отвратительно

Балансируется event loop с очередью к api, vllm балансируется по аналогии, просто ip не хост машины а в локалке пк с видеокартами

https://github.com/vllm-project/vllm

Мышка не сможет прийти и нагадить, если её не пригласил алгоритм...

Уже тогда адресат спама считал себя чем-то особенным…

Очень интересно, на досуге чекну хеш суммы

Это бейт на коммент, говорят, для алгоритмов хорошо

Эти модели плохо работают для русского языка. Подробнее в статье

https://habr.com/ru/articles/892468/

Итого, что получилось:

1. command-a требует 64 гига оперативной памяти, у меня такой нет

2. command-r на машине с 16 гигабайтами оперативы дает ошибку Error: llama runner process has terminated: signal: killed

3. на машине с 32 гигабайтами оперативы command-r запустился, но model template в репо оллама настроен не верно и не вызывает инструменты должным образом

4. удалось найти зафикшенный темплейт по ссылке https://ollama.com/oybekdevuz/command-r

Попробую скачать, отпишусь в комментах. Купило то, что они позицинируют себя как единственную модель с фокусом в интеграции: то, что нужно, чат бот именно и ценен возможностью за тебя нажимать на кнопки

Модель Command-a весит 67GB, относительно Saiga/YandexGPT это очень много. Качаю по ссылке
https://ollama.com/library/command-a

Модель Command-a имеет 111b параметров, для меня это скорее минус, так как ноут точно не потянет, тут речь идет что и 4090 может не потянуть. У Command-R+ тоже 104B, что-то мне подсказывает, что если в 1 клик ни в Ollama ни в LMStudio не запустится, не имеет смысл тратить время.

А вот у Command-r без плюса всего 32B параметров, тут имеет смысл подумать, так как селф хостинг доступен как по цене, так и габаритам

https://huggingface.co/CohereForAI/c4ai-command-r-08-2024

Из галлюнов, она вызывает не существующие инструменты. LMStudio такое не фильтрует и кидает как текстовое сообщение

А при чём тут llama? На фото - deepseek

Информация

В рейтинге
622-й
Откуда
Москва, Москва и Московская обл., Россия
Дата рождения
Зарегистрирован
Активность

Специализация

Бэкенд разработчик, Фронтенд разработчик
От 3 000 $
JavaScript
TypeScript
React
Angular
NestJS
MobX
Адаптивная верстка
CSS-in-JS
SOLID
Qt