Петр Трипольский @tripolskypetr
Backend разработчик
Информация
- В рейтинге
- 622-й
- Откуда
- Москва, Москва и Московская обл., Россия
- Дата рождения
- Зарегистрирован
- Активность
Специализация
Бэкенд разработчик, Фронтенд разработчик
От 3 000 $
JavaScript
TypeScript
React
Angular
NestJS
MobX
Адаптивная верстка
CSS-in-JS
SOLID
Qt
Нужно уметь.
А давайте сделаем ту самую допэмиссию!
Инвестирование в создание контента на YouTube в условиях цензуры, копирайтинга и насыщения научпопом требует анализа с точки зрения "data capitalism", где контент выступает валютой, а внимание пользователей — ресурсом. Применим экономические концепции для прогноза.
1. Контент как валюта
Контент на YouTube — это средство обмена, за которое создатели получают внимание аудитории, конвертируемое в доход (через рекламу, подписки, спонсорство). Однако, как и в экономике, избыточная "эмиссия" контента (перепроизводство) ведет к инфляции данных:
Рынок перенасыщен: миллионы видео конкурируют за ограниченное внимание пользователей. По данным на 2025 год, на YouTube ежедневно загружаются сотни тысяч часов контента, а средний пользователь тратит около 40 минут в день на платформу.
Снижение ценности единицы контента: из-за обилия видео (особенно в популярных нишах, таких как научпоп) уникальность и вовлеченность падают. Видео должны быть короче, ярче и чаще, чтобы удержать внимание, что повышает затраты на производство.
2. Инфляция данных
Причины:
Низкий порог входа: любой может создать канал, что увеличивает объем контента.
Алгоритмы YouTube: предпочтение отдается вирусному, короткому или трендовому контенту, что снижает ценность глубокого научпопа.
Цензура и копирайтинг: ограничения на монетизацию (например, за "спорный" контент) и страйки за использование материалов снижают доходность.
Последствия:
Девальвация контента: видео в перенасыщенных нишах (научпоп, лайфстайл) теряют просмотры, так как аудитория распыляется.
Стагфляция: рост затрат на производство (качественный монтаж, графика, реклама) при стагнации доходов. Например, средний CPM (доход за 1000 просмотров) в 2025 году варьируется от $0,5 до $3 в зависимости от ниши и региона, но конкуренция снижает шансы на высокий охват.
3. Ликвидность инвестиций в контент
Риски:
Высокая конкуренция: научпоп-направление уже насыщено каналами (например, Kurzgesagt, Veritasium), и новым игрокам сложно выделиться без значительных вложений.
Цензура: YouTube усиливает контроль за контентом (например, за дезинформацию или политические темы), что может ограничить монетизацию.
Копирайтинг: использование чужих материалов (даже с лицензией) усложняет создание оригинального контента и повышает риск страйков.
Краткосрочность трендов: форматы и темы быстро устаревают из-за алгоритмов и предпочтений аудитории.
Возможности:
Нишевые темы: узкоспециализированный контент (например, квантовые вычисления или биоинформатика) может привлечь лояльную аудиторию с меньшей конкуренцией.
Кроссплатформенность: использование YouTube как части экосистемы (например, с Patreon, Substack, Telegram) для диверсификации доходов.
Локализация: создание контента на языках с меньшей конкуренцией (например, на русском или других языках СНГ) может быть более ликвидным.
Инновационные форматы: эксперименты с интерактивным контентом, AR/VR или интеграцией ИИ могут выделить канал.
4. Прогноз
Краткосрочная перспектива (1–2 года): инвестиции в контент могут быть ликвидными только при низких затратах и четком таргетинге на узкую аудиторию. Без значительного стартового капитала (на оборудование, маркетинг, команду) вероятность успеха низка.
Среднесрочная перспектива (3–5 лет): усиление цензуры и алгоритмической конкуренции приведет к дальнейшей девальвации массового контента. Успешными будут каналы с уникальным стилем или доступом к эксклюзивным данным/экспертам.
Долгосрочная перспектива: возможен переход внимания аудитории к новым платформам (например, децентрализованным аналогам YouTube), что потребует адаптации стратегий.
5. Экономический подход к стратегии
Диверсификация: не полагаться только на YouTube. Использовать другие платформы (TikTok, X, Rumble) и монетизацию (курсы, мерч, краудфандинг).
Оптимизация затрат: минимизировать расходы на производство, используя ИИ-инструменты для монтажа, сценариев или графики.
Анализ рынка: изучить тренды через инструменты вроде VidIQ или Social Blade, чтобы найти недооцененные ниши.
Инфляционная защита: создавать "вечнозеленый" контент, который сохраняет актуальность годами (например, фундаментальные научные темы).
6. Теоретический взгляд: Data Capitalism
Если контент — валюта, то:
Центральный банк: алгоритмы YouTube, регулирующие "эмиссию" (видимость) контента.
Инфляция: перепроизводство однотипного контента снижает его ценность.
Капитал: каналы с большой аудиторией становятся "корпорациями", поглощающими мелких игроков.
Кризис перепроизводства: перенасыщение контентом может привести к "краху" ниш, где зрители перестанут потреблять из-за усталости.
Вывод
Инвестировать в создание контента на YouTube в 2025 году ликвидно только при условии:
Четкой нишевой стратегии.
Минимизации затрат через ИИ и аутсорсинг.
Диверсификации платформ и источников дохода.
Готовности к высоким рискам из-за цензуры, конкуренции и алгоритмических изменений.
Без уникального подхода и капитала рынок научпопа и других популярных ниш близок к стагфляции. Если хотите разработать "второй том Капитала: Data Edition", начните с анализа внимания как ресурса и алгоритмов как регулятора — это основа экономики данных.
15 минут
Так же, рекомендую посмотреть https://docs.docker.com/desktop/features/model-runner/
Это Docker Model Runner. Представьте будущее, где вам не то, что не нужно программировать, а не дадут писать код для RAG, так как это не безопасно. Только обучать модели.
RAG подразумевает tool_call, помимо оплаты генерации embedding.
- Это дороже в эксплуатации так как сама запись в RAG базу платная (генерация embeddings)
- Это дороже в программировании, так как это нужно программировать и администрировать в класическом понимании (DevOps, DBA)
- Это медленней на порядок, так как tool_calling подразумевает запуск LLM модели второй раз после получения ответа
- Это медленней, так как Embedding поиск подразумевает большой трафик памяти (2 миллиона записей будут обрабатываться 30 секунд)
- Это плохо применимо к русскому языку, так как nomic-embed-text релизнулся 2023-11-01, разве что делать вендор лок под яндекс
Fine tuning подразумевает, что думает сам ИИ, а не база данных
- Малому и среднему бизнесу дешего взять студента текстовика, можно и бесплатно
- Обновление дообучение модели можно автоматизировать скриптом
- Базу данных не нужно мониторить на предмет поломки, так как её нет: нейронка ничего не пишет на жесткий диск вовсе, а вся работает в оперативе видеокарты как stateless.
Чтобы был work-life balance бизнес должен масштабироваться. Книги нужно читать, наёмные сотрудники не будут это делать.
P.S. Прочитайте техническую документацию, там не много https://github.com/tripolskypetr/agent-swarm-kit
https://habr.com/ru/articles/893232/#comment_28073848
Есть ещё кое что, специалист Langchain это абсурд, так задача ИИ убить профессию программиста...
Проблема в том, что это книга... ПО на фреймворках до 2019 года спокойно пишет Grok без нужны изменений кода программистом в 99% случаев. А после релиза ChatGPT опенсорс умер, как минимум с точки зрения примеров кода в документации, и для того же Langchain код генерируется отвратительно
Балансируется event loop с очередью к api, vllm балансируется по аналогии, просто ip не хост машины а в локалке пк с видеокартами
https://github.com/vllm-project/vllm
Мышка не сможет прийти и нагадить, если её не пригласил алгоритм...
https://platform.openai.com/docs/guides/function-calling
Уже тогда адресат спама считал себя чем-то особенным…
Очень интересно, на досуге чекну хеш суммы
Это бейт на коммент, говорят, для алгоритмов хорошо
Эти модели плохо работают для русского языка. Подробнее в статье
https://habr.com/ru/articles/892468/
Итого, что получилось:
1. command-a требует 64 гига оперативной памяти, у меня такой нет
2. command-r на машине с 16 гигабайтами оперативы дает ошибку
Error: llama runner process has terminated: signal: killed
3. на машине с 32 гигабайтами оперативы command-r запустился, но model template в репо оллама настроен не верно и не вызывает инструменты должным образом
4. удалось найти зафикшенный темплейт по ссылке https://ollama.com/oybekdevuz/command-r
Попробую скачать, отпишусь в комментах. Купило то, что они позицинируют себя как единственную модель с фокусом в интеграции: то, что нужно, чат бот именно и ценен возможностью за тебя нажимать на кнопки
Модель Command-a весит 67GB, относительно Saiga/YandexGPT это очень много. Качаю по ссылке
https://ollama.com/library/command-a
Модель Command-a имеет 111b параметров, для меня это скорее минус, так как ноут точно не потянет, тут речь идет что и 4090 может не потянуть. У Command-R+ тоже 104B, что-то мне подсказывает, что если в 1 клик ни в Ollama ни в LMStudio не запустится, не имеет смысл тратить время.
А вот у Command-r без плюса всего 32B параметров, тут имеет смысл подумать, так как селф хостинг доступен как по цене, так и габаритам
https://huggingface.co/CohereForAI/c4ai-command-r-08-2024
Из галлюнов, она вызывает не существующие инструменты. LMStudio такое не фильтрует и кидает как текстовое сообщение
А при чём тут llama? На фото - deepseek