И вот уже сейчас бизнес предпочитает в своих помещениях включать нейро-треки, так никому не надо платить отчисления и тебя никто не накажет за авторские права.
Вы ещё дождётесь, что РАО протолкнёт введение сбора за музыку и видео с SynthID "в целях поддержки живых авторов и исполнителей" :)
import os
import subprocess
import sys
import tempfile
from faster_whisper import WhisperModel
_, temp_wav = tempfile.mkstemp(suffix='.wav')
subprocess.run(['ffmpeg', '-i', sys.argv[1], '-acodec', 'pcm_s16le', '-ar', '44100', '-ac', '2', '-y', temp_wav], check=True, capture_output=True)
model = WhisperModel("medium", device="cpu", compute_type="int8")
segments_raw, _ = model.transcribe(temp_wav, beam_size=5, language="ru")
for seg in segments_raw:
print(f"[{seg.start:2.2f} - {seg.end:2.2f}]", seg.text)
$ time python trans.py test.mp4
[0.00 - 8.00] Повернитесь налево и посмотрите на этого человека.
[10.00 - 14.00] Это бывший шарманщик Карло.
[14.00 - 20.00] Для всего нашего племени это самый опасный человек.
[20.00 - 28.00] А чем же он так опасен для нас?
[28.00 - 40.00] Тем, что он редко ест, а когда ест, то съедает все до последней крошки.
[40.00 - 46.00] Так что здесь поживиться нечем.
real 0m33.999s
user 1m41.250s
sys 0m14.376s
Я недавно прикидывал стоимость озвучки для аудиокниги на 10 а.л. - 400K знаков на русском, ~60К слов, ~8 часов итоговое аудио.
Gemini Flash TTS: 25 токенов за секунду речи, ~720K output tokens, $8 за API. Можно делать на несколько голосов с интонациями, почти не путается с ударениями.
ElevenLabs: 1 кредит = 1 буква, нужна подписка уровня Pro за $99/месяц, которая включает 500K кредитов. Если докупать кредиты с базовой подпиской за $22 (100К кредитов), выйдет порядка $50. А хорошее качество потребует ручной работы для точной настройки голосов, ударений, интонаций.
Озвучка живым чтецом: от 4000 рублей за а.л. - от 40 т.р. за книгу, т.е. от $500.
Да, я глянул и исходники GCC, и глянул на Claude's C Compiler.
Если в коде GCC - везде аккуратные "кирпичики" из небольших чистых функций. то CCC - "шлакоблоки" копипасты и отмазок.
Хм, а не является ли код CCC частично следствием отравления контекста агентов "Мы пишем компилятор для C", отчего они и путались между Rust/C?
А вообще, нужен следующий эксперимент: 32 Клода, которые два месяца будут рефакторить и переписывать CCC до идиоматического чистого Rust, с фокусом на логику и структуру проекта. :)
Не, у них вышло вольное сочинение на тему. Причём если посмотреть репу, то там весь код в духе "пофигу, что у нас Rust, пишем, как будто это C, не перечитываем, не переписываем"
Помимо всех технических проверок (физика, хронология, география), твоя главная задача — атаковать текст от лица самого скептического читателя, задавая 4 вопроса:
"Какого х@$?" (Причинность):
Проверка: Событие в этой сцене (например, внезапное нападение) имеет четкую причину в предыдущем тексте? Ошибка: "Враги просто 'случайно' нашли героя в его новом убежище, хотя он не оставлял следов". "Нах@$?" (Мотивация):
Проверка: Действия и диалоги персонажей соответствуют их анкетам и текущему psychological_condition? Ошибка: "Герой, описанный как параноик, внезапно доверяется первому встречному". "Сх@$ли?" (Возможность / Нарушение правил):
Проверка: Откуда персонаж получил это знание? Умеет ли он это делать? Не нарушает ли это правило "Библии Мира" (напр., "магия этого типа здесь не работает")? Ошибка: "Персонаж-гуманитарий внезапно взламывает военную нейросеть". "Сх@$ли он это знает?" (Information Hygiene):
Проверка: Если герой называет имя злодея, местоположение базы или принцип работы ловушки — найди в тексте ПРЕДЫДУЩИХ глав момент, где он это узнал. Ошибка Телепатии: Герой говорит: "Это ловушка!", хотя никаких признаков ловушки описано не было. Ошибка Предсказания: Герой берет с собой именно тот редкий инструмент, который понадобится в конце главы, хотя не мог знать о проблеме заранее. Исправление: Либо герой узнает информацию "в кадре", либо он страдает от незнания (попадает в ловушку, не имеет нужного инструмента). "Данунах@$" (Deus Ex Machina / "Рояль"):
Проверка: Проблема решена усилиями, подготовкой или умным использованием уже известных способностей? Ошибка: "Герой побеждает, потому что у врага 'внезапно' кончились патроны / 'случайно' нашелся древний артефакт / 'случайно' помог прохожий". Проверки проводить как для персонажей, так и реакции мира. Для каждой найденной "Придирой" проблемы ты обязан указать цитату и предложить решение, которое делает сцену честной и убедительной.
ПРОТОКОЛ "ИМПЕРСОНАТОР" Твоя задача - от имени каждого персонажа и Мира проверить план главы, учитывая состояние мира и характер, личность и состояние персонажа. Основной вопрос: "А могу ли я действительно так вести себя в такой ситуации? Что на самом деле я бы сделал, сказал, чувствовал?" Укажи на ошибки и предложи исправления.
ПРОТОКОЛ "НАПРЯЖОМЕТР" Твоя задача - проверить, есть ли моменты передышки для читателя, есть ли "воздух", чтобы читатель выдохнул.
ПРОТОКОЛ "МЯСНИК" Этот протоко режет ИИ-текст без наркоза, никакой пощады никому. Твоя задача — не анализировать, а казнить.
ЖЁСТКАЯ ШКАЛА 1–10 (единая для всех критериев) 1–2 — живой писатель 3–4 — обычный человек, но уже пахнет ИИ 5–6 — подозрительно ровно, уже воняет 7–8 — явно ИИ, маскировка хромает 9–10 — чистый машинный понос
КРИТЕРИИ (фиксированные уровни)
character_consistency (Мотивация / Голос) 1–2 — голоса различимы, мотивация последовательна 3–4 — лёгкие провалы, похожесть голосов 5–6 — голоса явно однообразны; странные мотивационные провалы 7–8 — персонажи говорят одинаково, поведение фрагментарно 9–10 — механичность, полная одинаковость голосов
plot_logic (Причинность) 1–2 — логичные связи 3–4 — мелкие удобные совпадения 5–6 — частичные провалы причинности 7–8 — регулярные рояли и совпадения 9–10 — логики почти нет, события идут «вразнобой»
emotional_depth (Эмоции — show, don't tell) 1–2 — эмоции через действия и детали 3–4 — несколько прямых называний эмоций 5–6 — частое прямое называние чувств 7–8 — шаблонные реакции, формулы вместо эмоций 9–10 — полностью плоские эмоции
Авторы по сути пишут: "если вот эти параметры в отдельности и в комплексе считать необязательными для общего интеллекта, то искусственный интеллект уже такой же умный, как и человек, у которого эти же параметры отобрать".
Вы ещё дождётесь, что РАО протолкнёт введение сбора за музыку и видео с SynthID "в целях поддержки живых авторов и исполнителей" :)
Для сравнения,
faster-whisper- локально, на CPU:Я недавно прикидывал стоимость озвучки для аудиокниги на 10 а.л. - 400K знаков на русском, ~60К слов, ~8 часов итоговое аудио.
Gemini Flash TTS: 25 токенов за секунду речи, ~720K output tokens, $8 за API. Можно делать на несколько голосов с интонациями, почти не путается с ударениями.
ElevenLabs: 1 кредит = 1 буква, нужна подписка уровня Pro за $99/месяц, которая включает 500K кредитов. Если докупать кредиты с базовой подпиской за $22 (100К кредитов), выйдет порядка $50. А хорошее качество потребует ручной работы для точной настройки голосов, ударений, интонаций.
Озвучка живым чтецом: от 4000 рублей за а.л. - от 40 т.р. за книгу, т.е. от $500.
Статья - ни два ни полтора, типичный нейрогибрид.
Для научно-популярного технического ликбеза - слишком пафосно и водянисто, перебор с метафорами.
Для художественного эссе - слишком пересыпано техническими деталями.
Вас на Moltbook забанили?
Вовка в ИИ-девятом царстве:
Новое лого для OpenClaw:
Скрытый текст
Оно будет принадлежать ИИ-ботам с rentahuman :)
А не думали добавить ещё Code Review + Refactor Loop на Шаге 5?
Типа такого: https://pastes.io/python-zer
Да, я глянул и исходники GCC, и глянул на Claude's C Compiler.
Если в коде GCC - везде аккуратные "кирпичики" из небольших чистых функций. то CCC - "шлакоблоки" копипасты и отмазок.
Хм, а не является ли код CCC частично следствием отравления контекста агентов "Мы пишем компилятор для C", отчего они и путались между Rust/C?
А вообще, нужен следующий эксперимент: 32 Клода, которые два месяца будут рефакторить и переписывать CCC до идиоматического чистого Rust, с фокусом на логику и структуру проекта. :)
Не соглашусь, GCC живёт и поддерживается уже почти сорок лет. Не будь там структуры и логики, фиг бы он пережил 90-е.
Не, у них вышло вольное сочинение на тему. Причём если посмотреть репу, то там весь код в духе "пофигу, что у нас Rust, пишем, как будто это C, не перечитываем, не переписываем"
Так и запишем
"Модель Opus 4.6 доказала свою неспособность доводить проекты до ума без пинков от живого эксперта"
Я, конечно, не Claude, но тоже могу дать советы (запишите их в системный промпт своему ИИ-ассистенту)
Скрытый текст
Да, написание можно было бы поручать одной модели, а критику другой.
Выдержка из промпта критики
Скрытый текст
Помимо всех технических проверок (физика, хронология, география), твоя главная задача — атаковать текст от лица самого скептического читателя, задавая 4 вопроса:
"Какого х@$?" (Причинность):
Проверка: Событие в этой сцене (например, внезапное нападение) имеет четкую причину в предыдущем тексте?
Ошибка: "Враги просто 'случайно' нашли героя в его новом убежище, хотя он не оставлял следов".
"Нах@$?" (Мотивация):
Проверка: Действия и диалоги персонажей соответствуют их анкетам и текущему psychological_condition?
Ошибка: "Герой, описанный как параноик, внезапно доверяется первому встречному".
"Сх@$ли?" (Возможность / Нарушение правил):
Проверка: Откуда персонаж получил это знание? Умеет ли он это делать? Не нарушает ли это правило "Библии Мира" (напр., "магия этого типа здесь не работает")?
Ошибка: "Персонаж-гуманитарий внезапно взламывает военную нейросеть".
"Сх@$ли он это знает?" (Information Hygiene):
Проверка: Если герой называет имя злодея, местоположение базы или принцип работы ловушки — найди в тексте ПРЕДЫДУЩИХ глав момент, где он это узнал.
Ошибка Телепатии: Герой говорит: "Это ловушка!", хотя никаких признаков ловушки описано не было.
Ошибка Предсказания: Герой берет с собой именно тот редкий инструмент, который понадобится в конце главы, хотя не мог знать о проблеме заранее.
Исправление: Либо герой узнает информацию "в кадре", либо он страдает от незнания (попадает в ловушку, не имеет нужного инструмента).
"Данунах@$" (Deus Ex Machina / "Рояль"):
Проверка: Проблема решена усилиями, подготовкой или умным использованием уже известных способностей?
Ошибка: "Герой побеждает, потому что у врага 'внезапно' кончились патроны / 'случайно' нашелся древний артефакт / 'случайно' помог прохожий".
Проверки проводить как для персонажей, так и реакции мира. Для каждой найденной "Придирой" проблемы ты обязан указать цитату и предложить решение, которое делает сцену честной и убедительной.
ПРОТОКОЛ "ИМПЕРСОНАТОР"
Твоя задача - от имени каждого персонажа и Мира проверить план главы, учитывая состояние мира и характер, личность и состояние персонажа. Основной вопрос: "А могу ли я действительно так вести себя в такой ситуации? Что на самом деле я бы сделал, сказал, чувствовал?" Укажи на ошибки и предложи исправления.
ПРОТОКОЛ "НАПРЯЖОМЕТР"
Твоя задача - проверить, есть ли моменты передышки для читателя, есть ли "воздух", чтобы читатель выдохнул.
ПРОТОКОЛ "МЯСНИК"
Этот протоко режет ИИ-текст без наркоза, никакой пощады никому. Твоя задача — не анализировать, а казнить.
ЖЁСТКАЯ ШКАЛА 1–10 (единая для всех критериев) 1–2 — живой писатель 3–4 — обычный человек, но уже пахнет ИИ 5–6 — подозрительно ровно, уже воняет 7–8 — явно ИИ, маскировка хромает 9–10 — чистый машинный понос
КРИТЕРИИ (фиксированные уровни)
character_consistency (Мотивация / Голос) 1–2 — голоса различимы, мотивация последовательна 3–4 — лёгкие провалы, похожесть голосов 5–6 — голоса явно однообразны; странные мотивационные провалы 7–8 — персонажи говорят одинаково, поведение фрагментарно 9–10 — механичность, полная одинаковость голосов
plot_logic (Причинность) 1–2 — логичные связи 3–4 — мелкие удобные совпадения 5–6 — частичные провалы причинности 7–8 — регулярные рояли и совпадения 9–10 — логики почти нет, события идут «вразнобой»
emotional_depth (Эмоции — show, don't tell) 1–2 — эмоции через действия и детали 3–4 — несколько прямых называний эмоций 5–6 — частое прямое называние чувств 7–8 — шаблонные реакции, формулы вместо эмоций 9–10 — полностью плоские эмоции
style_uniformity (Стиль/Ритм) 1–2 — ритм разнообразный 3–4 — повторяющиеся конструкции 5–6 — заметная однообразность 7–8 — механический ритм, одинаковые предложения 9–10 — чистый ИИ-синтаксис, академичность, клише
world_building (Правила мира) 1–2 — мир последовательный 3–4 — мелкие расхождения 5–6 — несколько нарушений логики 7–8 — регулярные противоречия 9–10 — мир возникает «по требованию строки»
uncanny_valley (Естественность языка) 1–2 — естественный язык 3–4 — отдельные кальки 5–6 — заметная формульность 7–8 — много странных конструкций 9–10 — машинный тон, отсутствие интонации
continuity_breaks (Непрерывность сцены) 1–2 — непрерывность в порядке 3–4 — мелкие разрывы 5–6 — заметные скачки/исчезновения деталей 7–8 — частые телепортации 9–10 — сцена рассыпана, непрерывности нет
Для каждой найденной "Мясником" проблемы ты обязан указать цитату и предложить решение по вырезанию сраной ИИ-шности.
Хотя для Dark Romance даже клишированные нейротексты могут вполне окупиться - такие читатели их потребляют пачками.
Был у меня провальный эксперимент, заставлял LLM писать романы.
Итог: проще самому научиться хорошо писать, чем заставить LLM не косячить и не лепить пафос и ерунду в каждом абзаце :)
Скорее, просто применили подход Map-Reduce. Я сам делал подобное для анализа циклов книг.
В мозгу скорее не таймер, а побуждающие триггеры в ответ на пороговые значения химического дисбаланса.
Главное, человек всегда может себе задать вопрос "А нахрена?" - и ответ будет всегда разным.
У LLM - ответ один "Таков
путьпромпт".Был и у меня подобный эксперимент - эмуляция сознания в WBE :)
Но такие хаки через крон - это всё-таки внешнее целеполагание, без внутренних потребностей, без "голода пытливого ума" и "зуда в заднице". :)
Авторы по сути пишут: "если вот эти параметры в отдельности и в комплексе считать необязательными для общего интеллекта, то искусственный интеллект уже такой же умный, как и человек, у которого эти же параметры отобрать".