Обновить
3
0.5

Пользователь

Отправить сообщение

И вот уже сейчас бизнес предпочитает в своих помещениях включать нейро-треки, так никому не надо платить отчисления и тебя никто не накажет за авторские права.

Вы ещё дождётесь, что РАО протолкнёт введение сбора за музыку и видео с SynthID "в целях поддержки живых авторов и исполнителей" :)

Для сравнения, faster-whisper - локально, на CPU:

import os
import subprocess
import sys
import tempfile

from faster_whisper import WhisperModel

_, temp_wav = tempfile.mkstemp(suffix='.wav')
subprocess.run(['ffmpeg', '-i', sys.argv[1], '-acodec', 'pcm_s16le', '-ar', '44100', '-ac', '2', '-y', temp_wav], check=True, capture_output=True)

model = WhisperModel("medium", device="cpu", compute_type="int8")
segments_raw, _ = model.transcribe(temp_wav, beam_size=5, language="ru")

for seg in segments_raw:
    print(f"[{seg.start:2.2f} - {seg.end:2.2f}]", seg.text)

$ time python trans.py test.mp4 
[0.00 - 8.00]  Повернитесь налево и посмотрите на этого человека.
[10.00 - 14.00]  Это бывший шарманщик Карло.
[14.00 - 20.00]  Для всего нашего племени это самый опасный человек.
[20.00 - 28.00]  А чем же он так опасен для нас?
[28.00 - 40.00]  Тем, что он редко ест, а когда ест, то съедает все до последней крошки.
[40.00 - 46.00]  Так что здесь поживиться нечем.

real	0m33.999s
user	1m41.250s
sys	0m14.376s

Я недавно прикидывал стоимость озвучки для аудиокниги на 10 а.л. - 400K знаков на русском, ~60К слов, ~8 часов итоговое аудио.

Gemini Flash TTS: 25 токенов за секунду речи, ~720K output tokens, $8 за API. Можно делать на несколько голосов с интонациями, почти не путается с ударениями.

ElevenLabs: 1 кредит = 1 буква, нужна подписка уровня Pro за $99/месяц, которая включает 500K кредитов. Если докупать кредиты с базовой подпиской за $22 (100К кредитов), выйдет порядка $50. А хорошее качество потребует ручной работы для точной настройки голосов, ударений, интонаций.

Озвучка живым чтецом: от 4000 рублей за а.л. - от 40 т.р. за книгу, т.е. от $500.

Статья - ни два ни полтора, типичный нейрогибрид.

Для научно-популярного технического ликбеза - слишком пафосно и водянисто, перебор с метафорами.

Для художественного эссе - слишком пересыпано техническими деталями.

Вас на Moltbook забанили?

Вовка в ИИ-девятом царстве:

- Вы что, и малварь за меня скачивать будете? - АГА!

Новое лого для OpenClaw:

Скрытый текст

Если ценность это личное время, и в какие-то моменты ваше время может принадлежать не вам 

Оно будет принадлежать ИИ-ботам с rentahuman :)

А не думали добавить ещё Code Review + Refactor Loop на Шаге 5?

Типа такого: https://pastes.io/python-zer

def _review_and_refactor_cycle(self, code_files: Dict[str, str], module_state: ModuleState) -> Dict[str, str]:
    """Review and refactor code iteratively."""
    for iteration in range(self.config.max_refactor_iterations):
        self.logger.info(f"  Review/Refactor iteration {iteration + 1}")

        review = self.code_reviewer.run(code_files, module_state)
        module_state.review_results = review

        if review.approval_status == "approved" or review.overall_score >= self.config.min_code_quality_score:
            self.logger.info(f"    ✓ Code approved (score: {review.overall_score}/10)")
            break

        if self.config.enable_refactoring:
            code_files = self.code_refactorer.run(code_files, review, module_state.implementation)

    return code_files

Да, я глянул и исходники GCC, и глянул на Claude's C Compiler.

Если в коде GCC - везде аккуратные "кирпичики" из небольших чистых функций. то CCC - "шлакоблоки" копипасты и отмазок.

Хм, а не является ли код CCC частично следствием отравления контекста агентов "Мы пишем компилятор для C", отчего они и путались между Rust/C?

А вообще, нужен следующий эксперимент: 32 Клода, которые два месяца будут рефакторить и переписывать CCC до идиоматического чистого Rust, с фокусом на логику и структуру проекта. :)

Не соглашусь, GCC живёт и поддерживается уже почти сорок лет. Не будь там структуры и логики, фиг бы он пережил 90-е.

Не, у них вышло вольное сочинение на тему. Причём если посмотреть репу, то там весь код в духе "пофигу, что у нас Rust, пишем, как будто это C, не перечитываем, не переписываем"

Так и запишем

"Модель Opus 4.6 доказала свою неспособность доводить проекты до ума без пинков от живого эксперта"

Я, конечно, не Claude, но тоже могу дать советы (запишите их в системный промпт своему ИИ-ассистенту)

Скрытый текст

Да, написание можно было бы поручать одной модели, а критику другой.

Выдержка из промпта критики

Скрытый текст

Помимо всех технических проверок (физика, хронология, география), твоя главная задача — атаковать текст от лица самого скептического читателя, задавая 4 вопроса:

"Какого х@$?" (Причинность):

Проверка: Событие в этой сцене (например, внезапное нападение) имеет четкую причину в предыдущем тексте?
Ошибка: "Враги просто 'случайно' нашли героя в его новом убежище, хотя он не оставлял следов".
"Нах@$?" (Мотивация):

Проверка: Действия и диалоги персонажей соответствуют их анкетам и текущему psychological_condition?
Ошибка: "Герой, описанный как параноик, внезапно доверяется первому встречному".
"Сх@$ли?" (Возможность / Нарушение правил):

Проверка: Откуда персонаж получил это знание? Умеет ли он это делать? Не нарушает ли это правило "Библии Мира" (напр., "магия этого типа здесь не работает")?
Ошибка: "Персонаж-гуманитарий внезапно взламывает военную нейросеть".
"Сх@$ли он это знает?" (Information Hygiene):

Проверка: Если герой называет имя злодея, местоположение базы или принцип работы ловушки — найди в тексте ПРЕДЫДУЩИХ глав момент, где он это узнал.
Ошибка Телепатии: Герой говорит: "Это ловушка!", хотя никаких признаков ловушки описано не было.
Ошибка Предсказания: Герой берет с собой именно тот редкий инструмент, который понадобится в конце главы, хотя не мог знать о проблеме заранее.
Исправление: Либо герой узнает информацию "в кадре", либо он страдает от незнания (попадает в ловушку, не имеет нужного инструмента).
"Данунах@$" (Deus Ex Machina / "Рояль"):

Проверка: Проблема решена усилиями, подготовкой или умным использованием уже известных способностей?
Ошибка: "Герой побеждает, потому что у врага 'внезапно' кончились патроны / 'случайно' нашелся древний артефакт / 'случайно' помог прохожий".
Проверки проводить как для персонажей, так и реакции мира. Для каждой найденной "Придирой" проблемы ты обязан указать цитату и предложить решение, которое делает сцену честной и убедительной.

ПРОТОКОЛ "ИМПЕРСОНАТОР"
Твоя задача - от имени каждого персонажа и Мира проверить план главы, учитывая состояние мира и характер, личность и состояние персонажа. Основной вопрос: "А могу ли я действительно так вести себя в такой ситуации? Что на самом деле я бы сделал, сказал, чувствовал?" Укажи на ошибки и предложи исправления.

ПРОТОКОЛ "НАПРЯЖОМЕТР"
Твоя задача - проверить, есть ли моменты передышки для читателя, есть ли "воздух", чтобы читатель выдохнул.

ПРОТОКОЛ "МЯСНИК"
Этот протоко режет ИИ-текст без наркоза, никакой пощады никому. Твоя задача — не анализировать, а казнить.

ЖЁСТКАЯ ШКАЛА 1–10 (единая для всех критериев) 1–2 — живой писатель 3–4 — обычный человек, но уже пахнет ИИ 5–6 — подозрительно ровно, уже воняет 7–8 — явно ИИ, маскировка хромает 9–10 — чистый машинный понос

КРИТЕРИИ (фиксированные уровни)

character_consistency (Мотивация / Голос) 1–2 — голоса различимы, мотивация последовательна 3–4 — лёгкие провалы, похожесть голосов 5–6 — голоса явно однообразны; странные мотивационные провалы 7–8 — персонажи говорят одинаково, поведение фрагментарно 9–10 — механичность, полная одинаковость голосов

plot_logic (Причинность) 1–2 — логичные связи 3–4 — мелкие удобные совпадения 5–6 — частичные провалы причинности 7–8 — регулярные рояли и совпадения 9–10 — логики почти нет, события идут «вразнобой»

emotional_depth (Эмоции — show, don't tell) 1–2 — эмоции через действия и детали 3–4 — несколько прямых называний эмоций 5–6 — частое прямое называние чувств 7–8 — шаблонные реакции, формулы вместо эмоций 9–10 — полностью плоские эмоции

style_uniformity (Стиль/Ритм) 1–2 — ритм разнообразный 3–4 — повторяющиеся конструкции 5–6 — заметная однообразность 7–8 — механический ритм, одинаковые предложения 9–10 — чистый ИИ-синтаксис, академичность, клише

world_building (Правила мира) 1–2 — мир последовательный 3–4 — мелкие расхождения 5–6 — несколько нарушений логики 7–8 — регулярные противоречия 9–10 — мир возникает «по требованию строки»

uncanny_valley (Естественность языка) 1–2 — естественный язык 3–4 — отдельные кальки 5–6 — заметная формульность 7–8 — много странных конструкций 9–10 — машинный тон, отсутствие интонации

continuity_breaks (Непрерывность сцены) 1–2 — непрерывность в порядке 3–4 — мелкие разрывы 5–6 — заметные скачки/исчезновения деталей 7–8 — частые телепортации 9–10 — сцена рассыпана, непрерывности нет

Для каждой найденной "Мясником" проблемы ты обязан указать цитату и предложить решение по вырезанию сраной ИИ-шности.

Хотя для Dark Romance даже клишированные нейротексты могут вполне окупиться - такие читатели их потребляют пачками.

Был у меня провальный эксперимент, заставлял LLM писать романы.

Итог: проще самому научиться хорошо писать, чем заставить LLM не косячить и не лепить пафос и ерунду в каждом абзаце :)

Скорее, просто применили подход Map-Reduce. Я сам делал подобное для анализа циклов книг.

В мозгу скорее не таймер, а побуждающие триггеры в ответ на пороговые значения химического дисбаланса.

Главное, человек всегда может себе задать вопрос "А нахрена?" - и ответ будет всегда разным.

У LLM - ответ один "Таков путь промпт".

Был и у меня подобный эксперимент - эмуляция сознания в WBE :)

Но такие хаки через крон - это всё-таки внешнее целеполагание, без внутренних потребностей, без "голода пытливого ума" и "зуда в заднице". :)

Авторы по сути пишут: "если вот эти параметры в отдельности и в комплексе считать необязательными для общего интеллекта, то искусственный интеллект уже такой же умный, как и человек, у которого эти же параметры отобрать".

Информация

В рейтинге
2 239-й
Зарегистрирован
Активность