
Китайская Kuaishou представила две новые функции для своего видеогенератора Kling 2.6: загрузка семплов голоса и улучшенный контроль движения, позволяющий точнее управлять перемещениями в кадре.
Новая система голосового управления развивает идею синхронизированной генерации звука и видео, которую Kling 2.6 получил совсем недавно. По аналогии с Veo 3 от Google или Sora 2, модель умеет создавать звуковые эффекты, точно подогнанные под видеоряд, — от человеческой речи до музыки и шумов.
Как утверждает Kling AI, функция поддерживает широкий спектр человеческих голосов: обычную речь, диалоги, закадровое повествование, пение и даже рэп. Кроме того, система работает с фоновыми шумами и сложными звуковыми сценами, где несколько источников накладываются друг на друга. На вход модель принимает как чисто текстовые описания, так и комбинации текста с изображениями.
Новая функция Voice Control позволяет пользователям загружать собственный голос для обучения модели. Можно также просто загрузить готовый аудиофайл — без отдельного этапа тренировки.
Благодаря этому, становится возможным создавать персонажей, которые сохраняют свою идентичность сразу в нескольких видеороликах. Руководство пользователя доступно здесь.
Вторая ключевая новинка — серьезное обновление системы управления движением: теперь модель гораздо детальнее захватывает движения всего тела. Даже быстрые и сложные действия — вроде боевых искусств или танцев — воспроизводятся заметно точнее.
Компания отдельно акцентирует внимание на двух проблемных зонах, где ИИ‑видео традиционно спотыкается: движения рук теперь выглядят четкими и без размытия, а мимика и синхронизация губ с речью сохраняют естественность.
Пользователи могут загружать образцы движений длительностью 3–30 секунд, создавая непрерывные сцены без разрывов. Впечатляющие примеры уже расходятся по соцсетям:
Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
