Pull to refresh

Состоялся релиз модели Stable Video Diffusion для генерации коротких видео

Reading time1 min
Views12K

Разработчики открытой модели машинного обучения Stable Diffusion представили Stable Video Diffusion — решение для генерации коротких видео. Организация обновила GitHub-репозиторий и опубликовала материалы исследования.

Предварительная версия Stable Video Diffusion может генерировать короткие видеоролики на 14 и 25 кадров с настраиваемой частотой от 3 до 30 кадров в секунду. Разработчики опубликовали всё необходимое для локального запуска, включая веса модели. Для генерации необходимо задать текстовое описание для итогового видео.

Модель можно адаптировать для использования в собственных проектах, но разработчики отмечают, что пока она не готова к интеграции в коммерческие приложения. Команда разработчиков планирует и дальше расширять возможности Stable Video Diffusion. В будущем на её базе реализуют экосистему решений для генерации контента.

В ближайшее время ожидается релиз веб-интерфейса для быстрого доступа к Stable Video Diffusion. Желающим необходимо пройти предварительную регистрацию. Разработчики надеются, что упрощённый доступ к модели поможет использовать её для создания рекламных, образовательных и развлекательных материалов. Кроме того, в блоге Stability AI отметили, что в тестах Stable Video Diffusion показывает себя лучше моделей Runway и Pika Labs.

Код и все необходимые материалы для локального запуска Stable Video Diffusion опубликованы в открытом GitHub-репозитории. Вместе с этим доступно детальное исследование решения.

Tags:
Hubs:
If this publication inspired you and you want to support the author, do not hesitate to click on the button
Total votes 9: ↑9 and ↓0+9
Comments5

Other news