Comments 5
Ну как "побаловаться" для хобби так вобще круто.
Сдается на марфонских дистанциях( 1.5 часа) одинаковых персонажей и мест "не вывести в показ" на существующем этапе развития технологии генерации видео. Понятно что там по 20 секунд пока генерится как первые версии Suno. Но держать какие то солид патерны-макеты(каких то мест-персонажей-действий) было бы прям для генерации любительских/профессиональных видео, весьма крупным эволюционным последствием.
Здесь технология упирается в лимиты оправданных энергозатрат. Рендер видео на 2 порядка дороже, чем изображения, а для удачного варианта нужно много попыток. В итоге получится нишевый продукт, который подходит для произведений, где консистентность изначально не треубется. Сначала люди наспамят подобного, затем оно всем надоест.
Качество и реалистичность сильно лучше, чем у конкурентов, но да, странности видны почти в каждом ролике. Всё-таки, представления о мире у модели весьма своеобразные. Но движения в основном очень естественные.
Нагенерил несколько роликов, все оказались очень далеки от того, что я хотел, хотя и смотрелись качественно. Видимо, как и с Suno, чтобы получить что-то, что тебе действительно надо, нужны сотни попыток.
Первым в месяц выдают 1000 кредитов, чего хватит на создание 50 видео длительностью до 5 секунд с разрешением 720p

Не совсем верно, в 720p получится сгенерировать только 16 роликов.
Мне больше интересно, когда они уже DALL-E проапгрейдят? Та же сора может выдавать изображения, да и были уже утечки, что их мультимодальная модель умеет в качественные картинки.
Sora от OpenAI вышла: обзор, примеры видео и ограничения