Как стать автором
Обновить

Размываем границы времени и учимся создавать видео — Kandinsky шагает дальше

Уровень сложностиСредний
Время на прочтение11 мин
Количество просмотров12K
Всего голосов 29: ↑29 и ↓0+29
Комментарии8

Комментарии 8

Это первый опыт пользования. Спасибо за ранний доступ. Из того что я увидел в тестах (генераций 10-15). Абстракция наше всё - здесь самые логичные переходы (первый пример). Сеть облегчает работу и соберет сама несколько изображений в клип с плавными переходами. Из каких изображений будет состоять клип можно протестить в К2.2 (и это хорошо, так как генерить картинки быстрей). Что не хорошо, это фантомы при переходе от одной сцены к другой. Заметно на втором клипе (мне не нужны два разных персонажа в первой генерации). А если делать поворот камерой, фантомов ещё больше. Не хватает "вариации" по уже существующему изображению или какой то связки с ботом K2.2. (возможно смогу найти решение через костыли). На ноги и пальцы внимания не обращал.

А 3-палых и 4-палых людей в раннем доступе Кандинский перестал генерить?
А от разрабов хотелось бы предметное сравнение с Dall-e 3 с примерами. Несколько похожих промптов.

нет, не перестал. ещё хотелось бы какой то гайд по синтаксису в написании промта. если о MJ и SD статей достаточно, то здесь все обзоры поверхностны (возможно я не глубоко копал). дефицит инфы сглаживался предложенными стилями при генерации изображений (хотя хочется понимать, что и как прописывают "стили" в запрос), но при генерации видео нужно делать всё методом тыка. это очень не удобно.

P.S. Сначала написал, что данная ветка по сетке мертва, обсуждений нет. куда давать обратную связь? куда задать вопросы?. потом перечитал статью. все вопросы отправлю по ссылкам

Переход через условно белый шум, это конечно занимательно (без шуток), но почему не потренировать сеть на самый обычный морфинг? В 90-е уже точно было что-то подобное, но выполнялось вручную, обводились контуры, указывались связи между точками на начальном и конечном контурах, ну а промежуточные результаты заполнял компьютер (по цвету, географии, узору фона).

Для сети это дело потребует обучения на тысячах морфирующих примеров, но в интернетах уже есть масса подобных чудес, плюс не так дорого заказать тыщонку-другую подобных генераций.

Зато будет плавность, которой в случае с переходом через нормальное распределение быть не может.

Получила ранний доступ. Друзья, это улёт! Не знаю, с чем сравнить, это новый опыт для меня, и удовольствие! Спасибо разработчикам, никаким ‘миджорням’ и не снилось, какая то новый инструмент креатива!

Да, да.

Никогда нейросетями не интересовалась, но в этот раз что-нибудь сгенерирую, от Кандинского!!

Нейросеть от народа!

Времена меняются а методички для ботов все такие же тупые. Причём тут Midjourney вообще?

Можно как-то генерить видосики для VR -очков?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий