Comments 32
недавно под нбомом и без нейросетей у меня все перекрашивалось, причем поэффектнее.
Вот если бы оно на голые модели таким образом текстуры само накладывало — вот это была бы польза, а так…
голые модели?
Черный цензурический квадрат?
Эмм… как говорится #лолшто
Понятно, если на одетые модели, а на голые модели то зачем?
… или например дорисовывало промежуточные кадры для мультипликации, раскрашивало чёрно-белые комиксы (с учётом освещения сцены), и делало прочую чёрную работу за художников.
Низки поклон от видиоинженеров будет тогда, когда нейросеть научат вырезать сложные объекты из фона без использования сложных масок, хромакея и тому подобных ухищрений.
Ранее на хабре уже говорили о программе, которая убирает людей с фотографии (которая делается по видео), причем неоднократно данная технология описывалась. Чем не сложные объекты? Мне кажется скопировать стиль куда сложнее, чем убрать лишние объекты, по этому поклон инженерам Google и всем тем кто вообще подобные штуки реализовывает.
Я вам про Фому, вы мне про Ярему. Какое отношение удаление объектов с фото имеет к видеокомпозингу? Я как видиоинженер с многолетним стажем утверждаю, что есть в композинге фундаментальная задача — вырезание объектов из фона. Точнее максимальная автоматизация процесса. Для видеоинженера важность достижения определяется не сложностью специфической задачи, а необходимостью ее применения. Не спорю — возможно есть сферы, где требуется убирать людей с фото, но я же речь вел о композинге (видиоинжиниринге, если хотите). Что, в данном случае сложнее, я бы поспорил. В упомянутой выше фундаментальной задаче, есть, опять же, фундаментальные проблемы. Во-первых, это вырезание из фона людей, имеющих пышную шевелюру (не забыли — речь идет о видеоряде), и во-вторых — работа с полупрозрачными объектами, например элементы одежды из тонкой ткани.
Статичный фон, пр одинаковом освещении вырезается довольно неплохо.
Ожидал увидеть пример с каноничной Lenna.
Пробовал поиграться с этой штукой. Из-за долгого вычисления оптического потока, а потом оптимизации каждого кадра по отдельности, работает очень долго, и на тестовом видео результаты получились так себе:
Вот этот крошечный фрагмент видео просчитывался ~10 часов на gtx980ti.
сейчас уже к сожалению не помню, у кого, есть замечательный рассказ про моды разных художников, ставишь такой мод себе в голову и все вокруг видишь «глазами» Шагала или, например, Кандинского. там еще ГГ с женщиной познакомился и вместе с ней окунался в восприятие художников, потом ей надоело, произошел рассинхрон и ГГ ее уже не смог или не захотел найти. такой вобщем-то эмоционально-романтический рассказ. если через лет 10 такие алгоритмы усовершенствуют и упростят до уровня фильтра в инстаграм, будет близко к тому рассказу, только не в голову, а в какой-нибудь гуглоглаз
А можно перекрасить Южный Парк и World of Tommorow под Аниме?
Sign up to leave a comment.
Видео: нейросеть «перекрашивает» кино под Ван Гога (Мунка, Пикассо, Кандинского, наскальную живопись)