«Через 10 лет нам всем шибздец». Такой комментарий я встретил под своим предыдущим постом, когда пытался провести эксперимент: написать песню на русском и сделать видео при помощи нейронных сетей. И я задумался: а что, если сравнить процесс генерации видео нейронными сетями и создания моушн-дизайна человеком под конец этого года? Сколько времени это занимает, из каких этапов состоит процесс и какова стоимость? Может быть, не все так однозначно, или, наоборот, не нужно ждать целых 10 лет. Вы сможете увидеть результат созданной анимации человеком и искусственным интеллектом из одной и той же картинки, чтобы сделать выводы самостоятельно.
«Мегафон» снял анимационный сериал «Ева. Связь сквозь время»
Компания «Мегафон» сняла научно‑фантастический анимационный сериал «Ева. Связь сквозь время». Премьера первого сезона состоялась 27 апреля на «Кинопоиске». По словам создателей, сериал делался с использованием игрового движка Unreal Engine 5. Созданием персонажей и анимации занималась творческая команда It's Alive Studio, авторами сценария и режиссёрами сериала выступили Антон Уткин и Ната Покровская из Lateral Summer Studio. Все мужские роли в сериале сыграны актёром Евгением Марковым, роль Евы исполнила Елена Ходунова. Захват движений происходил посредством костюма Motion Capture. Роли озвучили Алёна Кахута и Роман Евдокимов. Первый сезон сериала выложен на портале «Кинопоиск» и на Youtube‑канале компании «Мегафон». Всего в сериале 3 серии длительностью от 3 до 6 минут.
CGI в домашних условиях при помощи Unreal Engine и iPhone
Когда я не создаю креативы, я мониторю просторы интернета на предмет новых форматов и способов подачи материала, чтобы сделать наш собственный контент более разнообразным, интересным и привлекательным для новых игроков.
Год назад я наткнулся на следующее видео:
Что мы здесь видим? Парень нацепил на себя костюм захвата движения тела (пока ничего необычного), повесил перед собой iPhone (а вот это уже интересно) и таким образом транслирует анимацию лица и тела персонажа напрямую в режиме реального времени в Unreal Engine, и выглядит результат для столь незамысловатой реализации довольно качественно.
Классная идея, подумал я. Затем закрыл видео. И продолжил дальше работать.
Спустя полгода в открытом доступе оказался обучающий материал о том, как произвести захват анимации лица в Unreal Engine при помощи приложения на iPhone. В то же время я узнал, что в наш арт-отдел приобрели костюм для захвата движения. Посмотрел его совместимость с UE: всё подошло. Оставалось только найти iPhone для дальнейшей работы, но в наше время с этим проблем еще меньше.
Вопросов была масса. Передо мной было непаханное поле из неизученной анимации, Unreal Engine, моделирования человеческого лица и тела и других совершенно далеких от видеомонтажа вещей, но в то же время огромное желание воплотить в жизнь задуманное.
Начался долгий процесс изучения различной документации.
Что в результате получилось и как мы этого добились, читайте дальше.
Mocap – оборудование Xsens для производства VFX. Личный опыт использования
Технология motion capture, или mocap, существует с 1970х годов. Ее используют крупные компании в производстве фильмов и компьютерных игр, добиваясь максимально реалистичной анимации. Недавно мы приобрели в нашу студию продвинутый вариант такого оборудования бренда Xsens. О нашем опыте работы расскажем в этой статье.
Unreal выпустила приложение для iPhone, которое захватывает мимику лица для Unreal Engine
Студия Unreal выпустила приложение для iOS, которое считывает лицевую мимику пользователя и анимирует её на персонаже для Unreal Engine в режиме реального времени. Оно получило название Live Link Face; по словам разработчиков, приложение предназначено как для профессиональных съёмок методом motion capture, так и для любительских, например, для стриминга, сообщается на сайте Unreal.
ИИ обучили выполнять 3D-захват движения с помощью любой камеры
Исследователи из Института Макса Планка и Facebook Reality Labs утверждают, что они разработали алгоритм машинного обучения — PhysCap — для 3D-захвата движения. Алгоритм работает с любой зеркальной камерой, скорость съемки которой составляет 25 кадров в секунду.
Программа конференции Application Developer Days 2010
Итак, вот некоторые из тех, кто будет выступать на конференции.
Визуализация эмоций в 3D-играх
Компания Rockstar Games, получила всемирную известность благодаря своей серии видео-игр Grand Theft Auto, в которой каждый мог на время очутиться хоть и на виртуальных, но таких близких к реальности, полных насилия улицах. В новом грядущем проекте Rockstar, LA Noire, важную роль будут играть человеческие лица. Австралийские разработчики игры, Team Bondi, использовали передовые технологии захвата изображения лиц и мимики, которые позволили перенести в виртуальное пространство широчайший диапазон тонких эмоций, сыгранных реальными актерами. В большинстве игр до этого момента, такие крупные высокодетализированные планы персонажей использовались лишь в межуровневых видеороликах, специально срежиссированных и демонстрировались для большего погружения в сюжет игры, связывая интерактивные ее части.
Создаем систему видеонаблюдения с помощью motion
Моя версия костюма отслеживания движений
Предыстория
Много времени утекло с того момента, как я стал начинающим «ардуинщиком». После заказа «стартового набора» из поднебесной и поморгал светодиодами, и покрутил сервоприводами, и даже собрал простенькую платформу Гью-Стюарта из кусков упаковочного полиэтилена, скрепок, кнопок и копеечных сервоприводов SG90.
Прошу прощения за качество фото — другого не сохранилось, как и самой платформы — дети сломали.
С этой платформы и началась, может быть даже кому-то интересная история. Управлять платформой с помощью клавиатуры или джойстиком интересно, но управлять ею датчиком положения в пространстве — интереснее вдвойне. Пробуя корректно заставить работать очень известный датчик от TDK — InvenSense MPU-9250, вспомнилась статья уважаемого ObelardO — «Как я делал костюм захвата движений» и затаилась идея в голове повторить этот опыт.
Что из этого получилось, можно увидеть и прочесть под катом.
60 минут в завтра: «Мировой опыт создания голограмм – стоит ли оживлять мертвых знаменитостей?»
Мы с вами живем в удивительное время. Новые Горизонты бороздят просторы солнечной системы, по Земле катаются автомобили-роботы, а музыкальным лейблам уже даже не нужны живые артисты для того, чтобы зарабатывать деньги и выдавать слушателям продукт – музыкальный или визуальный. И если с первым все понятно: старые записи, черновики легендарных музыкантов и просто неизданные в нужное время материалы могут работать на имя исполнителей еще очень долгое время, то с визуальной составляющей мы попытаемся разобраться. Кому, зачем и в каком виде понадобилось подменять себя на сцене голографической проекцией, и есть ли у этого вида искусства перспективы в музыкальном?
Unity3D + Kinect, или анимации на коленке
Здравствуй, уважаемый читатель. Прежде чем начать, мне хотелось бы немного рассказать о цели и формате моей статьи. Обычно с такими заголовками статьи носят обозревательный характер, в них описываются технические стороны реализации того или иного решения или приводится инструкция по эксплуатации и т.д. Выводы же читатель делает самостоятельно. Прежде чем написать эту статью, я провел небольшую исследовательскую работу на предмет аналогов. И нашел несколько статей как на самом хабре, так и массу видео материалов на ютубе. Поэтому я решил не писать очередной обзор технологии, а поделиться впечатлениями, рассказать о граблях, на которые мы наступили, и привести немного “кухонной” аналитики.
Цель этой статьи – помочь вам определиться, использовать или нет данный метод. В первую очередь она рассчитана на технических специалистов, хотя и не пестрит техническими деталями. Но так же будет полезна и всем остальным – арт-специалистам, менеджерам проектов да и просто всем, кто, так или иначе, связан с разработкой игр. Возможно, ссылка на данную статью поможет выбить бюджет у начальства и ускорить разработку/повысить качество вашей будущей игры. Итак, приступим.
Автоматическое выделение меток
В статье описаны основные методы захвата меток, их возможности, границы применимости.
Последняя часть пазла полной виртуальной реальности
Вчера на кикстартере началась кампания по сбору средств для Control VR — последней не достающей части для костюма виртуальной реальности, а именно высокоточного отслеживания движения рук, кистей и пальцев.
Ссылка на Kickstarter
Perception Neuron: Motion Capture в каждый дом
Motion Capture: про движение
Беспроводной VR и захват движения на оборудовании HTC Vive
Предисловие
Раньше я уже писал о своем проекте impulse — костюме захвата движений на базе инерциальных сенсоров. Прежде всего, хочу поблагодарить всех, кто оставил свой отзыв, так или иначе, помог проекту. Должен сказать, что особого развития проект не получил, проблема дрейфов не была решена 9-осевыми датчиками, но компенсации с помощью цифрового компаса значительно помогли, также использование простого оптического трекинга (например 2 светодиодных маркера на голове) позволяет получить среднее значения дрейфа. Но сегодня не об этом. Я хочу рассказать об относительно недорогом способе захвата движения для систем виртуальной реальности на базе HTC Vive без колхоза и паяльника, а также о том, как избавиться от провода, который неизбежно соединяет голову и компьютер, что создает множество неудобств. Еще расскажу, как удалось добиться области трекинга в ~80 метров кв.
Shoot3D — мокап. Тайна пляшущих человечков
Заходят как-то в бар Мандалорец, Генлок и СКМ…
«узнали про вашу систему трекинга и хотим посмотреть ее в действии, прямо сейчас, так как вечером мы возвращаемся в Питер!»Хоть мы и были в офисе, но профилактические меры не позволяли пропускать кого-либо в здание кроме сотрудников, поэтому мы продолжили телефонный разговор и выработали план действий с учетом «карантинных» мер.
Заказчиками на том конце провода оказались ребята из «Black Anchor Productions» Ltd. и Parallax Digital. Они еще раз описали задачу, которую предполагалось решить с помощью нашей системы трекинга (захвата движений), указали желаемые характеристики системы, и мы согласовали первую серию онлайн тестов.
Слежение за объектом по его цвету с использованием Aforge.NET
Код не претендует на «истину в последней инстанции», многое было упрощено (в одном месте, в некотором смысле даже допущено дублирование – для быстрого доступа к пикселам я создал свой класс, хотя аналогичные наработки были и в Aforge). Но тем не менее, код работает, отслеживает объект, выдает информацию о местоположении, позволяет динамически вычислять оттенок объекта (на случай изменения освещения).
Для заинтересовавшихся — прошу под кат.