Это все информация из видео. Про no baking разработчики говорят на 2:47, про no LODs — на 1:04 и комбо «no baking, no LODs» — на 6:05. Полагаем, что проверить, так ли это, сможем только в 2021.
Unreal Engine 5 will be available in preview in early 2021, and in full release late in 2021, supporting next-generation consoles, current-generation consoles, PC, Mac, iOS, and Android.
Полагаем, что Windows и Linux входят в понятие PC.
Этот скриншот разошелся на мемы в свое время и является наглядным примером того, что с проставлением и отображением вероятностей надо быть аккуратнее :)
Да, логично, что в RPG тоже раз на раз не приходится, и многие устроены куда сложнее. Пожалуй, правило про выполнение квеста = награда в большей степени относится даже к MMO, потому как в том же World of Warcraft частенько оно срабатывает безотказно, особенно в различных дейликах.
Про оффтоп: это статья переводная, не про нашу разработку, и в PvP, конечно, своя атмосфера, согласимся :)
Pity Timer — система псевдорандома, которая увеличивает шансы дропа эпических и легендарных карт с каждой неудачной попыткой их открыть. Иными словами, если вы в 20 бустерах не получили ни одного эпика, в 21-ом мы его 100% получите, и после этого таймер сбрасывается. Если у вас с удачей и так хорошо, то никакие таймеры вам не понадобятся — они просто страхуют от длинных серий неудач.
У слова break нет такого значения, тормозить — это все-таки brake. Возможно, ошибка в оригинальном тексте. По смыслу может быть справедливо и то, и другое, ведь физика разрушения в играх присутствует, поэтому при переводе решили оставить так.
Но спасибо за замечание.
> Поток рендера и сетевой поток это разве одно и тоже?
Имеется в виду кадр расчета игровой логики. Нужно успеть просчитать новое состояние мира, уложившись в бюджет времени.
> Откуда дровишки? Не вижу причин почему lock-free должны напрягать GC существенно больше чем не lock-free.
Реализации, которые я видел, делали new на каждую вставку.
> Почему не взяли ArrayPool.Shared, а сделали свой пул?
На тот момент он использовал недоступное в Unity API. И, кроме того, не подходил в некоторых мелочах — например, конфигурация и поведение «ведер».
Изначально перед нами не стояло цели создавать CGI при помощи захвата движения, идея пришла уже исходя из имеющегося оборудования. Пока нас устраивает качество, которое мы получаем описанным способом, поэтому нет смысла закупать что-то еще. Собственно, в том и основная идея статьи — что можно получать видео вполне неплохого качества при минимальных затратах.
Дело в том, что Neuron приобретался изначально для записи уникальных анимаций для топ-даун шутера в помощь аниматорам. Не думаю, что им была бы удобна такая связка для игровых анимаций. Мы же просто позаимствовали у них костюм под свои нужды.
Но за подсказку спасибо, если будет возможность, рассмотрим и этот вариант.
Специфика iPhone как раз в его фронтальной TrueDepth камере, которая представлена в iPhone X, iPhone XS, iPhone XS Max и iPhone XR, а так же iPad Pro (11-inch) or iPad Pro (12.9-inch, 3rd generation). Специально для камеры разработан Face AR, который используется, например, в Animoji.
Верно, совместно камера и софт использовались для захвата мимики лица.
Представленные аналоги и приложения на рынке разработаны как раз на основе Face AR.
Для захвата движения можно использовать записанные анимации, например, с камеры Microsoft Kinect 360 (которая также использует похожую технологию Structured light), или использовать Moves by Maxon. Но при их использовании будет совершенно другой пайплайн, который может усложнить процесс. Также из-за неидеальности технологии может увеличиться время производства, которое придется потратить на чистку анимации. Костюм тоже работает не идеально, но все же более точен, чем камеры для захвата движения.
Тем не менее, это крупнейшая выставка разработчиков игр, а мы ведем блог о геймдеве, поэтому не видим причин ее не осветить.
Но даже если абстрагироваться от идеи поездки, есть онлайн-архив материалов с конференции, есть Ютуб-канал, куда со временем выкладывают записи лекций.
Полагаем, что Windows и Linux входят в понятие PC.
Про оффтоп: это статья переводная, не про нашу разработку, и в PvP, конечно, своя атмосфера, согласимся :)
Но спасибо за замечание.
Да, про увеличение жизни NPC есть такое дело. Собственно, в статье об этом даже упомянуто, просто вскользь.
Имеется в виду кадр расчета игровой логики. Нужно успеть просчитать новое состояние мира, уложившись в бюджет времени.
> Откуда дровишки? Не вижу причин почему lock-free должны напрягать GC существенно больше чем не lock-free.
Реализации, которые я видел, делали new на каждую вставку.
> Почему не взяли ArrayPool.Shared, а сделали свой пул?
На тот момент он использовал недоступное в Unity API. И, кроме того, не подходил в некоторых мелочах — например, конфигурация и поведение «ведер».
Но за подсказку спасибо, если будет возможность, рассмотрим и этот вариант.
Верно, совместно камера и софт использовались для захвата мимики лица.
Представленные аналоги и приложения на рынке разработаны как раз на основе Face AR.
Для захвата движения можно использовать записанные анимации, например, с камеры Microsoft Kinect 360 (которая также использует похожую технологию Structured light), или использовать Moves by Maxon. Но при их использовании будет совершенно другой пайплайн, который может усложнить процесс. Также из-за неидеальности технологии может увеличиться время производства, которое придется потратить на чистку анимации. Костюм тоже работает не идеально, но все же более точен, чем камеры для захвата движения.
Но мы решили, что, раз оно в целом повторяет иллюстрации, оставить лучше gif. :)
Но даже если абстрагироваться от идеи поездки, есть онлайн-архив материалов с конференции, есть Ютуб-канал, куда со временем выкладывают записи лекций.