All streams
Search
Write a publication
Pull to refresh
3
0.1
Виктор Дручинин @Viknet

User

Send message
Для этого сделали Catalyst, и все приложения с ним ведут себя на маке чудовищно, я бы не хотел таким пользоваться.

А без Catalyst это всё ещё чужеродное приложение, запертое в iOS-подобной песочнице.
iOS-приложения на маке работают как iOS-приложения. Не интегрируются с системой, не умеют в многооконность, не работают (полноценно) с файловой системой, имеют полностью другой UI, ориентированный под пальцы.
В общем, пользоваться этим в большинстве случаев довольно больно.
Вообще нет, этим как раз занимается ОС.
А типичное время frequency ramping — десятки миллисекунд, в самых современных процессорах дошли до единиц.

Был неправ.
ОС только задаёт рамки, в которых CPU может сам динамически менять частоту.
И задержки скейлинга там в микросекундах (пример исследования).
Сейчас же тоже крайне не рекомендуется включать электронику прямо с мороза — из тёплого воздуха влага конденсируется на холодных платах и может приводить к ускоренной коррозии или короткому замыканию.

Сейчас почти везде используются предварительно настроенные шаблоны, в которых прописаны наборы IP-адресов и домены (и, возможно, сертификаты). При указании IP-адреса в настройке DNS-over-HTTPS он просто ищется в имеющихся шаблонах.
В оригинальном посте чуть понятнее рассказано: https://techcommunity.microsoft.com/t5/networking-blog/windows-insiders-gain-new-dns-over-https-controls/ba-p/2494644

Шедулер для гетерогенных x86-процессоров давно работает в десятке.
Специфичные оптимизации под Lakefield, например, были внедрены ещё в прошлом году.

Спасибо за монументальную подборку. Жаль, что ничего из этого не станет мейнстримом, а массовая поддержка в играх появится только с выходом FBT от Oculus/Valve.


Можно использовать трекеры 3.0 с базовыми станциями 1.0 и 2.0. Непонятно, с какой частотой они обновляются (отслеживаются).

Базовые станции Lighthouse 1.0 работают на частоте 60 Гц, Lighthouse 2.0 — 100 Гц. При использовании 2 станций они зажигаются по-очереди.
IMU в трекерах скорее всего работают на стандартных уже 1000 Гц.

Нулевой. Это нестандартный системный регистр из расширений Apple, который по задумке не должен быть доступен из userspace вообще.

Я против пиар акции Эппла, что они выкидывают с рынка компанию Tile, просто потому что могут.

Просто потому что могут дать значительно лучшее решение для пользователей Apple устройств без дополнительных маячков. И они дали API сторонним компаниям, поэтому тот же Tile может подключить свои устройства к этой сети, значительно улучшив их находимость (ценой выключения из собственной сети).


Просто все мы за бесплатно волонтёрим.

И так же бесплатно получаем возможность найти свои устройства.


Вы сейчас выступаете с позиции "назло маме обморожу уши". Apple прям почувствует вашу принципиальность, когда человеку сидевшему за соседним столиком в кафе придётся понервничать, пытаясь найти забытые наушники.


А главное — что тогда Apple должна была делать, чтобы вы остались довольны?
Вообще не реализовывать технологию, потому что оказалось, что у них есть преимущество?

Если я правильно помню, то изначально на iPhone использовалась Google WPS сеть, собранная с помощью Street View машин, и информация с сотовых вышек (они тоже могут транслировать своё положение).
А потом все переключились на сбор данных в приложениях карт, когда и GPS уже включен, и трафика много идёт.

Эта галка полностью отключает участие в P2P сети, как для приёма, так и для передачи.
А если не подключать Find My, то вся подсистема поиска будет выключена целиком.


Оффтопом: я не понимаю людей, которые хотят это отключить. Ценой нескольких килобайт траффика в день (энергопотреблением на сохранение-передачу этих данных можно вообще пренебречь) вы потенциально можете помочь людям, находящимся рядом с вами, найти и вернуть потерянное устройство или вещь. А возможно это вы будете искать свой телефон, который где-то забыли или выронили.

Что-то есть, но пока далеко от релиза: https://www.youtube.com/watch?v=pfogc-Poy3Q
Arena сильно менее интересная игра, чтобы иметь развитое сообщество энтузиастов.

Автор решил похайповать на громком заголовке.


Во-первых, чтобы утащить данные с айфона, нужно поставить на него приложение, которое будет иметь доступ к этим данным, что само по себе предполагает физический доступ к устройству или эксплоит с повышением привелегий и полным доступом.
Во-вторых, iOS-приложения не могут генерировать произвольные BLE-пакеты, и никакой передачи через "Find My" с айфона не получится (именно поэтому в статье отправитель ESP32, а не iPhone).

Назовите из 10 топовых VR Игр хотя бы одну с поддержкой VRSLI.

Я не знаю, какой "топ" вы имеете в виду, но вот из тех игр, что на слуху:


  • Serious Sam VR (все версии)
  • Eve Valkyrie
  • Project Cars 2
  • Raw Data

Оно само по себе не работает, его на уровне игры поддерживать надо.

Для некоторых игр работает обычный SLI, даже без поддержки в играх. Elite Dangerous VR, например, хорошо ускоряется при форсинге в настройках NVidia.


Но да, SLI в целом, и VR SLI в частности, сейчас скорее мёртвые технологии. Слишком маленькая доля игроков, чтобы под них отдельно оптимизировать.


Репроекция не дает замыленности. Собственно откуда бы ей взяться, если картинка ровно таже используется?

Зато даёт динамическое (правильнее это назвать автоматически конфигурируемое) разрешение, которое по-умолчанию включено как в Steam VR, так и в Oculus.


Ну и о какой ватности можно говорить на 45 ФПС, когда трэкинг рук был 30?

Трекинг контроллеров и шлема производится с частотой 1000 Гц по акселерометрам и гироскопам, и актуальное положение берётся несколько раз в процессе рассчёта каждого кадра. Данные от lighthouse/камер используются только для уточнения абсолютного положения (и частота там 60 Гц).
Одно уменьшение частоты кадров с 90 до 45 fps даёт увеличение задержки реакции мира на ~11 мс (примерно столько же добавляет Air Link для беспроводного подключения).


Rift S, HL: Alyx, 1050Ti, стабильные 30 на максимальный настройках.

Alyx не самая требовательная игра, которая поверх SteamVR применяет ещё свои алгоритмы по динамическому снижению разрешения. И при этом всего 30 fps — это просто смешно.
Я отлично чуствую разницу в реакции между 60, 72 и 90 Гц, и когда включается Reprojection. Ниже стабильных 72 fps лично у меня никакого эффекта погружения не возникает вообще.

Это и называется «Толком нет». Работает VRSli с горем пополам. Хуже чем на плоских играх.

Никаких замеров у вас, конечно, нет.


Речь была о том, что порог входа был(и остается) достаточно низким по видеокарте.

Если вас устраивает ватный и замыленный мир с ASW/Reprojection и регулярными подлагиваниями. А для полного разрешения хотя бы в уже устаревших Oculus Rift S/Vive Pro просто необходима видеокарта от GTX 1070 и выше. Я уж не говорю про Valve Index @120-144 Гц.


Так можно и какой-нибудь Cyberpunk назвать нетребовательной игрой, если она запускается на GTX 970 с картофельными настройками в 640x400@30Гц.

VR никогда толком не умел в SLI.

Умеет, конечно: https://developer.nvidia.com/vrworks/graphics/vrsli
В Unity это включается буквально одной командой: https://developer.nvidia.com/nvidia-vrworks-and-unity-user-guide


Плюс у него с запуска не было особых требований к железу. <...>
Моей видеокартой был… GTX 650. Купленный в 2014 году за 50 долларов.

Вы после этого пробовали на более мощных видеокартах запускать те же игры?
У меня был GTX 750 Ti, который не мог выдержать стабильные 90 Гц в самых простых играх, даже при уменьшении разрешения. Oculus к релизу CV1 уже имел свой Timewarp, с которым худо-бедно можно было играть; с Vive в то время было куда хуже.


А потом я обновился до GTX 970, и это был абсолютно другой опыт, где я впервые ощутил полное погружение.


Сейчас, во многих современных играх, в современных шлемах, минимально комфортный опыт можно получить где-то начиная с RTX 2070.

Регистр глобальный на кластер из 4 ядер. 2 процесса, исполняющиеся на разных ядрах могут передавать данные со скоростью в несколько мегабит в секунду.
Потеря 2 бит в миллисекунду останется вообще незамеченной.


А если поставить себе задачу надёжно писать в этот регистр чаще, то нужно целиком одно ядро процессора отдать на такой пишущий поток ядра ОС. И это должно быть производительное ядро, что в свою очередь приносит уменьшение производительности почти на четверть, и серьёзное увеличение энергопотребления в ненагруженном режиме работы.

Не скептецизм, а вспоминания о том, что все рассказы про армовские многоядерные серверные процы раз за разом звучали ровно так:

Ну вот рассказов-то было немного как раз, что вы своими примерами и подтверждаете (не говоря о том, что смешивать анонсы разных компаний в одну историю как минимум странно).


Все. Будь то марвеловский с смт4

Это был один анонс, который через полгода отозвали.


будь рассказы про гравитейшен

Amazon Graviton? 3 года как в строю.


будь это 80 ядерный ампер.

Он тоже вышел в прошлом году.


И длится это годами. О том, как амазон вот-вот перейдёт на арм вроде ещё до 18 года рассказывали (а перейти на них он вообще с 15-го года думал, ага, когда им амд вроде как должен был армовский проц пилить)

Амазон активно переходит и наращивает долю ARM серверов, просто это небыстрый процесс, зависящий от инерции клиентов (которые в свою очередь обременены легаси и затратами на смену архитектуры).


За это время амд выкатили реальную технологию, неоднократно её улучшили и успели отхавать под 9% серверного рынка

Вы забыли уточнить, что это 9% продаж в одном квартале, когда Intel который год стагнирует, а линейка Xeon именно в следующем квартале получит серьёзное (по анонсам) обновление. Практически идеальные условия.


стать доступны любому с улицы считай, а не только парнтерам

У AMD сейчас тоже большой дефицит производственных мощностей, и доступны их процессоры отнюдь не любому и не в любых количествах.


И да, я могу быть уверен, что в следующем году они ещё что-то выкатят. Да, конечно, можно их попробовать обставить на 5нм, вот только они эти 5 нм так же выкатят, после чего интересно будет посмотреть сравнения энергоэффективности арм процов против ужасно жрущего x86, ага. Особенно, если армам придётся ещё и частоты подзадрать ради конкуренции, а выигрыша по нанометрам уже не будет.

Я ещё раз повторю — 80-ядерный Altra прямо сейчас конкурирует с топовыми решениями от AMD, потребляя почти в 2 раза меньше. Инстансы Graviton2 для задач, не требующих топовой производительности на ядро, обходится клиентам, по разным оценкам, на 30-60% дешевле x86 (для самой Amazon вполне вероятно ещё выгоднее).


Вот и всё. Просто с одной стороны есть длительные рассказы о прекрасном будущем, а с другой рабочие лошадки, доступные всем и уже изменившие настоящее.

Пока что я вижу от вас только необоснованную критику одних компаний по плохо запомнившимся анонсам других компаний.


Вот человек выше заявил, что ампер свои обещания типа исполняет, вы пишите, что своего ядра, которое бы показало где раки зимуют интелу и амд у них ещё нет, а они шлепнули N1, чтоб хоть было чего показать.

А это самоцель такая "своё ядро"? 70% мобилок в мире работает на лицензированных у ARM ядрах, и как-то мир не рухнул. Ampere просто посчитали, что смогут сами сделать лучше, ну флаг им в руки, посмотрим что получится. Как минимум один пример подобного успеха уже есть.

Information

Rating
4,223-rd
Location
Санкт-Петербург, Санкт-Петербург и область, Россия
Date of birth
Registered
Activity