Когда в 57 хроме начали троттлить таймеры, то частично сломали веб, потому что веб-разработчики не ожидали такого поворота, хотя чисто по стандарту нет гарантии того, что setTimeout вызовет функцию ровно через указанное время. Так что такие изменения должны осуществляться плавно, чтобы сайты успели к этому подготовиться.
Мне кажется, что так не было сделано сразу потому что раньше проблема стояла не так остро. Интернет был другой, не было 3d css, не было html5 video. Компьютеры были слабые, интернет медленный. Сайты разрабатывались с учетом всех этих ограничений. А сейчас ресурсов очень много и как-то уже перестали волноваться о проблемах эффективного их использования. Вот и пришла пора закручивать гайки.
Я бы для начала попробовал с помощью memory-infra посмотреть, чтобы примерно понять откуда ноги растут. Это вполне может быть какая-то утечка. Если повторяется более менее стабильно, то стоит отправить багрепорт с примерными шагами
Просто венгерский язык принадлежит к финно-угорской группе. К ней еще, внезапно, принадлежат хантыйский и мансийский языки. Сама группа входит в уральскую языковую семью. Английский, русский, немецкий и т.д. — это языки индоевропейской семьи. Поэтому венгерский такой вот особенный европейский язык и знание других европейских языков особо может и не помочь в понимании
Я не поленился и проверил google login. В chrome действительно есть анимация последовательного появления логотопов сервисов, которые потом складываются в слово Google. В FF анимации нет, там просто статичная svg со словом Google.
Это плохое, негодное сравнение.
Можно заметить, что для некоторых сайтов, например search.yahoo.com, выдается разная верстка (хорошо заметно по картинкам справа, плюс разные результаты поиска). Больше всего меня повеселило сравнение Google login: в FF нет логотипов других сервисов, а в chrome они появляются последовательно. А что если это такая анимация? Но в сравнении замеры для chrome заканчиваются именно после того, как они закончат загружаться. Еще если я правильно понял, то тесты проводились на реальной сети, что тоже некорректно.
В идеале сравнение производительности должно проводиться с помощью записанных сайтов с помощью какого-нибудь web page replay, чтобы полностью исключить влияние сети и обеспечить проверку одинаковой версии страницы. Без этого при большом желании можно подогнать любые результаты.
Нет, одновременно сбор и визуализация сейчас работать не будут. Я думаю, что можно подхачить немного, чтобы все заработало, но нужно тогда как минимум гарантировать, что вывод и визуализация не создадут еще TraceEvent.
Сбор с нескольких машин сделать можно — по сути это просто json, который можно как-то склеивать и потом как-то отображать.
Совсем не обязательно трейсить только функцию целиком. Можно, например, вставлять трейсы в отдельные блоки. Тогда могут быть какие-то другие имена, а не просто имя функции
Мне кажется, что так не было сделано сразу потому что раньше проблема стояла не так остро. Интернет был другой, не было 3d css, не было html5 video. Компьютеры были слабые, интернет медленный. Сайты разрабатывались с учетом всех этих ограничений. А сейчас ресурсов очень много и как-то уже перестали волноваться о проблемах эффективного их использования. Вот и пришла пора закручивать гайки.
Я бы для начала попробовал с помощью memory-infra посмотреть, чтобы примерно понять откуда ноги растут. Это вполне может быть какая-то утечка. Если повторяется более менее стабильно, то стоит отправить багрепорт с примерными шагами
Это внутренний профилировщик самого браузера. Вот тут подробнее
Можно заметить, что для некоторых сайтов, например search.yahoo.com, выдается разная верстка (хорошо заметно по картинкам справа, плюс разные результаты поиска). Больше всего меня повеселило сравнение Google login: в FF нет логотипов других сервисов, а в chrome они появляются последовательно. А что если это такая анимация? Но в сравнении замеры для chrome заканчиваются именно после того, как они закончат загружаться. Еще если я правильно понял, то тесты проводились на реальной сети, что тоже некорректно.
В идеале сравнение производительности должно проводиться с помощью записанных сайтов с помощью какого-нибудь web page replay, чтобы полностью исключить влияние сети и обеспечить проверку одинаковой версии страницы. Без этого при большом желании можно подогнать любые результаты.
Сбор с нескольких машин сделать можно — по сути это просто json, который можно как-то склеивать и потом как-то отображать.