Комментарии 43
в свое время один сайт вдруг начал открывать страницы по пол-минуты. оказалось, на нем был код рекламной метрики, адрес которой был заблокирован на системе. и страница упорно пыталась с него что-то скачать, пока не отваливалась по тайм-ауту.
Пусть это прозвучит наивно, но я мечтаю: вот бы появился и стал популярным какой-нибудь браузер, который грузил бы только тело страницы и полезный контент, а все эти рекламно-следящие штуки не только не подгружал, но и ДДОСил адреса, откуда оно лезет, чтоб всё оно в итоге от мощного ДДОСа рушилось и не работало вообще, а рекламодатели учились бы умещать свою рекламу в обычный статичный кликабельный jpeg не более 240*320 пикселей. При этом чтобы язык разметки был бы всеобщим и статичным (а не так, что двухлетний браузер не может открыть половину новых сайтов).
А в чем проблема использовать блокировщики?
Например, вот в этом
html.no-print-color-adjust body._metro-jams-experiment._font_loaded._app_ready._url_controlled._map_ready div.body div.app div.sidebar-container div.sidebar-view._name_home._shown div.sidebar-view__panel div.scroll._width_narrow div.scroll__container div.scroll__content div.home-panel-content-view div.home-panel-content-view__body div.hw__eabffdabcadc div.knl__aadfbbbbbfc div.xureq__cebabedfaaff div.udn__fbeaecacaebffadd div.whoik__fdadfebbdcede div.bwu__fbcfdfbaffbcdcd div.ldhzu__adeafabccfeaaf div.cujf__efebcaccaedccf
С некоторых по ключу типа: домен_страницы + полный урл ссылки. CDN теперь лишь "приближает" файл к юзеру, на то что этот урл был скачен когда-то для другого сайта рассчитывать уже нельзя
- Вроде же есть WebAssembly
- Могут потребоваться разные версии библиотек. Да и как обновлять их? Если не указана версия (т.е. подразумевается последняя), то возникнет неоднозначность.
- Кроме того, это всё скорее проблема первой загрузки, потом всё равно из локального кэша подтянется.
2. Ну это решается организационными мерами. Как-то же научились справляться с library hell через менеджеры пакетов, здесь не вижу большого различия.
3. А подтянется ли?
Вообще меня несколько смущает то, как ругают С и плюсы за отсутствие модульности и менеджера пакетов, ад с версиями библиотек, обилие велосипедов и небезопасность, а в стильно-модно-молодёжном вебе все те же проблемы, но это как бы ОК.
2.решение library hell для веба, полагаю, должно выглядеть в духе "Отображение этого сайта не поддерживается в вашей версии браузера. Пожалуйста, обновите браузер." ))
Вообще, в этом духе построен IPFS. Его, кста, поддерживает CloudFlare (и собственно применимо к вебу: https://blog.cloudflare.com/distributed-web-gateway/). Присмотритесь к этому решению, если вам это интересно.
Вот и я про то. Не вижу я другого способа решения проблемы не изобретая интернет заново.
тут я не в теме
Библиотеки на публичных CDN обычно имеют версию в урле в том или ином виде, иногда даже рандомную, но на кэширование это на практике не влияет, если 6+ знаков
Однозначно, если нет вытеснения или пользователь постоянно кэш не чистит, но на время одной сессии можно рассчитывать
Почему-то 8% веб-сайтов определяют полифил setImmediate/clearImmediate для функции, реализация которой даже не планируется ни в одном из браузеров.
redux жи ну
Вот, например: up.agrd.eu/jHm89H.png
Я так и не понял, каков же в результате ответ на вопрос в заголовке? Из-за чего таки тормозит Веб? Только лишь jQuery?
Похоже, мы не можем отвязаться от того факта, что протоколы стали быстрее, а поэтому довольные программисты пользуются этим ускорением, доставляя в браузер больше данных.
Да не потому что протоколы стали быстрее, а потому что 15-20 лет назад скорость интернета была во много раз ниже, а даже сложный сайт был набором html-страниц, а не приложением на реакте даже для визиток.
Мы отрендерили миллион страниц, чтобы понять, из-за чего тормозит веб