По моим наблюдениям не успевает догрузится имено страница. Браузер умеет отображать HTML страницу по мере загрузки а заодно и запрашивает изображения и остальные ресурсы. Поскольку эти ресурсы находятся на других хостах браузер открывает к ним отдельный канал и загружает их параллельно со страницей что ещё больше замедляет её загрузку. В результате через некоторое срабатывает таймаут и соединение сбрасывается.
Часть страницы то уже показана. Зачем менять контент на ошибку? Оставили бы недогруженой с показом ошибки загрузки рядом.
А самое главное что нажимая обновить она начинает грузиться заново. Хотя казалось бы продолжи загрузку с недогруженного места если страница не изменилась.
Незнаю насколько это критично но: Недавно обнаружил что Firefox в XSLT match может использовать переменные а Chrome нет(ошибка копиляции). Так же для Chrome надо URL кодировать пути в xsl:import и document.
Можно конечно поумолчанию подстраиваться под Chrome. Firefox это примет. Но в случае xsl:import и document это делает код менее понятным.
Ещё это может решить провайдер. На медленном интернете у меня некоторые страницы хабра просто вылитали в таймаут: "Ошибка при установке защищённого соединения". Хотя это странная ошибка при условии что часть страницы уже была показана.
На такой случай открытым проектам нужна децентрализация. Нужен инструмент который бы ослеживал изменения во всех открытых форках и помогал собрать из них свой с нужными изменениями.
Из за единой точки доверия сложно добавить исправления и новые возмжности в брошенный проект.
Воможно нужен форк в который могут писать и откатывать изменения все как это организованно в вики.
С NoScript не знаю ни одного сайта, который хотя бы показал контент верно, как минимум везде едет форматирование, хотя, казалось бы, при чём тут оно и JS…
Там вроде нет ИИ. Там распознование при помощи людей. Что по статистике выбирает большинство как правильный ответ то и является правильным ответом для капчи. Но для того чтобы набрать статистику они смешивают картинки у которых известен верный ответ и те у которых его нет. Если первая часть была решена верно то считается что вторая так-же угадана верно.
ИИ скорей всего делает выбор чего вырезать из панорам для капчи. И учат его на результатах капчи. Но сам он в оценке правильности ответов капчи врятли участвует.
Ну вот например с IPFS я избавился от оплаты хостинга. Точнее хостинг это мой ПК на котором нужно иногда запускать узел IPFS чтобы подгрузить на шлюзы потерянные блоки если есть таковые. Осталасть только оплата домена.
Если речь о простом статичном сайте то его легко можно сделать децентрализованным при помощи IPFS. CloudFlare запустил свой шлюз в IPFS и я уже год держу на нём сайт без бэкенда.
Когда CloudFlare косячил сайт был всё ещё доступен на других шлюзах и периодически с них подгружается то что CloudFlare не успевает отдать по каким то причинам.
Ну и плюс к этому добавляется возможность посетителям также участвовать в поддержке работы сайта если они установят у себя клиент IPFS и загрузят в нём его содержимое (открыв сайт через свой шлюз или прицепив(pin) его к шлюзу).
Единственная проблема это DNS. Если он вырубится то придётся пользоваться публичным ключём автора или хешем контента. Но можно сделать локальный DNS который будет архивом хешей и позволит просмотривать загруженный сайт без доступа к интернету.
И на ориганильный сайт просто так почитать не сходишь. Налоговая забанила IP адреса оригинального сайта. Раньше РКН генпрокуратурой только прикрывался. Теперь уже и приказом ФНС(2-6-20/2017-01-24-117-АИ) аж от 2017 года.
По моим наблюдениям не успевает догрузится имено страница. Браузер умеет отображать HTML страницу по мере загрузки а заодно и запрашивает изображения и остальные ресурсы. Поскольку эти ресурсы находятся на других хостах браузер открывает к ним отдельный канал и загружает их параллельно со страницей что ещё больше замедляет её загрузку. В результате через некоторое срабатывает таймаут и соединение сбрасывается.
Как я понимаю право это не обязанность так что хочешь работай а хочешь нет. Но в формулировке точно какой то косяк.
Часть страницы то уже показана. Зачем менять контент на ошибку? Оставили бы недогруженой с показом ошибки загрузки рядом.
А самое главное что нажимая обновить она начинает грузиться заново. Хотя казалось бы продолжи загрузку с недогруженного места если страница не изменилась.
Незнаю насколько это критично но: Недавно обнаружил что Firefox в XSLT match может использовать переменные а Chrome нет(ошибка копиляции). Так же для Chrome надо URL кодировать пути в xsl:import и document.
Можно конечно поумолчанию подстраиваться под Chrome. Firefox это примет. Но в случае xsl:import и document это делает код менее понятным.
Ещё это может решить провайдер. На медленном интернете у меня некоторые страницы хабра просто вылитали в таймаут: "Ошибка при установке защищённого соединения". Хотя это странная ошибка при условии что часть страницы уже была показана.
На такой случай открытым проектам нужна децентрализация. Нужен инструмент который бы ослеживал изменения во всех открытых форках и помогал собрать из них свой с нужными изменениями.
Из за единой точки доверия сложно добавить исправления и новые возмжности в брошенный проект.
Воможно нужен форк в который могут писать и откатывать изменения все как это организованно в вики.
Если они успевают за спросом то ок но 2 часа это по моему долговато. Если уж производство массовое и однотипное то можно в формы лить а не печатать.
А Firefox?
А хабр не считется?
Там вроде нет ИИ. Там распознование при помощи людей. Что по статистике выбирает большинство как правильный ответ то и является правильным ответом для капчи. Но для того чтобы набрать статистику они смешивают картинки у которых известен верный ответ и те у которых его нет. Если первая часть была решена верно то считается что вторая так-же угадана верно.
ИИ скорей всего делает выбор чего вырезать из панорам для капчи. И учат его на результатах капчи. Но сам он в оценке правильности ответов капчи врятли участвует.
Для статичного сайта они не нужны.
Но если сайт уже использует базу данных то тут есть варианты:
Поскольку в IPFS нет бэкенда то всё что делается на сервере должно быть сделано либо до загрузки в IPFS либо уже в браузере пользователя.
Ну вот например с IPFS я избавился от оплаты хостинга. Точнее хостинг это мой ПК на котором нужно иногда запускать узел IPFS чтобы подгрузить на шлюзы потерянные блоки если есть таковые. Осталасть только оплата домена.
Ну если уж узнали как переключится на CloudFlare можно и узнать как згрузить свой сайт в IPFS.
В таком случае что вы имеете ввиду под любительскими сайтами? И в чём нестыковки с моим высказыванием?
Цитата:
Если речь о простом статичном сайте то его легко можно сделать децентрализованным при помощи IPFS. CloudFlare запустил свой шлюз в IPFS и я уже год держу на нём сайт без бэкенда.
Когда CloudFlare косячил сайт был всё ещё доступен на других шлюзах и периодически с них подгружается то что CloudFlare не успевает отдать по каким то причинам.
Ну и плюс к этому добавляется возможность посетителям также участвовать в поддержке работы сайта если они установят у себя клиент IPFS и загрузят в нём его содержимое (открыв сайт через свой шлюз или прицепив(pin) его к шлюзу).
Единственная проблема это DNS. Если он вырубится то придётся пользоваться публичным ключём автора или хешем контента. Но можно сделать локальный DNS который будет архивом хешей и позволит просмотривать загруженный сайт без доступа к интернету.
Интернет штука децентрализованная. Именно поэтому его так сложно контролировать. Но не многие пользуются его возможностями в полную силу.
Обмениваться информацией так или иначе это естественно для всех живых организмов и попытки это запретить бесполезны.
Ну может они надеятся что переводчик передаст вопрос автору и ответ от него?
И на ориганильный сайт просто так почитать не сходишь. Налоговая забанила IP адреса оригинального сайта. Раньше РКН генпрокуратурой только прикрывался. Теперь уже и приказом ФНС(2-6-20/2017-01-24-117-АИ) аж от 2017 года.
GPS не настолько точный чтобы определить в доме человек или рядом с ним.