Pull to refresh
82
0

Программист-фрилансер

Send message

По моим наблюдениям не успевает догрузится имено страница. Браузер умеет отображать HTML страницу по мере загрузки а заодно и запрашивает изображения и остальные ресурсы. Поскольку эти ресурсы находятся на других хостах браузер открывает к ним отдельный канал и загружает их параллельно со страницей что ещё больше замедляет её загрузку. В результате через некоторое срабатывает таймаут и соединение сбрасывается.

Как я понимаю право это не обязанность так что хочешь работай а хочешь нет. Но в формулировке точно какой то косяк.

Часть страницы то уже показана. Зачем менять контент на ошибку? Оставили бы недогруженой с показом ошибки загрузки рядом.


А самое главное что нажимая обновить она начинает грузиться заново. Хотя казалось бы продолжи загрузку с недогруженного места если страница не изменилась.

Незнаю насколько это критично но: Недавно обнаружил что Firefox в XSLT match может использовать переменные а Chrome нет(ошибка копиляции). Так же для Chrome надо URL кодировать пути в xsl:import и document.


Можно конечно поумолчанию подстраиваться под Chrome. Firefox это примет. Но в случае xsl:import и document это делает код менее понятным.

Ещё это может решить провайдер. На медленном интернете у меня некоторые страницы хабра просто вылитали в таймаут: "Ошибка при установке защищённого соединения". Хотя это странная ошибка при условии что часть страницы уже была показана.

На такой случай открытым проектам нужна децентрализация. Нужен инструмент который бы ослеживал изменения во всех открытых форках и помогал собрать из них свой с нужными изменениями.


Из за единой точки доверия сложно добавить исправления и новые возмжности в брошенный проект.


Воможно нужен форк в который могут писать и откатывать изменения все как это организованно в вики.

Если они успевают за спросом то ок но 2 часа это по моему долговато. Если уж производство массовое и однотипное то можно в формы лить а не печатать.

С NoScript не знаю ни одного сайта, который хотя бы показал контент верно, как минимум везде едет форматирование, хотя, казалось бы, при чём тут оно и JS…

А хабр не считется?

Там вроде нет ИИ. Там распознование при помощи людей. Что по статистике выбирает большинство как правильный ответ то и является правильным ответом для капчи. Но для того чтобы набрать статистику они смешивают картинки у которых известен верный ответ и те у которых его нет. Если первая часть была решена верно то считается что вторая так-же угадана верно.


ИИ скорей всего делает выбор чего вырезать из панорам для капчи. И учат его на результатах капчи. Но сам он в оценке правильности ответов капчи врятли участвует.

Для статичного сайта они не нужны.


Но если сайт уже использует базу данных то тут есть варианты:


  1. Запустить сайт локально и загрузить с него все страницы в IPFS.
  2. Конвертировать базу данных в JSON или XML файлы и подгружать данные на страницу в браузере. Но этот способ уже требует доработки сайта.

Поскольку в IPFS нет бэкенда то всё что делается на сервере должно быть сделано либо до загрузки в IPFS либо уже в браузере пользователя.

Ну вот например с IPFS я избавился от оплаты хостинга. Точнее хостинг это мой ПК на котором нужно иногда запускать узел IPFS чтобы подгрузить на шлюзы потерянные блоки если есть таковые. Осталасть только оплата домена.

Ну если уж узнали как переключится на CloudFlare можно и узнать как згрузить свой сайт в IPFS.

В таком случае что вы имеете ввиду под любительскими сайтами? И в чём нестыковки с моим высказыванием?

Цитата:


Но для небольших любительских сайтов альтернативы нет, другие варианты они себе не могут позволить финансово, даже с 3 бесплатными месяцами.

Если речь о простом статичном сайте то его легко можно сделать децентрализованным при помощи IPFS. CloudFlare запустил свой шлюз в IPFS и я уже год держу на нём сайт без бэкенда.


Когда CloudFlare косячил сайт был всё ещё доступен на других шлюзах и периодически с них подгружается то что CloudFlare не успевает отдать по каким то причинам.


Ну и плюс к этому добавляется возможность посетителям также участвовать в поддержке работы сайта если они установят у себя клиент IPFS и загрузят в нём его содержимое (открыв сайт через свой шлюз или прицепив(pin) его к шлюзу).


Единственная проблема это DNS. Если он вырубится то придётся пользоваться публичным ключём автора или хешем контента. Но можно сделать локальный DNS который будет архивом хешей и позволит просмотривать загруженный сайт без доступа к интернету.

Интернет штука децентрализованная. Именно поэтому его так сложно контролировать. Но не многие пользуются его возможностями в полную силу.


  1. За одним доменным именем может быть несколько IP адресов разного типа.
  2. За одним IP адресом может быть несколько разных узлов в разных частях света.
  3. Пакеты туда и обратно могут следовать разными путями.
  4. Есть множество прокси и VPN сервисов.
  5. Информация легко копируется и распространяется.
  6. Связь с соседями есть через одного или нескольких провайдеров. Но какая от этого польза?
  7. Связь с гостями через WiFi роутер. Но редко бывает в ней необходимость.
  8. IPv6 избавляет от NAT который не даёт пользователям связываться напрямую без посредников в виде сервера.
  9. Куча децентрализованных файловых сетей которые убирают зависимость от источника иформации. Нужно знать только её хеш.
  10. Шифрование которое делает практически бесполезным хранение и анализ трафика.

Обмениваться информацией так или иначе это естественно для всех живых организмов и попытки это запретить бесполезны.

Ну может они надеятся что переводчик передаст вопрос автору и ответ от него?

И на ориганильный сайт просто так почитать не сходишь. Налоговая забанила IP адреса оригинального сайта. Раньше РКН генпрокуратурой только прикрывался. Теперь уже и приказом ФНС(2-6-20/2017-01-24-117-АИ) аж от 2017 года.

GPS не настолько точный чтобы определить в доме человек или рядом с ним.

Information

Rating
Does not participate
Registered
Activity