Pull to refresh

Comments 15

Спасибо за материал, никогда не касался такой стороны работы с кодом.

Вопрос - а в чем проблема открытия страниц за 600 мс? Я о том, что конкретно происходит с пользователем? Это всего пол секунды, я дольше осознаю что сделал клик. А еще я в 90% случаев ссылки открываю средней кнопкой мыши, а читаю позже. Я дитя dialup, для меня скорость загрузки страниц находится в приемлемой и комфортной зоне примерно в 3-4 секунды, быстрее мне просто не нужно, так как не даст никакого эффекта. То есть для меня бы это выглядело так: 20000 программистов пять лет трудились над кодом, запыхавшиеся и в мыле прибегают и говорят - всё, теперь ваш любимый сайт будет вместо 600 мс грузиться 120 мс и я такой "Нуууууу, ок". Ну или еще аналогия - быстрый и мощный автомобиль в городе Москве ползающий со скоростью потока.

У гугла есть статистика... очень много статистики. И по этой статистике большинство людей не читают сайты, а просматривают по диагонали. И здесь задержка интерактивности на 1с и более (а кроме js ещё нужно загрузить собственно страницу со всеми картинками и т.д., распарсить пару мегабайт стилей и прочее) по статистике приводит к резкому росту числа отказов - люди просто уходят на другую вкладку. Так что залипание на полсекунды это действительно много.

И по этой статистике большинство людей не читают сайты, а просматривают по диагонали

Я не спорю, вопрос был о причинах такого поведения, возможно вы в курсе. Просто если я открыл вики, то для того чтобы читать, а так как открываю я сразу несколько страниц, то пока я смотрю первую - остальные загрузились и уже спят.

по статистике приводит к резкому росту числа отказов - люди просто уходят на другую вкладку

То есть человек написал запрос "Черчилль вики", подождал 200 мс, закрыл и открыл что? Пардон конечно, я старпер, я не знаю как мыслит и существует современное поколение.

Я понимаю логику - подошел к кофейне, там очередь, постоял минуту, очередь даже не сдвинулась, ты ушел за квартал в другую. А в случае с информацией в интернете как это работает? Пойму такой подход к онлайн кинотеатру например, так как цель посмотреть кино и не важно кто его показывает, а как быть с информацией? Например есть Cyberforum, он утром постоянно лежит с ошибкой 503, потом чинят, но посещаемость все равно большая, так как важна информация а не качество работы сайта.

Когда люди ставят минус и ничего не пишут то выглядит это как кинуть из засады какашку и убежать. Я не вижу в своих вопросах и пояснениях ничего плохого, я правда не понимаю почему эти миллисекунды так важны.

Милисекунды на фронте и на бэке это как минимум разные миллисекунды. Ну а то что он пользуется спросом при хреновом уровне говорит только о монопольном положении оного форума/сайта.

Человек написал запрос в поисковик, среди выдачи кликнул в том числе на Википедию, она не загрузилась быстро, он ушёл.

попробуйте как-нибудь отмерить для себя продолжительность в 600 мс. Я, как человек, иногда ремонтирующий технику (ноутбуки и ПК) вижу в основном что от запроса до появления заголовка страницы в браузере проходит до 3-4 секунд. То есть от момента "я кликнул" до момента "оно открывается через 600 мс" я буду воспринимать процесс как - моментально.

Например тыкнул в Авито на весьма быстром ПК и интернете, появилась полоска загрузки, по её активности я вижу что загрузка идёт, от клика до названия в шапке 3 секунды, прогрузка основной части сайта еще секунда, я могу кликать и клики будут работать, но загрузка еще идет, еще через 2 секунды загрузка завершена.

Сайт 4pda - 1.5 секунды. Хабр - 2.5 секунды. Ютуб - 2.5 секунды. Али - 3.5 секунды. Дзен - 3 секунды. Wiki стартовая - 1 секунда. Сбер - 3 секунды и 22 секунды до полной загрузки. NGS - меньше секунды (если серверы в Новосибирске, то внутри сети города).

Простите, но я пока не понимаю.

Попробуйте с дешманского телефона открыть.

зачем? в статье утверждается что нужно 200мс вместо 600, что это важно, что есть статистика гугла, где даже 600 мс приводит к отказу от просмотра страницы и её закрытию. Я показал, что даже на современном ПК открытие популярных сайтов занимает больше времени. Если я возьму медленный телефон, то открытие будет еще дольше. То есть нет корреляции со статистикой гугла.

Гугл использует эту метрику для оценку конверсии клика в клик на рекламу. И тут имеется заметная корреляция, о чем и говорят исследования больших данных, получаемых гуглом из аналитики. Как результат эта метрика стала частью алгоритма ранжирования сайта с одним из наибольших весов.

В случае с бесплатными сайтами как Википедия падение в ранге нежелательно т.к. опять же уменьшается конверсия кликов в те же донаты, или какую-то рекламу (в случае других сайтов). Меньше донатов - сокращение ресурсов, сокращение ресурсов - уменьшение качества доставки контента - падение в ранге ещё больше и так пока сайт не вымрет. Википедия всё же не хочет вымирать, поэтому постоянно пытается улучшаться и оптимизировать затраты для себя и других - как раз то самое что описано в статье.

Ну и сравнивать личный опыт с оценками конверсии без цифр довольно сомнительное занятие.

Для меня очевидна подмена смысла сервиса - цель, получается, не быть самим собой, не давать людям информацию, а бороться с алгоритмами гугла. Отсюда и восприятие пользователя не как человека разумного, а как механизм для клика. Очевидно отсюда же проистекает популярность тиктоков и инстаграммов - важны клики, а не контент. Но в таком случае причем тут написанное в статье "Вам знакомы муки, когда пытаешься добиться чего-то от тормознутого сайта, а он не реагирует на щелки мыши или пробуксовывает при прокрутке?"???

Я прочитал статью, увидел обозначенную в статье проблему, прокомментировал, обозначил сомнения. А мне в качестве контраргумента дают совершенно другую отправную точку. Где логика? Так это борьба с гуглом или борьба со скоростью загрузки? Если с гуглом - то вопросов нет, если со скоростью - то проблема отсутствует.

 увидел обозначенную в статье проблему

вы использовали личный в качестве отправной точки. Вам тут же пояснили, что интернет не живёт исключительно под вашим влиянием и если лично вас 3-4 секунды устраивают, то en masse это плохо, о чём докладывал в том числе и гугл и 100 мс экономии на вашем устройстве сэкономят кому-то 1000мс на другом.

А в среднем борьба в сети ведётся на много фронтов - и с корпорациями с их SEO, облаками и прочим; и с провайдерами с их воздушными и не очень сетями, для которых изобретают всё новые и все более оптимальные протоколы и много ещё с чем. Википедия всего лишь показывает пример как надо делать, чтобы стало лучше. Если у вас всё работает и вы не испытываете солидарности с муками автора - радуйтесь.

Мне кажется, Википедия вообще без js должна быть сделана, хотя бы для просмотра.

Поддерживаю двумя руками! Вот как браузер может потреблять ресурсов на пару вкладок больше, чем вся ОС или не самая древняя 3D игра? Сейчас обмазывают JS вообще все, что обмазывается, ИМХО. Причем скрипты занимают в разы больший объем, чем полезная информация. Извиняюсь за эмоции, но наболело....

Sign up to leave a comment.

Articles