Комментарии 15
Спасибо за материал, никогда не касался такой стороны работы с кодом.
Вопрос - а в чем проблема открытия страниц за 600 мс? Я о том, что конкретно происходит с пользователем? Это всего пол секунды, я дольше осознаю что сделал клик. А еще я в 90% случаев ссылки открываю средней кнопкой мыши, а читаю позже. Я дитя dialup, для меня скорость загрузки страниц находится в приемлемой и комфортной зоне примерно в 3-4 секунды, быстрее мне просто не нужно, так как не даст никакого эффекта. То есть для меня бы это выглядело так: 20000 программистов пять лет трудились над кодом, запыхавшиеся и в мыле прибегают и говорят - всё, теперь ваш любимый сайт будет вместо 600 мс грузиться 120 мс и я такой "Нуууууу, ок". Ну или еще аналогия - быстрый и мощный автомобиль в городе Москве ползающий со скоростью потока.
У гугла есть статистика... очень много статистики. И по этой статистике большинство людей не читают сайты, а просматривают по диагонали. И здесь задержка интерактивности на 1с и более (а кроме js ещё нужно загрузить собственно страницу со всеми картинками и т.д., распарсить пару мегабайт стилей и прочее) по статистике приводит к резкому росту числа отказов - люди просто уходят на другую вкладку. Так что залипание на полсекунды это действительно много.
И по этой статистике большинство людей не читают сайты, а просматривают по диагонали
Я не спорю, вопрос был о причинах такого поведения, возможно вы в курсе. Просто если я открыл вики, то для того чтобы читать, а так как открываю я сразу несколько страниц, то пока я смотрю первую - остальные загрузились и уже спят.
по статистике приводит к резкому росту числа отказов - люди просто уходят на другую вкладку
То есть человек написал запрос "Черчилль вики", подождал 200 мс, закрыл и открыл что? Пардон конечно, я старпер, я не знаю как мыслит и существует современное поколение.
Я понимаю логику - подошел к кофейне, там очередь, постоял минуту, очередь даже не сдвинулась, ты ушел за квартал в другую. А в случае с информацией в интернете как это работает? Пойму такой подход к онлайн кинотеатру например, так как цель посмотреть кино и не важно кто его показывает, а как быть с информацией? Например есть Cyberforum, он утром постоянно лежит с ошибкой 503, потом чинят, но посещаемость все равно большая, так как важна информация а не качество работы сайта.
Когда люди ставят минус и ничего не пишут то выглядит это как кинуть из засады какашку и убежать. Я не вижу в своих вопросах и пояснениях ничего плохого, я правда не понимаю почему эти миллисекунды так важны.
Человек написал запрос в поисковик, среди выдачи кликнул в том числе на Википедию, она не загрузилась быстро, он ушёл.
попробуйте как-нибудь отмерить для себя продолжительность в 600 мс. Я, как человек, иногда ремонтирующий технику (ноутбуки и ПК) вижу в основном что от запроса до появления заголовка страницы в браузере проходит до 3-4 секунд. То есть от момента "я кликнул" до момента "оно открывается через 600 мс" я буду воспринимать процесс как - моментально.
Например тыкнул в Авито на весьма быстром ПК и интернете, появилась полоска загрузки, по её активности я вижу что загрузка идёт, от клика до названия в шапке 3 секунды, прогрузка основной части сайта еще секунда, я могу кликать и клики будут работать, но загрузка еще идет, еще через 2 секунды загрузка завершена.
Сайт 4pda - 1.5 секунды. Хабр - 2.5 секунды. Ютуб - 2.5 секунды. Али - 3.5 секунды. Дзен - 3 секунды. Wiki стартовая - 1 секунда. Сбер - 3 секунды и 22 секунды до полной загрузки. NGS - меньше секунды (если серверы в Новосибирске, то внутри сети города).
Простите, но я пока не понимаю.
Попробуйте с дешманского телефона открыть.
зачем? в статье утверждается что нужно 200мс вместо 600, что это важно, что есть статистика гугла, где даже 600 мс приводит к отказу от просмотра страницы и её закрытию. Я показал, что даже на современном ПК открытие популярных сайтов занимает больше времени. Если я возьму медленный телефон, то открытие будет еще дольше. То есть нет корреляции со статистикой гугла.
Гугл использует эту метрику для оценку конверсии клика в клик на рекламу. И тут имеется заметная корреляция, о чем и говорят исследования больших данных, получаемых гуглом из аналитики. Как результат эта метрика стала частью алгоритма ранжирования сайта с одним из наибольших весов.
В случае с бесплатными сайтами как Википедия падение в ранге нежелательно т.к. опять же уменьшается конверсия кликов в те же донаты, или какую-то рекламу (в случае других сайтов). Меньше донатов - сокращение ресурсов, сокращение ресурсов - уменьшение качества доставки контента - падение в ранге ещё больше и так пока сайт не вымрет. Википедия всё же не хочет вымирать, поэтому постоянно пытается улучшаться и оптимизировать затраты для себя и других - как раз то самое что описано в статье.
Ну и сравнивать личный опыт с оценками конверсии без цифр довольно сомнительное занятие.
Для меня очевидна подмена смысла сервиса - цель, получается, не быть самим собой, не давать людям информацию, а бороться с алгоритмами гугла. Отсюда и восприятие пользователя не как человека разумного, а как механизм для клика. Очевидно отсюда же проистекает популярность тиктоков и инстаграммов - важны клики, а не контент. Но в таком случае причем тут написанное в статье "Вам знакомы муки, когда пытаешься добиться чего-то от тормознутого сайта, а он не реагирует на щелки мыши или пробуксовывает при прокрутке?"???
Я прочитал статью, увидел обозначенную в статье проблему, прокомментировал, обозначил сомнения. А мне в качестве контраргумента дают совершенно другую отправную точку. Где логика? Так это борьба с гуглом или борьба со скоростью загрузки? Если с гуглом - то вопросов нет, если со скоростью - то проблема отсутствует.
увидел обозначенную в статье проблему
вы использовали личный в качестве отправной точки. Вам тут же пояснили, что интернет не живёт исключительно под вашим влиянием и если лично вас 3-4 секунды устраивают, то en masse это плохо, о чём докладывал в том числе и гугл и 100 мс экономии на вашем устройстве сэкономят кому-то 1000мс на другом.
А в среднем борьба в сети ведётся на много фронтов - и с корпорациями с их SEO, облаками и прочим; и с провайдерами с их воздушными и не очень сетями, для которых изобретают всё новые и все более оптимальные протоколы и много ещё с чем. Википедия всего лишь показывает пример как надо делать, чтобы стало лучше. Если у вас всё работает и вы не испытываете солидарности с муками автора - радуйтесь.
Мне кажется, Википедия вообще без js должна быть сделана, хотя бы для просмотра.
Попробуем выиграть 300 мс при загрузке Википедии