Pull to refresh

Comments 253

Opera mini решает эту проблему.
Ну, и как она решает проблему с большим весом странички при низкой скорости интернета?
Страницы проходят через браузерный движок и полученный слепок DOM конвертируется в эффективный бинарный формат, содержащий только текстовизуальное содержимое страницы, который и перенаправляется на клиент. Сферичновакуумная страница без большого числа картинок ужимается в от десятка до нескольких десятков килобайт спокойно. С картинками отдельная песня: можно их вообще отключить и смотреть по одной, можно не отключать — будут просто жаться, качество настраивается, в любом случае выходит заметно меньше оригинала — сотня-другая килобайт, иногда до полумегабайта. Ну и не стоит забывать об издержках на установление TCP-соединений: вся страница грузится с одного сервера и в один поток, без всяких костылей типа пайплайнинга, что значительно ускоряет загрузку на мобильных интернетах, вдобавок повышает стабильность (некоторые опсосы «любят» терять пакеты, из-за чего в браузерах соединения просто зависают до истечения таймаута и некоторые ресурсы оказываются незагруженными — приходится перезагружать всю страницу).
Если болит зуб, можно выпить обезболивающее, зачем идти к стоматологу?
Единственное решение ниже предложили: Им нужно просто ограничивать скорость интернета до 56 kbit/sec. Пока web-разработчики не начнут думать головой, ни что не поможет.
Это типичное «светлое будущее»; я предлагаю решение, которое работает уже сейчас. Пока выгодно клепать увесистые сайты на куче готовых библиотек — будут клепать. Причины те же, почему всё ПО не пишется на ассемблере. Определённые подвижки в сторону оптимизации есть: библиотеки худеют за счёт выкидывания поддержки старых браузеров; отдаваемый контент жмётся GZip; используются популярные CDN для улучшения кэширования; Google продвигает SPDY, допродвигал его до основы новой версии HTTP и вовсю работает над QUIC, который вообще работает поверх UDP вместо непригодного для современных реалий веба TCP. Но вместе с тем увеличивается среднее количество подключённых библиотек: если лет шесть назад даже jQuery запихнуть ещё считалось большой роскошью, то сейчас нормой является тонна библиотек для адаптивности, кастомных контролов, всяких модных параллаксов и прочих плюшек; тащатся векторные шрифты и графика высокого разрешения. Высоко котируются макаки, которые вебпрограммировать толком не умеют, зато умеют собирать готовые жирные библиотеки с помощью соплей и изоленты в готовый сайт, ИЧСХ, делают это лучше, чем толковый разработчик, навелосипедивший оптимальное решение под несколько платформ/браузеров и внезапно сфейлившийся на других там, где в популярных библиотеках грабли давно обойдены. А с зубом действительно не обязательно к стоматологу итти, посмотрите «Изгой» хотя бы:)
ПО не пишется на ассемблере, потом что 99% программистов напишут код хуже gcc, а оставшийся 1% занимается отнюдь не веб-формочками.

На самом деле проблема со статическими картинками, css и js нет. А вот динамическое содержимое заставляет плакать кровавыми слезами. Потому что когда я набираю вопрос в гугле, и мне в первой строке выдачи дают msdn, а вторым — stackoverflow, я жму на вторую ссылку, потому что знаю, что она откроется мгновенно, а msdn будет показывать секунд 5 белый экран, потом произойдет редирект на федерацию, потом еще 5 секунд белого экрана, после чего неспешно начнет прогружаться страничка без единой картинки, с парой листов текста.

Заход на MSDN это всегда боль, если инфа не нашлась в других источниках.
Что именно редиректится? У меня MSDN мгновенно загружается без редиректов.
Если человек залогинен (а я залогинен), он сначала пытается получить liveid, и только потом редиректит на страницу. Я профайлером посмотрел — 3 секунды грузится страница (при том, что у меня на работе канал 500мбит/с), потом 0.5-1 секунды аутентификации, после этого редирект обратно, снова 3 секунды. Для сравнения Stackoverflow грузится у меня 915мс
Попробовал залогиниться — все равно мгновенно без редиректа. Наверно, мы разные статьи смотрим. Вы не покажете вашу строку поиска, куда именно вы переходите из гугла?
Сейчас не покажу — редирект работает один раз и до момента протухания токена, обычно это примерно раз в день происходит, но т.к. я и ищу не так часто, то получается довольно утомительно. Хотя даже без токена странится грузится 3 секунды, это конечно не 7, когда он запрашивается, но всё же. Чего такого в статье с Console.WriteLine (ни одной картинки, пара страниц текста), что она столько грузится, я честно говоря не понимаю. Хотя МС часто пропагандируют настройки кэширования страниц IIS'ом, на практике такая ересь творится
image
«Удалённый IP» из приватного диапазона, порт 3128… Кеширующе-режущий squid не виноват ли в этом?

Или вы сотрудник MS? :)
Нет, я не сотрудник МС, но заходил с работы, там у нас TMG настроен, возможно это он дурит:)

Но у меня на домашнем (через честные 443) тоже воспроизводится. Правда, в последнее время не так уж часто, может они всё же починили, но например на mcp.microsoft.com всё равно постоянно формируются урлы такого вида
Заголовок спойлера
login.live.com/ppsecure/post.srf?wa=wsignin1.0&rpsnv=12&ct=1435001728&rver=6.0.5276.0&wp=MCMBI&wreply=https:%2F%2Fmcp.microsoft.com%2FAuthenticate%2FHome%2FMigrate%3FReturnUrl%3Dhttps:%2F%2Fwww.microsoft.com%2Flearning%2Fmembers%2Fen%2Fus%2Fmcp%2Fmcp-default.aspx&lc=1033&cb=wizid%3Ddf57638e-b739-4667-8316-25dc173aef4b%26returnurl%3Dhttps%253a%252f%252fmcp.microsoft.com%252fAuthenticate%252fHome%252fMigrate%253fReturnUrl%253dhttps%253a%252f%252fwww.microsoft.com%252flearning%252fmembers%252fen%252fus%252fmcp%252fmcp-default.aspx%26wp%3DMCMBI%26lcid%3D1033&id=74335&bk=1435001732&uaid=6be9564207754956a66e0a71ae66ce41&fsui=1
И висит на авторизации длительное время, не зависящее от мощности железа или ширины канала.
UFO just landed and posted this here
фигню говорите. Приоритетом при создании большинства веб приложений стоит не размер, а время девелопера. Быстрее-быстрее. В результате вместо наприсания сайта вручную, прикручивается jquery только для того, чтобы добавить меню-плагин. Или вместо обычного сайта испольуется MVC, который сам по себе накидает кучу стилей и js. Может нужных, может нет, но разбираться никто не будет, так как это время девелопера, дорогостоящее и оплаченное. Для сайтов с сотнями обращений в секунду может оптимизацию и проводят, но опять же, чаще не на стороне клинета, а серверную, чтобы не платить за фермы или лишнии мощность облака. А трафик никого не волнует. Он ничего не стоит
Вот теперь мнение понятно и аргументировано. Но комментатор выше высказал мнение большинства: большой вес не является чем-то необходимым и технически обусловленным — он обусловлен человеческим фактором, непрофессиональностью менеджеров и заказчиков. Потому как если размер странички будет продолжать расти — Опера Мини не сильно помогать будет. Она лишь временное решение, как обезболивающее при зубной боли.

Сам недавно клиента отговаривал слайдер на главную пихать. Подсмотрел где-то такое решение и оно ему визуально больше понравилось.
>большой вес не является чем-то необходимым и технически обусловленным
Программы на C++ весят больше, чем программы на Assembler. Веб-страница с jquery, bootstrap и прочими фреймворками весят больше, чем веб-страницы 10-летней давности. Выигрываем в скорости разработки — проигрываем в размере и производительности. Не только в веб такая ситуация, и это совершенно нормальное развитие событий.
Про картинки уже писали — современные мониторы высокого разрешения требуют всё более качественной и тяжёлой графики.

>Потому как если размер странички будет продолжать расти — Опера Мини не сильно помогать будет
Будет, и сильно. Опера Мини переформатирует странички в свой формат, отправляя пользователю только «квинтэссенцию» страницы. То есть если размер страниц будет расти не из-за увеличения полезной информации на этой странице а из-за «криворукости» верстальщика, то Опера Мини всё ещё будет посылать пользователю тот же объём полезной информации.
А ещё местное большинство против рекламы. И что? Финансировать-то сайт надо, и реклама — один из самых удобных способов. Без дохода даже сайты, существующие как придаток к другим продуктам/услугам, могут загнуться, не говоря уж о некоммерческих. Не все могут постоянно выпрашивать донаты (хотя я нередко встречаю такую практику) или вводить платный доступ. То же самое с разработкой: если она станет слишком дорога — количество и качество сайтов снизится из-за нерентабельности, развитие информационного пространства застопорится, а то и развернётся вспять… нет уж, лучше жирный сайт, чем никакого. В конце концов, те, кому аудитория с медленным интернетом действительно важна, о ней заботятся — если не оптимизированной мобильной версией, то хотя бы приложением под популярные платформы. И поскольку на десктопах GPRS-интернет встречается редко, а диалап почти вымер — тут с поддержкой вообще печально, да — просто никому не нужно (имею в виду сайтовладельцев, а не конечных пользователей).
21 век на дворе, LTE шагает по планете, а вы — EDGE :D
Расскажите про LTE мне больше, в Твери он до сих пор есть только у МТС нормальный. У Мегафона он хоть формально и заявлен, но принимается в паре-тройке мест по городу.
Я вам могу немного больше про LTE рассказать. В Твери переходите на МТС, например.
Нет, спасибо. У МТС, к сожалению, нет даже ближайшего аналога того тарифа Пчелайна, что юзаю ныне я.
Что бы не говорилось про качество обслуживания, к которому я все равно отношусь риторически — их самый жирный пакетный тариф за тыщу рулит, педалит и крутит.
А как у Билайна с обрывами связи? Я ушел от них из-за того, что скачать мало-мальский файл на мобильном интернете было невозможно. Скачка постоянно обрывалась (особенно это было заметно в Play-market).
Сейчас все отлично работает (Екатеринбург). Перебрались на летов сад, смотрим онлайн фильмы без тормозов. Но вот если работать и редактировать файлы на прямую с сервера, то при нажимании ctrl+s заметно высокий пинг перед тем как файл отправится на сервер.
Расскажите мне про LTE, большую часть времени проводящему в центре Москвы ;)
Я полагаю, что предложение перейти на МТС в Москве вас вряд ли устроит. =)
В центре Москвы у кого-то плохо с LTE? Хм… Может у вас с телефоном проблемы?
Я ни на МТС, ни на Билайне проблем давно не испытывал (если есть надпись LTE, значит интернет точно есть).
Угу, с третьим подряд телефоном.
LTE есть, скорости нет.
А что не так с ним в центре москвы? Я со Сходненской до Красных ворот езжу каждый день — LTE нигде не пропадает, даже в старом совковом здании
А у нас в квартире газ… Тьфу, то есть БС-ка мегафона в квартале КР торчит, LTE есть, а вот скорость — около 512-768 kbps =)
Ну разве что после 20 вечера хорошо становится.
А, ну я только за пчелайн могу говорить. С мегафоном у меня дела как-то не заладились еще во времена универа — связь никакая у них от слова вообще и тарифы убогие (на 2005-6 год по крайней мере), так что я туда даже не смотрю
я сейчас в центре Москвы, все норм с LTE. МТС, смотрю стримы с twitch.tv
Имел печальный опыт пользования услугами этой конторы. Больше не хочу.
До некоторых государств (не будем показывать пальцем) даже UMTS начал добираться только в этом году. Да, до этого была лицензия у одного оператора, но кому он нафиг нужен с конскими тарифами и покрытием только в облцентрах + нескольких крупных городах? Ну и Интертелеком с CDMA-EVDO и всеми вытекающими — нужно ради него брать CDMA-девайс или таскать WiFi-модем за собой ещё. А Вы про какой-то LTE…
Скоро, вот годик-другой и будет счастье во всем мире…
пока это счастье настанет у нас — в мире вымрет 3g,4g, 5g, lte,ue eklmn :)
Есть ещё более суровая проблема: во всяхих еб… ях есть Edge, но нет никакого HDSPA+ или как его там.

И иногда это фатально. Забрели «погулять» слишком далеко. Поняли, что в 12 дня по солнепёку переться полтора часа никого не веселит… Я попытался вызвать такси (с мыслью сколько не возьмут, всё лучше, чем тащиться). Так вот, телефония работала, а сайт такси я так и не смог загрузить. Вообще. За полтора часа фигового эджа, пока мы топали под палящим июньским Солнцем.

В нашем случае это было неудобство, а кому-то — вполне себе серьёзная проблема.
Если работала телефония, почему не вызвали такси по телефону? Не знали координаты куда вызывать?
Звать такси через весь остров не хотелось (за это время мы бы и сами дошли), я искал номер такси в ближайшей деревне.
У меня в Москве с заметной регулярностью перестаёт ловиться всё кроме EDGE в процессе перемещения (мегафон). Шустрый интернет везде и всюду — миф.
Странно, у меня тоже мегафон, и всё везде ловится. За последний год ни разу не было снижения даже до уровня 3g. Возможно, проблема в телефоне/планшете, а не в мегафоне.
То есть проблема не в покрытии сети, а в айпаде, да? Знаете, Apple в вопросах качества я доверяю как-то больше чем нашим опсосам.
Я говорю факты, которые знаю, и делаю предположения. А выводы каждый для себя делает сам. Моя задача поделиться другой точкой зрения.
Поддерживаю. На двух устройствах с поддержкой LTE крайне редко вижу «H» в качестве индикатора соединения. По всей Москве. Я понимаю, что у кого-то наверное есть проблемы но это скорее исключение чем правило. Для Мегафона, в Москве.
Вот буквально вчера я был там, где GPRS-то не всегда бывает. И чтоб голосом позвонить, нужно в конкретную точку топать. И ведь не посреди тайги да в горах — ровная лесостепь в пятидесяти километрах от областного центра с миллионным населением, 1 км до железной дороги на Москву, 5 км до весьма загруженной федеральной автодороги и до ближайших сотовых вышек. Причём проблема не у конкретного оператора — у всех, на которых проверял.

Так что LTE шагает не везде.
Надо полагать, не слишком много людей живёт в радиусе 50 км от большого города, вот никто и не ставит в лесу дорогие 4G-вышки.
Тем не менее, люди как-то живут и в деревне, — поднимают модемы на мачту, ставят направленную антенну и отражатель. На десятки километров «бьёт».
Ещё у нас был один CDMA-провайдер, — Скайлинк, если память не врёт. Скорости там меньше, но доступность должна быть выше. P.S. Сам не пробовал.
UFO just landed and posted this here
Это проблема не сайтов, а браузеров, не показывающих текст стандартным шрифтом, пока не загрузился кастомный. Куда больше бесит борьба с FOUC, т. е. рендеринг страницы после подгрузки всего контента (или как минимум стилей), а не только HTML. Вроде бы не отключается нынче даже в лисе. Так-то для неё есть расширение QuickJava, которое позволяет блокировать ресурсы определённого типа, но это слишком радикальное решение.
UFO just landed and posted this here
Есть решения. Путем манипуляций с localstorage можно добиться приемлемого фоллбека.
UFO just landed and posted this here
UFO just landed and posted this here
Мне кажется, что это лучше всего решается с помощью дополнений. Например, Disable web fonts или Font blocker.
Наконец-то начали поднимать эту проблему! Веб становится монструозным, господа, нужно начинать отдавать себе отчет при разработке страничек с сотней дополнительных запросов в среднем.
А ничего, что FullHD-дисплеи уже даже в телефоны пихают? Для них картинкой 320x200 не обойдешься.
Уже и 4k — телефоны начали появляться. Если честно, то это бред и очередная гонка мегапикселей — в данном случае это гонка dpi.
Вспоминаю свои прошлые PDA и смартфоны. Переход с 160x160 на 320x320 был потрясающим. Переход на VGA был потрясающим. Переход на 720p был потрясающим. Разумеется, начиная с какого-то момента dpi перестает иметь значение. На дисплеях с 150 dpi я всё ещё иногда различаю пиксели, что раздражает. Так что в HD на телефонах, кажется, смысл есть.
Ну не знаю, мой переход на 320x480 и 480x800 и далее прошел как-то обыденно. Не вижу разницы. Старый телефон в руки порой беру, ужаса нет. Вот переход со 176x220 на 240x320 был эпичным, и то только потому, что это была замена телефона фирмы Fly на смартфон с Symbian 9.3.
Преимущества высокого dpi, очевидно, более заметны людям с хорошим зрением. Для меня, такой dpi дает 2 основных преимущества: элементы стандартного размера (текст, UI, графика) становятся гораздо более четкими и приятными глазу; и можно с комфортом читать больше еще более мелкого текста на одном экране.

При этом хочу оговориться, что у моего телефона «всего» 318 dpi (720p), и устройств с более высоким dpi я еще просто даже в руках не держал, поэтому могу говорить только о росте комфорта вплоть до указанного dpi.
У меня отличное зрение, и я спокойно пользовался телефоном с 800*480, а сейчас пользуюсь с 1280*720, и не могу сказать, что есть какая-то шокирующая разница. Да, для глаза приятнее, но ничего фатального в меньшем dpi не вижу.
Полагаю, что всё это очень индивидуально. За себя могу сказать, что когда впервые увидел iPod Touch 4 поколения в 2010 г. (разрабатывал интерфейс для системы умного дома), я был приятно шокирован ровным белым фоном «без сеточки» и супер гладкими буквами.
Плотность пикселей на экране моего телефона — 256 PPI. И шрифты, к сожалению, выглядят несколько хуже, чем на мониторе с 185 PPI, вероятно, в силу слишком маленького расстояния от глаз до экрана.
Символы со множеством мелких деталей (таких деталей, например, как закорючка над правой лапкою японского символа «魔» или точки в глазницах русского средневекового символа «ꙮ») вызывают у меня заметные трудности на дисплеях с малым dpi (на таких дисплеях, например, как NEC MultiSync LCD1970NX).
Я тоже думал, что FHD достаточно для телефона, до тех пор, пока не приобрёл Google Cardboard и не увидел огромные пиксели.
Дак для телефона действительно достаточно! Для устройства «виртуальной реальности» — нет. Но любопытно, шлемы в начале 90х же были, там вроде вообще 320x240 (320x200?) было — и ужасало не разрешение, а цена. Кто попробовал, отзывался позитивно…
Скорее всего Вы имеете ввиду 320x200x256 цветов (VGA 13h)
Я помню про этот режим, как самый популярный в то время, но не помню, какой именно был у шлемов. :-)
Только через 10 минут начинала болеть голова. А так позитивно)
Не бред это. Вы не заметите разницы между 100 и 600 DPI?
А мне нравится, в целом приятные новые экраны. Но конечно печалит ситуация с временем работы.
В статье по ссылке 1440x2560 называют 4k. Это какая-то новая мода?
Ну, можно называть 3,7к, но 4к — круче :)
Скорее 2.5К считается по к-ву точек на большей стороне экрана. Хотя на ютубе 1440p называют 2К.

Совершенно точно это не 4К и даже не рядом.
Помнится, когда мы учились в университете, нам массово что-то надо было на одной из страниц микрософтовского сайта. Это был где-то 2007-2008 год, на кафедре была выделенка 2 МБит/с на всех с ограничением по трафику, дома у большинства народа модемы (хорошо если 56к, обычно меньше). Страница весила целый мегабайт и это вызывало, как сейчас говорят, очень большой БУТЕРБРОД. И самое смешное, что на этой странице не было почти ничего особенного — просто гении от веб-дизайна сделали километровый выпадающий список. И таких списков было несколько. Мало того, что это было малоюзабельно, это ещё и загружалось неприлично долго.

А позже, году в 2011, на кафедре всё так же была выделенка в 2 Мбит/с на всех с ограничением по трафику, но люди начали познавать мобильный интернет (появлялись первые безлимитные тарифы, ради пользования которых не надо было закладывать квартиру). И мой факультет на свою страницу выложил гифку размером 3 МБ, на которой задорно крутилось лого этого самого факультета.

Время идёт — ничего не меняется, только каналы расширяются (местами)
56k в 2008 году? Суровое детство, чугунные игрушки.
Если провинция и/или частный сектор — запросто.
Тогда (да и сейчас отчасти тоже) быстрый интернет охотно приходил только в многоэтажки.
Да я-то по эту сторону баррикад как раз живу, у меня уже двенадцатый год инет только через мобильную сеть.
Но вот про дайлап в 2008-м году я слышу с содроганием, должен признаться.
Вот в 2008 году у меня был диалап — и ничё. Просто был момент сразу после переезда, когда под рукой были и тогда ещё безлимитный городской телефон, и модем, и доступ к модемному пулу на работе — почему б не пользоваться хотя бы таким интернетом?
тут речь не про скорость, а про технологию, в 2004 году у меня в провинциальном городе (~60к населения) уже был adsl.
И технология тоже. У меня адсл появился на насколько лет позже, чем у всех моих знакомых.
Район такой неудачный оказался по совокупности факторов (частная и малоэтажная застройка, старые линии и атс, население во многом престарелое).
Такая скорость считалась мажорной в нашей деревне. Я сидел на 33к диал-апе и постигал дзен в то время.
То же самое — центр СПБ, старый фонд, диалап в 2007 году выше 27кбит не поднимался. Только в 2009 пришло счастье в виде 256кбит адсл. А вот через год после этого переехал в пригород в многоэтажку — там интернет был честный анлим на 100мбит, причем раза в два дешевле, чем адсл. Разница была очень заметна.
У меня сейчас в СПб гигабитный интернет. Днем Ookla показывает 540/460, а ночью 730/620. Бедный transmission упирается в производительность CPU, а я задумываюсь о домашней локальной сети на 10 гигабит — пока что она слишком дорогая, но через пару лет, надеюсь, появятся дешевые сетевые адаптеры.
Ух, круто как!.. У меня в Саранске несколько лет 100 Мбит/с, а гигабитных провайдеров как-то нет. И хотя к хорошему (когда сайты открываются моментально, как в фильмах и рекламах) я уже привык, и вроде бы кажется, что 100 Мбит уже «выше крыши», а порой всё равно чего-то большего хочется.
Тоже казалось, что «100 Мбит/с хватит всем», пока не появилась возможность недорого попробовать 1 Гбит/с. Собственно сейчас затык в основном по отдаче от сервера — мало кто отдаёт больше 100 Мбит/с одному клиенту, но с разных серверов качать или с торрентов — классно, друг другу вообще не мешают. А на LiveCD Ubuntu клиент даже не успевает «прогреться», график скорости на плато не успевает выйти.
Непонятно только зачем.
После того как начинаешь пользоваться uTorrent с плагином uSequential, или MediaGet, или torrent-stream, или xbmc с плагином torrenter или myshows, то перестаёт играть значение всё что выше скорости bd-remux, то есть 30-50мбит. Исключение только bd3d iso, которые по прежнему нужно сначала скачать целиком.
Мир правда не ограничивается uTorrent, МедиаГет или торрентстрим.
А ещё мне часто плевать на скорость скачивания, мне бы аплоад побольше. 100 Мбит/с аплоада — это волшебно, но если у меня деплой будет проходить вдвое быстрее, это ещё лучше.
Это вы ещё, наверное, одну из прошлых версий сайта АК-факультета не видели — там вообще был кошмар: и анимации полно, и выглядело отвратно. Ну и кафедра графики традиционно любит что-нибудь позаковыристее и потяжелее на свой сайт запихнуть. Хотя ПС, конечно, тоже отличился…
Имхо, каждый веб-дизайнер и веб-мастер (и самое главное — тот, кто заказывает разработку сайтов) должен прочитать «Вебдизайн» Якоба Нильсена. Действует как прививка от избыточности. При необходимости можно перечитывать.
Им нужно просто ограничивать скорость интернета до 56 kbit/sec :)
это кстати полезная тема, пользуюсь при разработке своих проектов, хорошо показывает как оно будет работать на таких скоростях
а вот бизнес обычно не хочет тратиться на оптимизацию под медленные соединения (да и сложнее это становиться для крупного проекта, особенно если не сразу применять)

Проблема даже не в том, что медленно — я ж понимаю, что EDGE, и смирился с долгим временем ожидания, раз уж занесло туда, где LTE нет.
Проблема в том, что связь просто обрывается по таймауту, и жди ты хоть полдня и тыкай в кнопку перезагрузки — сервер будет каждый раз обрывать соединение.
Я только не понял про количество дискет 3,5. У них же вроде при двойной плотности объем 1,44 Мб был. Так почему все-таки три? RAID? ;)
У них устаревший стандарт DD на 720 Кб. Переход на HD 1.44 Мб несколько затянулся
Разве 720КБ это не SD?
SD SS — стандартная плотность, одна сторона, 360КБ;
HD DS — высокая плотность, две стороны, 1.44МБ.
по крайней мере для 5" были SD, DD и HD. SD/DD отличались количеством дорожек, DD/HD — количеством секторов при равном количестве дорожек. при этом РС поддерживали не все стандарты.
И у меня такое воспоминание, что 3.5" все были с одинаковым числом дорожек. Тогда таки 720 — DS/DD. Ну и 800.com и все такое.
Там скорее всего имелись совсем старые дискеты 1984 года. В оригинальной статье там ещё в скобках указывалось «спросите у своих дедушек и бабушек». Но я решил исключить это из перевода — наши дедушки и бабушки определённо таких дискет в руках не держали.
Широко известный у нас Спектрум в дисковой версии использовал именно DD дискеты 5.25" (хотя иногда бывали и 3.5" DD) и стандартный их формат в TR-DOS предполагал вообще 640Kb места против 720Kb на PC. Последний раз работал с ними вживую не так уж и давно — в 96 году :)
Хотя чаще он использовал магнитофон и проигрыватель аудио-кассет… Нет, серьёзно, о том что спектрум бывает с дисководом для дискет я узнал только много-много лет спустя. Ни у кого такого не было, да и в продаже на барахолках и аукционах сегодня в попадаются в подавляющим большинстве случаев без него…
Ну, спрашивать что да как, к дедушкам и бабушкам — обычно отправляют детей. И да, легко можно найти детей, чьи дедушки и бабушки держали в руках такие дискеты. Условно говоря, 7 лет ребёнку сейчас + 20 лет + 20 лет = 47 лет должно быть такому дедушке. Да и постарше бывают: из жизни — мой отчим, например, был с 42го года и вполне себе держал в руках такие дискеты. Внуки у него есть. Правда, спросить у него что-то уже не получится :(

Думаю, что в Америке, что в России — отправлять будут к тем немногочисленным людям, которые фактически строили у себя компьютерное будущее в 70е/80е. Отчим, например, занимался созданием первой АСУ в нашем городе. Когда я был у него на заводе (конец 80х), мне показывали тогдашний 1С местной разработки :).
Ну, дискеты на 720к были вполне распространены в России в 90-х — мегабайт данных стоил заметно (для школьников и студентов как минимум) дешевле на них чем на 1.44.
Да, но думаю, множество людей, которые работали с дискетами в 80-е и у которых есть внуки, должно быть чуть больше множества людей, которые работали с дискетами в 90-е и у которых есть внуки. Конечно, эти множества пересекаются :).

Если человек не работал с дискетами в 80-е, но работал в 90-е, вероятнее всего, это примерно мой ровесник (родился в 1980 или около того). Не так уж и много, наверное, рождённых в 1980 и обладающих внуком, уже интересующимся историей дискет :-).
Я к тому, что мапы и папы сегодняшних детей скорее знают, что такое 720/800 кб на дискету, чем бабушки и дедушки :)
Мам и пап да, пожалуй, побольше будет :)
Видимо имеется в виду формат 3½-inch DS DD с ёмкостью 720 кб. Хотя «DS DD» означает: Double Sided, Double Density (двухсторонний, двойной плотности). А просто «двойной плотности» был предыдущий формат 3½-inch SS (Single Sided), который в момент релиза получил название 3½-inch DD (Double Density), и имеющий ёмкость всего 360 кб.
Список всех форматов.
Так то при передаче 2 Мб; а во сколько мегабайт они развернутся в оперативке? А если с десяток таких страниц?
UFO just landed and posted this here
Не все ходят со свежеми моделями. Очень много телефонов, у которых свободной памяти еле-еле 100МБ набирается.
UFO just landed and posted this here
Я имел ввиду, что надо смотреть на флагманы, но умножать характеристики на определённый коэффициент, чтобы охватить бОльшую аудиторию.
Кому нужны эти увеличения памяти на порядки? Пятнадцать лет назад, десять лет назад, пять лет назад, сегодня — мне нужно столько же времени, чтобы проверить почту, напечатать документ или найти какую-то информацию. К чёрту ваш прогресс.
Про напечатать документ — не надо. 15 лет назад не было (доступных для масс) лазерных принтеров, а те, что существовали, не были такими шустрыми, струйники, кстати, тоже нынче гораздо шустрее. Да и с поисковиками тогда было хуже.
Да да, помню проверку почты 15 лет назад. Во-первых гмэйла не было. Во-вторых все другие веб морды к почтам — отстой. В третьих — спам не резался и приходил вам в полном объеме. А это значит — засветил ящик — получай по нескольку десятков спам писем в день. Фильтрация почты в браузере — пара минут. Затем жми на нужные письма, жди пока подгрузятся.
Но был конечно The Bat! — программа умевшая грузить только заголовки писем, и позволявшая получить только необходимые вам письма не скачивая их. Ооо это было прекрасно.

Ах да, как-то раз мне нужно было отправить свой бинарник кому-то. Вес был 1 мегабайт. Отправка шла минут 40. Это если за это время никто из домашних не поднимал трубку телефона… Тогда еще +40 минут.

Так вы точно уверены что тогда все было так же просто, быстро и удобно?
Это только сейчас так кажется. Если всё-таки внимательно вспомнить, что было 10 лет назад… Уверен, результат будет сильно отличаться. У меня почта в Outlook Express по несколько минут принималась, например. А сейчас можно её к себе даже не скачивать!
Можно подумать, вас 10 лет назад кто-то заставлял скачивать почту целиком. IMAP был и тогда, как и нормальные почтовые клиенты.
Да ладно, кому нужен был тот имап с тогдашними пингами. Вроде заголовок и видишь, а чтобы письмо открыть — надо сидеть и мучительно втыкать в монитор. Я как-то не очень понимаю подобного расхода своего времени, скачивал всю почту в фоне каждые 5 минут и потом нормально её читал. Лучше уж потратить 10 минут в фоне на скачивание спама (сам-то я, понятное дело, в это время работу работаю или ещё чего), чем 10 минут активного времени между открытием почтовых сообщений.
Подумаешь, хромой полгига на страничку от'ел, память-то дешёвая нынче. Что значит достигнут лимит плашек? — надо новый комп покупать. Делов-то. И всё ради прогресса.
У меня сейчас открыто 59 вкладок, включая играющий Ютуб и эту (жена постаралась, выбирает шмотки ребёнку). У меня сейчас свободно 8 ГБ памяти из16 всего. И я не уверен, что это всё браузер отъел. Но даже если прикинуть 8/60, то выходит 133 мегабайта на вкладку-процесс.

Мне что-то кажется, что последнее вермя слишком много нытья на эту тему развелось…
Перезагрузился ради такого дела. Оказалось браузер отъедал где-то четыре гига. Миф разрушен.
Четыре, черт возьми, гига на браузер! Это нормально, вы считаете?
Я 99% времени в браузере провожу за чтением (новостей, статей, форумов, мануалов) — то же самое в 2005 я прекрасно делал на компах с 256-512 мб ОЗУ. Почему сейчас я должен ставить минимум 8 гб памяти и SSD для поддержания того же user experience?
А вы на этих 256 мб ОЗУ открывали 59 вкладок, включая Ютуб? И совсем не пользовались виртуальной памятью?
Так я и сейчас не открываю 59 вкладок, среди которых есть ютуб. Я говорю о средних одинаковых условиях: 5-7 вкладок с текстовой информацией типа новостных сайтов и блогов. 10 лет назад на 256 мб ОЗУ оно работало прекрасно, сейчас люто тормозит на машинке с 4 гб.
Так может дело тогда не в ОЗУ?
В 2007-2008 на ноутбуке с 1,5 ГБ и WinXP я отключал своп и всё было нормально с десятками вкладок в Опере. Вообще память на моей памяти (no pun intended) у него кончилась один-единственный раз от поглючившего Inkscape.
В 2008 году в старая добрая Опера спокойно работала с ~ 100 вкладками на компе с 512 мб оперативки.
Сейчас Хром с 3 вкладками больше памяти выжирает.
10 лет назад я друзьям покупал самый слабенький компьютер (Cel, 1.7 МГц, 1ГБ — изначально была только половина) — им всё равно только изредка почту проверить, да пару страниц распечатать. Четыре года назад его пришлось апгрейдить, ибо уже не тянуло средние странички.
Опера 2 гига жрёт на втрое большем количестве открытых страничек.
Угу! На всё это хватало 16 мегабайт оперативки и Pentium 100. Хватало шестнадцать мегабайт, Карл!
Решил проверить вес данного поста. Сохранил страницу, проверил папку — 0.63мб. Да, здорово, но пост ведь не содержит ни одного изображения. Плюс 2-3 качественных .png или .jpg — вот вам и 1.5мб. А если брать во внимание новостные сайты где 70% занимают IMG!!! Так что 2мб это нормально.
Нормально с точки зрения «сегодня так все делают». Но не нормально с точки зрения end user. У меня, например, интернет дохлый. Заявленная скорость до 256 килобит в реальности никогда выше 50 не поднимается. Использовать 3g ради «раз в день на форум зайти» смысла нет. Тем более, что в моей стране он дорогой. А теперь представим, что мы не жители мегаполисов, а обычный среднестатический пользователь инета. И надо сказать, что 2 мб для них много.
> А теперь представим, что мы не жители мегаполисов, а обычный среднестатический пользователь инета.

Обычный среднестатистический пользователь интернета — житель если не мегаполиса, то, как минимум, миллионника.
Есть. Но среднестатистические пользователи почему-то предпочитают жить там, где людей больше, уж не знаю почему…
Можно пойти немного дальше, как Туркменбаши — вся медпомощь в столице, а остальные нафиг. А вообще-то вопрос цифрового неравенства — это один из очень острых вопросов… при нормальном подходе, разумеется.
Урбанизация. Риторический вопрос и минус никак на факты не влияют.
Даже в самой урбанизированной системе нужны люди вдали от городов — добыча ископаемых, сельское хозяйство, обслуживание транспортной системы.
Либо это оказываются люди второго сорта, которым не положены блага цивилизации — либо надо таки думать и о дальнем заМКАДье…
Ваша боль как-то связна с моим тезисом «Обычный среднестатистический пользователь интернета — житель если не мегаполиса, то, как минимум, миллионника.»?

Если уж вы хотите побороться за равенство благ — подумайте об обеспечении больших городов зелеными парками и свежим воздухом. Или вы считаете, что в урбанизированной системе жители городов должны быть людьми второго рода? Или вы просто хотите, что бы лично вам сделали хорошо за чужой счёт?
Мне очень хорошо в 30-тысячном пригороде в 4 часах езды от ближайшего миллионника (точнее, 20-миллионника). Сеть, по российским меркам, дорогая и медленная; технологии времен царя Гороха — но как-то живем и хватает, уж не знаю скок там мегабит.
Что меня совершенно не радует — так это тенденция концентрации всего и вся в Москве, с вырубкой тех самых парков под застройку и расширение дорог. Такой гиперцентрализации нет даже в Нью Йорке, если уж на то пошло. И еще больше мне не нравится то, что многие считают такой подход правильным, не осознавая более далеких последствий.
В принципе приличный сетевой доступ — это как раз одно из условий некоей децентрализации жизни.
Приличный сетевой доступ — это самое просторешаемое условие децентрализации. Не за интернетом в Москву едут.
ну может и не самое. Но таки решать придется, подозреваю.
на родимой НьюЙоркщине, кстати, целая госпрограмма на эту тему — скоростной доступ в дальних местах. Пила так и звенит, насколько я понимаю.
Госпрограммы — это замечательно. Но оптику, по очевидным причинам, нельзя под каждый куст провести.
ну не очень очевидно, кстати. Достаточно много всяких технологий заточенных на низкую плотность населения таки.
Но давайте поставим вопрос так — начиная с какой скорости у нас «нормальный» пользователь сети, а где — «нищеброды». Вроде все согласны, что 56к — это мало, а 1 гигабит — это жить уже можно. Оставим пока 4к видео в потоке, мы говорим о страничках, где основное — текст. Была лет 10 назад такая тема, что приемлемое время загрузки страницы — 15 секунд. Думаю сейчас можно срезать до 5, но диапазон понятен.
Если у нас страничка 2 мегабайта (о кешах пока не говорим) — это 15 секунд на 1 мегабите/с, или 5 сек на 3 мегабитах/с. Если скажем реально используется половина полосы — то 2-6 мегабит/с. Какие у нас средние скорости? В США цифра годовалой давности — 18 мегабит по стране, много где не дотягивает до 10. Ну собственно те самые секунды и получаются, да.
ну а дальше еще более правильный вопрос — с какого момента начинается потеря клиентов…

Добавьте ещё пинг секунды на три.
> Достаточно много всяких технологий заточенных на низкую плотность населения таки.

Я понимаю, что россия всего 17125407 км², и покрыть её сеточкой из оптики на бумаге проблем не представляет. За остальным отправлю вас к другим людям (тут в комментариях достаточно жалующихся на остутствие сотового покрытия даже в центре Москвы)

> Думаю сейчас можно срезать до 5

Думаю вам надо обосновать эту цифру чем-то большим, чем «думаю». Я думаю 15 секунд тоже кто-то придумал. Почему не 45?

> ну а дальше еще более правильный вопрос — с какого момента начинается потеря клиентов…

Да ни с какого. Они в другой интернет что ли уйдут?
Вы что-то маркетинговое прочитали, там может после 15 секунд люди могут уйти на другой сайт. А если другой сайт тоже 2мб — 15 секунд не существенны.

ну разумеется, в тайгу Михал Потапычу волокно не дотянуть — у него пальчики по клавиатуре все равно не попадают. А вот в деревню Гадюкино на 100 юзеров — так почему нет? Это настолько дороже дотягивания электричества будет?
Уйдут… с амазона в местный сельмаг. или к тому, кто сделает чисто текстовый интерфейс к амазону и будет посредничать за малую копеечку. Про людей, которые не смогли вызвать такси тут было таки — вот она, живая деньга ушла…
Норильск, Камчатка — до сих пор мечтают об оптике, и пользователей далеко не 100 человек. Уже не один проект на стадии реализации, а интернета всё не видно.
кстати, опять таки интересно сравнить стоимость прокладки кабеля в Петропавловск (не верю, что очень дорого) и Норильск (сложнее, ясное дело) с деревней Гадюкино из расчета на душу населения.
Дороги нет ни туда, ни туда, ближайшие города с дорогами тоже не близко. Так что цена будет одинаково заоблочной. А на душу населения цена может выйти и одинаковой.
Тянуть 220В никто не будет, там будет всяко выше — электрики не разрешат на свои столбы ещё что-то навешивать. Только со связистами договариваться.
На Камчатку подводный кабель логичнее, технология отработана.
Стоимость можно узнать погуглив РОТАКС. А в Норильск железка почти проложена была.
> А вот в деревню Гадюкино на 100 юзеров — так почему нет?

За ваш счёт — хоть в норильск. Кстати, не залезая в гугл, сколько деревень нанче не электрифицировано?

> Уйдут… с амазона в местный сельмаг.

Амазон будет скучать по посетителям из Гадюкино, в которую он всё равно не доставляет.

> или к тому, кто сделает чисто текстовый интерфейс к амазону и будет посредничать за малую копеечку.

знаю я эту малую копеечку в 500%. Их и сейчас полно, амазон то на английском.
Вот вопрос — а если вместе с проводами 220 В тянуть еще и волокно — оно выйдет не дешевле?
Ну и да, я немножко оптимист. Я сравниваю все со штатами, где почта доставляет везде. Не много куда, а просто по абсолютно всем жилым адресам. И да, Амазон рассылает и обычной почтой (точнее там много нюансов — типа доставки отдельной службой на местную почту; но не о них речь). И на английском говорят практически все, и на Амазон могут зайти почти все… Кроме тех, у кого связь по модему 56К или даже 28-33К(а таких довольно много). И я не уверен, что Амазон может так просто пренебречь этим рынком… Хотя первая страница у них — 6 мег.
В Москве есть такие парки, которые Нью Йорку и не снились. Измайловский парк — 6км длиной, Сокольники (3км), переходящие в огромный Лосино-Островской длиной и шириной 7км (в пределах МКАД и ещё больше за пределами), Царицыно, Коломенское, Кузьминки, Битцевский лес, Ботанический сад с ВДНХ и Останкинским — это из самых крупных и известный, по сравнению с которыми central park покажется небольшим. Можно ещё вспомнить Кусково, Тропарёво, парк Горького и Музеон, Воробъёвы горы, Филевский парк, Серебрянный бор, Покровское-Стрешнего, Тимирязевский, парк Дружбы на Речном, Екатеринский сад, Лефортовский парк — и это ещё не все крупные парки, которые есть в Москве.
ну здесь надо понимать, что НЙ против Москвы — это несколько другая система организации города и в лоб сравнить сложно. Много малоэтажной застройки с газонами и шире раскинуты пригороды. Море, опять таки — это сильно влияет и на потоки воздуха, и на ощущение места, и на географию города.
Но мне не нравятся оба два.
И когда я говорил о централизации — я скорее говорил о функциональной централизации. Хотя бы такой пример: правительство и финансовый сектор живут в США в разных местах — против единственной Москвы.
ок!) Вас за язык никто не тянул)

Значит так. Захожу я на свою страничку во ВКонтакте по адресу m.vk.com — то бишь ее мобильную версию, сохраняю, проверяю, получилось 0.436 мб стилей изображений и скриптов, 30 кб сам html.

То есть учитывая Вашу «скорость до 256 килобит в реальности никогда выше 50 не поднимается», то вам придется ждать загрузки мобильной версии ВКонтакте порядка 8 секунд.

Вы знаете, я скажу так: «Если мне придется ждать больше 3-4 секунд на загрузку страницы, то мне абсолютно наплевать сколько она уже будет весить!».
Вы же не учли, что скорость «до 256» и «выше 50 не поднимается» это совершенно разные вещи. Как стекло и пенопласт. Первые 5-10 секунд интернет «разгоняется» до 50. Т.к. буквально 1кб, 3,… 15..17..18..20..29. Это легко видно по включенном на андроиде индикатора скорости работы беспроводного интернета. Он обновляется раз в 3 секунды (меньше нельзя ставить, нет опции). И там четко видно, что 5-10 должно пройти, чтоб инет «разгонался». И то… разгоняется он на больших целых файлах. А когда много маленьких — разгона нет особого.
Давайте честно. Как вы считаете будет ли данный пост актуален, к примеру, через пару лет?

Лично я сомневаюсь.
Предрекаю через пару лет пост «2Gb веб-страницы — кого винить?»
Будет, потому как в небольших городах (>10k человек) опсосы обязаны развернуть UMTS-сеть в течение 3—6 лет. Да и на UMTS/EVDO ситуация со скоростью не так уж и радужна, особенно при плохом сигнале. А если говорить в глобальном масштабе, то проблема будет актуальна не менее десятка лет, ибо всяких зажопинсков полно практически в любой стране. Ситуация с 2G примерно как с IPv4: вот вроде всё кончаются-кончаются, а никак не закончатся. Есть, правда, надежда на планеры/низкоорбитальные спутники, но взлетит оно нескоро и не факт, что над всем земным шариком, к тому же непонятно, как эти новые сети будут поддерживаться в мобильных устройствах.
Ну так в чём проблема, когда-то все с этим жили и учились с этим жить. Какая-нибудь Опера с отключенной проверкой, не обновились ли CSS, JS и картинки. SSH туннель со сжатием до своего сервера, где стоит прокси, вырезающий рекламу, или заменяющий анимированные GIF на статические, или пережимающий картинки в низкое качество.

Зачем из-за кого-нибудь с интернетом «до 50Кбит» ограничивать тех, кто с интернетом «от 100 Мбит»? Полностью согласен с kekekeks — после того, как пройдёт его пара лет, а потом ещё несколько лет — обязательно будут те, кто говорит: «пока ты тут смотришь 8К видео на своём смартфоне с 16 ядрами частотой 10 ГГц, у нас тут всего-то 4G и скорость до 100 Мбит/с минут пять разгоняется».

P.S. Я замкадыш, скорость проводного доступа в интернет 100 Мбит/с. 4G на улице возле моего дома — от 20 до 50 Мбит/с. Если например, поехать по грибы за город, в лесу будет ловить 3G (с ближайшей деревни). Если поехать за город на пруд, даже там будет ловить 3G. «За город» — имеется в виду километров на 20-30 от города, дальше — хуже.
Там, куда не ступала нога человека, люди тоже стараются как могут: поднимают 3Г-модемы или 3Г-роутеры повыше; подключают к ним фабричные антенны большей мощности; некоторые мастерят направленные антенны.
Какая-нибудь Опера с отключенной проверкой, не обновились ли CSS, JS и картинки

У Opera Classic есть фатальный недостаток — она RIP и постепенно начнёт становиться головной болью как для пользователей, так и для разработчиков, которые ещё от IE6-8 толком не оправились. Клоны (Otter, Vivaldi) ни функциональностью, ни скоростью развития, ни популяризацией не впечатляют; в других браузерах такого не наблюдаю, даже среди всего многообразия расширения огнелиса (или плохо искал?) Можно, конечно, гонять трафик через соответствующе настроенный локальный прокси (напр., Squid), но массовый пользователь его не осилит.
SSH туннель со сжатием до своего сервера, где стоит прокси

У носков тоже есть фатальный недостаток — плохая балансировка: жирные соединения отжимают почти весь туннель, остальное внезапно дропается. Дропы, конечно, лучше зависших от потери пакетов соединений (с которыми даже при наличии монитора скорости толком не понятно — грузится или нет), но тем не менее. Плюс см. выше про массового пользователя.
Зачем из-за кого-нибудь с интернетом «до 50Кбит» ограничивать тех, кто с интернетом «от 100 Мбит»?

А что пользователи стамегабиток проиграют? Странички будут на пару миллисекунд быстрее грузиться, обычный человек (не слоупок) к скорости быстро привыкает и такие мелочи замечает :) Только к разработчикам это всё равно не относится, ибо если в ТЗ чёткие пределы ресурсоёмкости не оговорены, то и ужиматься в них никто кроме как из жалости/перфекционизма и избытка времени не будет.
частотой 10 ГГц

Графеновые процы явно не через пару лет появятся, не говоря уж о серийном производстве. Предел кремния давно выжат. Когда говнокодеры научатся распараллеливать всё подряд (а на фига?) — тогда частоты ядер условно можно будет суммировать, а пока…
Это не руководство к действию было, это были размышления. Если подумать дальше — можно придумать ещё всякие новые штуки. Пользоваться мобильными версиями сайта, например. Написать свой прокси (я не SOCKS кстати имел в виду, а HTTP прокси вроде privoxy, который может резать рекламу). Воспользоваться новыми алгоритмами сжатия — LZMA2 вместо gzip, например. На локальном компьютере дополнительно может быть прокси а-ля wwwoffle. Человечеству интернет на скорости 50 Кбит/с не в новинку, надо просто пользоваться теми же инструментами, которые были в ходу у большинства во времена 50 Кбит-ного интернета.

Цитируя перефразировавшего крылатую фразу человека, «каждый человек — кузнечик своего счастья». В европейской части России такие скорости доступа в интернет, которым (в основной своей массе) может позавидовать абсолютное большинство жителей во всём мире (исключая Ю.Корею и Японию). В каждой деревне (по меньшей мере у нас тут) есть АДСЛ, то бишь 6 Мбит/с. В этих же деревнях есть 3G (то бишь 1 Мбит/с). Если его нет, значит это адская глухомань — тогда направленная антенна и мачта в помощь.

Почему нынче меньшинство пытается диктовать большинству, как надо всё делать?
Началось-то просто вот с этого:
Нормально с точки зрения «сегодня так все делают». Но не нормально с точки зрения end user. У меня, например, интернет дохлый. Заявленная скорость до 256 килобит в реальности никогда выше 50 не поднимается. Использовать 3g ради «раз в день на форум зайти» смысла нет. Тем более, что в моей стране он дорогой. А теперь представим, что мы не жители мегаполисов, а обычный среднестатический пользователь инета. И надо сказать, что 2 мб для них много.


Среднестатистический житель России — обладатель высокоскоростного интернета. 20% людей живут в миллионниках. Это, конечно, не Корея какая-нибудь, где половина людей проживает в миллионниках (и вряд ли мы обгоним Республику Корея по скорости). Не Гонконг и не Сингапур. Но всё-таки 76% россиян живут в городах и имеют доступ к высокоскоростному интернету. Я не знаю, какая ситуация с интернетом в сельской местности в других регионах России (у нас-то в Мордовии хорошо, но я слышал, что где-то бывает так, что даже газ не проведён). Но даже если предположить, что в деревнях ну вообще нет скоростного интернета быстрее, чем 2G — неужели нужно ориентироваться на 24% населения, а не на 76%? Особенно зная, что в 24% сельского населения входит немало людей, у которых даже компьютера нет?

Для среднестатистического пользователя интернета в России 2 МБ это немного. А остальные могут воспользоваться некоторыми ухищрениями (голь на выдумки, как говорится, хитра).
Процитированный пользователь — не житель России, и мой комментарий написан с учётом этого.
Среднестатистический житель неРоссии, что ли, живёт в норе в тайге? В городах, как правило, живёт больше людей, чем в глубинке. И жители глубинки — многим поставщикам услуг неинтересны.

И ещё раз повторюсь, у нас тоже был плохой интернет 10 лет назад. Сейчас хороший, но был плохой. И да, мы придумывали всякие ухищрения, чтобы сделать его получше. У людей 4K-мониторы, быстрые компьютеры и оптоволоконный высокоскоростной интернет, не надо для них делать сайты для инвалидов.
Пользоваться мобильными версиями сайта, например
Не всегда есть. Сейчас вообще адаптивщина в моде. И даже когда есть — не всегда намного легче десктопных. Реально легковесных же (то, что сейчас принято называть PDA-версиями) — и того меньше.
LZMA2 вместо gzip
Да по сути, что угодно будет лучше gzip, потому что он ориентирован на простоту и скорость, а не на эффективность сжатия. А идея хорошая, надо бы протолкнуть в OpenSSH.
которые были в ходу у большинства во времена 50 Кбит-ного интернета
Разве в те времена в ходу были специнструменты (помимо, разве что, качалок, ибо браузерные были полным дерьмом)? Начнём с того, что и сайтов столь увесистых было мало, вебдевы за каждый килобайт тряслись, картинки ужимать было хорошим тоном, не то что сейчас… Хотя что, вещи вроде спрайтогенерации давно автоматизированы и используются прозрачно, вот только отмирают в пользу иконочных шрифтов, да и вообще уходят на второй план по ресурсоёмкости.
В европейской части России такие скорости доступа в интернет,
Одна из основных причин процветания онлайн-пиратства, кстати:) Хотя тут уж курица или яйцо…
Почему нынче меньшинство пытается диктовать большинству, как надо всё делать?
<fat>Потому что большинство не умеет думать?</fat> Ну и сами себе же противоречите: с каких это пор европейская часть России, Южная Корея и Япония стали большинством?
Можно пойти ещё дальше — встроить в библиотеку декомпресси словари со словами из HTML/XML/JS/CSS. Смысл каждый раз гонять эти одни и те же данные с каждым запросом, если их можно изначально хранить на клиенте.
Да по сути, что угодно будет лучше gzip, потому что он ориентирован на простоту и скорость, а не на эффективность сжатия. А идея хорошая, надо бы протолкнуть в OpenSSH.

Главное, не снижать накал, и обязательно туда приходить с таким видом, как будто они не додумались и научить их жизни.

Разве в те времена в ходу были специнструменты (помимо, разве что, качалок, ибо браузерные были полным дерьмом)?

Я два поста приводил список этих инструментов, которые помню. А это было давно, я помню, конечно, не всё. Это и прокси «оффлайн эксплорер», были специальные прокси, которые режут баннеры и пережимают картинки; качалки, конечно, само собой. Туннель со сжатием трафика. Опера в режиме «показывать только кэшированные картинки». Специальные качалки сайтов в текстовом виде с пересылкой в ФИДО или на почту.

Одна из основных причин процветания онлайн-пиратства, кстати:) Хотя тут уж курица или яйцо…

Наш ответ Чемберлену!



Потому что большинство не умеет думать? Ну и сами себе же противоречите: с каких это пор европейская часть России, Южная Корея и Япония стали большинством?

Я где-то говорил, что большинство — это только европейская часть России, Южная Корея и Япония? Например, средняя скорость доступа в Интернет в России выше, чем в США или ЕС — но это не значит, что у большинства в США и ЕС медленный интернет.
Первые 5-10 секунд интернет «разгоняется»
Попробуйте пошаманить с алгоритмами TCP Congestion. Не знаю, правда, сколько из коробки поставляет с андроидным ядром (возможно, придётся компилять руками). Для медленных интернетов с большими задержками хороши Hybla и Veno, они быстро расширяют окно TCP. А проблему с кучей мелких запросов решает проксирование трафика через SSH-туннель.
Это зависит от конечного пользования. А что, если обладателю FullHD смартфона, например, показывать текст без картинок — зачем он тогда покупал нормальный смартфон с высокой чёткостью?
Прежде всего для чёткого текста, нет?
Ой, а может он просто не смог найти модель без FullHD, но с очень нужным ему чем-нибудь другим?
Мне вот постоянно приходится платить за абсолютно ненужный мне «набор фич 1», когда я покупаю девайс с нужным мне «набором фич 2», причем первый набор в 2-4 раза больше второго.
Вообще есть такая тенденция, да. Особенно при выборе какой-то новомодной штуки, которые обычно в «сбалансированных» топовых моделях.
Я ответил уже, жаль что с опечаткой, в комментарии, к которому вы задаёте вопрос.
Имелось в виду, конечно, «это зависит от конечного пользователя».
Мне, например, со смартфона нравится сёрфить. Например, в пути на работу (езжу на такси). Очень нравится, что можно хоть текст, хоть картинки, хоть видео посмотреть нормально. Да, разумеется, 4G, скорость от 20 до 50Мбит/с. Да, разумеется, я не куплю больше смартфон без 4G. Да, разумеется, я не куплю больше смартфон с плохой матрицей экрана. А хорошие матрицы, как правило, подразумевают и высокое разрешение.
Если мне начнут подсовывать контент для слепых — я не буду в восторге и уйду на другой сайт. Я не говорю про КПДВ, я говорю про то, что нормальную статью лучше всего дополнять графикой. Само собой, красивой графикой. Если не использовать графику — это уже какой-то сайт для слепых получается.

P.S. Когда надо только текст, отлично работают браузеры вроде links на компьютере (пользуюсь, рекомендую; есть ли на смартфоне — не знаю, наверняка есть). Возможно, можно просто отключить графику в современном браузере (когда-то давным-давно, когда у меня был модем на 33600, так все делали! И ещё http-трафик сжимали!).
А я вот пользовался несколько лет 3г, переехал в страну где его практически не было, сейчас появился, но смысла платить порядка 250 рублей за 1,5 Тб трафика, не вижу — мне хватает edge меньше чем за 100 рублей в месяц.
Сохранил только текст из данного поста, получилось менее 20 килобайт. Т.е. 0.03 мегабайта — полезный контент, 0.6 мегабайта — свистульки Хабра (в основном скрипты и стили, потому что картинок почти нет в интерфейсе). Собственно, ваши измерения только подтвердили текст статьи — фреймворки жрут трафик.

«Взвесил» свой сайтик. 450 килобайт, на несколько страниц и скриншоты. Тормозит из-за дешёвого хостинга…
Без этих как Вы выразились «свистулек» не обходится ни один современный сайт. Если, к примеру, брать во внимание такие популярные фреймворки как Bootstrap, Material, semantic-ui, то они также по-своему грузят страницы. Зайдите на демо-страницу Material Design и загляните в
head
где найдете
../material-fullpalette.css
размером.…!!! Вдохнули поглубже!… — 2.345 mb .

Последний, semantic-ui, тоже может похвастаться объемами. Два основных файла — это semantic.min.css (438kb) и semantic.min.js (210kb), что в сумме составляет 0.65 мб.

Так что если ставится задача разработка функционального веб-приложения, то от 2мб вы можете далеко уйти.
Мы сейчас находимся в такой любопытной ситуации, когда десктопы плавно уходят на второй план. Но у них мощные процы и инеты. А все клепают сложный контент до сих пор под десктопы, при этом довешивают адаптивные фичи под мобилы.

И большинство разработчиков не понимают, что сегодняшние мобилы — это примерно аналог десктопа лет 15 назад по производительности. И контент нужно сегодня делать снова такой, каким он был лет 10 назад
сегодняшние мобилы — это примерно аналог десктопа лет 15 назад


Скорее лет 5-6 назад. А по производительности CPU отрыв еще меньше. Все-таки восьмиядерные процессоры с частотой в 2.2Ггц…
У производительности процессора слишком много разных технических особенностей, в которые они упираются. К примеру, 1.6 ARM проц от мобилы в разы слабее, чем 1.6 от десктопа. Сюда подключается видеокарта, пропускная способность железа и т.д. Поэтому, как я вижу (может и ошибаюсь) — сравнивать процы от десктопа и мобилы это примерно как сравнивать круглое колесо и квадратное.
Хорошим gzip-ом эти 2.345 МБ ужимаются в 122 кб, кроме того, css надо грузить всего 1 раз, после чего он осядет в кэше. Проблема в том, что многие разработчики этого не делают. Даже за примером ходить далеко не надо — даже известный Битрикс мало того, что выдаёт несжатые неминимизированные js-скрипты по 500 кб, так ещё и заставляет браузер каждый раз их перезагружать, отправляя 200 в заголовках.
А разве это проблема разработчиков, а не админов в общем случае?
Вы не учитываете gzip-сжатие.
Провел эксперимент: сохранил сессии загрузки этой страницы в Fiddler с включенным и выключенным gzip.
Всего для загрузки потребовалось 225 запросов.
Передано 95.7 КБ
Загружено c gzip 885 КБ (из них > 200 КБ рекламы)
Загружено без gzip 1850 КБ.

Да, но по отношению к изображениям gzip бесполезен.
Будущее за SVG.
Не нужно ждать милости от веб-дизайнеров — очевидно же, что со временем мусора будет только больше, и этот процесс необратим. Поэтому наше спасение в мощных фильтрах, способных переверстать помойку в нечто юзабельное.
AdBlock+NoScript+ImgLikeOpera+GreaseMonkey с набором скриптов приводят Интернет в порядок. Да, пока что всем этим не очень-то удобно пользоваться. Но со временем подобные фильтры будут улучшаться, причём тем быстрее, чем больше дизайнеры загаживают сеть.
Главное, заранее позаботиться о том, чтобы право на очистку сайтов у пользователей не отняли. А то ж разработчикам обидно, что из 10Мб пользователь грузит только 50Кб (а как же реклама, мигающие баннеры, счётчики посещаемости, звук наконец?!).
Проблема не столько в размере, сколько в количестве объектов. Если сделать все в одном документе с прогрессивным рендерингом, то даже на медленных соединениях все ок будет.
Прочитал и полез проверять размер странички своего блога…
591 килобайт, из которых 437 — проигрыватель ютубовский. Уфф…
Личный кабинет моего проекта с каталогом 2.4 мега.
2.1 мегабайт картинок — они достаточно крупные. Около 90 штук.
137 килобайт скриптов.
6 кб стили.
Все что выше — кэшируется.

Сам сайт 4.6 килобайта.
Где то 35 килобайт перезагрузка с учетом кэша выходит.
При этом весь сайт на AJAX. Как итог пользователь один раз грузит где то 2.4 мега при загрузке личного кабинета. Потом при повторых заходах уже 35 КБ, а при переходах по сайту в районе 1-10 килобайт за страничку.

Так что, я даже не знаю хуже стало или лучше. Если раньше каждый сайт грузил кучу контента повторно без сжатия и т.д. загружая каждый раз снова весь сайт. То сейчас грузится все один раз, а потом все работает достаточно шустро.
Было бы еще неплохо, если бы все библиотеки были разделенные для всех сайтов. К примеру тот же jQuery, браузер будет кэшировать несколько основных версий, и если грузится jQuery на новом сайте — он будет использовать выбранную версию. И так для всех библиотек основных. Как итог 10 мегабайт кэша на стороне клиента позволят экономить на них несколько гигабайт суммарно. Т.к. сотня сайтов загружаемых каждый день с практически одинаковыми библиотеками думаю вполне этими библиотеками за месяц гигабайт могут и набить.
По мне, так медиана была бы гораздо показательнее, чем среднее. И, думается мне, она меньше двух мегабайт.

Про количество объектов — ждём http2 и мультиплексинг.
Хватит использовать разделители тысяч в числах.
Иногда заходишь на старый, сверстанный в конце 90х — начале 2000х сайт без JS и радуешься, как же он шустро работает и тому, что не надо выискивать тот самый чертов компонент, отвечающий за прорисовку скриптового меню, чтобы разрешить его исполнение в блокировщике скриптов. При этом выполняет те же задачи, что и его «младшие братья», но с «красивостями», потому что «мы же в 21 веке же, надо чтобы все прыгало, сворачивалось-ездило и картинок побольше».
UFO just landed and posted this here
Закономерно, на самом деле – сложность технологий растет, а средний уровень разработчиков уменьшается. Есть у знакомых знакомых проект, простейший по сути (торговая площадка, без какого-либо навороченного функционала), но который при загрузке делает на сервер несколько десятков запросов, загружает несколько мегабайтов скриптов. Зачем-то используется angular, хотя он там совершенно не нужен. И пишется он по принципу «нужна функциональность – добавлю еще одну библиотеку на сотню килобайт». Но, думаю, мы все же нуждаемся в новых технологиях, которые сделают веб быстрее и смогут еще легче интегрироваться c разработчиками, не имеющими специальных знаний. хороший вариант – оптимизирующие компилируемые языки в web (которые при компиляции выкидывают лишнее).
По этой причине я и пишу сам ванильный JS!

Во-первых все быстрее грузится. Во-вторых — меньше звисает. Давайте тот же твиттер возьмем. Он через раз вешает браузер моей машины с i7 4770 на борту. Банально твиттер использует кучу хлама в виде js, хотя их количество там до 5 штук. Но количество налепленного там ужасает. Ради одной фичи они вкомпилируют в js 5 фреймворков. Никто не парится. Но твиттеру можно — у них есть свое отдельное нативное приложение.

Другой момент, который я в упор не понимаю… Почему у нас разработчики сайтов считают, что вполне нормально фон в 1600х1200 пикселей отдавать в браузер мобилы с экраном 1280х768? И такое везде. В итоге вместо 100 кб мы грузим 500кб. Для меня это существенно, т.к. интернет мобильный у меня дорогой и медленный.
потому что для среднего разработчика сегодняшнего дня нужно еще додуматься, что это нехорошо, о том и речь ) в вышеупомянутом мною проекте люди вообще отдавали большущий такой png размером в несколько мегабайт. и лучше бы эту оптимизацию за них делал какой-нибудь фреймворк :)
Меня больше другое бесит. До сих пор часто встречаются супер-современные сайты с чудной адаптацией под мобилу, где вставлена картинка с заданным размером 320х240. Но само тело картинки ее бывает под 3000 по ширине ) Потом сидишь и думаешь — чего это сайт не работает и уходишь с него. А оказывается, что там прелоад идет контента…
потому что для среднего разработчика сегодняшнего дня нужно еще додуматься, что это нехорошо, о том и речь )

Если разработчик будет задумываться о том, о чём его не просят — вылетит с работы как тугодум. Те, кто о чём-то задумываются, работают медленнее.
Почему у нас разработчики сайтов считают, что вполне нормально фон в 1600х1200 пикселей отдавать в браузер мобилы с экраном 1280х768? И такое везде. В итоге вместо 100 кб мы грузим 500кб.


Потому что за оптимизацию никто не заплатит: и клиенту и начальнику глубоко класть, сколько там будут весить картинки — сайт должен заработать завтра, а оптимизировать будем как-нибудь потом, если понадобится. Тоже самое с десктопным софтом: профайлер программист запустит только в том случае, если его об этом попросит начальник, ибо в конторе никому не интересно как быстро работает твой модуль — интересно как быстро работаешь ты (софт и так купят, и прибыль зависит не от его скорости, а от скорости программиста).
Почитал камменты, проникся. Где-то я это всё уже видел.

> Что мы получим с гуся после всех этих нелегких процедур? Достанем с полки старый добрый арифмометр CASIO и посчитаем. Допустим, весь ваш сайт состоит из 10 документов, по 10 килобайт каждый. Допустим, вы поколдовали и сэкономили 10%. Теперь ваш сайт весит 90 килобайт. Если в сутки вас посещает 1024 человека, то вы экономите 1 мегабайт трафика в день (7 мегабайт в неделю, 365 мегабайт в год!).

> Ваш провайдер должен дарить вам коробку шоколадных конфет раз в квартал. А вы ее будете передаривать доктору, который будет лечить от паранойи.

Текст 1998 года был выпилен, но интернет помнит (http://web.archive.org/web/20020615132812/http://www.artlebedev.ru/kovodstvo/paragraphs/17.html)

Так вот, господа параноики, я разделяю вашу боль, что EDGE в деревнях 56к, но без машины времени у вас нет шансов вернуть время, когда «ваш сайт весит 90 килобайт». И не получится уговорить интернеты сделать странички меньше (как не получилось у Лебедева 17 лет назад отучить людей писать кавычки в тегах)

А вот шансы провести в родную деревню оптику у вас есть. Если вы возьмётесь. Или перейти на LTE. Или сменить оператора.

Или отнести коробку конфет доктору, который поможет смириться, что Web через EDGE уже не работает.
Web через EDGE вполне работает. Руки надо из правильного места иметь, а не «тяп-ляп — и в продакшен». Да, видосики не посмотреть, наркоманские гифки размером от мегабайта тоже не особо. В остальном — на дискету по-прежнему влезает куча текста, а передать дискету через EDGE не так уж и долго. На крайний случай можно читать текст со страниц для печати (хотя про такое современные «дизайниры» тоже уже забывать начали)
Вы забыли что через EDGE ещё можно ходить по WAP. Про него, правда, тоже «забывать начали»
UFO just landed and posted this here
Пожалуйста, не надо меня уговаривать решать ваши проблемы, я не ваш доктор.

В Москве в метро WiFi, меня это устраивает.
UFO just landed and posted this here
Нет, это нытьё, а не «обоснование необходимости».
UFO just landed and posted this here
> У 95% людей есть ситуации, когда 3G нет.

У 99.99% людей есть ситуации когда еды нет. Они сами в магазин ходят, а не меня уговаривают уговорить Магнит к ним квадрокоптер с рюкзаком еды приставить.

Мобильный интернет всегда будет работать плохо, еда дома будет заканчиваться. Если у вас с этим проблемы — это не ко мне.
UFO just landed and posted this here
Ну вот и сходите в ближайшее кафе с вайфаем, вместо «чтоб в каждом лифте работало»
Боли было бы меньше, если бы сайтоделы нормально настраивали сервера. Раз уж вы увеличиваете размер сайта в 4 раза, так дайте клиенту во столько же раз больше времени на его скачивание! А то повадились настраивать сервер так, чтобы через 10 сек. он отваливался по таймауту. И если какой-то файл не успел докачаться — клиенту остаётся только посылать новый запрос.
В итоге при низких скоростях соединения многие сайты невозможно загрузить от слова «совсем». Просто сервер рвёт соединение раньше, чем завершается скачивание.
> Раз уж вы увеличиваете размер сайта в 4 раза, так дайте клиенту во столько же раз больше времени на его скачивание!

То есть если 18 лет назад страничка весила 10к и таймаут был 60 сек, то сейчас вам нужен таймаут в 3.5 часа?

Подозреваю, что какая-нибудь кешируюшая прокся может решить проблему, VDS нынче не дороги.
Больше таймаут — больше ресурсов сервера нужно на противодействие атакам типа slow download
Ходят слухи, что nginx к таким атакам устойчив безо всяких тайм-аутов…
На хабрахабре и гиктаймс регулярно появляются статьи, в которых авторы используют десятки несжатых картинок прямо с фотоаппарата, каждая разрешением не менее 4000x3000 и весом 5-10Мб.

Хорошо бы если при написании новой статьи проверялся вес картинок и выдавалась рекомендация сжать их до приемлемого размера…
Вроде давно так не бывает. Habrastorage автоматом жмёт до 1920*1080
Не знаю как такое получается, но недели две назад видел статью с подобными картинками. Я как раз был за границей, пользовался мобильным интернетом с тарификацией по трафику

Такие статьи долго грузятся, влетают в копеечку, да еще и браузер распкаовывает картинки в память, и даже на мощной машине, десятки больших каринок вызывают ощутимые тормоза.
Наверно Full HD, но в png.
20 JavaScript файлов (было 18)
7 файлов со стилями (было 6)

Это может keep-alive покрывать)

Средний вес веб-страницы возрос на 7.5% за пять месяцев, превысив 2Mb.

Самый интересный вопрос, а это с гзипом, или без?
Скорее всего без, ибо «вес-страницы», а «трафик при загрузке страницы».
Ха, два мегабайта. У нас как-то дизайнеры учудили, а веб-разработчики не захотели с ними бодаться и вес лендинга оказался 10 мегабайт. Потому что png с прозрачностью и мелкой сеточкой.

Но если серьезнее, то:

Во-первых, массовое внедрение Ajax привело к тому, что на одной странице сейчас реализован функционал многих, включающий в себя предзагрузку изображений.

Во-вторых, пропускная способность каналов тоже растет каждый год, а значит, чтобы делать выводы — нужно смотреть средний вес страницы в секундах загрузки. Т.е. отношение среднего размера к средней скорости.

В третьих, основной вес и прирост к весу все еще дают картинки, которые, к тому же, и не сжимаются при передаче. Что ожидаемо, с учетом растущего разрешения и растущих требований к качеству.

В четвертых, в списке страниц есть в том числе агрегаторы игр (armorgames, kongregate), развлекательные сайты (fishki, joyreactor, pikabu). Там 35.2 тысячи тумблеровских субдоменов. На них и должно быть много разных картинок. И мы не знаем, какой они делают вклад в это самое «среднее».

Короче, это попытка делать выводы даже не по средней температуре по больнице, а по средней температуре по городу, включая сталелитейный завод и батареи отопления в домах. Ну да, размер растет. И будет расти, потому что растут возможности. Но растет ли время загрузки страницы — непонятно.
На некоторые сайты без отключения скриптов уже заходить не хочется. Лента.ру в версии для мобильных устройств. Размер страницы 12 кб. Количество элементов 57 (1,2 Мб). 25 скриптов! 25, Карл! Один баннер, одна картинка 420*280 и 1,5 тыс. символов текста в 7 абзацах!
Я уже больше года жабу по умолчанию держу вырубленой. Потому что уже реально достало, когда кривые скрипты тормозят отнюдь не слабый комп.
Все это частично компенсируется тем, что современные веб-приложения могут передавать только часть контента, и если первая страница требует 2 мегабайта, то вторая и последующие могут передавать уже 5-10 килобайт. А если учесть, что многие библиотеки, шаблонизаторы и т.д. грузятся с популярных CDN, то и 2 мегабайта часто получаются только при чистом кэше.
Не думал, что переливание из пустого в порожнее вызовет бурный отклик на Хабре. Вроде взрослые здравомыслящие люди тут большинство. Или были когда-то.

Если у вас есть клиенты с хреновым трафиком, то сделайте для них версию. В Африке есть сервисы, которые работают по смс. Не какие-то там разводилки, а вполне бытовые прогнозы погоды, цены на сырьё. Про это на Хабре было. Вот это спартанский «интернет». Но это крайность конечно.

Если у вас люди приходят как я, со стамегабитным домашним шнурком, то можно и два мегабайта кешируемого барахла навалить на сайт. То, что вы сохранили страничку в два мега, не значит, что каждый запрос будет в результате давать два мега трафика. И это при том, что минимум половина это картинки. Если вы такой трафиколюб, то не ходите по картинкам. Я сидел когда-то на лимитированном инете, юзал оперу с кнопкой отображения только кешированных картинок, и каждую картинку, которую я зачем-то решил посмотреть, я тыкал правой кнопкой и выбирал «загрузить». Мне хватало 300 мб на месяц.

Я человек с хорошим интернетом. Я хочу, чтобы мои права защищались так же, как и права людей с говняным интернетом. Ну то есть, если кто-то пишет, что мол надо всех этих дезигнеров посадить на 56 kbps, и тогда настанет эра благоденствия — то я бы хотел, чтобы этого больного вернули в его пост-советское ностальгическое прошлое, где даже тогда сайты могли грузиться десятки секунд.

Да, есть визуальные решения, которые не требуют графики. Есть сайты, которым не нужен jQuery и шрифты, потому что там ничерта нет, или у автора есть куча времени на велосипеды, и совершенно нет фантазии, чтобы это это время занять чем-то другим. Ну да, такое бывает.

Но сегодня у большинства людей есть достаточно скорости, чтобы тыкаться по сайту, где стартовая страница потребовала загрузки двух мегабайт неизвестно чего.

При этом у большинства уважаемых сайтов есть мобильная версия. Например у Хабра стоит дописать к любому урлу буковку m с точкой, и вы получите страницу, на которой даже комментарии подгружать надо отдельной кнопкой. Например этот пост там весит 56.8 КБ страница, плюс 354 КБ кешируемого мусора. Из которых 176 приходятся на файл global_mobile.js в котором встречаются странные слова типа «рабочаядаттьпустоезначение». Наверное это очень важный файл. И 109 КБ рекламы и гугловой статистики. При этом полная версия (которую вы сейчас скорее всего и читали) весит 483 КБ только на HTML, плюс 581КБ статики, из которых примерно 100 КБ приходятся на аватарки, а ещё триста (тракториста) приходятся на global_main.js и post_common.js — по всей видимости братьев того global_mobile.js, т.к. содержат очередные заклинания типа «максимальноеколичествосубконто». Наверное это всё очень важные файлы. И если без аватарок можно обойтись, то без этой магии явно это всё не взлетит.

Получается, что для меня, с моей скоростью этот мегабайт заскочет ко мне на комп в идеале за 1/10 секудны. По факту я жду 250 мс только ответа, а потом ещё ответ грузится 70мс. По факту всё грузится «довольно быстро» и меня всё устраивает, хотя DOMContentLoaded наступает почти через секунду, а потом ещё грузит аватарочки и прочее. Это если первый раз без кеша.

Получается, что ради радикального меньшинства, постулирующего идею, что «56 Кбит хватит всем», должен страдать мой юзерский экспириенс, как человека, который вкусил радость скоростного подключения. Ведь это именно то, чего хотели в 90е, и реализовывали в 2000е. А теперь давайте отказываться от этого? Я не хочу. Я хочу свои жирные страницы, адреса которых я буду вбивать своими жирными пальцами (не то, чтобы я очень толстый, я просто ем за компом).

Если на вашем сайте есть весомая доля людей с плохим инетом — сделайте отдельную версию. Когда я пару раз в год выезжаю в село Селище, то у меня тоже случается откровенно сраный инет. При чем сигнал до станции отличный. Просто похоже, что на станцию идёт линия толщиной в те самые пресловутые 56 kbps. И даже тогда я не пользуюсь мобильной версией во-первых, потому что кеширование. А во-вторых в исключительной ситуации я могу потерпеть и дождаться загрузки страницы. Ведь мы шагнули в XXI век, и теперь плохой инет становится исключительной ситуацией. Даже в частном секторе домовладения можно обеспечить себе неплохой, хоть и не безлимитный, или безлимитный, но дорогой, интернет. По крайней мере обычно хватает даже на видеосвязь. В хорошие дни на видеосвязь хватает даже в Селище. А уж на голосовое общение-то и подавно.

Я совершенно разделяю стремление обоих сторон к идеалу. Идеально быстрый интернет, и идеально маленькие сайты. Результат — мгновенные сайты. Но мы живём в реальности. И поэтому у меня есть пожелание. Я бы хотел, чтобы эти люди, которые навязывают окружающим своё виденье «проблемы распухших страниц» через кастрацию канала для всех и каждого, как мерила правильности и справедливости… Вообщем, я бы хотел, чтобы они пользовались мобильной версией там, где она есть. А там где нет — помогли бы создателям любимого сайта её запилить на радость всем аскетам (56kbps) и скопцам (отключенный js) от IT.

А если вы хотите быть адекватным человеком, то вы изучите именно своего клиента, и сделайте именно для него такой сайт, который у него будет грузиться быстро и радовать. Аминь.
Дело даже не в том, что страница много весит. А в том, что даже простую страницу часто увешивают таким количеством тормозных скриптов, что она даже не неслабом компе подвисает.
Можете назвать конфигурацию «неслабого компа»? А то на моем компе с камнем двухлетней давности (i5-4570 @ 3.2) я уж и не помню когда последний раз сталкивался с проблемой тормозных скриптов. Мне вообще кажется, что основной вклад в торможение приложений вносит использование виртуальной памяти и HDD для кеширования загруженных данных.
Давайте подкреплять свои истерики цифрами. Ибо при детально рассмотрении обычно оказывается, что не «часто», а «изредка», и «неслабый» = «слабенький и изрядно подзасраный».

Единственное, что у меня по факту тормозит, так это Лепра, и только на телефоне. И то только посты с 1000+ каментов.

Вот вам гифка на семь мегабайт ради одной фразы. Прими реальность XXI века и устрашись! Ворнинг! Опасносте! гифочка 7MB https://habrastorage.org/files/7c6/c7e/d7e/7c6c7ed7ec5d4bbf8cbe0fbbe87ad169.gif гифочка 7MB
Именно гифки не тормозят. А вот зависание скриптов на каком-нибудь сайте надоело настолько, что больше года назад вырубил java.
Поймите, никто не покушается на ваш user experience. Речь о том, что если сайты строить не «тяп-ляп и в продакшн», а хотя бы чуток с умом, то тот же experience можно реализовать ценой гораздо меньших ресурсов.
Мы все очень рады за ваш 100 мбит канал. Вы еще вспомните о нем с теплом, пытаясь открыть расписание электричек на поселковой ж/д станции, где и EDGE нет, только голый GPRS (реальный случай).
Помимо требований к каналу, меня беспокоят требования к ресурсам устройства у современных веб-страниц. Я не считаю, что мой комп (i5 3320m, 4 gb), который без проблем тянет все мои прикладные задачи — от экселя до VST синтов в реалтайме — так уж нуждается в апгрейде. Тем не менее, каждый месяц я все больше страдаю от зависаний chrome и ff при открытии какой-нибудь странички новостного сайта или интернет-магазина. Experience мой при этом, чсх, ярче не становится ничуть. Я уж молчу о том, что на мобильных устройствах, в т.ч. довольно свежих, тормоза веба это как бы само собой.
Я думаю то, что 2Мб страничка превращается в хроме в тормозящие 100 мб — это не значит, что проблема в 2-х мб. Это проблема хрома/FF/IE.
Ну, точнее, кроме них никто решить эту проблему не может. Opera давно решает(или решала — не слежу).

> Речь о том, что если сайты строить не «тяп-ляп и в продакшн», а хотя бы чуток с умом, то тот же experience можно реализовать ценой гораздо меньших ресурсов.

Как известно, алгоритмы оптимизировать можно или по процессору, или по памяти. Или по деньгам. Вы почему-то не уточняете, вы хотите тот же экспириенс что бы меньше тормозил, но занимал в 2 раза больше памяти, или наоборот?

И готовы ли вы смотреть в 2 раза больше рекламы, что бы компенсировать «не тяп ляп»?
Увеличение скорости интернета не означает, что можно делать страницы тяжелыми. Давно уже пропала суть страниц отдавать полезный контент. Все ударились в дизайн страниц и навешивания всяческих анимаций, а о контенте даже и не думают.
Я тут, кстати, один раз набрел на лендинг весом 500+ мб. Это вообще жесть. FF завис, Хром еле протормозился и все-таки загрузил всю страницу. В обоих случаях ось с 4Гб RAM ушла в своп)
А ссылочки не осталось? Интересно посмотреть на такой лендинг. Там видимо фильм в бекграунде крутят…
Там дохрена графики. Нашел ссылку, но уже пожали много чего за месяц и кэширование включили — http://vlasov.bz/karen/.
Спасибо. 27 метров теперь, это сильно. Было бы еще на что посмотреть… Но тут уж вкусовщина… «На вкус и цвет все фломастеры разные»
Можно посмотреть на это чудо?
UFO just landed and posted this here
Несколько это чуть больше одного и меньше двух? Или вы про музейные экспонаты в 2,88, которые никто в глаза не видел?
Почему музейные? Просто в нашей части света они не нашли распространения. У меня был дисковод на 2.88 с радиальной записью. Sony. Запустить не смог, потому что мой контроллер FDD был усеченным, не реализующим этот режим (более старые времен от AT до 486 поддерживали его)
через мои руки прошло довольно много брандовых машин времен начала заката дискет и роста (не проявившихся толком в России) зип-дисков, и 2.88 не видел ни разу. Такое подозрение, что они не нашли распространения на этой планете вообще.
Через мои руки прошло тоже немало машин и японский 2.88 попался-таки.
Не, чЮдеса таки бывают… у меня вон в осциллографе floptical стоит — правда к нему ни одной дискеты нет, увы…
Ну т.е. тоже не пользовались и смотрели на него со стороны. Я только дискеты в продаже видел.
Лежит в гараже до сих пор. Как-нибудь реанимирую свой старый 486 (нужны MFM винты для него), тогда попробую. Смогу — напишу здесь статейку.
UFO just landed and posted this here
Были дискеты на 720 килобайт.
Если уж так копать, то были и на 360, и на 180. Восьмидюймовые.
UFO just landed and posted this here
Sign up to leave a comment.

Articles