All streams
Search
Write a publication
Pull to refresh
5
0
Виталий Харисов @vithar

Разработчик интерфейсов

Send message
На расшифровку видео и вычитку (кстати мы с удовольствие посотрудничаем с теми кто поможет вычитать доклады) уйдет порядка 2-3 месяцев, хотя тезисы с видео и презентациями появятся гораздо раньше.

Вот текст моего доклада: vitaly.harisov.name/article/independent-blocks.html
Может быть это вам как-то поможет.
Нифига не зло, если использовать правильно и тестировать на скорость выполнения. Например, expession создающий ноды через createElement ничуть не тормозит, на 650 элементах страница ренедерится так же быстро, как будто этот элемент был в html, а иногда и чуть быстрее (или погрешность или тормоза парсера).

Ах да, я же не комментирую больше на хабре ;)
Я и говорю, теоретик.
Всё ясно. Теоретик.
А теперь представьте, что файлов у вас сотни и разработчиков десяток.
Вы это руками делаете или в автоматическом режиме?
Для сброса кеша используется foo.js?build=N.

Как вы опеределите в автоматическом режиме, что эта пара-тройка файлов изменилась в этом билде, в отличие от того, что сейчас в продакшене? Проще всего проставить новый build=N для всех файлов.
Мы решаем конкретные проблемы конкретных пользователей.
А что собирать надо только библиотеки? Вот вам пример живого, развивающегося сервиса: http://wow.ya.ru

И не один день, а раз в неделю, этого достаточно, чтобы задуматься о сборке.
Я про latenty на http запросах, вы мне про гзип. Не находите, что до того, как гзип сработает должен запрос прийти? Так вот в этом и есть тормоза, а не в скорости отдачи контента сервером.
Нет, частые обновления это признак того, что проект живёт и развивается.
При обновлении проекта кеш принудительно очищается и все файлы надо тянуть заново. При частых обновлениях файлы будут перетягиваться заново часто. HTTP-запросы на канале с большой latency съедают львиную долю времени загрузки. ADSL соединение может быть 5mbit, а страница с несколькими десятками файлов будет грузиться десятки секунд. Объединение рулит в этом случае.
Этот expression надо сделать одноразовым, чтобы тормозов не было.
Его вообще не надо использовать, он генерирует два лишних HTTP-запроса.
Т-с-с. Пусть хабропионэры пользуются. ;)
Моё решение не имеет такой проблемы: http://harisov.livejournal.com/58661.htm…

Всё никак не доберусь опубликовать его улучшенный вариант.
Мы так и делаем, причём CSS файлов у нас не единицы, а десятки и даже сотни.

Information

Rating
Does not participate
Location
Симферополь, Республика Крым, Россия
Works in
Date of birth
Registered
Activity

Specialization

Frontend Developer
Lead
HTML
CSS
BEM
SCSS
Adaptive layout
TypeScript
JavaScript
Crossbrowser layout
Web development
React