Pull to refresh

Comments 505

Следующий шаг — это полная поддержка импорт-синтаксиса es7 в node.js и webpack. Тогда всё будет окончательно изоморфно.
Ну + бабель и в ноде ты можешь писать фул es6
Какое-то это тяжелое извращение транспайлить бабелем серверный код… :(

При этом удивительно что достаточно полного es6 до сих пор нет даже в Firefox / Chrome. В IE нет даже arrow functions! Это при всей продвинутости их виртуальных машин, большом количестве ресурсов, контрибьюторов — казалось бы дело нескольких месяцев. Такое ощущение что Javascript специально искусственно загоняют в рамки убогой кросс-трансляции, вынуждая программиста использвать огромный tool chain.


Скажи какому разработчику Python / Java / PHP что для использования последней версии языка ему нужны кросс-трансляторы вместо нормального интерпретатора с байт-кодом, удивятся. А в мире Javascript это "норма" и даже пишутся статьи в защиту такого подхода.


Слава Богу можно разрабатывать большие приложения в обычном ES5 без кросс-трансляции, используя Knockout.js или Backbone, да и в React тоже (хоть и сложнее).

Разработчику на той же Java, вообще-то, нужен целый компилятор чтобы его код можно было запустить...

Ничего. Как и плохого. Просто особенность языка, делающая "кросс-трансляторы" с одной версии языка на другую принципиально ненужными: программист может поставить себе нужную версию компилятора и использовать ее, ему не нужно подстраиваться под зоопарк возможных устаревших клиентских интерпретаторов.


Хотя я не удивлюсь если в удивительном мире Java для Android однажды кросс-транслятор таки появится.

Хотя я не удивлюсь если в удивительном мире Java для Android однажды кросс-транслятор таки появится.

Уже есть, вроде: https://github.com/orfjackal/retrolambda


UPD. Ого, там кроме retrolambda есть целый зоопарк для перекомпиляции в более старые версии Java.

UFO landed and left these words here
UFO landed and left these words here

Хром уже зарелизил ES6 модули, в FF и Edge они под флагами, а хвостовая рекурсия вроде как об имплементации, а не синтаксисе.

Такое ощущение что Javascript специально искусственно загоняют в рамки убогой кросс-трансляции, вынуждая программиста использвать огромный tool chain.

И больше всех загоняют пользователи, сидящие на устаревших браузерах. Видимо это заговор, глобальный, на сотню миллионов человек!
В webpack итак поддерживается вроде даже без Babel (хотя это не так важно, т. к. чаще всего Babel используется).

В node.js поспевает.

В браузерах уже.

Поэтому и ждать уже особо и нечего :)
UFO landed and left these words here
Спасибо, впервые встречаю такой полезный материал для динозавров. Реально помогает быстрее сориентироваться в этом новом модном зоопарке.
Полностью с Вами согласен. Большинство статей про старт во FrontEnd содержит в себе что-то вроде: «Скопируй этот текст в файл конфига вебпака и пока не обращай внимания, разберешься потом.» И как только появляется необходимость что-то подправить — проявляется ступор и синдром самозванца.

Присоединяюсь. Для тех, кто просто интересуется трендами в разработке, очень полезно оказалось. Я не профессиональный JS разработчик, знаю язык, но кухни последних лет совсем не знал, благо теперь яснее стало!

И я поддержу — недавно нужно было написать небольшую админку и я по старой памяти захотел использовать бутстрап.
Через 20 минут ковыряний у меня были установлены node.js, npm, webpack, bower (зачем-то), гит показывал 300+ добавленных файлов, а я не понимал, нафига мне всё это — ведь я хотел только bootstrap.min.js
гит показывал 300+ добавленных файлов

А в .gitignore вы их добавить не пробовали? :-)

Конечно же я добавил node_modules в .gitignore и все стало хорошо.
Но до того, как я это сделал я был удивлен количеством файлов, которые были добавлены ради bootstrap.min.js, который был мне нужен.

А мне, к примеру, эти файлы очень даже пригодились. Когда меня не устроили стандартные отступы в бутстрапе — я просто создал свой less-файл, подключил туда bootstrap.less и переопределил несколько переменных.


Если бы bootstrap поставлялся без исходников — этот сценарий был бы невозможен.


Хотя я бы на их месте просто предоставлял два пакета вместо одного (bootstrap и bootstrap-source к примеру).

Мне кажется, что вы не очень поняли мой комментарий.
Я не критикую существующие методы и не говорю, что те 300 файлов были бесполезны. Просто я пропустил мимо себя новинки последних 5ти лет разработки на фронтенде и для меня переход от старой парадигмы с включением кучи своих файлов и локальных библиотек к сборке файлов при помощи бандлера и диспетчера пакетов был слишком резким — я слишком удивился количеству файлов в node_modules и не очень понимал их назначение.
Ваш же пример раньше решался тем, что программист сначала включал some_framework.css, а после него включал my_own_styles.css, в котором переопределял все интересующие его классы. А о такой штуке как less и переменные в css я до недавнего времени не слышал =)
Уж простите нас — динозавров =)

Так я потому и рассказываю...


Ваш же пример раньше решался тем, что программист сначала включал some_framework.css, а после него включал my_own_styles.css, в котором переопределял все интересующие его классы.

Этот подход плох тем что надо много писать руками. А еще в результате много правил будет в разных файлах дублироваться. В моем же варианте достаточно было десятка строчек.

UFO landed and left these words here
Именно для этого году этак в 2008 я писал гем для RoR, который парсил все мои css-ки и приводил все подобные значения к единому знаменателю. В основном это была борьба (неравная) с em, но и цвета и прочее тоже порой попадались =)
Эх, молодость =)
UFO landed and left these words here
Отличная статья, такую бы мне пару лет назад — страданий в моей жизни было бы во много раз меньше:)
Статья как раз для меня. Очень вовремя. Только начал разбираться. Спасибо, стало понятнее.
«Изначально npm создавался как диспетчер пакетов специально для node.js, среды исполнения JavaScript, предназначенной не для серверов, а фронтенда. Так что довольно странно применять его в качестве диспетчера пакетов для библиотек, запускаемых в браузерах.»

Пардон, а нет ли тут опечаток и смысловых ошибок?
В одном из проектов наш фронтендер использовал gulp и stylus для css в 100 строк. Я посмотрел на размер папки node_modules и ужаснулся: вот, что занимает так много места на SSD.
Понятно, что это только инструмент для разработки, но что же там такого «нужного» на 3 гигабайта? Хотелось бы иметь более изящное решение.

Позвольте задать вам встречный вопрос, вы считаете себя настолько умнее вашего коллеги, что вправе контролировать выбранные им инструменты для разработки и ставить под сомнения его выбор как профессионала?

А еще там не настроены игноры и все это уходит на GIT?
не знаю что у вас там за пакеты, у меня любой крупный проект тянет за собой около 100мб node_modules модулей
Вот такой package.json.
{
  "name": ".....",
  "version": "0.0.1",
  "devDependencies": {
    "gulp": "^3.9.1",
    "gulp-sourcemaps": "^2.5.0",
    "gulp-stylus": "^2.6.0",
    "gulp-util": "^3.0.8",
    "jeet": "^7.1.0",
    "nib": "^1.1.2"
  }
}


В git не уходит, конечно же.
Скорей всего у парниши просто в папке фильм лежит)
Реальный размер папки и правда небольшой, но из-за большого количества мелких файлов, node_modules занимает на диске 3гб. Запускать дефрагметацию? :)
Используйте диск с меньшим размером кластера тогда.
UFO landed and left these words here
3гб? Это очень много. У нас на крупных проектах с webpack, кучей loader'ов и т.д. он весит около 200мб.
но что же там такого «нужного» на 3 гигабайта?

ну так package.json в студию, мы вам расскажем ))
Выше я показал package.json. Даже удалил node_modules и заново выполнил npm install. Действительно 3 Гб.

Попробуйте свежую ноду поставить. Или возьмите вместо npm использовать yarn.

Меня вот что удивляет: все эти пакеты в обязательном порядке тащат тесты. Зачем оно нужно конечному пользователю?


Вот к примеру, пакет es5-ext. 787 файлов, 500 Кб. Подкаталог tests 380 файлов, 113 кб.


Нет, я понимаю пользу тестов при разработке. Но в "дистрибутиве" пакета на продакшене какой в этом смысл?

Это вы директорию с нугет-пакетами в дотнете не видели. Хорошо хоть сейчас всё в глобальное хранилище в домашней директории вынесли, а так 600-800 мегабайт на проект было нормой, а сейчас просто 10 гигабайт сразу на всех.

Зачем вы это мне написали?

У нас в одном из проектов сборка CSS (stylus + autoprefixed) и JS (babel + rollup) через gulp. Папка node_modules весит 20,7МБ (40,1МБ на диске). Что может занимать 3ГБ, я даже не представляю.

Небольшой проект на React


nepbook: {master *=} node_modules neptune$ du -hs
195M    .
необходимость искать и скачивать новые версии библиотек при каждом их обновлении

ЩИТО? Переход на новую версию библиотеки — это отдельная процедура. Прежде чем переходить — нужно быть уверенным в совместимости старого кода с новой библиотекой.
Автоматическое обновление всего, что поддаётся обновлению — весьма вероятно сломает проект. Только отдельные особо доверенные библиотеки от авторитетных команд разработчиков достойны того, чтобы мониторить их обновление и систематически переходить на новую версию.

Видимо речь идет о том, что для обновления библиотеки (по какой бы причине такая необходиомость не возникла) не нужно искать сайт библиотеки / репозиторий, а достаточно сделать, например,
npm up lib@42

С этим — согласен. Однако скачивание — меньшая из проблем при переходе на новую версию библиотеки.

А большая из проблем — локальные изменения в коде библиотеки. Подход с автоматическим скачиванием библиотеки гарантирует что локальных изменений в ней не будет (и обратное тоже верно — если 3 библиотеки установлены через npm, а четвертая лежит просто файлом — значит, в ней точно есть местные доработки).

Также для этого есть semantic versioning — минорные (ничего не ломающие) фиксы библиотек можно забирать автоматически.
К сожалению, то, что минорные апдейты не должны ничего сломать — еще не означает, что они на деле ничего не сломают.
При подобных опасениях разработчик указывает в package.json точную версию библиотеки.

к сожалению, на практике оказывается, что иногда нужно указывать версии не только непосредственно используемой библиотеки, но и транзитивных зависимостей. Разработчики библиотек тоже увлекаются использованием ~ или ^, и потому в один прекрасный момент мир ломается в самых неожиданных местах.

UFO landed and left these words here

ну вот примерно об этом и речь.

Поддерживаю, сам недавно с этим столкнулся. Хорошо, что зааффектило лишь небольшой участок кода, но, тем не менее, было неприятно.
В случае опасений насчет несовместимости можно указать точные версии библиотек. Зато npm избавляет вас от необходимости заливать все сторонние библиотеки в ваш репозиторий, каждый разработчик скачивает их самостоятельно посредством команды npm i.
UFO landed and left these words here
Разработчики библиотек хотят проблем еще меньше, чем вы, поэтому их политику можно оставить на их совести.
UFO landed and left these words here
Выше я писал, что можно указать точную версию библиотеки. 1с в такой ситуации не обновится.
UFO landed and left these words here
Вы неправы, сборщик пакетов все равно нужен, для того, чтобы
1) не заливать все сторонние библиотеки в репозиторий проекта,
2) чтобы установить все и разом командой `npm i`, а не заходить на сайт каждой и искать где там кнопка скачать.

Когда необходимо обновить конкретную библиотеку, после обновления проводится тестирование перед выкатыванием на продакшн. Зарплаты считаются сперва в старой работающей версии, а потом в новой проверенной работающей версии.
Ни для чего из перечисленного сборщик пакетов не нужен. Для выполнения обоих пунктов достаточно простой качалки заранее собранных пакетов, которая будет делать абсолютно то же самое, что и просто «заходить на сайт каждой и искать где там кнопка скачать», только автоматически и в едином репозитории без поиска кнопки.

Прекрасный пример — питоновый PyPI, в котором лежат заранее собранные пакеты для всех архитектур для всех ОС (если об этом позаботились разработчики пакета, конечно); таким образом для установки каких-нибудь lxml или Pillow, написанных на чистой сишечке, ставить gcc не придётся. В итоге всё, что чаще всего делает pip install — качает whl-пакет и распаковывает куда надо. Каким бы сложным пакет ни был. Ничего никуда собирать не надо — всё сразу готово хоть для продакшена.

Не знаю, есть ли что-то аналогичное для жс (может и есть, однако на сайте npmjs.org я заранее собранных пакетов не нашёл), но то, что все ставят исходники пакетов через npm i и потом сами собирают всё бабелем вместо скачивания заранее собранного — явно ошибка эволюции жс :) (Но если я не прав и такое есть — просьба ткнуть меня носом, возможно я стану использовать такое в своих проектах)
UFO landed and left these words here
Пакеты, готовые для исполнения на сервере через node.js, или пакеты для использования на клиенте?

И те, и другие. Если продолжать аналогию с питоном, то там все пакеты и так только для «сервера», и многие из них заранее собраны, чтобы не требовать установки местных аналогов бабелей (gcc, cython и прочий dev-хлам. При желании можно их поставить и собрать пакет самостоятельно через pip install --no-binary, но зачем, если всё уже собрано для нас?).


бабелем

А должно быть без бабеля! Я вот набрал, к примеру, «npm install jquery» и появился каталог node_modules, в котором несколько мегабайт нахрен не нужного хлама. Единственный нужный здесь файл — node_modules/jquery/dist/jquery.min.js 85КБ — вот только он и должен был скачаться (ну, может, плюс минимально необходимая мета-информация). В PyPI с pip дело обстоит именно так (с поправкой на питон). Я буду очень рад, если найдётся общепринятый аналог такого «минимализма» для жс (bower и yarn по умолчанию так же качают несколько мегабайт хлама, предположу что потому что сайт npmjs, в отличие от PyPI, собранные пакеты просто не хранит)

UFO landed and left these words here
node_modules бабелем не обрабатывают

И не надо обрабатывать node_modules бабелем! Надо скачивать заранее обработанное. В node_modules исходников библиотек вообще не должно быть ни в каком виде. А сейчас они есть. И это отвратительно.


(Вообще у меня есть сомнения в правдивости высказывания «node_modules бабелем не обрабатывают», но для проверить не хватает соответствующих знаний)


И никто не мешает вообще не пользоваться бабелем и не подключать его в проект.

Не мешает, я и не подключаю. Только вот получается две крайности: или подлючать несколько гигабайт nodejs-окружения со всеми исходниками всех зависимостей, или скачивать jquery.min.js вручную и класть его в репозиторий. Промежуточного варианта — скачивать только jquery.min.js автоматически с репозитория с плюшками типа автоматического обновления — нету, и это отвратительно.

Я вот набрал, к примеру, «npm install jquery» и появился каталог node_modules, в котором несколько мегабайт нахрен не нужного хлама. Единственный нужный здесь файл — node_modules/jquery/dist/jquery.min.js 85КБ — вот только он и должен был скачаться (ну, может, плюс минимально необходимая мета-информация).

Это особенность jquery, где решили включить исходники в пакет тоже.

Такая особенность не у одного jquery (как минимум у bootstrap и у того несчастного topojson ещё), и это плохо. Нет единого стандарта (кто-то пихает сборку в dist, кто-то в build, кто-то вообще в что-то своё; кто-то с исходниками, кто-то без исходников, думаю есть те кто вообще пихает только исходники, но сходу таких не нашёл), заранее неизвестно что я получу при скачивании пакета, и это не даёт мне автоматизировать скачивание этих моих jquery.min.js. Ну и скачать сборку отдельно от исходников всё ещё нельзя.
UFO landed and left these words here
пакеты npm никогда не были нацелены и оптимизированы под использование вне экосистемы commonjs

Ну и зря


cdnjs

О, круть) Но, я так так понимаю, общепринятых аналогов npm install и package.json с описанием зависимостей для cdnjs нету? Или плохо искал?

UFO landed and left these words here
Только на jquery и выдаёт) Для react и bootstrap выдаются несколькострочники с require, которые для использования в браузере не годятся

Хотя с другой стороны можно указать точный путь к файлу, но, во-первых, есть сомнения в стабильности такого решения, во-вторых, тогда я уж сам могу скачать архив и распаковать оттуда только то, что мне надо)

Значит авторы React и boostrap не удосужились прописать нормальные метаданные, где у них находится упакованный бандл. Прямые линки для react и bootstrap работают:


https://unpkg.com/react@16.0.0/umd/react.production.min.js
https://unpkg.com/bootstrap@3.3.7/dist/js/bootstrap.min.js


Еще про unpkg: если добавить слеш в конец url, то вместо файла он вернет листинг директории: https://unpkg.com/react/ Таким образом я и нашел где в пакетах бандлы лежат.

Тут дело не в npm/yarn, а в авторах конкретного пакета, которые в пакет включают и исходники, и тесты, и документацию с примерами — проще говоря включают весь репозиторий проекта, вместо его папочки dist/build.

Не заливать сторонние библиотеки — это мегакосяк ) Когда в ваш проект через 10 лет понадобиться внести минимальное изменение, вы не найдете процентов 50 библиотек, а те которые найдете сменят уже три-четыре мажорных релиза и не будут работать в нужном вам окружении 10 летней давности. Желание взять все и переписать оно похвальное, но денег почему-то на это не дают )


Ну и про расчет зарплаты у вас сказочные представления ) Ситуация выглядит так: сегодня нужно сдать отчет, 1с выкатывает релиз с "последними" исправлениями, релиз ставится.


"Проверить" релиз сил не хватает даже у 1с, поэтому косяки там встречаются. Отчет — это условный мегабайт кода нетривиального, делать его своими силами может себе позволить мало лишь кто. Откатиться на предыдущий релиз может быть очень сложно, потому что при повышении релиза добавляются/удаляются поля базы данных, для заполнения которых при повышении 1с пишет скрипты, для понижения релиза скрипты не пишет никто, поэтому база может вообще перестать работать. Обновить копию, проверить, заменить рабочую — это остановить работу бухгалтерии и кадров на день, т.к. перенести данные которые они введут, исправят, удалят за рабочий день пока мы будем упражняться с копией может опять же мало лишь кто, ну и отчет горит

Когда в ваш проект через 10 лет понадобиться внести минимальное изменение, вы не найдете процентов 50 библиотек, а те которые найдете сменят уже три-четыре мажорных релиза и не будут работать в нужном вам окружении 10 летней давности.

Это как раз ситуация без использования пакетного менеджера. Потому что пакетный менеджер как раз позволяет зафиксировать зависимости и выкачать через 10 лет ту самую версию с которой код раньше работал.


Ну а если боитесь реформ на стороне центрального репозитория — всегда можно завести свой репозиторий пакетов.

достаточно только первого пункта, для остального есть mastercard package-lock

Для решения этой проблемы есть стандарт semver. При подключении библиотек менеджеры пакетов ставят в файле-списке пакетов символ ^ перед версией пакета, что означает «подойдёт любая версия, совместимая с указанной». Так при обновлении библиотек через менеджер пакетов не произойдут обновления, ломающие обратную совместимость. Но всё это работает, если авторы библиотек достаточно ответственно следуют semver.

В любом случае возможность появления новых багов исключать нельзя.

Чувствую, что меня заминусуют, но зачем весь этот зоопарк, если старый добрый jQuery всё так же решает все возможные проблемы?

(если вам вдруг нужен mvc на фронтэнде — вы что-то делаете не так)
Собственно, затем, что всем нужен mvc на фронтенде) А нужен он потому, что все хотят пилить интерактивные онлайн-приложения. А пилят их в вебе потому, что иных нормальных платформ для онлайн-приложений не существует. А не существует их потому, что все уже обмазались костылями вокруг веба (кратким описанием костылей и является данный пост) и привыкли ко всему этому. А потом простейшие мессенджеры кушают по несколько гигабайт памяти и половину ядер процессора. Вот так и живём
С памятью и ядрами я еще как-то смирился, а вот непрерывная запись чего-то на жесткий диск меня напрягает.
По ссылке что-то про какую-то конкретную операционную систему, которой у меня нет.

А на диск пишет именно хром. И я уже выяснил, что ледо в web-версии телеграмма.

Так это узнать не проблема. Процесс браузера пишет какие-то данные в файл с ничего не говорящим названием в скрытой папке temporary internet files. Проблема в том, что я не понимаю, какой из десяти открытых сайтов и что там хранит.

Какой браузер? Если можно юзать Хром, то узнать сайт — не проблема (PID процесса-вкладки). Писать на диск можно или через LocalStorage и подобное (можно посмотреть инфу в DevTools), или через FileSystem API (нужны права). Возможно, я что-то упустил (не знаю?). Дебаггер советовать, наверное, нет смысла.

Хром может объединять несколько вкладок в один процесс.

Как минимум Slack. Вообще я немножко утрировал, но вот про полтора гига оперативы высказывались все кому не лень
Уже можно спокойно говорить «про любой». %) Ну или добавить Discord, если слака мало.
discordapp.com — попробовал, у меня работает идеально, оперативки 100 МБ.
Что не так конкретно?
попробовал
«А включать-то пробовали?» :D
Нет, ну ладно, примем, что для вебсофта 100 мб это «идеально»… Но в реальности это достижимо только при условии «не включать». %) То есть практически не пользоваться по назначению. Как в случае с браузерами — открывать две-три вкладки за сессию.
Это нормальная цифра для такого сайта.
f6.s.qip.ru/etSMzb2V.png

Это тоже самое если я сейчас топовую игру запущу и буду жаловаться что она требует 8 ГБ оперативки.
У вас всегда есть выбор, взять десктопную версию приложения.

Если вы открываете 100 вкладок за сессию, то это ваша проблема, я же не открывать 100 фотошопов.
А что такого в этом сайте? Вебчатики с прошлого тысячелетия существуют, а тогда 150 метров памяти это было бы больше физически доступной. %)
Я о «десктопе» и говорил, но, на самом деле-то нет никакой «десктоп версии», в этом и прикол! :D Это ровно тот же сайт, только крутится в электроне. Нет никакого выбора! %)
Не «если» открываю 100 вкладок, а «когда», потому что чатик — это не то же самое, что браузер (хотя и со страницами та же история, но это более общая тема), и у меня может быть сколько угодно контактов там, и их число не уменьшается. И проблема совсем не на моей стороне, я могу (и открываю) 100 вкладок в чем-то, отличном от электронных поделок и мне норм. :) А про 100 фотошопов — ооо, не надо так опрометчиво зарекаться-то, придет время и пооткрываете «фотошопы» во вкладках, уже вон в веб-версии переезжает все. ;)
А там ничего такого нет, вы правы, это лишь оптимизации браузеров под современные ПК, откатите браузер на 30 версий назад или возьмите альтернативу, у вас будет все медленно грузится, но памяти будет занимать мало. Вы уже не сможете перескочить с вкладку на вкладку иметь загруженный сайт в памяти и еще куча плюшек.

Меня все устраивает, мне не западло потратить 150 Мб оперативки и 200 мб памяти на жестом диске.

Я вот недавно какой-то софт устанавливал ан комп, весил он 20 метров
. только вот он меня попросил скачать NET framework в 200 метров, по сути все тоже самое выходит, километровый софт ради простой задачи!

Мобильная разработка вас устаривает в 2017 году?
Я скачивал приложуху дял финансов весит она 200 метров.
Скачивал игрушку, весит 1 гб.

Иметь загруженный ЭТОТ сайт не смогу, а построенный по старым канонам — да легко, и все остальное тоже. :)
Меня все устраивает
Вот в этом и проблема. :) Люди такие люди, к достатку привыкают быстро…
И опять же, 150 метров — меня бы тоже устроило (в десктопном софте на кутях это типа норма), но речь-то идет о гиг-полтора! :)

С дотнетом отдельная беседа. И я их тоже стараюсь не трогать, но дотнет уже с виндой идет, выбора особо нет. С жабой примерно так же получается, хотя ее уже чаще таскают с собой, но еще не так часто, как электрон.

Меня — не устраивает, но я ее и не трогаю, мне нравится десятилетней выдержки. %)
Игрушку могу понять на гиг, там грофоний (2017 год опять же), а мобилы это как компы старые, когда как раз на гиг игры уже были. А приложуха, почти уверен, слабана на электроне или типа того, шоб сразу на все платформы деплоить.
Но что, Вас и это тоже устраивает?
— Самое интересное, что я не могу пока понять, откуда такое желание защищать текущее положение дел, особенно учитывая вот это коммент по которому видно, что автор полностью осознает причины происходящего. :)
Процитирую для удобства
javascript уже в мобильных приложениях и десктопе.
Экономия на сотрудниках.
Позволительно когда проекты не сложные и высокие знания особо не нужны.
Не знаю какой привести пример, но если вы делаете что-то типа: «Показать записи, сгруппировать, вывести комментарии, показать среднее число постов в сутки, отправить данных на клиента, добавить, отредактировать», то вам не нужен крутой бекендер, там особо много ума не нужно, подойдет и фронтендер со знаниями бека.
Если это что-то реально серьезное нужно сделать на беке, то такой разработчик уже будет плох.
Можно отключать как-то все современные фичи браузеров, но там заморочено, самый простой вариант это через плагин: The Great Suspender
chrome.google.com/webstore/detail/the-great-suspender/klbibkeccnjlkjkiokjodocebajanakg

Расход оперативки снизится на 90%.
Теперь вместо 40 вкладок у вас будет висеть только 1 вкалдка в оперативной памяти.
Это одна из альтернатив, уверен что существуют браузеры которые делают так по умолчанию.

Это на случай если вы не современный человек и у вас старое железо и 1ГБ оперативки.

Что касается электрона, я тоже хочу что бы все приложения в мире занимали по 5МБ памяти, вместо 300 мб.
Только вот софт такой стоить будет не 50 баксов, а 1000 баксов.
Потому что цена разработки повысится, а нафиг это нужно? я лучше уж оперативку куплю за 1000 рублей, чем буду вечно переплачивать гуру программистам.

но почему меня это не тревожит? А потому что оперативная память стоит очень дешево, я покупал 5 лет назад 2 планки по 4гб за 3500 рублей и мне это хватает по сей день, даже с избытком Вот если бы планки стоили по 30 000 рублей, тут бы я был зол. таких людей как я еще 95% на всей планете и всех всё устаревает.

А, это для хрома, знаю такое, стоит в хроме давно. В принципе, то же самое можно делать, просто убивая процессы вкладок. %) Вивальди делает подобное, если превышает некий порог по памяти.

Цена на софт раньше почему-то не была выше, не надо вот. :3 Не цена разработки повысится, а скорость понизится, ну и снизится возможность использования веб-макак, само собой. Переплачивать приходится именно сейчас, тем, что покупать железо ТОЛЬКО ради ТЕХ ЖЕ задач, которые были решены уже пять-десять лет назад. %)

Именно так, 95% и всем норм. -_-
Понижается скорость разработки и растет цена продукта.
Тут конечно зависит от много факторов, например от уровня компании, маркетинга, спроса и так далее, давайте рассмотрим фрилансера.

Я не хочу платить 10000 баксов гению низкоуровневого программирования фрилансеру, который будет пилить свой софт 2 года под все платформы.
Я лучше заплачу 100 баксов макаке (как вы выражаетесь) который быстро решит мою задачу и решит ее не хуже.

Мне проще докупить оперативную память за 1000 рублей, что я кстати сделал еще 6 лет назад и вам советую сделать тоже самое. :)

Можете рассказать какое у вас железо стоит?
Я покупал свой комп около 5-6 лет назад и он до сих пор тянет весь софт, сайты и прочую фигню,
Вот игры перестал тянуть, но там видюха слабая просто :)


Тут явно путаница: работодатель платит за исполнение, не пользователь. А текущий тренд разработки пытается взвалить эту ношу на пользователя. С чем я в корне не согласен. %)

А вот я — хочу! Разумеется, 10 тыщ бачей не в одну каску, а вскладчину (и получается %кикстартер%), и опять же ошибка — платит разрабу не пользователь, а босс. Фрилансер тоже работает на босса — заказчика, кстати.

Так я не понял… ДЛЯ ЧЕГО память покупать? %) Если все и так тянет?
У меня примерно такая же жестянка, но сейчас я сижу на еще более старом ноуте.
Кстати да, тут уже давно должны были набежать с факелами и вилами владельцы модных ноутов, где память распаяна… %)
Я вас понял, я заказчик. сделаете мне за 50-100$ приложение которое будет запускаться на Android/IOS/WIN/UNIX/WEB?
Срок — 1 сутки.
Приложение простое, нужно разбивать загруженный текст на слова и делать по ним перевод через Yandex api + из полученных слов формировать цепочку карточек и показывать их в очереди.

Около 50-100 строчек кода на JS не считая визуализацию блока.

А вот хрен вы сделаете, вы запросите 500 баксов) потому что вам надо будет подключить к проекту еще 3 программиста и сроки увеличатся до недели.
Вот о чем речь.

Ну так это мне решать, сколько я запрошу и какая у меня квалифкация. :) Допустим, что это можно сделать НЕ на жабоскриптев и в строк 20. Ну за срочность может и запрошу больше, или за еще какие-то хотелки, но какая разница? Я кстати не понимаю вообще смысла формулировки «не сделать, но запросить 500 бачей» и что из чего тут должно следовать и почему. %) Но у всех свой опыт, это да.
Если сделаете мне этот продукт за 50$ на своем высокопроизводительном языке, что там у вас C++ или еще что, не разбираюсь в ваших технологиях, для меня важна скорость разработки и кросплотформеность ну и естественно что бы все работало и не лагало на современном железе.

Цену устанавливаете вы, но и конкурентов у вас много на такую легкую задачу.

Ну если я такие пирожки выпекал бы по 10 в день, почему бы и не за 50 бачей? Я не вижу противоречия, опять. :)
Конкурентов может быть и много, а заказчиков может быть еще больше…
>Тут явно путаница: работодатель платит за исполнение, не пользователь.

А деньги работодателю приносят конечно не пользователи, а дедушка мороз.
Именно так и получается. %)
Кстати, их может в итоге и не быть. И тех, и других.
Только вот софт такой стоить будет не 50 баксов, а 1000 баксов.

Почему бы? Стоимость разработки это малая доля от стоимости конечной программы.
Иногда бывает лучше продать 1млн копий по 100 рублей, чем 100 по 10000.
таких людей как я еще 95% на всей планете и всех всё устаревает.

Б#$, да откуда же вы такие берётесь-то?
60% на всей планете не выходили в интернет ни разу в жизни
Половина всех детей на планете страдает от голода.
я покупал 5 лет назад 2 планки по 4гб за 3500 рублей

Для одной пятой населения планеты это 4 месяца работать и ничего не есть.
Какие к чёрту 95%?
В случае дискорда нет выбора, «десктопная» версия это тот же хромиум (и процессов по ~100мб будет уже от 2).

Десктопная версия слаки или дискорда — это ровно то же самое "веб-приложение", просто в другой обёртке. Как следствие — те же самые (+на обёртку) проблемы с памятью и всем прочим.


P.S. Я уж не говорю о том, что дискорд просто обожает коллекционировать устаревшие копии себя, а каждая такая копия по 120 мегов. И лежат они разумеется где попало, а не в ProgramFiles.

Серьезно? Уже не стирает даже? Раньше стирал. %) Оставлял один бэкап, вроде как хром.
В \Users\%username%\AppData\Local\Discord оно живёт. Стирать приходится вручную, да. И вообще, это порочная практика — ставить софт в профиль юзера.

Сейчас веб-версию слака сильно переписали в лучшую сторону. Десктопная версия пока что ужас-ужас. =(

Не мессенджер, но, интереса ради, можете сравнить pgAdmin 3 и pgAdmin 4 по скорости работы да хотя бы на i5-2520. Оба — десктопные приложения, второе — «web»-based. Я был шокирован.
После того, как я открыл для себя vue, я боюсь открывать jQuery код.

Vue хорош всем, кроме того, что нужно дважды описывать модель во фронтенде и бекенде. Моя мечта написать backend defined frontend. Раз делал с jquery такое, но не до конца.

Вы в этом желании не одиноки, но, судя по тому что никто пока не написал — это не так просто, как кажется.
Наиболее очевидный путь — это ORM на JS, умеющая фронтенд. Но не все хотят JS на бэкенде…
А еще есть PouchDB, которая синхронизируется непосредственно с CouchDB. Но вот CouchDB использовать не очень хочется, да и не всегда нужно тащить данные на клиент.
Можете написать модель на беке и сделать генератор кода для vue на основе бек-модели. Работы на пару дней.
Pony ORM вроде как предоставляет такую возможность, если я правильно понимаю требования docs.ponyorm.com/ponyjs.html

К сожалению, не правильно поняли. Самое близкое это JamPy. Но оно больше всего подходит для работ с БД. Я говорю про следующую систему:


У Вас есть готовый макро/микро-сервис. Вы просто направляете скрипт на описательный запрос и singleapp интерфейс генерерируется автоматически с socketio соединением и со всеми ограничениями и какими-то дефолтными настройками для этого. Все работает с серверной части для защиты endpointа ну и реалтаймовости интерфейса. Было бы круто сделать что-то вроде:


route(endpoint_uri, endpoint_custom_name or domain_name, timeout, schema_uri or custom_schema)

Я делал подобную систему, но надо было делать быстро, поэтому пришлось все выкинуть и спуститься на землю и описать клиентскую часть, серверную часть и еще и микросервис.


У меня еще этот говнокодец для mongoengine 0.8 ORM сохранился где-то. Конвертировало поля в list/dict и можно было работать и с референсами тоже. Только фронтенд я писал очень криво, шло определение по датаатрибутам, что делать и куда вставлять данные


Прелесть такой системы, в том что неважно, что в бекенде. Фронтенд прелоадит отображение и цсс согласно темплейтам, а функционал работает в серверсайде, преобразуется любой апи в соответствующие команды этой системы.


Допустим у нас апи клиентского раздела. Клиенту выдается сначала темплейт логин, после логина выдается темплейт интерфейса, если len(route) == 1 то сразу интерфейс апи, если len(route) > 1 то интерфейс каждого апи скрыт под submenu.


Рут получает на входе credentials которые либо пересылаются в endpoint, либо обрабатываются декоратором и накладывают лимиты (апи фаерволл), согласно настройкам.


В дефолте, сделали API для почтового сервера и сервера хостинга например. Запустили такую программу и все — кормите пользователей. Либо напрямую, либо пишите фаерволл на апи, для допустим ограничения имени пользователя для endpoint...


@authorize(user)
route('wss://mailserver', 'Mail', 10, 'wss://mailserver/api_help')
@authorize(user,firewall_schema)
route('https://rest.cpanel.lan/', 'Web', 10, 'https://rest.cpanel.org/schema')

Я примерно описываю. Моя слабость фронтенд написать. Например пока не знаю, как заставить vue динамически получать и обрабатывать темплейты и экстенжны через socketio


Я уверен это бы ускорило бы создание стартапов и сервисов на очень много.

Ну, если Вы пишете сайты, то, вероятно такой подход годится. Я лично пишу не их, мне mvc на клиенте необходим.

Зачем нужен jQuery, если есть ELM? ;-)
Я еще помню, когда такие же вопросы звучали на тему jQuery: зачем нужен такой тяжелый фреймворк, если можно все написать на чистом JS?
Расскажите, пожалуйста, как ваш «старый добрый jQuery» может помочь с решением проблем использования возможностей ES6 в старых браузерах, с минификацией и с бандлингом? Заранее спасибо :)
Не подумайте, что я саркастирую, просто я из тех самых динозавров и мне действительно интересно — разве бандлы не зло? Раньше как было — ты добаляешь какой-нибудь jquery.js или bootstrap.js с CDN гугла, и со 146% вероятностью на клиенте он уже в кэше есть -> твой сайт грузится за пол-милисекунды -> profit!
Т.е. удобство бандлинга действительно перекрывает тот факт, что клиенты в каждого приложения таскают одно и то же в составе различных многомегабайтных плюх?

Библиотек становится больше, новые версии выходят чаще — и вот уже вероятность что все это у клиента есть в кеше околонулевая. А если в кеше нет хотя бы одного модуля — то его загрузка по времени сравняется со временем загрузки всего бандла.


Плюс любой CDN — это риски: он может перестать отдавать файл или начать тормозить и вы об этом никак не узнаете. Причем в последние годы на территории РФ эти риски многократно возросли.

Даже не "в РФ в последнее время" а в мире вообще.


И не только по причине политических причин.


Со своим сайтом я столкнулся с одной политической и двумя техническими проблемами (кривая маршрутизация у отдельных провайдеров).


Второе даже неприятнее — ибо хрен вычислишь если проблема только в отдельных городах.


Наш мир становится все более зависимым от интернета. И лучше, имхо, по возможности иметь большее влияние на используемые сервера.


Да, большие видео и много фото — есть смысл в CDN.


Но для обсуждаемых здесь файлов JS — напротив — CDN это дополнительное слабое звено, согласен с вами

Библиотек становится больше

Ну так не надо лепить все эти тысячи популярных библиотек в свой проект ради мелких финтифлюшек и кусочков сахара, которые они дают. Если мы будем на каждый чих тащить пакет — так и будет эта проблема вечной.

UFO landed and left these words here
UFO landed and left these words here
А если велосипед не нужен то может его и изобретать не надо?
UFO landed and left these words here
Во-первых, обычно вендоров выносят в отдельный бандл который меняется редко. Чтобы перегенерация бандла проекта была быстрее.
Во-вторых, можно указать какие вендоры будут резолвится с сдна.

Каждый решает сам что ему важнее.
Как динозавр динозавру — ответ уже заключен в вопросе: ключевое слово — удобство. Разумеется, оно — для разраба, не для пользователя… %)
А еще ломается вот такая офигенная (к сожалению, в прошлом) штука: https://addons.mozilla.org/ru/firefox/addon/decentraleyes/
Почему в прошлом? Она и сейчас работает нормально. Даже на Nightly.
Ну вот из-за этой «компиляции», теперь CDN со статическими скриптами все реже используют, а аддон ничего не ловит в результате. Ну хоть память не жрет и то хлеб. :)

После того как я столкнулся с тем, что мой сайт, хостящийся у Google в GAE, не видим для Крыма. А после переезда на сервера в РФ — не видим как минимум в двух немелких городах (проблемы маршрутизации местных хостеров). После третьего переезда — не видим в других трех крупных городах....


После чего я стараюсь минимизировать зависимость сайтов от внешних серверов.


Свои ты хоть как то контролируешь и можешь вовремя заметить и принять меры

с решением проблем использования возможностей ES6 в старых браузерах, с минификацией и с бандлингом?

Справедливости ради, стоит сказать, что проблем с использованием ES6 в старых браузерах, с минификацией и с бандлингом в принципе не существует. ES6 — это всего лишь инструмент, а не проблема. Без него вполне можно жить, а главное, нельзя сказать, что это существенно снизит продуктивность разработки.
ES6+ используют потому что это а) удобно б) помогает содержать код в чистоте и простоте.
Зачем сознательно себя ограничивать в инструментах, если для их использования достаточно одной команды?
А тот же TypeScript продуктивность разработки, к примеру, именно повышает, поскольку помогает отлавливать определенные ошибки еще на этапе сборки, а не в рантайме.

На месте автора, я бы, кстати, ESLint еще упомянул, он тут тоже в тему.
UFO landed and left these words here
Я первоначально думал также, но когда файл js начал занимать много экранов, то потихонечку задумался о том, что было бы неплохо разбить его на модули, а модули раскидать по файлам. Так и открыл для себя browserify, а потом и grunt, когда надоело руками каждый раз пересобирать файлы после каждого изменения. Ну а потом шли годы и появилось гораздо больше более удобных инструментов для сборки. Это не потому что так модно, просто реально намного удобнее, хоть и сходу трудно разобраться, что куда и как.
UFO landed and left these words here

Я попробовал его, и плевался от r.js. Никак не найду нормальный сборщик, чтобы define выпиливал и в костылях не нуждался...


Я-то совсем динозавр, у меня stealJS с собственноручно написанным сборщиком. Давно хочу мигрировать на AMD, но вышеупомянутая проблема не даёт.

Я вам не скажу за весь MVC, но как минимум V на фронтенде нужен, если:
1) пофиг на поисковики,
2) а бэкендщики не хотят делать HTML, они хотят фыр-фыр-фыр хайлод, выбирать NoSQL, сетапить Docker и поднимать REST API.
Старый добрый jQuery не очень умеет делать V из REST API.
Просто попробуйте ru.vuejs.org/index.html. Я не фронтенд разработчик, пересмотрел кучу видеолекций по ангуларам, реакту и т.п. Тоже был в шоке от того как плохо живут фронтендеры и невозможно даже *просто выбрать* что-то из этих двух для начинающего работу с фронтендом. Одна статья хвалит, другая ругает… Определиться невозможно.

И так пока не попался на глаза vue. Теперь взял и переписал простенький сайт с применением vue — скорость создания возросла раз в 10, количество ошибок меньше (заметно на глаз, даже без метрик). Писать — одно удовольствие. Не зря его хвалят, рекомендую. Буду использовать и в серьезных проектах, однозначно.

Просто попробуйте, поймете что jquery и ванилла — это хорошо, но точно не везде и не всегда.
а можно уточнить для чего для простенького сайта vue?
Для самообразования. Проще всего изучать незнакомые технологии используя их на практически полезных проектах. На небольших потому что обретается некая гибкость в теле™.

А вообще вопрос немного некорректен. Потому что не задача под технологию, а «вот эту задачу лучше решать так». Можно, если поднапрячься, придумать почему vue может быть очень полезен даже на домашней страничке. Ну как самое простое что в голову пришло — быстрое прототипирование. И можно придумать почему его не стоит использовать в мега-супер-проекте.

Кроме того если освоить связку vue\vuex + .core получаются очень неплохие результаты. Быстро, красиво, удобно, приятно. И код приятно посмотреть и работает отлично. (Оговорка — конечно не всегда и не для всех задач)

Иногда можно и простые вещи на этом мегакомбаине делать потому что есть уже готовый набор темплейтов, сниппетов, настроек CI и т.п. Так что если это имеет смысл — можно и страничку Васи Пупкина сделать на стеке который нравится и под рукой. Оверэнджиниринг? Да. С другой стороны знаю случаи когда такая страничка перерастала в мегапортал. (тут есть доля шутки).

Простите за Капитана Очевидность™ но вы первый начали (шутка)
Возможно вы ошиблись статьей и коммент адресован в какую то другую вкладку в вашем старом добром браузере.
Для тех кто читает только комменты: в статье речь идет о инструментах для разработки и поддержки.
Славно, что я не фронтендщик. Верная смерть
За неделю всё это можно выучить, только если просто по-обезьяньи запомнить ряд стандартных команд и шаблонно их использовать.

Слушал как-то лекцию по Webpack — понял, что если его не контролировать, со временем он может внутри бандла зародить жизнь, построить цивилизацию и устроить пару госпереворотов.
Нужно уметь ориентировать в технологии и читать документацию.
Не нужно зубрить весь синтаксис как в школе.
Сколько вам потребовалось изучить GULP? годы? Перелопатили все пакеты?
Мне ровно 30 минут, я понял общую концепцию посмотрел популярные библиотеки.
И кстати я уже забыл как он работает, что бы освежить память мне нужно зайти на их сайт, прочитать около 10 строк текста.

Webpack?
Настроил 1 раз конфиг и забыл про него на пол года.
Вышла новая фича — прочитал про нее — и перенастроил свой старый конфиг (используешь его под все проекты).

Вышел новый Webpack _ прочитал нотацию о миграциях, переписал либо остался со старой версией
Минут за 30 я уловил общую концепцию и получил иллюзию, что я что-то знаю. Набитые в дальнейшем куча шишек показали, что это была именно иллюзия.
Если у вас что-то плохо идет в фронтенде, то проблема скорей всего вашем бекграунде.
Это тоже самое что я полезу в ASP.NET без хороших знаний C# и буду жаловаться что там все криво и запутано, все не так как в других «серверных» языках.
если бы это было правдой, зарплата фронтендеров была бы самой низкой в IT, а за каждую вакансию соискатели бились бы насмерть
В свое время, имея хорошие познания ванильного js и jQuery, потратил именно неделю на реализацию в своем проекте всего, что описано в статье. И это при том, что тогда не было такой статьи :)
На реализацию «почти как и должно быть» у меня ушел один день, но перед этим был примерно месяц видеолекций, проб, ошибок, сравнений, изучения, статей,… и до сих пор для меня, как не фронтендщика является загадкой почему некоторые вещи происходят не так как я ожидаю… Например, первая из них с которой когда-то столкнулся — загадочный алгоритм по которому работает тупо npm update…

Знания нужны и если хотите делать как надо, а не чтобы работало — за неделю никак не осилить. Имхо, конечно
Не фронтендщику, конечно, не разобраться с написанием фронта за неделю.
Так и статья и обсуждения, как мне кажется, не для матерых фронтендщиков, а для тех кто хочет или кому надо в это углубляться… Фронтендщики и так в этом живут.
Тут согласен полностью, это тоже самое если я сейчас скачаю ASP.NET не зная идеально C# и не являясь NET Разработчиком буду жаловаться что там все запутано и не понятно. А так оно и будет.

Я думаю, имеется в виду, что у вас есть опыт в разработке на других технологиях, знание JS, уверенные навыки работы в командной строке и умение читать документацию на английском… Тогда да, недели должно хватить.
И не стоит забывать, это npm и webpack — это всего лишь инструменты, упрощающие разработку. Их знание не делает вас фронденд-разработчиком.
Да, но устаревает все равно быстрее.
Спасибо за статью!!! Очень досконально всё описано и легко читается! ))
Хабр торт, для динозавров :)
Спасибо. Если будут продолжения — буду ждать

Я динозавр и у меня остался вопрос: как отлаживать?
Я так понял, что мне надо собирать проект каждый раз для запуска в браузере. А после сборки, а тем более — транспиляции, код будет не похож на то, что я писал, и ошибки, бросаемые браузером, мне нужно — как-то сопоставлять с исходниками.

Js/css map выставляется в конфиге webpack.

А тут либо выставлять sourceMap. Либо дебажить "как есть". К сожалению, sourceMap очень часто уступает второму подходу, хотя и визуально приятнее. В особенности когда вы привыкли во время дебага что-нибудь править на лету в консоли. К примеру вместо this.someVar на деле может быть _this.someVar. А вместо libraryFunction будет (0, _libraryFunction3.default). В общем тут на вкус и цвет. Страдать и дебажить огромные монолитные портянки babel-я, но видеть всё как есть и иметь больше возможностей, или же быть ближе к коду, но то и дело сталкиваться с какими-нибудь странностями.

Кстати ещё насчёт дебага, меня учили старательно заворачивать всё в замыкания, чтобы в «global scope» ничего не торчало, что делает отладку через консоль невозможной в принципе, а также зачастую не даёт пофиксить какую-нибудь кривоту на чужом сайте через какой-нибудь юзерскрипт (и это одна из многочисленных причин, почему я осознанно остаюсь «динозавром»)

А какая связь между заворачиванием в замыкания и осознанным динозавром?

У динозавров никто ничего обычно не заворачивает (в библиотеках типа jQuery такое бывает, а в коде самих сайтов я такое встречал очень редко), а у не-динозавров вебпак вроде бы всё сам заворачивает, если явно не пробросить что-нибудь в window. Исключения есть, но очень редки, отсюда и связь. Алсо, когда я пытался в вебпак-проекте вытащить пару модулей наружу в том числе для упрощения отладки, меня били по рукам)

Ну так почему вы осознанно остаетесь динозавром если вас учили заворачивать в замыкания-то?

что делает отладку через консоль невозможной в принципе

А зачем для отладки через консоль доступ к переменной из глобальной видимости? Ставите breakpoint или debugger, дожидаетесь срабатывания, открываете консоль и пишете в рамках видимости текущего стек-кадра. Очень сильно помогает в решении сложных debug-задач.


А ещё частенько выручает на сторонних сайтах. Смотрите event-listener-ы нужных вам DOMelement-ов. Изучаете их callback-и ("развернув" код). Ставите в нужном из них точку останова. И вуаля. Есть доступ к чему угодно, можно делать что угодно. Манкипатчить функции, утащить значение какого-либо объекта, провести какие-нибудь эксперименты и пр… Ну в общем базовые debug-вещи.


При использовании import-export системы модулей у вас все файлы по умолчанию обёрнуты в замыкание. Чтобы что-то навязать в глобальную область — это нужно сделать руками (window.blabla =, global.blabla =).


В исходный код расширений тоже залезть проще пареной репы. Покопайтесь в web developer tools. Там столько всего вкусного есть… Времена когда инструментарий frontend разработчика был деревянным давно прошли.

А почему я должен ставить breakpoint, если я, например, хочу просто взять и вызвать такую-то функцию такого-то модуля, не привязываясь ни к каким событиям? Пока это всё ещё звучит как костыли и неудобства.

Мы, кажется, понимаем под словом debug с вами очень разные вещи. Если вам нужно публичное API — сделайте его. А если вам нужное публичное API для сторонних независящих от вас вещей — напишите им об этом в issue, или сделайте pull request, или просто свой fork, где будет всё по вашему. А для debug-а всё есть и область видимости слабая помеха.

Если вам нужно публичное API — сделайте его.

Я-то делаю, за меня волноваться не стоит.))


А если вам нужное публичное API для сторонних независящих от вас вещей — напишите им об этом в issue, или сделайте pull request

И все так сразу взяли, меня послушали и по-быстренькому запилили / приняли пулл-реквести, ага. Если бы всё так было в реальности, я бы тут не ныл про юзерскрипты. Один знакомый не-динозавр наоборот закрыл на своём сайте почти всё публичное API, несмотря на массовые протесты юзерскриптоделов, включая меня. При этом проблемы, которые ранее исправлялись юзерскриптами, исправлять, естественно, не стал.


или просто свой fork

Который будет никому не нужен. Огромное количество сайтов (включая вышеупомянутый) живёт в интернете только за счёт контента и аудитории, и если контент ещё можно кое-как скопировать (чем я старательно занимаюсь в свободное время, держа собственные копии некоторых сайтов), то аудитория будет переходить крайне неохотно, если вообще будет — пока технические проблемы не станут совсем уж невыносимыми. А будь форк сколь угодно крутым — какой в нём смысл, если народа не будет? Если разработчики отзывчивые, баги фиксятся, пулл-реквесты принимаются — проблема «замкнутого» API не столь остра, но ведь так бывает не всегда, и в моей практике «бывает» очень редко.


А для debug-а всё есть и область видимости слабая помеха.

Но помеха. Зачем эта помеха существует?


Вообще, нужно подойти к вопросу с другой стороны: нахрена закрывать API?

Но помеха. Зачем эта помеха существует?

Зачем существует область видимости? Масса причин. Загуглите. Кстати говоря, на подходе приватные поля классов (#someProperty). Так что помех будет ещё больше.


Вообще, нужно подойти к вопросу с другой стороны: нахрена закрывать API?

Проблемы индейцев шерифа… ;)

Зачем существует области видимости, я знаю, и активно их пользую. Вопрос в другом — зачем ограничивать доступ к области видимости? Python-way с эмуляцией приватных полей через подчёркивания я считаю хорошей идеей. Нарушать инкапсуляцию не позволят громко ругающиеся линтеры (я их юзаю как любой нормальный программист, естественно), а для отладки или костылей (когда без костылей совсем никак) — вот, пожалуйста, всё открыто, лезь куда хочешь.
UFO landed and left these words here

Статья хорошая. Только неблагодарная это работа объяснять невеждам. Если человек в 2017 году не понимает зачем нужен npm или webpack и при этом берется рассуждать о front end, то ему не нужны ваши объяснения, он просто хочет самоутвердиться.

Человек вполне мог писать на яваскрипте двадцать лет назад, а сейчас может и не знать про npm — что ж ему теперь, о фронтенде не порассуждать?

О том, каким был фронт двадцать лет назад, почему бы и нет. О сегодняшнем фронт енде. Ну ок, будет еще одна стена текста о том, как все плохо и непонятно.

Вот объясните, зачем нужно указывать name, version, description, author, license и main если делается не общая библиотека, а веб-приложение или вовсе сайт? Кстати, вы еще repository забыли в список добавить. Не удивлюсь если эти поля в package.json самим своим существованием отпугивают динозавров...


Для приложений достаточно { "private": true } и все. Или можно даже просто {} (пустой объект) в файле написать — npm будет кидать несколько варнингов, но работать.

Вроде бы статья добротная, но есть одно маленькое «но»: почти все перечисленные инструменты преподносятся как технологии обязательного использования в своих проектах, хотя это не совсем так. Gulp, Webpack, npm, yarn и другие представители «новомодного зоопарка» используються для облегчения разработки средних и крупных проектов. Нет смысла их использовать при малом количестве кода, тогда они будут просто мешаться.
В 2017 ничто не мешает вам сделать «олдскульный» сайт, используя только HTML и JavaScript, даже нужно, если вы делаете простую верстку лендинга, а не полноценное веб-приложение.

Я вам больше скажу — есть и альтернативы, возможно экзотические, но работающие. webjars, например, в качестве средства для замены npm — вполне работает, а если вам не нужно много экзотических пакетов прямо сегодня — то и удобно работает.


В 2017 ничто не мешает вам сделать «олдскульный» сайт, используя только HTML и JavaScript

Не, тут вы не правы. Вы можете делать сто раз олдскульный сайт, но завтра к вам придет заказчик, и скажет, что хотел бы посмотреть сайт с iPad, например. Или из IE 11 (не говоря уже про более старые). И вам потребуется, чтобы ваш javascript вдруг сразу стал совместим с тем JS движком, который там работает. Вы все еще можете жить без npm, но вам уже нужен babel.


Babel в принципе запускается например из JVM Nashorn, но вовсе не безпроблемно, в том числе потому, что сам в какой-то степени завязан на зависимости (пресеты и плагины).


Вот это и мешает. Вы можете делать олдскульные сайты, но часть описанных тут инструментов все равно вам окажутся нужны. Менеджеры зависимостей, разного рода сборщики и пакеры — тут да, вариантов много (взять скажем gradle из того же мира Java). И их нужность конечно зависит от сложности, от наличия и числа зависимостей.


Ведь по сути, весь npm, в той части, в которой он нужен простому приложению — это два-три тривиальных REST запроса к Node registry, один чтобы узнать список версий пакета, другой — чтобы достать tarball. Да, если там внутри окажутся скрипты для сборки — вы попали, но в простых случаях установка пакета npm куда-то на локальный диск — это строк 20 кода на чем угодно.

вам уже нужен babel

А чё, писать на чистом ES5 (опционально с полифиллами) уже запретили?)

Да и на ассемблере никто писать не запрещал. Но чем дальше в лес — тем менее становится актуальным чистый ES5. Проще потратить час/неделю (кому как) на освоение этой статьи, чем олдскульничать до старости. Ну то есть это уже становится по важности типа как знание гита.
Ну, пока что лес не столь глубокий, лично я никаких проблем с ES5 не испытываю. Существенной разницы с ES6+ нет (без трёх с половиной синтаксических сахаров жить вполне можно, а для остального есть полифиллы), это вам не ассемблер. Да и у гита куча альтернатив есть, если что)

Ну, нет конечно, никто не мешает. Просто есть еще и зависимости, например.


Ну вот скажем, такой вполне реальный пример — есть Nashorn, который работает в JVM. Там кажется ES5.1, т.е. не самый последний. И я хочу там запустить что-то, что написано под ES6 (это не паковщик, и вообще это не инструмент, а вполне прикладная зависимость, какой-нибудь Topojson, скажем). Какая мне радость от того, что свой код у меня написан под ES5?

Многое еще зависит от сайта. Те же лендинги, с парой кнопок, формой и несколькими интересными эффектами можно доделать достаточно быстро, что бы работало красиво для мобилок, с помощью media queries. Почему нет? Если хочется только css, html, js.
Разработчики Topojson заботливо прогнали всё через babel сами и залили минифицированную ES5-версию на гитхаб. И так с большинством библиотек, поэтому указанной вами проблемы не существует :)

Агащазблин. На самом деле все еще хуже, чем я описывал. Во-первых, даже если прогнали и залили — вам придется лично копаться в скриптах, чтобы понять, это ES5, или какая-то другая версия. Потому что нигде в метаданных пакета npm это не пишется. И завтра в новой версии может оказаться другая, потому что никто вам ничего не обещал.


А во-вторых, даже если минифицированный пакет в репозитории вам подошел, рано или поздно вы можете захотеть внести в него исправления, потому что кода без багов почти не бывает. И вот тут вы уже просто вынуждены пользоваться тем тулчейном, которым пользовался автор, а не своим.


P.S. Вот реальный код topojson:


export {default as topology} from "./src/topology";


и в Nashorn это не работает. Так что проблема как раз совершенно реальная. Простой переносимости JS кода между разными окружениями не существует, это миф.

Вы точно разбирались в этом вопросе, или просто поныть решили?


Вообще-то в package.json есть две секции


  • main — указывает на обычный CommonJS файл
  • module — указывает на код с import/export для тех окружений кто его поддерживают, например Node.js с флагом --experimental-modules.

Для вашего особого случая, когда ваше окружение не знает ни require ни import авторы положили файл dist/topojson.js в котором модулей нет вообще.

Это вы не поняли, а сразу пытаетесь поучать, отвечая на один коммент, и не читая ветку.


Окружение не просто не знает require и import, оно еще и не содержит npm (и node вообще). И речь как раз шла о том, что даже если вы пытаетесь писать в олдскульном стиле в любой среде, и на любой версии языка, то вам рано или поздно попадаются зависимости, которые хотелось бы использовать, которые просто требуют развертывания той экосистемы, которая описана в данном посте.


Ну т.е., беру я github, делаю себе clone — и на минуточку, там вообще нет папки dist, ага?

Конечно в git папки dist нет, зачем коммитить сгенеренный код в VCS? Папка dist подготавливается в билде и публикуется в npm.


Если у вас нет возможности (или желания) ставить npm-cli, вы можете скачать файл руками: https://registry.npmjs.org/topojson/-/topojson-3.0.2.tgz, распаковать его, и получить заветные файлы из dist.

Я ровно об этом писал примерно 10 комментов назад. Читайте всю ветку, ваши комментарии спорят непонятно с чем.

это ES5, или какая-то другая версия

У любой нормальной либы указывается список поддерживаемых браузеров. Если такого нет или вместо него отписка типа «only for modern browsers», то это плохая либа, её использование — ваша ошибка, страдайте, чо уж :)


вы можете захотеть внести в него исправления

Ни за что не поверю, что у вас это обыденность. Ни сам я не вносил исправления в чужой код, ни знакомых, занимающихся этим регулярно, нет. Но если уж очень сильно приспичит, то весь этот тулчейн нужен будет лишь до выхода релиза, в котором баг пофиксят.


P.S. Вот реальный код topojson:

Врать нехорошо
Ни за что не поверю, что у вас это обыденность.
Хм. У меня в проекте пара сотен зависимостей. с десяток из них я лично дорабатывал. Доработка topojson, чтобы он работал в Nashorn, стоит в планах, потому что альтернатив ему найти не удалось,

P.S. Я вам показал реальный код, который лежит в github. А вы мне — вообще какую-то хрень непонятно откуда, из какого-то кеша. Для начала, попытайтесь понять, о чем я пишу, а потом уже наглейте до обвинений во вранье.

Доработка topojson, чтобы он работал в Nashorn

Значит официально Nashorn не поддерживается, значит на этом тему можно закрыть. Topojson фактически становится не сторонней зависимостью, а вашим кодом, а его пишите на чём хотите, хоть на ES3 — проблема зависимостей снова перестала существовать :)


А вы мне — вообще какую-то хрень непонятно откуда

Никакая не хрень, с гитхаба и скачано https://github.com/topojson/topojson/releases/download/v3.0.2/topojson.zip

Еще раз, вернемся к тому, с чего начали: я собственно утверждал, что вы можете писать в любом олдскульном стиле, до тех пор, пока у вас не появляются зависимости. Если они появились, вам так или иначе нужно будет иметь дело с тем набором инструментов, какой был у их автора. Всем набором или некоторой частью — зависит от ваших потребностей по адаптации под себя, и от того, под какую среду автор выпускает релизы.


То что в частном случае бывает иначе — я верю. Я даже могу поверить, что иначе бывает в 90% случаев. Это не меняет того факта, что вы полностью свободны в выборе инструмента только пока весь код сами пишете.

Если вам «повезло» попасть в эти проблемые 10%, мне вас жаль, но это не отменяет того факта, что необходимость иметь дело с тем набором инструментов, какой был у автора библиотеки — исключительная редкость. В поддерживаемых окружениях достаточно подключить вышеупомянутый topojson.min.js куда надо, и никаких бабелей ставить не надо.

Я не исключаю, что у меня просто специфичные задачи. По сути, это так и есть — заказчики много лет банки, большая часть софта — в интранет, старые браузеры — это более чем типично.

вам так или иначе нужно будет иметь дело с тем набором инструментов, какой был у их автора

под набором инструментов вы имеете в виду node.js/npm вообще, или конкретный инструмент сборки, которым собирается и тестируется topojson?

Это не меняет того факта, что вы полностью свободны в выборе инструмента только пока весь код сами пишете.

А когда Вы не весь код пишете сами — то весь разговор бессмыслен. О каком способе подключения зависимостей в коллективе ДОГОВОРИЛИСЬ — тот и надо использовать. И всего делов.

Алсо, не расскажете, зачем вам Nashorn? Я про него нигде никогда не слышал, и не похоже, чтобы библиотеки тестировали и в нём тоже, а не только в браузерах и nodejs. А запускать библиотеки в заведомо неподдерживаемом окружении тоже немножко ССЗБ)

Есть многое на свете, друг Горацио, что… Мало ли чего вы не видели и не слышали? У меня есть крупный Java проект, который работает с геометрией. Мне нужен конвертор geojson->topojson, который удалось найти ровно в одном экземпляре — у автора самого формата. У меня есть два простых варианта — либо его переписать (что возможно, но довольно геморройно, там много сложной математики), либо запустить как есть. А есть именно Nashorn, который декларирует ES5.1, и не умеет из коробки ни require, ни модулей.


Тестировать? Ну так если что, протестируем. Это-то тут при чем? Даже если бы среда была поддерживаемая, все равно сторонним компонентам на 100% доверять нельзя.

либо его переписать (что возможно, но довольно геморройно, там много сложной математики)

Две тысячи строчек, покрытых тестами — у меня одноразовые скрипты-однодневки весят больше) Хотя, быть может, переписать и протестировать всё будет таки немножко геморройно, но мне со стороны кажется, что профита от этого будет больше и для вас, и для сообщества, чем от геморроя с Nashorn.


Или у вас фиак-фигак и в продакшен и некогда кого-то куда-то портировать? Тогда все разговоры вообще не имеют смысла.


Тестировать? Ну так если что, протестируем.

Именно. Портируйте, тестируйте и на гитхаб ;)

Две тысячи строчек, покрытых тестами — у меня одноразовые скрипты-однодневки весят больше

Вы не учитываете простой вещи — того что сегодня могут быть другие, более важные дела. Ну и потом, если я соберусь портировать скажем на Java, то а) скорее всего в основе будет либо JTS, либо geotools, и логика сильно может поменяться (надеюсь, в сторону упрощения), б) тесты можно будет выкинуть по большей части, тут они не помогут.


А геморрой с Nashorn — это совершено другого рода геморрой. По сути в основе него будет попытка перенести к себе окружение из Node. Скажем, npm подключить — это вообще не задача, я большую часть функций использовать не буду, а чтобы миррорить к себе выбранные пакеты из репозитория — это совсем простая задачка уровня "два-три REST запроса, выкачать tar.gz, распаковать". Я это уже почти сделал, там кода строк на 30 от силы.


require в каком-то виде есть, но надо состыковать с предыдущим пунктом.


Babel вполне работает в этом окружении, ему не хватает того самого require, чтобы где-то взять пресеты и плагины.


Ну т.е. это — чисто техническая задача, по больше части рутина.

UFO landed and left these words here

Не, не пробовал. А оно разве поддерживает Nashorn? Я вроде видел баги у них в github, на предмет добавления, и они не закрыты, и там описаны проблемы, с которыми столкнулись в попытках это реализовать.


Вот, например: https://github.com/ModuleLoader/es-module-loader/issues/444


Вообще, в моем понимании тут ситуация пока такая, что нужна некоторая поддержка со стороны Оракла или OpenJDK. Иначе некоторые вещи сделать трудно.

UFO landed and left these words here

По-моему у нас как раз все относительно хорошо :). Если я могу запустить Babel внутри JVM, и он работает — это совсем неплохо, и говорит о приличной совместимости JS движка.


Я не думаю, что в другой какой-то экосистеме (кроме самой ноды) получится сделать что-то похожее. Понятно что проблемы есть, но народ над Nashorn работает, его не забросили. Есть вот такая например штука, как jvm-npm, которая реализует requre (и которой я как раз пользуюсь). Если ей как следует объяснить, где у нас модули, и установить их заранее. И сделать сервис, который будет проксить node registry. Вполне реализуемая задача, на первый взгляд.

После того, как я освоил async/await, писать на чистом ES5 я уже не могу, это слишком больно.
async/await это круто, но с обычными промисами тоже можно жить. Вообще я даже знаю одного человека, который ненавидит async/await и топит за промисы, игнорируя тот факт, что async/await это сахар для промисов)
игнорируя тот факт, что async/await это сахар для промисов)

Значит у него на сей сахар индивидуальная непереносимость. Его право, как говорится.

Стало интересно — а на каких языках он пишет чаще всего? Если это не только жабоскрипт. Может привычки от какой-то парадигмы какие-то.

Я видел утверждения (в некотором роде — доказательства), что async/await это do-нотация для монады promise, т.е. это не просто сахар, а они эквивалентны. Это не мешает мне лично все равно предпочитать промисы, и я даже могу попытаться сформулировать, почему: потому что промис самодостаточен, это более фундаментальное понятие, и я могу (и знаю куда) смотреть, чтобы понять, как он работает.


Ну т.е. упрощенно, промис — это библиотека, я и знаю, где в общем случае искать ее код, и вдруг если нужно, то могу подключить вместо одной библиотеки промисов другую, и тоже посмотреть в ее код, и сравнить их. А для синтаксической конструкции языка это все далеко не так очевидно.

На мой взгляд — очень правильный подход. Но с некомпилируемыми языками ничего нельзя точно сказать, не копая каждый случай отдельно. :)
«Олдскульный сайт» и «заказчик» как мне видится, вещи несовместимые. Олдскульный сайт делается для себя. Уж в наше то время, время засилья новых технологий, во время упоения хайтеком.

Ну, вы можете не называть это "заказчик", но все-таки, делать сайт только для себя — это странно. У него все равно должны быть пользователи, даже если это хобби. А раз пользователи — значит разные потребности.

Могу. Потому что слово «заказчик» как правило ассоциируется со словом «деньги», а раз «деньги» — значит «бизнес». Дальше продолжать цепочку? :)
«деньги» — значит «бизнес»

А бизнес бывает разный. И сайт может быть предназначен не для клиентов, а для сотрудников, которые на ворованной ХР сидят.

ничто не мешает вам сделать «олдскульный» сайт, используя только HTML и JavaScript

Дело в пальцевой механике: если кодер пишет в основном на es6, он рано или поздно на автопилоте зафигачит в «олдскульный» JavaScript что-то типа let {foo, bar} = baz и даже не заметит (потому что сидит в последнем Хроме). В рантайме «новомодный зоопарк» жрать не просит, так зачем отказываться от привычного процесса?
Очень полезно, только начал изучать js, многое встало на свои места, до этого команда npm install… походила на магическое заклинание. Спасибо.
Обратите внимание на аргумент --save-dev — он сохраняет бандлер как зависимость среды разработки, так что она не понадобится на production-сервере.

Это как? Если на проде нет сборки, то там и moment.js не понадобится. Если есть сборка, она без бандлера не заработает.
На самом деле отличие в другом: если кто-то решит использовать ваш пакет как зависимость, ваши зависимости из devDependencies не будут подтягиваться в его node_modules.

По сути, мы просим webpack найти все .js-файлы (за исключением лежащих в папке node_modules) и применить babel-транспилирование

Мы не просим вебпак искать файлы. Мы ему объясняем что делать при импорте js-файла. В вашей формулировке получается что-то типа gulp.src('src/*.js'), но вебпак так не работает =)

Иногда нужно разделять модули на два типа не только при разработке библиотеки. Некоторые пакеты имеет смысл ставить не только там где идет билд — но и на сервере. В таком случае можно на сервере выполнить команду npm install --only=prod.


В сценарии с webpack такая команда не нужна, а вот при использовании какого-нибудь require.js или systemjsразделение модулей на два типа пригодится.

Ну да, оно так и задумывалось, потому что и nodejs, и npm придуманы для работы в серверном окружении, и там эта конструкция вполне соответствует условному require/require-dev из композера. Но в случае, описанном в статье, все вполне однозначно: либо на сервер попадает готовый бандл, и там тогда тупо нет node_modules (то есть ни moment.js, ни вебпака). Либо оно там же и собирается, и тогда там будет и вебпак, и moment.js.

Я не призываю все пихать в dependencies, порядок это вообще хорошо. Просто надо понимать, как оно работает, боюсь из статьи динозавр бы понял не совсем правильно +)
Спасибо! Это, наверное, одна из самых полезных для меня статей за последний год на Хабре. Очень многое встало на свои места и теперь после уютного питоньего мира я могу смотреть на современный js без содрогания.
Статья действительно очень интересная, спасибо!

И здесь появляется бандлер (bundler). Это инструмент для сборки модулей в единые пакеты, имеющий доступ к файловой системе. Получающиеся пакеты совместимы с браузером, которому не нужен доступ к файловой системе. В нашем случае бандлер нужен для поиска всех выражений require (имеющих ошибочный, с точки зрения браузера, JS-синтаксис) и замены на настоящее содержимое каждого требуемого файла. В финале мы получаем единый JS-файл без выражений require!

Я правильно понимаю, что в JS был, фактически, заново изобретен #include? А как разрешаются кольцевые зависимости?
UFO landed and left these words here

Не будет ошибки сборки. Проверил webpack 3.8.1, все собирается.

Не знаю, как в вебпаке, но в ноде так: если первый модуль ссылается на второй, а второй — на первый, то второй получит ссылку на первый, но на момент импорта первый модуль будет проинициализирован только до строчки импорта второго.
Я правильно понимаю, что в JS был, фактически, заново изобретен #include?

Нет. Импорт модуля больше похож на линковку с объектным файлом чем на текстовое включение заголовочного файла: у каждого модуля есть свои импортируемые и экспортируемые символы; внутренности модуля от других модулей спрятаны.

Спасибо за пояснение. Просто из статьи мне показалось — «замена на настоящее содержимое каждого требуемого файла» — что импортируемый модуль просто копируется в итоговый файл.
UFO landed and left these words here
Я правильно понимаю, что в JS был, фактически, заново изобретен #include? А как разрешаются кольцевые зависимости?
Я вам больше скажу export/import уже даже поддерживается браузерами. Файлы со своими областями видимости и прочие плюсы.

"заново", "изобретен" — неправильные слова. Скорее "имлементировано что-то похожее на include в других языках".


А как разрешаются кольцевые зависимости?

Импорты инициализируются лениво. Вы можете импортировать любые модули, в том числе и циклические, но нельзя циклически обращаться к переменным. Использовать в функции, коллбеке — пожалуйста:


// a.js
import b from "./b.js";

// b.js
import a from "./a.js";

function logA() {
   console.log(a); // внутри функции можно
}

// а во время инициализации нельзя
// console.log(a);
Вот так мы создавали сайты с JS-библиотеками. Процедура была простой для понимания, но раздражала необходимость искать и скачивать новые версии библиотек при каждом их обновлении.
Стоп-стоп-стоп… т.е. это и есть основная причина, по которой нужно городить такой зоопарк? Но ведь если раньше вам нужно было просто искать, скачивать и прописывать script src=, то теперь надо это делать в package.json, следить за зависимостями и множество других узких мест. Не могу сказать, что вы облегчили себе жизнь. Точнее «сначала усложнили», а потом автоматизировали.
Но ведь и при обновлении новых версий библиотек нужно также быть очень аккуратным, ведь никогда не знаешь, поломает ли новая библиотека тебе сайт, или нет.

Далее немного непонятно, зачем во фронте использовать библиотеки, предназначающиеся для полноценного серверного node? Ведь в браузере нет файловой системы, нет кучи других заточенных под сервер функций(сходу придумываю: sql-коннектор. или есть?). Я не утверждаю, что этого делать не надо, мне просто непонятно и буду рад, если кто-то ответит, что есть в npm юзабельного и под node и под фронт. А иначе выглядит как дикий костыль пихать в npm то, что не подходит для node, но подходит для фронта.

В общем так и не стало особенно понятно, какую именно проблему решает такой метод, но зато расписано что и какой модуль делает, за это спасибо
Стоп-стоп-стоп… т.е. это и есть основная причина, по которой нужно городить такой зоопарк?

https://habrahabr.ru/company/mailru/blog/340922/#comment_10494366


Далее немного непонятно, зачем во фронте использовать библиотеки, предназначающиеся для полноценного серверного node?

Незачем. Но в репозитории npm лежат еще и клиентские библиотеки. Собственно, npm выиграл (первую) войну пакетных менеджеров и сейчас практически все популярные открытые библиотеки можно найти в его репозитории.

UFO landed and left these words here
Многое из описанного уже поддерживается в браузерах. Нет необходимости каждый раз после сохранения файла, пересобирать весь проект. Например, «import moment from 'moment';» в хроме уже работает. И практически весь остальной ES6. Но перед отгрузкой на боевой сервер кое, что из описанного понадобится: бандлер (webpack, rollup), транспилятор (babel), минификатор (uglify), еще можно и каким нибудь обфускатором прогнать. Настраивается один раз, и благополучно забывается до следующего проекта. Это если проект малый/средний.
Может я и динозавр, но ваша статья меня не убедила.
Моё первое правило — минимум движений чтобы начать разработку. Т.е. когда я открываю Visual Studio и создаю ASP.Net проект, то могу нажать Run и он сразу заработает.
В случае со всем этим зоопарком приложений — такое не сработает.
Теперь пройду по порядку по каждому пункту:
1. Использование диспетчера пакетов — диспетчер пакетов вещь хорошая, если она встроена в IDE (как NuGet в VS). Но как часто вы добавляете пакеты в проект? Я думаю это происходит в самом начале работы над проектом, плюс немного в ходе разработки. Раньше просто создавалась папка в проекте и туда помещались сторонние библиотеки (в отдельных папках), и всё это добро выкладывалось в систему контроля версий, поэтому для всех остальных разработчиков достаточно было просто забрать последние изменения. И это работает!

Webpack — судя по описанию сценарий его использования — это создать себе проблему и героически его решать. Т.е. сначала мы пишем не-JS код, а потом его преобразуем. Почему бы сразу не писать JS-код. Не подключать библиотеки как раньше одной строкой с сылкой на файл?!

Babel — примерно также как и Webpack. Я не понимаю зачем использовать синтаксис, неподдерживаемый браузерами. Если сейчас 90% браузеров поддерживают ES5, то пишите на ES5. Как только большинство браузеров стало поддерживать ES6 — переходите на ES6 и т.д. C HTML5 и CSS3 это отлично сработало, так почему для JS нужны костыли?

TaskRunner — опять же полезная вещь, но только для минификации и оптимизации картинок, а не для «компиляции» JS — кода. В идеальном случае выполняется, как часть нового билда, а не как часть ежедневной работы программиста.

Вообщем, как и положено динозавру, я буду продолжать писать JS-код, который не требует никаких преобразований и в браузере у клиента будет работать точно также как у меня на машине, а в случае крайней необходимости его и на проде можно подправить. Может быть года через 3-5, когда все браузеры будут поддерживать TypeScript или ES2016/2017 прямо из коробки, тогда уже буду использовать их. Но чтобы без «компиляции»…

Полностью согласен с вами.
Кроме того, совершенно неочевидна польза от "объединения всех зависимостей". Скорее даже наоборот — существенное осложнение развёртывания, да и поддержки всего этого. Ради чего, собственно? Возможно (?), какой-то смысл для крупных проектов это имеет.

Как минимум, для загрузки всего js у вас будет лишь один http-запрос. При этом при разработке вы никак не ограничены количеством и расположением файлов в проекте. По сути, процесс аналогичный сборке исполняемого файла в классических компиляторах.

Ждал этого очевидного ответа. Но HTTP/2 решает эту проблему куда более эффективно. Особенно при использовании push.
Кстати, о динозаврах, да? ;-)

UFO landed and left these words here

А браузеры ваших посетителей?

Все современные и ныне используемые — это не одно и то же.


Скажем полно еще устройств с Android 4.2. Как раз в то время Андроид пошел в массы. И пользователи тех браузеров зачастую пользуются именно дефолтным системным.


А если бы проблема была только в степени реализованности фич в современных браузерах, то мы бы даже не использовали babel

~70% обращений клиентов (без роботов) по HTTP/2 это реальная статистика у меня в этом месяце.

Я вас правильно понял: вы забили на 30% ваших пользователей?
Почему забили? Неужели то, что у 30% пользователей скрипты загрузятся на полсекунды дольше, это такая трагедия?)

В два-три раза (от сайта) где-то реальное ускорение по HTTP/2.

Я хочу сказать, что для конечного пользователя HTTP/2 это хорошо и нужно, а целесообразность пакетирования Javascript-ресурсов весьма сомнительна.

В таком случае вам понадобится загружать модули в рантайме, для чего понадобится список всех модулей с указанием где какой лежит. Так что собрать бандл попросту проще.

То же требуется и для сборки пакета. Плюс ещё развёртывание и поддержание самого механизма, как я уже писал. То есть всё становится сильно сложнее.

При сборке пакета webpack модули находит там же куда их положил npm. А вот клиентским скриптам такой механизм недоступен

Кстати, ещё момент. Описанный процесс упаковки вряд ли стоит сравнивать с компиляцией, поскольку никакого преобразования кода при этом не происходит. Вот кабы при этом была, хотя бы, некоторая (автоматическая) оптимизация за счёт, к примеру, удаления неиспользуемых функций и т.п., тогда я бы понял смысл.

UFO landed and left these words here
удаления неиспользуемых функций

В какой-то мере присутствует. Плюс может всякие статические выражения рассчитать. Может внедрять свои переменные в код и срезать неиспользуемые куски кода. Скажем было:


if(process.env === 'DEBUG')
{
   // a lot of code
}

стало… нифига не стало, всё срезало, ибо process.env === 'PRODUCTION'. Таким макаром срезается для prod-режима гора кода, предоставляющая удобства для дебага. Плюс минификация в prod-режиме.


Ещё ряд плагинов именно преобразуют код. Скажем JSX плагин только этим и занимается по сути. А есть плагины к нему, которые превращают <If condition={}/> в тернарные операторы а <For .../> в .map-конструкции.


Чего там только не, если честно.

Интересно, спасибо. Странно, что такой мотивировки пакетирования нет в статье.

Как минимум, для загрузки всего js у вас будет лишь один http-запрос.

Который для каждого мимо проходящего будет грузить все функции для пользователей и администрации. Это я к тому, что объединение всего в один файл не оправдано.
UFO landed and left these words here
По-моему невозможность точно сказать, где будет использоваться функция, уже само по себе сигнализирует о проблемах понимания предметной области вообще и самого приложения в частности.
UFO landed and left these words here
UFO landed and left these words here
На ES6+ пишут, главным образом, по одной простой причине: это удобнее и исходники получаются компактнее.

А еще на TypeScript пишут например, и там уже дело не только в красоте (синтаксическом сахаре).
Так никто не мешает создать пустое веб-приложение из шаблона.

Так помимо шаблона ещё требуется установка зоопарка приложений и их конфигурация.

Вы кладёте бинарные зависимости в контроль версий?

Вы не поверите, но да. Для сторонних библиотек считаю это допустимым.

Предлагаете браузеру выкачивать 100500 файлов библиотек и исходных кодов приложения

Если в вашем приложении 100500 файлов библиотек, то я бы задумался о том, всё ли вы делаете правильно… А бандлер в ASP.Net используется для минификации и для того, чтобы написать одну строчку кода вместо 10 для подключения зависимостей.

На ES6+ пишут, главным образом, по одной простой причине: это удобнее и исходники получаются компактнее. Что в этом плохого? Кстати, для CSS3 вы префиксы вручную расставляете?

80% того что есть в ES6+ — синтаксический сахар. Решается написанием своего метода, с последующей заменой кишков на ES6 комманду в случае миграции.
Я и на старом-добром JS не жалуюсь на длину кода… Про префиксы к CSS3 — может у меня нет изысков в дизайне, но префиксы чаще всего не нужны и современные браузеры знают команды без префиксов.

А как запускать, например, тесты?… серьёзных больших проектах «компиляция» делается на CI-сервере.
И тесты запускаются там-же. Либо вручную перед коммитом.

Потом благополучно забыть внести в source control и огрести регрессий в следующий деплой.
Я так не делаю и другим не советую. Но бывают случаи, когда приходится. И лучше иметь такую возможность, чем не иметь её.

UFO landed and left these words here
Не буду дальше спорить. Я же не отказываюсь от всех этих вещей вроде TaskRunner-а и прочих babel-ей. Просто им место в процессе билда новой версии системы, а не на машинах программистов. Мне как программисту хочется видеть следующее:
— Запустил IDE
— Создал новый проект
— Написал код
— Нажал выполнить
— Открылся браузер и в нём всё работает
— Если вижу ошибку, то иду в средства отладки браузера и сразу нахожу место поломки
— Возвращаюсь в IDE на эту строчку кода и исправляю
UFO landed and left these words here
Чтобы всё это работало на машине разработчика должны быть установлены билд-инструменты. при установке той же VS для C# устанавливается компилятор C# и никого это не смущает.
Если в вашем приложении 100500 файлов библиотек, то я бы задумался о том, всё ли вы делаете правильно…

У вашего оппонента была всего лишь гипербола.


Эффект заметен уже на паре десятков файлов

Так помимо шаблона ещё требуется установка зоопарка приложений и их конфигурация.

Это ваша работа. И всего лишь ваши рядовые профессиональные инструменты.
Не ничего страшного. Если это ваша постоянная работа.


Иначе, если вы случайно зашли, а основная деятельность другая, то зачем вам даже знать об этих инструментах. Вручную можно если это мелкий разовый проект

Т.е. когда я открываю Visual Studio и создаю ASP.Net проект, то могу нажать Run и он сразу заработает.

Visual Studio давно уже поддерживает TypeScript именно в таком режиме. И да, вместе со студией ставится нода довольно старой версии исключительно для запуска tsc или каких-нибудь grunt.


А в ASP.NET Core, к слову, из коробки поддерживается использование внедренной ноды для изоморфного рендеринга.

как динозавр динозавру отвечу.
nmp это хорошая тема. поначалу бесила, потом норм (см ниже). Nuget уже торт.
студия 2017 тяжела и не поворотлива. перешел на VS Code
Конечно этот зоопарк реально бесит, но потом как то привыкаешь.
переходим на Kestrel net Core. не надо никаких большее IIS'ов.
и как вишенка на торте — плавный переход на Centos. И вот там все выше перечисленные шаги работают.
прелесть Kestrel — это линух/виндос, легковестность, И привычная, удобная отладка кода. в отличии от Ноды и ГО. так что как динозавр динозавру рекомендую. b vim уже не кажется чем то диким.
вобще связка Vue+Core(+Go)+Linux это то, куда стоит смотреть. Go пока нужен. Нода наврятли.
и да, Kestrel, в отличии от GO,Node позволяет правку в рантайме на брекпоите. что в студии, что в vc code.
У пакетов два преимущества: простая и унифицированная проверка и установка обновлений, а также отсутствие необходимости (но не возможности) хранить пакеты локально, скачивая их при разворачивания.

ВебПак не компилятор, а линковщик.

Пишем код на ES5 для 90% браузеров и тут заказчик/начальник говорит «на ие9 5% сидит ещё, давай-ка и его поддерживать». В случае наличия транслятора только таргет изменим/добавим…
Может я и динозавр, но ваша статья меня не убедила.
Моё первое правило — минимум движений чтобы начать разработку. Т.е. когда я открываю Visual Studio и создаю ASP.Net проект, то могу нажать Run и он сразу заработает.



Но а если это сделаю я, то у меня ничего не получится, потому что я не знаю какие пакеты устанавливать в вашем Nuget, я не знаю как устанавливать и конфигурировать всякие entity и прочее добро.
Почему я не знаю этого и мне сложно понять как это работает? Я считаю что нужно очень много телодвижений что бы развернуть свою сайт визитку на ASP.NET под Windows.

А потому что я не являюсь .NET разработчиком и для меня это все кажется дикостью, ваша документация самая ужасная на планете.

Сейчас вы начнете говорить, что я слишком туп, а почему вы такое же не говорите себе? Я оказался в такой же ситуации в которой оказались вы.

А теперь немного про меня, теперь я захожу в свою IDE и оп-ля у меня есть и статическая типизация и все новшества веб разработчика, мне ну нужно ничего настраивать
Я не задумываюсь ни о чем, я сразу же пишу хороший современный код.

А почему вас беспокоит как работает WebPack? Это его проблема, вам нужно просто нажимать CTRL+S и ваш проект автоматические погонится через WEbpack, у меня это занимает около 1 секунды на старом железе.

Вообщем, как и положено динозавру, я буду продолжать писать JS-код, который не требует никаких преобразований и в браузере у клиента будет работать точно также как у меня на машине,

Зависит от проекта, где-то реально лучше использовать Jquery.
Люди которые несут Angular в сайт визитку — идиоты.
В статье плохо объяснено, зачем нужен WebPack. А нужен он:

1. Для объединения с Babel — чтобы писать код в новом стиле, и при этом поддерживать старые браузеры. Причём поддержка не обязательно заключается в пользователях, которые не обновляли свой браузер несколько лет — некоторые фичи появились очень недавно, и конечно же, ещё появятся новые. Если кто-то скажет, что можно писать и в старом стиле, то нет, новых фич стало настолько много, и многие из них настолько хорошие (это не шутка), что в старом стиле писать не получится. Конечно же, если вы никогда не писали в новом стиле, вы не сможете меня понять.

2. Для возможности модульной разработки. Вы не представляете, как это нужно. Без неё разработка сильно затруднена из-за большого количества причин. Сейчас модули стали поддерживаться нативно в браузерах, но WebPack нужен всё-равно, т. к.:
1) Поддержка введена очень недавно, а в некоторых браузерах ещё работает только с флагами.
2) При уровне зависимостей больше 1 не требуется прописывать все подзависимости вручную, чтобы не замедлить загрузку (иначе браузеру придётся вначале грузить первый уровень, потом второй и т. д.).
3) Не нужно указывать все модули в index.htm, чтобы не замедлить загрузку.
4) Удобная работа с node_modules и сторонними модулями.
5) Более быстрая загрузка бандла (спорный момент из-за HTTP2). Не нужно переживать, что когда-нибудь модулей станет слишком много.

3. Для объединения с минификатором. Конечно минифицировать можно и без Babel, но у вас на это уйдёт не меньше времени, чем на изучение Babel и использование уже готового решения.

4. В webpack много функций — захотели препроцессор для CSS — не проблема. Захотели что-то ещё — не проблема. Конечно же, можно писать свои модули для webpack. Если вам что-то вдруг понадобилось, вы больше не скованы необходимостью изучать вебпак.

4.1. Ну, кроме препроцессоров для CSS возьмём, к примеру, модуль «define». Для тестирования у вас может быть дополнительный код в проекте, а при сборке дефайны заменятся на сами значения, после чего неиспользуемый код полностью вырежется минификатором. Удобно и очень логично.

В общем, как видно, всё это можно сделать и без вебпака, но это будет сложнее, чем изучить вебпак.

Конечно же, начать проект можно и без вебпака — при этом 1) он будет работать только в определённых браузерах, 2) может понадобится настройка браузера, 3) он будет работать медленнее, но в итоге всё-таки будет работать, т. е. добавить вебпак можно не сразу, а немного позже, тем самым упростив себе жизнь и сильно расширив список возможностей, которые можно использовать в проекте.

Лично у себя я делаю, чтобы js-код мог работать и без вебпака (например, при тестировании), но клиентам отдаётся бандл, собранный вебпаком.
Ладно обычные JS npm пакеты, но это вы еще про WebAssembly забыли, и биндинги к нативному коду, а еще Electron приложения, и все это тоже JavaScript.
Я, как динозавр, привык, что если я делаю сайт — он прослужит лет 5, и если что — его можно будет через 5 лет спокойно подправить, а не переписывать с нуля. А этот «стек технологий» через 3-5 лет окажется ворохом непонятно работающих, неподдерживаемых и сбоящих механизмов. Потому что сами инструменты устаревают, форкаются, модифицируются с дикой скоростью — мы еще не поняли, нужен ли нам Grunt, а он уже устарел, вместо него Gulp, и так далее.

И чтобы все это работало, придется искать Babel «той самой версии 2017 года, когда ES9 еще не было», от npm отказаться, потому что половина библиотек переедет на другие сервера, а webpack окажется давно заброшен, «так как в стандарте еще в 2019-м появились нормальные инклюды».

И вместо того, чтобы легко найти и поправить строчку в нужном файлике, придется искать детранспилятор Unbabel, распаковщик webunpack, и по крупинкам вычищать синтаксический сахар «еще того года».

А уж если в этих тулзах обнаружится какая-то дырка… то привычка автоматически тянуть 10 используемых и 20 не очень используемых библиотек из веба очень дорого обойдется.

Одним словом, эти технологии через еще 5 лет поменяются до неузнаваемости, окажутся уязвимы или просто отпадут. Будет, уверен, нормальный менеджер пакетов с графическим интерфейсом, отвалится Babel и Webpack за ненадобностью. Это мода, гонка за новыми технологиями, причем до того, как они будут достаточно отлажены.

Раньше бета- и альфа- версиями ответственных инструментов мы не пользовались — и сейчас не надо поддаваться моде. Пусть сначала допилят это всё от сырого уровня до чего-то стабильного. А мы по-старинке, как прадеды программили — надежно, совместимо, поддерживаемо.

P.S. Мне тут один старый заказчик недавно позвонил — «помнишь, ты нам в 2000 году сайт делал? Вот он что-то перестал русские буквы показывать нормально...» Нехилый аптайм в 17 лет… и все вылечилось правкой collation ;-) я даже не помню, какой версии PHP тогда был… и работает зараза!
всё будет проще. выйдет полноценная гомогенная среда, которая в себя всё вместит. от кода до деплоя.
Вы, как, с DOS уже перешли? :) Или CP/M?

А если серьёзно, то всё что вам нужно будет лет через 5 — развернуть виртуалку с нужной версией node.js. Собственно, можно начинать работу над проектом с создания виртуалки с выбранным дев-окружением и работать в ней. Другой вариант — разворачивать его прямо на сервере заказчика, хотя бы перед сдачей.
вообще-то уже есть докер… виртуалка не нужна ;-)

На срок 5+ лет я виртуалкам доверяю больше :)

Ну да, если надо виртуалку с DOS или CP/M поднять — оно конечно надежнее :)))

Я не хочу через 5 лет столкнуться с тем, что софт в контейнере не сможет работать с текущим ядром докером. Введут там какие-нибудь политики безопасности или из ядра что-то выпилят. А в виртуалке у каждой машинке своё ядро.


Хотя никто не мешает и докер в виртуалке держать, если уже разработка и, тем более, прод под докером пашет даже для проектов с планируемым циклом "написал и забыл на 5 лет".

Я вот не динозавр, описанное в статье действительно решает мои проблемы, но вот эта тенденция с устареванием технологий во фронте действительно раздражает. Не 3-5 лет; буквально начинаешь новый проект и погружаешься в доки — что-то устарело, что-то больше не поддерживается, один пакет стал несовместим с другим и т.д.

Этих проблем, конечно, нет, если использовать в каждом новом проекте одни и те же (читай: старые) версии пакетов. Но хочется-то и новинки пощупать, и не просто пощупать, но и реально их использовать. Надеюсь, в ближайшие годы стек устаканится немного, и я не буду удивляться «как это третий вебпак вышел, а когда второй был?» :)

И в чем же проблема использования устаревших инструментов? У вас что, кто-то их отбирает? Не вижу ничего неправильного в том, что проект начинается с использованием самых свежих инструментов, а потом 10 лет развивается без переписывания на новый стек технологий.


Искать babel "той самой версии" не придется потому что, во-первых, новый стандарт должен быть совместимым со старым, а потому ваш код без проблем скомпилируется новым babel. А во-вторых, все версии babel от начала времен с самой первой лежат в репозитории npm, и никто не запрещает использовать любую, даже если разработка babel прекратится. В-третьих же, эта самая версия "того самого babel" при условии непрерывности работы над проектом должна лежать у вас в node-modules.

Ну вот, навскидку — https://m.habrahabr.ru/post/310302/


Годовой давности пост. Сейчас как этот подход, ничего не устарело, не поменялось? Redux, Koa (новый фреймворк нового поколения!), Helmet — это все по-прежнему?

Так что, тот проект перестал работать с выходом какого-нибудь Vue — или как?

UFO landed and left these words here
Что бы знать Node.js нужно знать ES5 ES6 ES7
Что бы знать Express Нужно знать HTTP
Я не знаю KOA, но я уверен что он такой же как Express и он также наследуется от HTTP
Обучится я смогу за пару вечеров.

Я не знаю VUE.JS, но уверен что мне потребуется ровно неделя, для того что бы пересесть с REACT.
И так далее.
Мне — легко.
тяжело тем кто не является веб разработчиком и пытается что-то сотворить, что бы не тратить деньги на найм веб разработчика.
Дело в том, что даже вам потребуется неделя, чтобы пересесть на проект, который год назад был прям таки bleeding edge. А ещё через год-два вам уже потребуется не неделя, потому что вы будете работать на REACT++##.

А ещё окажется, что не зря вы сидите на REACT, а не на VUE, потому что VUE был с какими-то косяками и его забросили, фиксы три года уже не выпускаются.

И получается, что инструменты, которые ускорили разработку тогда, мешают поддержке теперь.

Когда был бум CMS-ок, тоже были сотни новых, лучших и модных. Сколько их сейчас, заброшенных и неподдерживаемых? Нельзя брать сырые технологии и надеяться, что с их помощью можно сделать что-то надежное.

И получается, что инструменты, которые ускорили разработку тогда, мешают поддержке теперь.

Не путайте "мешают" и "не так сильно ускоряют как современные".

Мне потребуется неделя что бы познать новую технологию, вы правы.
И я смогу пересаживаться на проекты, которые написаны на этой технологии.

Ничего плохого в этом нет, но что бы до этого не дошло, я могу прям сейчас потратить 2 недели, на изучения этой технологии.

Но почему я это не делаю? А потому что у нас руководство хорошее, оно выбрало только 1 технологию, если вдруг мне покажется что REACT говно, то я уволюсь с работы и через месяц буду искать работу на Vue.

Сейчас сотни фреймворков, но это лишь цифра, на деле только 2-3 актуальны, остальные никому не нужны, так же и с CMS, актуальны только 3-4.


А ещё окажется, что не зря вы сидите на REACT


Для меня он идеален, но если все же такое случится, то я оставлю свою компанию, переучусь и пойду в компанию где работают только на VUE.
Вместо меня найдут нового человека за 1 неделю.

Нельзя брать сырые технологии и надеяться, что с их помощью можно сделать что-то надежное.


По этому нужно оставлять в системе DOS, сервера крутить на windows sever 2003, а программистов искать под DELPHI 7?


И получается, что инструменты, которые ускорили разработку тогда, мешают поддержке теперь.


Если пройдет 5 лет и REACT умрет, а через 10 лет руководитель скажет: «ну вот, не найти теперь спеца, зря мы тогда выбрали react»
То тут вина руководителя, он идиот и ему вообще не следует быть руководителем.

Вот это ад:
hh.ru/vacancy/22869652?query=delphi%207

Тут в руководстве скорей всего дядя 60 лет, который вообще не хочет ничего менять. пройдет еще 10 лет и они не смогут найти специалиста.

5 лет работает и еще 5 лет обновлять?
Да за это время целые эпохи в Вебе прошли.
Делаю сайт 11 лет. Переписывался с нуля уже 5 раз.
Уж очень его владелец хочет чтобы сайт ему бабло приносил. Посему — вкладывается

Я, как динозавр, привык, что если я делаю сайт — он прослужит лет 5

Но только вот через 3 года вы уже не сможете поддерживать свой продукт другим человеком.
Попробуйте сейчас найдите специалиста на DElphi 7, никто не пойдет работать на Legacy за обычную зарплату, потому что Legacy это карьерная смерть.

От таких работодателей нужно бежать как от огня.
У таких работодателей как правило в компании даже JIRA нет и все вопросы решаются по телефону или почте mail.ru
Тем кто работали в эпоху широкой распространенности Дельфи 7 — сейчас около 40 лет, а это расцвет профессионального уровня. Эти люди еще работают и полны сил.

Вы наверное имели ввиду не «не найдешь», а «не найдешь дешевых студентов» на Дельфи 7
Это называется «упоение технологиями». Тяжелая болезнь у представителей поколения пришедших в айти в 2012 и позднее.
Это называется «упоение технологиями».

Оно у всех бывает на определённой стадии накопления опыта. Надо переболеть. Я для себя уже раз уяснил — скачки с технологии на технологию гарантируют провал проекта.

я как-то пробовал прозрачный (дырка) канвас положить поверх видео, ну чтобы UI из канваса можно было на видео накладывать, рамочки там, знаете всякие (рекламная область)… в общем печальный стопмошен получился.
Современный Веб разжирел до невозможности. У меня куча сайтов просто жесточайше тормозит просто потому что их пишут с использованием «модных» технологий.
JS эволюционирует с бешеной скоростью и в этих стандартах уже черт ногу сломит. Ситуацию усугубляет набор постоянно устаревающих инструментов, которые тоже взаимонезаменяемы. Их нужно практически с нуля осваивать.

По факту эта эволюция не может идти бесконечно. Старое legacy нужно выбрасывать. Очевидно, что это позволит сделать тот же WASM, который сам по себе разумеется не убьет JavaScript, но зато позволит появиться\выйти на рынок языкам, которые позволят писать сайты без всего этого геморроя.