Не думаю, что Capcha — хороший способ отсеивать ботов. Если быть точным, то я не против её применения, однако только после того, как пользователь ввел неправильно свой пароль несколько раз. Это достаточно явный признак того, что ведётся перебор пароля.
Можно вопрос авторам: в итоге получится что-то вроде moodle?
Сейчас пользуюсь им, хотя он конечно страшен, однако действительно полезной функциональности там хоть отбавляй.
Была у меня такая книжка: Assembler. Специальный справочник. Всё собрано в кучу и даже на русском языке. В этой книге прилагалось описание команд и соответствующие им коды.
Вообще, подобного рода код самостоятельно стоит писать в очень редких случаях, я бы сказал никогда. Намного проще обернуть существующую библиотеку, например.
Кроме того, зачем же выставлять напоказ такие портянки страшного кода?
Спасибо, я посмотрел. Отсюда вытекает, что нужно сделать следующее:
1. Добавить режим командной строки.
2. Обеспечить один интерфейс и сделать возможность использования этой библиотеки через js.php, представленный в этой статье.
Разумно. Может быть сделать аналогичный инструмент для остальных ServerSide платформ!?
Во-вторых это запутывает мозг нехило, плюс каждый раз следить за инвалидацией кеша,
На самом деле кэширование и прочие механизмы уже реализованы и работают. Так вот, там пасётся и корректная инвалидация кэша (т.е. при модификации одного из зависимых js-файлов итоговый файл пересобирается).
в-третьих дебажить такое будет сложнее, отладка большого JS и так довольно нетривиальная вещь, а тут еще следить за тем, что там сервер наинклудил.
А тут на помощь нам приходит альтернативный вариант подключения файлов по старинке. Это вариант был предусмотрен как раз для использования в режиме отладки. Кроме того такой подход, как мне кажется, поощряет более мелкое разбиение на файлы. Когда я использовал старый метод ленивого подключения JavaScript'а, я постоянно испытывал некий дискомфорт при создании новых файлов (мол, что лишний раз на сервер ходить).
Также меня несколько напрягает следующая ситуация. Допустим я закончил проект и теперь должен задеплоить его. Я должен написать скрипт, который пройдется по моим js файлам и заминимизирует их. А если теперь я вдруг что-то поменял и хочу внести эту правку в боевую версию. Нужно пойти и запустить bat файл минимизатора (при этом желательно не запускать минимизатор, если нет изменённых файлов), а только потом, очевидно, что-нибудь типа rsync. Как-то много действий вместо простого копирования файла?
Хотя, за ответ спасибо. Мне кажется становиться понятно, что особых-то плюсов нет. То есть такой вариант ничем не лучше, а скорее всего даже хуже.
Может я не до конца понял, но не проще ли написать самому на JS функцию, которая инклудит по-старинке (создавая новый узел script в head).
Как мне кажется (поправьте, если не прав), такого рода функция при загрузке одного файла, должна создавать серию загрузок всех зависимых файлов (читай — обращений к серверу за нужным файлом). А так в результате получается один файл, всё чисто и красиво. Кроме того, обычно разбиение хочется сделать помельче.
Привлекать только для этого дела сервер — занятие странное, даже с кешем.
Очень хочет знать почему! Мне тоже казалось, что это так, особенно учитывая тот факт, что не нашлось аналогичных инструментов в интернете. Однако я не могу найти ни одного разумного довода против такого подхода.
Так же в ней можно следить за тем, чтобы не инклудилось несколько раз.
Да, описанный в статье инструмент не будет инклудить по нескольку раз.
То есть если я буду просто одновременно нажимать все клавиши из некоторого диапазона…
Может я что-то упустил, но у меня отлично работает WebStorm 3.0. Поддержка node.js из коробки (включая отладку).
А как же массовая регистрация аккаунтов?
Сейчас пользуюсь им, хотя он конечно страшен, однако действительно полезной функциональности там хоть отбавляй.
Кроме того, зачем же выставлять напоказ такие портянки страшного кода?
В интернете сего добра просто навалом. Например, GenCode128.
1. Добавить режим командной строки.
2. Обеспечить один интерфейс и сделать возможность использования этой библиотеки через js.php, представленный в этой статье.
Разумно. Может быть сделать аналогичный инструмент для остальных ServerSide платформ!?
На самом деле кэширование и прочие механизмы уже реализованы и работают. Так вот, там пасётся и корректная инвалидация кэша (т.е. при модификации одного из зависимых js-файлов итоговый файл пересобирается).
А тут на помощь нам приходит альтернативный вариант подключения файлов по старинке. Это вариант был предусмотрен как раз для использования в режиме отладки. Кроме того такой подход, как мне кажется, поощряет более мелкое разбиение на файлы. Когда я использовал старый метод ленивого подключения JavaScript'а, я постоянно испытывал некий дискомфорт при создании новых файлов (мол, что лишний раз на сервер ходить).
Также меня несколько напрягает следующая ситуация. Допустим я закончил проект и теперь должен задеплоить его. Я должен написать скрипт, который пройдется по моим js файлам и заминимизирует их. А если теперь я вдруг что-то поменял и хочу внести эту правку в боевую версию. Нужно пойти и запустить bat файл минимизатора (при этом желательно не запускать минимизатор, если нет изменённых файлов), а только потом, очевидно, что-нибудь типа rsync. Как-то много действий вместо простого копирования файла?
Хотя, за ответ спасибо. Мне кажется становиться понятно, что особых-то плюсов нет. То есть такой вариант ничем не лучше, а скорее всего даже хуже.
Как мне кажется (поправьте, если не прав), такого рода функция при загрузке одного файла, должна создавать серию загрузок всех зависимых файлов (читай — обращений к серверу за нужным файлом). А так в результате получается один файл, всё чисто и красиво. Кроме того, обычно разбиение хочется сделать помельче.
Очень хочет знать почему! Мне тоже казалось, что это так, особенно учитывая тот факт, что не нашлось аналогичных инструментов в интернете. Однако я не могу найти ни одного разумного довода против такого подхода.
Да, описанный в статье инструмент не будет инклудить по нескольку раз.