У разных сайтов разные цели. Есть информационные ресурсы где важен именно контент (например тот же Хабр), а есть призванные вызвать вау-эффект у посетителей и задать нужную атмосферу.
С такой логикой кинофильмы также не должны обладать трейлерами, хватит простой текстовой аннотации.
Вы тут напомнили тех редисок что отключают ПКМ и копирование текста в браузере используя JS. От этого только еще больше хочется этот самый текст скопировать и в сырцы заглянуть.
В вашем случае такой сайт будет просто жутко неудобен для пользования и в результатах поиска у ПС он по всей видимости вообще будет отсутствовать. Если же разрешать ПС ходить на сайт прямо, то скоро пользователи будут читать ваш сайт из кэша ПС.
Про единый интерфейс управления всеми проектами для веб-студии пожалуй не соглашусь. Обычно бывает так что каждый проект настолько непохож на предыдущие что даже какие-то наработки нет смысла переносить. Причем в век повсеместного интерактива с интернет-магазинами, формами заказа и т.д. вы предлагаете все делать статичными страничками в одной мега-CMS и давать FTP.
Соглашусь что лендинги и сайты-визитки на 5 страниц никуда не денутся, но это ведь очень малая часть.
Если клиент не может в html/css, то и статичным велосипедом с ручными правками шаблона он не совладает =)
А статичные генераторы вроде jekyll/docpad и т.д. это все же штуки для программистов.
Помнится недавно проскакивал стартап который предлагал такую штуку — редактирование контента в отдельном блокноте в Evernote и автоматический деплой при помощи их сервиса.
Плюсую за GUI. Сам еще будучи школьником был очень рад тому факту что можно мышкой натыкать компонентов, написать для них какой-то простейший код и скомпилировать нормальный рабочий exe.
Ну вообще то это мое локальное dev-окружение и я волен настраивать все это так как мне это удобно. Поднимать 2 и более контейнеров с одинаковым окружением просто для того чтобы одновременно поднять несколько хостов и разруливать их на разных портах мне кажется намного более не ок чем поднимать несколько хостов на одном контейнере.
.tk и еще несколько доменных зон бесплатно предоставляет хостинг freenom.com, но пользоваться их бесплатными услугами никому не советую ибо есть такая фича как обязательное требование в подтверждении регистрации домена в течение 2 недель каждый год. Стоит просрочить подтверждение и все — домент тютю. Также он тютю если кто-то просто его выкупит по обычной стоимости.
С Битриксом вполне сносно можно работать в .git, нужен только довольно грамотно составленный .gitignore (есть несколько примеров на github).
Еще из полезностей: github.com/matiaspub/bxApiDocs/ — этот репозиторий можно склонировав единожды подключать к своей любимой IDE чтобы работали автокомплит и документация github.com/rhamdeew/Bitrix-API-snippets — сниппеты для sublime text
Кстати да, довольно забавно звучат рекламные слоганы об «ускорении сайта в 100 раз». Естественно что статичный файл уделает динамически генерируемую страничку и разрыв будет просто огромным.
Для разработки в облаках есть куча различных вариантов.
Те же Heroku и Openshift для деплоя или Cloud9 где IDE с веб-сервером в одном флаконе.
Но в посте речь как раз идет об оффлайн разработке. Так в первом случае коммитить код на каждый чих очень утомительно и нерационально, а во втором случае не всем (пока) подойдут онлайн-IDE для повседневной работы.
Я просто обычно да, с одним проектом в один момент времени работаю. Кстати, конфиг файлы для апача также хранить в директории с проектом и их подключать при старте. Тогда станет возможной работа нескольких хостов в одном docker-контейнере.
Интересно, но как то замороченно у вас получилось. Вот пилил нечто похожее на Ubuntu 14.04 для своих целей.
Вкратце — в контейнере стандартный LAMP, проекты на хостовой машине лежат в директориях с определенной структурой и после старта контейнера все стартуется bash-скриптом который создает в mysql пользователя, разворачивает дамп бд, подключает кастомный php.ini и стартует сервисы. С dnsmasq решил не заморачиваться т.к. проще прокинуть 80 порт на хост-машину и один раз прописать в /etc/hosts соответствие.
Тут описал поподробнее.
Во многом благодаря своей гибкости одни и те же правила в nginx можно реализовать совершенно по-разному. Конечно есть несколько онлайн-утилит по конвертрованию правил, но не всегда после этого все заводится. Автоматом делать небезопасно =)
А каким образом вы его предлагаете использовать на шаред-хостинге? Поднимать отдельные контейнеры с версиями php и наружу выводить только сокеты?
Докер хорош тем что на одном сервере можно поднять кучу контейнеров с совершенно другим ПО, но вот для шаред-хостинга где пользователю нужно на лету из панельки переключать версии php это думаю не подойдет никак.
Вы каждый свой комментарий с минусом хотите уточнять? )
Вообще в массовых панелях обычно делают все на базе классического LAMP т.к. создатели панелей стараются угодить как можно большему количеству пользователей.
Предполагается что человек который выбрал Nginx + PHP-FPM и руками переписыал в конфиг энджинкса рерайт-правила из .htaccess с которыми обычно поставляются CMS то он знает как все это дело настраивать и ставить. Тем более что на сервере с 512Mb RAM будет жить минимум проектов и панель тут будет явно лишней.
С такой логикой кинофильмы также не должны обладать трейлерами, хватит простой текстовой аннотации.
В вашем случае такой сайт будет просто жутко неудобен для пользования и в результатах поиска у ПС он по всей видимости вообще будет отсутствовать. Если же разрешать ПС ходить на сайт прямо, то скоро пользователи будут читать ваш сайт из кэша ПС.
Соглашусь что лендинги и сайты-визитки на 5 страниц никуда не денутся, но это ведь очень малая часть.
А статичные генераторы вроде jekyll/docpad и т.д. это все же штуки для программистов.
Помнится недавно проскакивал стартап который предлагал такую штуку — редактирование контента в отдельном блокноте в Evernote и автоматический деплой при помощи их сервиса.
Да да, я так и представил что где-то в темной комнате сидит хакер окруженный мониторами и вручную брутфорсить страничку очередного Васи или Пети.
Большинству пользователей невдомек что их пароли утекли при помощи очередного ускорителя интернетов и прочего шлака. Это довольно грустно.
Еще из полезностей:
github.com/matiaspub/bxApiDocs/ — этот репозиторий можно склонировав единожды подключать к своей любимой IDE чтобы работали автокомплит и документация
github.com/rhamdeew/Bitrix-API-snippets — сниппеты для sublime text
Те же Heroku и Openshift для деплоя или Cloud9 где IDE с веб-сервером в одном флаконе.
Но в посте речь как раз идет об оффлайн разработке. Так в первом случае коммитить код на каждый чих очень утомительно и нерационально, а во втором случае не всем (пока) подойдут онлайн-IDE для повседневной работы.
Я просто обычно да, с одним проектом в один момент времени работаю. Кстати, конфиг файлы для апача также хранить в директории с проектом и их подключать при старте. Тогда станет возможной работа нескольких хостов в одном docker-контейнере.
Вот пилил нечто похожее на Ubuntu 14.04 для своих целей.
Вкратце — в контейнере стандартный LAMP, проекты на хостовой машине лежат в директориях с определенной структурой и после старта контейнера все стартуется bash-скриптом который создает в mysql пользователя, разворачивает дамп бд, подключает кастомный php.ini и стартует сервисы. С dnsmasq решил не заморачиваться т.к. проще прокинуть 80 порт на хост-машину и один раз прописать в /etc/hosts соответствие.
Тут описал поподробнее.
Докер хорош тем что на одном сервере можно поднять кучу контейнеров с совершенно другим ПО, но вот для шаред-хостинга где пользователю нужно на лету из панельки переключать версии php это думаю не подойдет никак.
Вообще в массовых панелях обычно делают все на базе классического LAMP т.к. создатели панелей стараются угодить как можно большему количеству пользователей.
Предполагается что человек который выбрал Nginx + PHP-FPM и руками переписыал в конфиг энджинкса рерайт-правила из .htaccess с которыми обычно поставляются CMS то он знает как все это дело настраивать и ставить. Тем более что на сервере с 512Mb RAM будет жить минимум проектов и панель тут будет явно лишней.