Все просто - им надо собрать базу кода для их ИИ, для анализа. Для этого нужны разрешения. Думаю это все прописано в оферте. И тут даже нельзя сказать что Сбер плохой - github сделал всё тоже самое втихую намного раньше. Реальность нашего времени.
Для восстановления дополнительных файлов достаточно распаковать и скопировать в нужные вам папки.
Этого более чем достаточно. Главная мысль — сделать backup критичных данных (пусть даже и потратите один день для настройки нового сервера на другом хостинге). Но лучше конечно же использовать backup провайдера (для восстановления полного образа) и копию данных на S3. Это разные типы backup`ов.
Давно использую github.com/meskyanichi/backup. Очень просто настраивается, добавляем в крон и готово! Поддержка множества хранилищ, экспорт различных баз данных, упаковка+шифрование и нотификации на email/twitter.
Судя по скриншоту — у них флаги под каждый отдельный feature-brunch. А флаги/branch`и можно и удалять по истечению определенного срока (к примеру когда фича уже стабильна ее просто добавляют в master).
Согласен, я немного сьязвил — 3 минуты подымаются проекты побольше сайтов-визиток. Однако даже 15 секунд — это много. Когда я вижу что страница не открывается более 5 секунд — я сразу проверяют интернет. И если выясняется что с интернетом все нормально, то просто закрываю страницу. В наши времена 15 секунд на открытие страницы — это вечность.
По поводу периодического захода на страницу — это все костыли. Каждый сам выбирает нужны ему они или нет.
Чесно говоря мне нравится использовать heroku для development`а, но для production`а он мне не нужен. Настройка хостинга занимает не настолько много времени, а сама реализация деплоинга в одну команду — очень проста через Capistrano.
PS: Интересный момент — можно поднимать отдельный staging server для каждой feature/branch. Мы так когда-то делали для тестов через github.com/bigbinary/push2heroku.
Все просто - им надо собрать базу кода для их ИИ, для анализа. Для этого нужны разрешения. Думаю это все прописано в оферте. И тут даже нельзя сказать что Сбер плохой - github сделал всё тоже самое втихую намного раньше. Реальность нашего времени.
Для восстановления дополнительных файлов достаточно распаковать и скопировать в нужные вам папки.
Этого более чем достаточно. Главная мысль — сделать backup критичных данных (пусть даже и потратите один день для настройки нового сервера на другом хостинге). Но лучше конечно же использовать backup провайдера (для восстановления полного образа) и копию данных на S3. Это разные типы backup`ов.
Многие сейчас так делают, и один из примеров lanyrd
Кстати у них есть отличная статья о том как они развивались blog.natbat.net/post/61658401806/lanyrd-from-idea-to-exit-the-story-of-our-startup
К примеру, вот ваша цена
А вот цены в других магазинах по хотлайну
docs.google.com/file/d/0B6UX-uhEVNy7ZkJMY0ZtRVVMWmc/edit?usp=sharing
По поводу периодического захода на страницу — это все костыли. Каждый сам выбирает нужны ему они или нет.
Чесно говоря мне нравится использовать heroku для development`а, но для production`а он мне не нужен. Настройка хостинга занимает не настолько много времени, а сама реализация деплоинга в одну команду — очень проста через Capistrano.
PS: Интересный момент — можно поднимать отдельный staging server для каждой feature/branch. Мы так когда-то делали для тестов через github.com/bigbinary/push2heroku.
Дино падает периодически если нет заходов, клиенты не будут ждать 3 минуты пока у тебя загрузится сервер