Как стать автором
Обновить

Комментарии 38

Забыли добавить один существенный недостаток bitCalm — он не работает.
Вообще не понятно каких вы отзывов ожидаете услышать от неработающего проекта? О дизайне главной и единственной странички? О ценах?
Вы бы вместо псевдообзора конкурентов лучше больше технических подробностей и/или скриншотов сделали.

Сам бэкап делается самим питоном, или просто вызываются сторонние утилиты типа tar, mysqldump. Бэкап инкрементальный или полный? Как именно шифрование осуществляется?
Как осуществляется восстановление, есть ли версионирование файлов?
Проект сейчас тестируется на друзьях и друзьях друзей. В публичном доступе будет совсем скоро, в июле.
Технические подробности опубликуем обязательно. Это всего-лишь первая статья, для знакомства с вами, хабровчане.

При бэкапе, конечно же, используются сторонние утилиты. Но это не совсем «просто» — тоже напишем статью на эту тему. На данном этапе бэкап полный. Шифрование на канльном уровне: https и на уровне Amazon S3: AES-256. Открытые данные с сервера не передаются.
Восстановление доступно в трех вариантах:
1. Скачивание архива
2. Полное восстановление на чистом сервере
3. Восстановление выбранных файлов

Есть версионность (кол-во версий вы настраиваете сами)
Может быть вы тогда поторопились с обзором и сравнением с другими конкурентами? Просто, без рабочего прототипа судить ваш сервис, как-то сложно. Мы все хвалим свои проекты, но не все достойны похвалы окружающих.
Ну так у друзей и спрашивайте о впечатлениях. Могли бы хотя бы там пару десятков промокодов раздать на хабре, чтобы ожидать каких-то отзывов.
Но это не совсем «просто» — тоже напишем статью на эту тему

Ну «просто» это, так как ничего принципиально нового, просто обертка над стандартными утилитами.
Основное достоинство Amazon S3 и совместимых с ним сервисов заключается в том, что для них сделано очень много готовых и простых в использовании инструментов, в том числе и для создания резервных копий данных. Насколько сложно или неудобно заливать резервные копии напрямую на S3 по сравнению с предложенным решением?
Вы говорите о скриптах. В таком случае вам нужно:
0. Установить и правильно настроить данные решения
1. Следить за работоспособностью демона
2. Следить за целостностью бэкапа
3. Задуматься о том, как вы будете восстанавливать данные

Мы же вас за ручку проведем по установке/настройке и уведомим письмом (в будущем — смс) в случае, если есть какие-либо проблемы с бэкапом.
tar + s3cmd + crontab.
Плюс пару-тройку часов времени на все, включая тестинг, перекур и распитие чая.
Да, но «пара-тройка» часов может превратиться в 8-10 часов работы и в головную боль при восстановлении, если вы до этого не администрировали *nix ОС.
А, ок. Если так позиционировать сервис — то смысл есть.
s3cmd с вебмордой? =)
Горячо =)
До недавнего времени архив (~700Mb) заливался на google drive по ночам.
Неск. месяцев назад что-то поменялось, и возвращается ошибка. При этом маленькие файлики льются без проблем.
Никто не сталкивался с таким?
Место, может, закончилось? Мелким еще хватает а вот монстр уже не влезает…
нет, там почти пусто.
НЛО прилетело и опубликовало эту надпись здесь
Можно посмотреть на скрипт?
НЛО прилетело и опубликовало эту надпись здесь
Все бы ничего, но в статье-то про бэкапы по сути ничего и не сказано. Список сервисов, которые что-то куда-то как-то делают или могут делать.
Какие выводы должен сделать для себя человек, который решил делать бэкапы после прочтения?
Мы вот достаточно давно написали статью про орагнизацию бэкапов файлов+БД с выгрузкой по FTP на другой сервер. Она до сих пор востребована и рекомендуется к прочтению.
Стоит ли написать статью-мануал о своем скрипте бэкапа на python (сейчас похоже только ленивый не пишет свои велосипеды на питоне;))? Умеет делать дифы файловой системы, lvm, email отчеты и прочие плюшки.
DO, Cloud4Y
Минусы: низкий уровень доверия
DropBox, CrashPlan
Минусы: низкая надежность
noname startup
Плюсы: <..> надежность.
Можно, пожалуйста, пояснить данную логику?
Почему к вам доверие должно быть больше, чем к вышеперечисленным компаниям?
Для клиентов вы точно такое же стороннее звено, как и DO, DB для вас.

Нам очень интересны ваши пожелания, советы, впечатления, любая обратная связь.
Без технических деталей пока лишь возникает единственный вопрос «зачем?». Бэкап через тот же duplicity на s3 явно обойдётся дешевле, да и настроить его не так уж сложно.
Данная тема, наверно, достойна отдельной статьи. Давайте, попробую объяснить кратко.
Риски у хостеров:
1. Бэкапы хранятся в соседней стойке или на том же СХД (можно вспомнить пример www.clodo.ru/ )
2. ВРемя восстановления непрогнозируемо (представьте, что умерла вся СХД у хостера)

Риски у «дропбокс» решений:
1. В первую очередь предназначен для синхронизации данных, а не для бэкапов
2. Малая скорость

Почему к нам доверия должно быть больше:
1. Мы используем Amazon S3, а не свой велосипед
2. Клиент, который вы ставите к себе на сервер, будет лежать в открытом доступе (можно, конечно, вспомнить про heartbleed, но это скорее исключение из правил)
А вы предоставляете своим клиентам возможность прямого доступа к бэкапу на s3 или исключительно через ваш интерфейс?
Мы используем Amazon S3, а не свой велосипед

Да большинство облачных хранилищ его используют, тот же Dropbox. Зачем огород городить, если можно просто перепродавать место с Amazon'а, тем более, что там при больших объемах еще и скидки.
Клиент, который вы ставите к себе на сервер, будет лежать в открытом доступе

Ну тут есть такой существенный недостаток, насколько понял вся инфа о паролях которыми шифруются бэкапы, и также инфа о подключении к клиенту находится на вашем сайте. И если ломанут ваш сайт, то это очень чревато.
> 1. Бэкапы хранятся в соседней стойке или на том же СХД (можно вспомнить пример www.clodo.ru/ )

У того же DO бэкапы и снэпшоты уходят на Glacier / S3.
Crashplan — в определённом смысле мощный сервис. Странно ставить его в один ряд с дропбоксом и прочими файлообменными сервисами. Про скорость мои данные отличаются от ваших. С шифрованием и дедупликацией скорость работы Crashplan у меня составила примерно 1 ГБ/час, т.е. 2,2 Мбит/с. Конечно хотелось бы быстрее, но это никак не соответствует вашим данным про 20 кбит/с.

>>низкая надежность
Как измеряете? Чем докажите?

>>отсутствие настроек
Ну давайте по пунктам каких настроек нет? support.code42.com/CrashPlan
Также использую Crashplan и решение вполне устраивает. Однажды делал восстановление из бэкапа, потратил на это день. Если данные не критичные по времени, на мой взгляд, очень удачное и бюджетное решение.
В смысле восстановление из бэкапа Crashplan день заняло? И в чем причина задержки, скорость скачивания, или что-то еще?
В смысле скачивание данных из архива заняло целый день. Скорость загрузки/скачивания не очень высокая.
Скорость закачки/скачивания не очень высока. Но я использую этот сервис скорее даже не как off-site backup, а как off-site archive. Поэтому скорость восстановления не критична.
Уже пару лет используем для бэкапа серверов облачное хранилище Селектел, бэкапим их скриптом с небольшими модификациями под 7z. Стоит какие-то копейки, нареканий по скорости и надежности нет.
Давно использую github.com/meskyanichi/backup. Очень просто настраивается, добавляем в крон и готово! Поддержка множества хранилищ, экспорт различных баз данных, упаковка+шифрование и нотификации на email/twitter.
Сейчас используем duplicity.nongnu.org/, ищу что-то поинтереснее… Посмотрел документацию по Backup v4. Подробно освящено создание бэкапа, но ничего не нашёл в документации про удобное восстановление из бэкапа.
Для восстановления базы достаточно использовать встроенные средства БД, в архиве вы найдете файл с дампом данных (к примеру для postgresql — www.postgresql.org/docs/9.1/static/backup-dump.html).

Для восстановления дополнительных файлов достаточно распаковать и скопировать в нужные вам папки.

Этого более чем достаточно. Главная мысль — сделать backup критичных данных (пусть даже и потратите один день для настройки нового сервера на другом хостинге). Но лучше конечно же использовать backup провайдера (для восстановления полного образа) и копию данных на S3. Это разные типы backup`ов.
Чем ваше решение за деньги лучше бесплатного rdiff-backup? Надеюсь, не только наличием веб-морды.
Тем, что оно «под ключ». Чем VDS в облаке лучше сервера дома?

Веб-морда, кстати, не такая и мелочь, как кажется.
А «VDS в облаке» (кстати, что это?) лучше сервера дома, да? А сервера в датацентре лучше или нет?

> Веб-морда, кстати, не такая и мелочь, как кажется.

Я вообще всегда воспринимал наличие веб-морды для управления чем-то как совершенно необязательную, но порой приятную вещь. Для решения сложных задач она всё равно не годится — все возможные случаи не учтёшь. А для ординарных задач есть автоматизация. И на вопрос вы всё же не ответили. Чем в цифрах лучше-то?
Я на своем серванте использую Rsnapshot. Файлы и базы всегда есть в наличии.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий