Сам сейчас пишу абстракцию над стандартным PHP-коннектором для S3.
От себя отмечу, что если у вас карта Альфабанк, то на обычную дебет-карту Амазон почему-то не принимает, однако с виртуальной работает на ура.
Я использую для бекапа и для CDN доступа английскую компанию rackspace.com (http://www.rackspacecloud.com/), смысл тот же, но вроде немного дешевле (0.15$ за GB + 0.22$ за траффик). К тому же они имеют уже готовый API для php, python и т.д.
Правда для своих нужд я всё равно API переписал. :)
килобайты в секунду, да.
бекапить, например, хостинговую инфраструктуру в S3 было бы как-то странно, а для личного использования скорость такого значения, мне кажется, не имеет.
пыхтит сервер ночью 1 час или 5 часов — в итоге разницы особой нет.
ну и кстати, у вас больше 10Гб изменённых данных каждый день? у меня полный бекап делается раз в неделю, в остальные дни — делаются инкрементальные бекапы, они сильно компактнее.
Москва, провайдер — МГУ. Скорость закачки на европейский S3 — около 2МБайт\сек.
Кстати странно с этим S3 — ни один из клиентов, кроме s3cmd, не давал такой скорости ни винде ни в линухе.
CloudBerry у меня вообще отказался что-то качать, s3fox работал, но макс. скорость была около 100КБайт, S3 Browser был чуть быстрее. s3cmd и в винде и в линухе давал стабильно 2МБайта. Но было это в сентябре 2009, как сейчас — не знаю.
Сервера в англии, бэкапы заливаем, соответственно, в --bucket-location=US. s3cmd выдаёт в разные дни от 400 килобайт/сек до 4 мегабайт/сек. Но какая разница, какая там скорость — ресурсов заметных на это не тратится, успевает залить меньше чем за сутки (т.е. до следующего бэкапа) — ну и отлично.
Спасибо огромное за статью.
У меня маленький вопрос: а какой смысл, например в вашем случае, брать 20Гб закачивания и 2Гб скачивания?
По идее, если вдруг накроется текущий хостинг, тьфу-тьфу-тьфу, то придется бекап «гнать» на новый сервер, а это фактически потребует скачивания полного бекапа (ну допустим 10Гб). Или же есть ситуация, что в случае необходимости восстановления из бекапа — вы просто увеличиваете скачивание и восстанавливаетесь?
я не осветил этот момент, каюсь, а вы чуть-чуть неверно поняли…
в S3 нет тарифов и лимитов в привычном понимании, вы платите только за то, что фактически хранилось, скачивалось и закачивалось в прошедшем месяце.
в примере я привёл цифры с потолка, эдакий средний use-case (бекапим 20 Г в месяц, храним бекапы 5 месяцев, иногда скачиваем что-нибудь назад по мелочи).
если вам вдруг понадобится стянуть полный бекап, то за этот месяц вы заплатите чуть больше, чем за предыдущий. ничего перенастраивтаь в этом случае не придётся.
Там нет понятия четкого тарифного плана. Есть цена на трафик, дисковое пространство и запросы. По итогам месяца вам выпишут счет.
У меня бекап проектов с домашнего ПК обходится в 1-2 «зеленых» в месяц.
Лучше вообще все файлы по возможности держать на S3, тогда, во-первых, они будут доступны в любой момент, даже если сам ваш сайт умер, а во вторых, при смене сайта не надо будет перекачивать тонны бэкапов.
А этот s3cmd он совсем как rsync или нет? --link-dest он поддерживает? Если да, то тогда можно было бы модифицировать модифицировать rsnapshot вообще красота.
вкурил ещё раз, на этот раз осознал всю глубину глубин =)
примерно представляю, в каких случаях это может пригодиться, и для моих задач точно не актуально
Зарегистрировался, залил бэкапы. Только вот не могу найти где у них статистика сколько места я занял, и сколько трафла прокачал. Если кто нашел биллинг, напишите где он у них находится.
https://aws-portal.amazon.com/gp/aws/developer/account/index.html
Слева Account Activity и Usage Reports. Только обновляется оно явно не в реальном времени.
Не забудьте расширения к Chrome и FF — они простецкие, но свое дело делают :)
https://chrome.google.com/extensions/detail/appeggcmoaojledegaonmdaakfhjhchf?hl=ru
А если дома достаточно быстрый интернет, то можно и без амазона обойтись :)
Я бекапы своего сервера (установлен в Agava) делаю на домашний мини-сервер — раз в 3 суток запускается процедура бекапа всех openVZ контейнеров (через LVM), после завершения бекапа все архивы сливаются домой.
При необходимости из них можно буквально за час (ограничение — скорость домашнего интернета на upload) развернуть работающие сайты на любом сервере с поддержкой openVZ
Попробывал запустить s3cmd на FreeBSD!
Установил из портов + установил gpg (требует путь)
При вызове s3cmd --configure и на этапе тестирования соединения выдаёт:
ERROR: Test failed: 403 (NotSignedUp): Your account is not signed up for the S3 service. You must sign up before you can use S3.
хотя акаунт активирован, ключи выданы… кто нить сталкивался с подобным?
По Amazon S3 хотелось бы уточнить информацию, если кто знает:
1. Если я вовремя не оплачу аккаунт, то файлы мои удалят или просто доступ приостановят до момента погашения задолженности?
2. Оплата взымается за фактически произведённые операции или я должен заранее купить себе пакет на месяц и если не израсходовал, то всё-равно абонплата будет сниматься?
3. «режим работы а-ля rsync» — в этом режиме если я, например, 1000 файлов синхронизирую иа поменялось только 5, то сколько будет операций PUT/COPY/POST/LIST Requests?
Быстрая реализация резервного копирования в Amazon S3