О том разговор и идет: меняем в содержимом кроптоконтейнера совсем немного — надо перегонять по проводам минимум один блок контейнера. rsync в смысле инкрементных копий хорош, другой вопрос, что при обычной работе с дисковым томом изменений (даже если ничего с файлами не делать, только читать их) набегает немало (обновляются данные каталогов; может, «вдруг», поработать антивирус или дефрагментатор), и передавать нам придется довольно много.
А самое главное — смысл передавать критоконтейнер, когда можно в точке назначения создать криптованный том, и на него по rsync-у тому же передать изменения в самих файлах?
Предел: клиент через туннельного брокера использует IPv6 для доступа к сайту, который для поддержки у себя IPv6 пользуется услугами также туннельного брокера.
А если серьезно, странно, что Google до сих пор не стал очередным (и, автоматически, самым крупным) брокером: с их внедренностью в мировые сети им довольно удачно было бы гнать трафик в обход всех сетей внутри себя…
Либо весь старый транспорт разом выкинуть (и тогда вопрос утилизации его напомнит нам картины из мультика Wall-E; особенно этой идее будут рады недавно взявшие неподъемный кредит на новую сверкающую машину), либо оставить ему кусочек (дороги, внимания, ресурсов) в «новом светлом будущем», и тогда говорить о том, что пьяный водила на встречке на больше страшен не придется.
«Наследние прошлого» губило и не такие красивые футуристические проекты, но куда мы без накопленного?
Даже и у не очень пока крупной: «плох тот солдат, который не мечтает стать генералом».
Кстати, когда компания вырастет, возникнет проблема не только накопившихся скелетов, но и банального экспорта накопленных данных. Просто потому, что крупная компания скорее всего будет переезжать на ПО другого калибра, а импорт-экспорт из веб-сервисов — тема больная…
В России вообще руководство компаний плохо относится к передаче своих данных в руки кому-то, кто на рынке не сказать чтобы долго, и предлагает не сказать чтобы привычную парадигму хранения. Ну с моделью оплаты «с носа юзера в месяц» большая часть предложений выглядит не сказать чтобы выгодными (это, конечно, больше к порталам, CRM, хелпдескам относится, но суть не меняется — хостингу логично брать деньги за нагрузку, нагрузку создает счетное число пользователей, вот и вешается ценник от их числа).
Т.е. я, конечно, только рад за авторов сервиса, что они привязывают себя к числу пользователей, но почти любая контора хотя бы на 50 человек, получив предложение платить по 200-400 руб./чел./мес., почти наверняка приходит к выводу, что на фоне остальных недостатков (по большей части поднятых выше), чем платить 10000-20000 руб./мес., проще купить коробку с тем же, либо подобным ПО, и оплачивать VPS в приличном дата-центре, чтобы обеспечить доступность. Тем более что коробка — это что-то свое, ее можно развернуть на тестовой машинке, поиграться, может даже попатчить формы так, чтобы было удобно самим, а с SaaS так не развернешься.
Я уже не говорю о том, что так превозносимое в роли «фичи» частое обновение ПО на SaaS может стоить нервов и потери продуктивности простым юзерам, не говоря уже о шансе появления багов после обновления: даже мелочь, такая как перенос кнопки на экране, и та кого-то заставит снова и снова ругаться себе под нос, а уж если в ПО серьезные работы над юзабилити вдруг проведутся, то…
rsync, надо сказать, сканирует быстро, если делает это достаточно часто. Сам наблюдал: файловое дерево тысяч на 30 файлов (весьма раскидистое) сканировалось раз в 5 минут буквально за пару секунд, не напрягая систему вообще — но тут, возможно, и ОС со своим кешированием помогла.
Но, в общем-то, с подходом «очередь строим по событиям ФС, а отправляем одним махом» соглашусь, это будет оптимальнее. В идеале бы еще делать копии файлов до того, как они открываются, чтобы быть уверенным в результате копирования — и в этом, кажется, как раз события ФС вполне помогут.
В близком мне варианте схемы, когда для синхронизации мы через API хостера запускаем виртуалку, потом через свой API настраиваем iptables пропускать трафик туннеля только с нашего текущего IP, делаем синхронизацию, и отключаем машину (сложно звучит, но в моем случае это самое простое, да и выглядит изящно; данные же у меня не сказать чтобы так часто меняются, а сервер я рассматриваю не как зеркальный диск, а именно как бекап) — в этом варианте события ФС использовать можно с известной опаской, поэтому отношусь настороженно. Мы же не антивирус тут создаем.
Впрочем, я привык жить с ноутом, а портативные устройства не всегда имеют связь, а также запас «лишней» энергии, чтобы делать синхронизацию постоянно. Так что, признаться, и тема такой постоянной синхронизации мне не очень близка — но, конечно же, это не мешает её использовать в других условиях и под более динамичные задачи.
Для меня этот подход (работа с точностью до файла) не то чтобы критичен, но как-то глупо кажется гонять туда-сюда контейнеры, когда вариант «rsync в туннеле» делает то же, только быстрее (поскольку синхронизируем не все, а только измененное) и (в случае, если на арендованном сервере сделано шифрование) вполне безопасно.
Но если контейнер невелик — ваш вариант вполне удобен, согласен.
Вы имеете в виду, с клиенской стороны делать некие действия по изменению файлов? Как вариант, в принципе, интересно, но…
Синхронизация — штука обоюдоострая: если ее запускать редко, то можно потерять данные, а вот если часто — то рискуем «влететь» на большой трафик и «битые» файлы (если файл открыт и меняется часто, то в точке назначения получится он же, как есть, и почти наверняка «битый»). И баланс между этими вариантами, конечно, каждый находит для себя, но дергать синхронизацию по событиям ФС я бы побоялся. Тем более что rsync и так синхронизирует только то, что изменилось.
Согласен, с таким профилем использования можно отлично жить. С другой стороны, зачем тогда дропбокс, если главная его прелесть — а именно, работа с отдельными файлами — не востребована? Хранить-то контейнеры где угодно можно, хоть на бесплатных хостингах.
А с «личным» (на самом деле — арендованным) сервером мне приятно еще и то, что я на него неплохо могу скинуть другие задачи, ту же почту, то же качание файлов с медленных хостов (несколько раз выручало) — в общем, почти все, ради чего можно бы и дома держать сервачок, но только здесь это будет «почти домашний сервачок», но на толстом канале и с большей надежностью. Ну и привычнее в администрировании, конечно же — спишем это на «личные причины».
Как насчет необходимости отмонтировать контейнеры во время синхронизации?
А с рекламой — да просто пользуюсь, ребята работают хорошо, в отличии от постоянно упоминаемого Dropbox-а. А вот слово «детектед» — это, сударь, словарь бедный у Вас.
Про шифрование я, в общем-то, и писал: что оно настраивается по вкусу (и рукам) владельца. Удобно или нет, не знаю, я, лично «за» него.
Среднестатические — вижу довольно часто, это машинки, которые жаль выкинуть, которые гудят и не особо шустро работают. Хорошие тоже вижу, но покупать этакое бесшумное решение, чтобы было, чем озаботить себя еще и дома — знаете, я бы предпочел, чтобы в мое отсутствие дома было поменьше работающей техники.
А вообще, наверное, идея у AeroFS и хороша, но альфа-статус и вот эта самая моя неуверенность в том, что если взяться за хранение всем миром, то файлы будут сохраннее — эти две причины (ну, пусть первая и уйдет, но пословицу про «у семи нянек дитя без глаза» все мы помним) и не дают мне поверить в нее. Тем более назвать «православной».
Если на удаленной машине, пусть даже виртуальной, данные зашифрованы, то хостер, в отличии от dropbox-а, доступа к ним не получит (я про вот это). Скажем так, просто так не получит: перехватить трафик — это уж от туннеля зависит, а перехватывать данные в памяти — тут, простите, нужно что-то сильно большее, чем простое любопытство провайдера, хотя это, конечно, возможно. Но никто не мешает арендовать физический сервер (в приличном западном ДЦ), другой вопрос — бюджет.
А ставить дома сервер, чтобы поддерживать даже и такие красивые инициативы — вот уж увольте. Причины: сервер требует места, гудит, тратит энергию. Он стоит денег, наконец, при этом всякие приятности, вроде зеркала, оплачиваются сразу — а мне проще платить пару сотен руб. помесячно, чем 15-20 тыс. руб. разово. Не говоря уже о том, что с домом или с сервером мало ли что может произойти в физическом плане; в случае с ДЦ и виртуалкой я как-то больше в сохранность верю, особенно если виртуалок несколько.
Потом — канал связи. Он у меня домашний, явно без гарантии со стороны провайдера, да и упасть может с больше вероятностью, чем линки того же scalaxy.
Про новую «серебрянную пулю», которую Вы называете «православной верой», я и не говорю. Честно скажу — просто не верю в долгую жизнь ее. Рад был бы ошибиться, но пока данные свои ей доверить — не готов.
Получается, сделали у себя на машине контейнер n-ного размера, используете его через truecrypt, и сливаете его на dropbox через синхронизацию?
Вариант, конечно, возможный, но какой-то странный: маленький криптованный диск не особо полезен, а большой (пусть даже 1 Гб) — можно замучиться синхронизировать.
Как ни крути, любой изменение содержимое контейнера потребует передачи на удаленный хост изрядного куска этого контейнера, если не его всего. Да и для синхронизации контейнер надо бы размонтировать, тоже не всегда удобно…
А самое главное — смысл передавать критоконтейнер, когда можно в точке назначения создать криптованный том, и на него по rsync-у тому же передать изменения в самих файлах?
В промежутке пересядем на велосипеды, а то и на ролики встанем!
А если серьезно, странно, что Google до сих пор не стал очередным (и, автоматически, самым крупным) брокером: с их внедренностью в мировые сети им довольно удачно было бы гнать трафик в обход всех сетей внутри себя…
«Наследние прошлого» губило и не такие красивые футуристические проекты, но куда мы без накопленного?
Кстати, когда компания вырастет, возникнет проблема не только накопившихся скелетов, но и банального экспорта накопленных данных. Просто потому, что крупная компания скорее всего будет переезжать на ПО другого калибра, а импорт-экспорт из веб-сервисов — тема больная…
Т.е. я, конечно, только рад за авторов сервиса, что они привязывают себя к числу пользователей, но почти любая контора хотя бы на 50 человек, получив предложение платить по 200-400 руб./чел./мес., почти наверняка приходит к выводу, что на фоне остальных недостатков (по большей части поднятых выше), чем платить 10000-20000 руб./мес., проще купить коробку с тем же, либо подобным ПО, и оплачивать VPS в приличном дата-центре, чтобы обеспечить доступность. Тем более что коробка — это что-то свое, ее можно развернуть на тестовой машинке, поиграться, может даже попатчить формы так, чтобы было удобно самим, а с SaaS так не развернешься.
Я уже не говорю о том, что так превозносимое в роли «фичи» частое обновение ПО на SaaS может стоить нервов и потери продуктивности простым юзерам, не говоря уже о шансе появления багов после обновления: даже мелочь, такая как перенос кнопки на экране, и та кого-то заставит снова и снова ругаться себе под нос, а уж если в ПО серьезные работы над юзабилити вдруг проведутся, то…
Но, в общем-то, с подходом «очередь строим по событиям ФС, а отправляем одним махом» соглашусь, это будет оптимальнее. В идеале бы еще делать копии файлов до того, как они открываются, чтобы быть уверенным в результате копирования — и в этом, кажется, как раз события ФС вполне помогут.
Впрочем, я привык жить с ноутом, а портативные устройства не всегда имеют связь, а также запас «лишней» энергии, чтобы делать синхронизацию постоянно. Так что, признаться, и тема такой постоянной синхронизации мне не очень близка — но, конечно же, это не мешает её использовать в других условиях и под более динамичные задачи.
Но если контейнер невелик — ваш вариант вполне удобен, согласен.
Синхронизация — штука обоюдоострая: если ее запускать редко, то можно потерять данные, а вот если часто — то рискуем «влететь» на большой трафик и «битые» файлы (если файл открыт и меняется часто, то в точке назначения получится он же, как есть, и почти наверняка «битый»). И баланс между этими вариантами, конечно, каждый находит для себя, но дергать синхронизацию по событиям ФС я бы побоялся. Тем более что rsync и так синхронизирует только то, что изменилось.
А с «личным» (на самом деле — арендованным) сервером мне приятно еще и то, что я на него неплохо могу скинуть другие задачи, ту же почту, то же качание файлов с медленных хостов (несколько раз выручало) — в общем, почти все, ради чего можно бы и дома держать сервачок, но только здесь это будет «почти домашний сервачок», но на толстом канале и с большей надежностью. Ну и привычнее в администрировании, конечно же — спишем это на «личные причины».
А с рекламой — да просто пользуюсь, ребята работают хорошо, в отличии от постоянно упоминаемого Dropbox-а. А вот слово «детектед» — это, сударь, словарь бедный у Вас.
Среднестатические — вижу довольно часто, это машинки, которые жаль выкинуть, которые гудят и не особо шустро работают. Хорошие тоже вижу, но покупать этакое бесшумное решение, чтобы было, чем озаботить себя еще и дома — знаете, я бы предпочел, чтобы в мое отсутствие дома было поменьше работающей техники.
А вообще, наверное, идея у AeroFS и хороша, но альфа-статус и вот эта самая моя неуверенность в том, что если взяться за хранение всем миром, то файлы будут сохраннее — эти две причины (ну, пусть первая и уйдет, но пословицу про «у семи нянек дитя без глаза» все мы помним) и не дают мне поверить в нее. Тем более назвать «православной».
А ставить дома сервер, чтобы поддерживать даже и такие красивые инициативы — вот уж увольте. Причины: сервер требует места, гудит, тратит энергию. Он стоит денег, наконец, при этом всякие приятности, вроде зеркала, оплачиваются сразу — а мне проще платить пару сотен руб. помесячно, чем 15-20 тыс. руб. разово. Не говоря уже о том, что с домом или с сервером мало ли что может произойти в физическом плане; в случае с ДЦ и виртуалкой я как-то больше в сохранность верю, особенно если виртуалок несколько.
Потом — канал связи. Он у меня домашний, явно без гарантии со стороны провайдера, да и упасть может с больше вероятностью, чем линки того же scalaxy.
Про новую «серебрянную пулю», которую Вы называете «православной верой», я и не говорю. Честно скажу — просто не верю в долгую жизнь ее. Рад был бы ошибиться, но пока данные свои ей доверить — не готов.
Вариант, конечно, возможный, но какой-то странный: маленький криптованный диск не особо полезен, а большой (пусть даже 1 Гб) — можно замучиться синхронизировать.
Как ни крути, любой изменение содержимое контейнера потребует передачи на удаленный хост изрядного куска этого контейнера, если не его всего. Да и для синхронизации контейнер надо бы размонтировать, тоже не всегда удобно…