Запас нужен. Проект из моей статьи только стартовал. Что будет дальше — мне сложно спрогнозировать. Но готовиться надо к худшему )) Задача была именно всё бэкапить и в случае краха немедленно развернуть на другом сервере. А генерить превьюшки и прочие манипуляции — лишние телодвижения для программистов. Меня за такое по голове не погладят. Текстовые данные удобно хранятся в git, вы правы
Во-первых, требуются ежедневные бэкапы, а не «раз в неделю»
В-вторых, изменений за сутки сейчас около 30 тысяч файлов. А нужен неплохой запас.
В-третьих, этот вариант рассматривался и был отброшен — habrahabr.ru/post/132098/
Минимальная продакшн-конфигурация — 584 тысячи вложенных директорий. А lsyncd навешивает inotify'и на каждую директорию. Сделать это сразу для всего дерева невозможно. Памяти, 584 тысячи нотифаев, съедают относительно немного, около 200 Мб (из 16 ГБ имеющихся), но вот процесс этот занимает 22 минуты.
Дублирование оказалось не при чем, повторное тестирование с 2,5ГБ реально новых файлов показало, что они кэшируются и поэтому быстро перекладываются rsnapshot'ом в папку бэкапа (предварительно дергал папки для тестов из рабочих каталогов проекта, этим и приукрасил результат)
Из реальности: огромное число разношерстных серверов, перевести которые на «удобные» файловые системы или хотя бы внедрить LVM — практически невыполнимая задача, на которую никогда не будет времени
Не смог сходу придумать, что там протестировать в некоторых тестах. Поэтому привел пример только полного копирования, чтобы показать примерную скорость выполнения стандартных операций по перемещению
Да, методика тестирования с дублированием папки выбрана крайне неудачная, тут вы правы. Проведу повторное тестирование с действительно новыми файлами для rsnapshot. rdiff-backup вроде можно не перепроверять, ему не полегчает
… текст в элементах в блоке Фрилансим (он у нас уже получили минус за повторяющийся класс), получают минус в догонку за некрасивое соотношение ссылок к тексту равное единице. Понятно, что чем меньше этот коэффициент, тем больше текст похож на осмысленную статью
Первый безлимитный тариф в стенах общаг вышеописанного универа появился в апреле 2010 емнип, у него даже название было «весенний» и народ шутил, что к лету отменят и вернут мегабайты. Не вернули.
Правда Макс вполне может возразить, что анлим был на заре описанной в статье эпохи. Я те времена не застал.
В самом начале статье есть упоминание про кол-во пользователей:
сервер до сих пор живет и обслуживает сетку из 1000 машин
Насколько мне известно, в разные времена оно плавало вокруг этой цифры: было больше во времена мегабайтного трафика, стало меньше сейчас во времена анлима. Раньше довольно крупную часть трафика генерили пиринг с локалкой, щас в пиринг летит малая часть (около 15% по nsk-ix), остальное внешка. То есть, несмотря на добавление в пиринг новых операторов, студентам стало проще находить нужный «научный контент» на ютубе и торрентах ;-)
Я обычно говорю синхронно с роботом техподдержки своего любимого опсоса «в целях бла бла разговор может быть записан». И пофиг что там еще никто не ответил. Я ж не силен, когда там начинается запись. У меня диктофон уже записывал
А как будут считаться показы рекламы? Предзагрузил видео, реклама допустим тоже стянулась и лежит ждет показа в оффлайне. При последующем подключении к сети отдается статистика, был ли просмотр?
В-вторых, изменений за сутки сейчас около 30 тысяч файлов. А нужен неплохой запас.
В-третьих, этот вариант рассматривался и был отброшен — habrahabr.ru/post/132098/
Правда Макс вполне может возразить, что анлим был на заре описанной в статье эпохи. Я те времена не застал.