Формально Apple, конечно же, подстраховалась, видимо в надежде, что её любимые пользователи будут клясть фейсбуки и гмэйлы.
Но зная Apple, вот такая отмазка совершенно не укладывается в их «заботу о пользователях».
Что мешало добавить метод делегата, например, -(BOOL)showDefaultTelAlert:, возвращающий по дефолту Yes, который любой разработчик при желании сможет переопределить и реализовать собственное поведение, а для ленивых будет вылетать стандартный алерт?
Я в основном про солярку.
У меня проблемы с памятью были только при включении дедупликации.
14й так же не наблюдал, хотя и гоняю соляру (сначала опенсолярис, теперь индиану) как схд с 2010 года весьма плотно.
Zfsonlinux у меня только как удалённый бэкап сторадж.
1. Бэкап должен быть всегда
2. Бэкап должен быть автоматическим
ZFS automatic snapshots (TimeSlider)
Настраивается на уровне тома, любой интервал, есть предустановленные
frequent — раз в 15 минут
daily
weekly
monthly
yearly
Дальше божественная SMF управляет сервисом сама.
Массив можно собрать крайне недорогой и при этом он будет очень надёжным (надёжней RIAD'ов на тех же дисках) и быстрым (ZIL + L2ARC).
Что позволяет выполнять даже не до конца обдуманные действия экономя время на обдумывании.
3. Восстановление из бэкапа — это крайняя мера
Да нет, клонирование ZFS-снапшота — моментальное действие, восстановление в родной том — подольше, но тоже не сравнимо с лентами — быстро.
Снапшот невозможно повредить «восстановив не туда».
4. Бэкап нужно хранить отдельно от данных и минимум 2 недели
Храните пока место есть, сервис TimeSlider сам почистит самые старые бэкапы, когда места на диске станет критически мало.
5. Бэкап нужно регулярно проверять
Скрипт «zpool scrub» в crontab с запуском раз в неделю — за глаза.
Сильно надёжнее лент, сильно быстрее, спится легко.
6. Полезно дублировать бэкап на удаленную площадку
Плагины к сервису TimeSlider идут из коробки:
zfs-send
rsync
Выбирай любой в зависимости от целевой ОС.
Передача инкрементальных снапшотов по ssh-туннелю — из коробки.
7. Бэкап – это нагрузка на работающую систему
Забудьте про это при наличии ZFS — моментальный снапшот, более того — снапшоты, даже рекурсивные, атомарны!
8. Данные можно копировать по SAN, а не по LAN
Как уже говорилось — передаются только изменения, маршрут передачи и транспорт выбираешь сам.
9. Приложения можно бэкапить на ходу
Вот тут для ZFS надо городить свой велосипед, я толкового решения не знаю.
10. …и минимизировать нагрузку на основную систему
ZFS-снапшоты атомарны и моментальны, система «сидящая» на ZFS томе не заметит что её «снимают».
11. Виртуальные машины нужно стараться бэкапить средствами гипервизора
Та же проблема, что и в пункте 9.
12. Нужно избавляться от дублей
Для дедупликации ZFS нужно _очень_ много RAM. На Хабре была как-то статья с расчётами пользователя нексенты.
Если даже кажется, что RAM для таблиц дедупликации может не хватить — включать категорически нельзя.
Зато из коробки есть сжатие томов различными алгоритмами, LZ4 поддерживается.
А можете набросать хотя бы в таком виде такой же пример на бусте? Я поглядел на их примеры, сходу не понятно как у них решается вот эта строчка:
auto main_queue = queue::main_queue();
Но зная Apple, вот такая отмазка совершенно не укладывается в их «заботу о пользователях».
Что мешало добавить метод делегата, например, -(BOOL)showDefaultTelAlert:, возвращающий по дефолту Yes, который любой разработчик при желании сможет переопределить и реализовать собственное поведение, а для ленивых будет вылетать стандартный алерт?
println!(«1i — 2 = {}», 1i — 2);
// Попробуйте изменить `1i` на `1u` и понять, почему тип важен
println!(«1u — 2 = {}», 1i — 2);
Выдаёт:
1i — 2 = -1
1u — 2 = -1
А что должно было произойти?
У меня проблемы с памятью были только при включении дедупликации.
14й так же не наблюдал, хотя и гоняю соляру (сначала опенсолярис, теперь индиану) как схд с 2010 года весьма плотно.
Zfsonlinux у меня только как удалённый бэкап сторадж.
У меня есть сомнения в качестве пояснений на отсылаемую страницу вики.
Я бы не был столь категоричен
2. Бэкап должен быть автоматическим
ZFS automatic snapshots (TimeSlider)
Настраивается на уровне тома, любой интервал, есть предустановленные
frequent — раз в 15 минут
daily
weekly
monthly
yearly
Дальше божественная SMF управляет сервисом сама.
Массив можно собрать крайне недорогой и при этом он будет очень надёжным (надёжней RIAD'ов на тех же дисках) и быстрым (ZIL + L2ARC).
Что позволяет выполнять даже не до конца обдуманные действия экономя время на обдумывании.
3. Восстановление из бэкапа — это крайняя мера
Да нет, клонирование ZFS-снапшота — моментальное действие, восстановление в родной том — подольше, но тоже не сравнимо с лентами — быстро.
Снапшот невозможно повредить «восстановив не туда».
4. Бэкап нужно хранить отдельно от данных и минимум 2 недели
Храните пока место есть, сервис TimeSlider сам почистит самые старые бэкапы, когда места на диске станет критически мало.
5. Бэкап нужно регулярно проверять
Скрипт «zpool scrub» в crontab с запуском раз в неделю — за глаза.
Сильно надёжнее лент, сильно быстрее, спится легко.
6. Полезно дублировать бэкап на удаленную площадку
Плагины к сервису TimeSlider идут из коробки:
zfs-send
rsync
Выбирай любой в зависимости от целевой ОС.
Передача инкрементальных снапшотов по ssh-туннелю — из коробки.
7. Бэкап – это нагрузка на работающую систему
Забудьте про это при наличии ZFS — моментальный снапшот, более того — снапшоты, даже рекурсивные, атомарны!
8. Данные можно копировать по SAN, а не по LAN
Как уже говорилось — передаются только изменения, маршрут передачи и транспорт выбираешь сам.
9. Приложения можно бэкапить на ходу
Вот тут для ZFS надо городить свой велосипед, я толкового решения не знаю.
10. …и минимизировать нагрузку на основную систему
ZFS-снапшоты атомарны и моментальны, система «сидящая» на ZFS томе не заметит что её «снимают».
11. Виртуальные машины нужно стараться бэкапить средствами гипервизора
Та же проблема, что и в пункте 9.
12. Нужно избавляться от дублей
Для дедупликации ZFS нужно _очень_ много RAM. На Хабре была как-то статья с расчётами пользователя нексенты.
Если даже кажется, что RAM для таблиц дедупликации может не хватить — включать категорически нельзя.
Зато из коробки есть сжатие томов различными алгоритмами, LZ4 поддерживается.
auto main_queue = queue::main_queue();