Комментарии 153
Flickr представляет 1TB места бесплатно, и фотки в оригинальном размере хранит.
Хотя наличия домашнего сервера это не отменяет, бэкапов должно быть много.
Ну раз уж пошла такая пляска то и организация человеческой медиатеки.
Ну мне кажется то использование RAID-под медиатеку расточительно, как минимум, если вы конечно не фотограф или видеооператор.
Тем более что есть более оригинальные решения и менее трудоемкие тут например.
наличие RAID не важно (у нас будет ZFS)
Хотел удалить, но, как говорится, хорошая мысля приходит опосля.
В минусах цена вопроса относительно того же freenas. С другой стороны, драйвпул гораздо менее требователен к железу, так что разница в цене может нивелироваться. Просто с zfs деньги уйдут на более мощное железо. Насколько помню, рекомендуют гигабайт ОЗУ на каждый терабайт данных.
Хотя лично я до сих пор драйвпулом доволен. Несколько дней назад пятитерабайтник в массив добавил (двушку поменял). На очереди на замену две трёшки, тоже на пятёрки, наверное.

А кто мешает NAS обслуживать и тестирповать? Точнее даже, пусть сам обслуживается и тестируется по ночам, всё равно процессор простаивает.
PS А заодно мы поимели ещё один замечательный пример уровня устойчивости ZFS к битой памяти. На трёх дисках raidz — 3.3K ошибок. При этом битых — два элемента, остальные — восстановлены. IMHO — потрясающий результат.
Не думаю что на другой ФС результат был бы сильно лучше.
ECC — это конечно хорошо, но и без него системы работают месяцами.
ECC (то есть с аппаратным контролем чётности)
Тут у них ошибочка.
ЕСС — коррекция ошибок, а контроль четности — parity.
Я не спорю, что для NAS лучше использовать серверное железо высокого качества и надёжности, хотя и с таким железом бывают проблемы (помниться были проблемы с RAID контроллерами LSI 94240-4I на 4TB дисках с какими-то версиями прошивки, и если-бы не ZFS — то источник проблемы искали-бы намного дольше). Но совокупная стоимость системы с ECC выше, и каждый пусть решает сам, стоять ли его данные столько — что оправдана более высокая стоимость системы с ECC…
Вот только многие обычные пользователи даже не знают про такую память :(
Та же ZFS уменьшает потерять данные даже на обычных комплектующих, но бекапы никто не отменял. :)
Я бы предпочел два сборных из хлама NAS в разных местах с бекапом с одного на другой, чем один более крутой NAS с правильной памятью, дисками и т.д. :)
Поэтому я предпочту, чтоб те, кто читают подобные статьи как раз и могли узнать про ECC и ZFS и более обдумано подходили к построению велосипедов.
Что бы узнали и я не против, а очень даже "за", и что бы могли прикинуть надо им ECC или обычной памяти хватит… Но изначально вы очень категорично высказались — только ECC.
Если приведете исследования в сравнении с каким-нибудь 5-6 рейдами, буду благодарен. И именно в аварийных условиях.
Когда смотрел форумы по НАСам попадались различные ссылки на сравнения или результаты сбоев и аварий, но именно исследований не попадалось. Так что к сожалению не помогу :(
Только мое субъективное мнение.
Для домашнего использования мало кто будет покупать хороший рейд-контролер с батарейкой. А без этого возникает классическая дыра записи, чего нет в ZFS.
Если дома умрет рейд-контролер который где-то купил/достал — восстановить рейд без обращения к специалистам практически нереально. А если он умер не сбросив кеш — то и спецы могут не помочь.
Ну а всякие рейды на материках — это вообще прямой путь угробить данные на ровном месте.
А потестит ZFS на машине с битой памятью надо будет попробовать...
Года 4 назад когда смотрел инфу по НАСам и рейдам (софтовым/аппаратным) для меня для домашнего использования лучше ZFS не было.
Все остальное выходило либо очень дорого, либо надежность никакая.
Может сейчас софтовые рейды и допилили...
Согласен что лучше быть здоровым и богатым, но не всегда и не у всех получается… :)
Если приведете исследования в сравнении с каким-нибудь 5-6 рейдами, буду благодарен. И именно в аварийных условиях.
Исследований не приведу, но есть личный опыт. Аппаратные RAID при ошибках на соответственно двух или трёх дисках приводят к полной потере информации в масиве, в ZFS, при правильном подходе возможно восстановить или большую часть информации, или даже всю.
В ZFS наиболее правильная замена диска — это не отключая вышедший из строя (при условии что он определяется и с него можно получить хотя-бы часть данных) подключить новый диск и выполнить zpool replace. В случае ошибок на других дисках RAID группы, ZFS умеет взять часть данных с заменяемого диска, т.к. ZFS по умолчанию хранит контрольные суммы данных — то по этой информации система может определить на каких дисках она находиться в не поврежденном виде, и может её восстановить при множественных ошибках дисков. При использовании RAID 5/6 в такой ситуации дорга или к специалистам по восстановлению данных, или самому становиться таким специалистом.
Рекомендация: для избежания множественных проблем с дисками, периодически (раз в 1--6 недель) читать все данные с дискового массива. Для ZFS — это scrub, для остальных подойдет dd if=/dev/md* of=/dev/null, для владельцев хороших RAID контроллеров — включить patrol read.
Я бы предпочел два сборных из хлама NAS в разных местах с бекапом с одного на другой, чем один более крутой NAS с правильной памятью, дисками и т.д. :)
Правильная мысль, только копировать данные на них надо из одного «надёжного» источника, что-бы ишибки памяти, дисков, контроллера, процессора, сетевой карты и т.д. не испортили данные…
В ZFS контрольные суммы отключаются одной командой, скраб — штука очень полезная, умный аналог patrol read на хороших RAID контроллерах. Решения, предназначеные для долгой работы 24/7 без обслуживания — это совсем другой клас устройств, а минимальное оповещение об проблемах несложно организовать, чего должно быть достаточно для домашнего применения.
Из серьезных недостатков — теневые копии не поддерживаются.
Ну и за всё время использования так и не проверил его надежность в реальном сценарии. В изначальном тестировании я диски дёргал туда-сюда, проблем не было. Но вот как перевёл в продакшн — тут уже многотерабайтники дёргать не хочу, а сами они пока не сыпались.
Corral — это не про кораллы. Это кораль, слово из американской ковбойской истории. Загон для скота, часто временный.
Про «corral» это вы к чему?
Но у автора поста именно ZFS, а значит ему будет нужно много памяти. Потому приводить в пример 2003 не надо.
Выбор freenas для хранения файлов тоже может быть вполне оправдан.
На мой взгляд, серьезных ошибок две:
1) ZFS без ECC-памяти.
2) И при этом ещё и отозванная за глюки версия freenas используется.
В комментариях часто дают дельные советы. Вот к примеру до публикации считал ЕСС не принципиально важным, но сейчас вопрос начал изучать более глубоко, так что с п.1 пожалуй соглашусь.
Второй раз — один диск умер полностью, второй стал читался со сбоями, сперва заменил полностью умерший диск, затем сбойный. Инфа восстановлена процентов на 99%, но тут скорее повезло, массив был заполнен где-то на половину.
Третий раз умерла материнка — заменил и все, даже переустанавливать ничего не пришлось.
Четвертый — умерла загрузочная флешка с Nas4Free, переустановил систему на новую и импортировал массив.
Пятый — при обновлении Nas4Free накосячили и система перестала загрузаться, пришлось переустановить систему и импортировать массив.
Обычный комп, винты б/у отработавшие по несколько лет в рабочих станциях.
На сколько понимаю скорее всего из обычного рейда во втором случае инфу вытащить не получилось бы…
4Гб памяти хватает для работы с ZFS, дальше чем больше памяти тем больше кешируется. Для домашнего использования не сильно критично… но памяти мало не бывает… :)
Да, я знаю что спецы по восстановлению данных смогут достать инфу, но вот цена на их услуги… несколько не гуманна для домашнего пользователя, особенно не из крупных городов.
Возможность самому восстановить данные в довольно сложном случае — это был плюсик за ZFS при выборе.
Хотя никто не запрещает держать обычную ZFS на RAID-5.
Не запрещает, но сильно не рекомендовалось, насколько помню.
Хотя никто не запрещает держать обычную ZFS на RAID-5.
Не запрещает, но сильно не рекомендовалось, насколько помню.
Видел такие «нерекомендованные» конфигурации в природе: RAID-5 на mdadm, на нем lvm2, а там ZFS. В метаданных проскакивало название NASdeluxe.
Видел такие «нерекомендованные» конфигурации в природе
Ну извращений всяких много есть…
Проблемный диск может быть как относительно стабильным, так и сам себя убивающим.
Я не приписываю ZFS мистических свойств по сохранению данных :)
Угробить можно все что угодно.
Но в большинстве случаев когда на остальных ФС помочь сможет только спец по восстановлению (особенно если рейд развалился), то у ZFS есть неплохие шансы отделаться легким испугом.
При этом если ZFS накроется конкретно скорее всего восстановление обойдется дороже в силу меньшего распространения специалистов.
Да, звёзд с неба не хватает… Учтите, реализация ZFS в Linux не самая быстрая, и думаю, что настройки по умолчанию тоже могут быть не лучшие…
HP Microserver Gen8 — очень они классные, да и вообще я фанат продукции HP. Кстати, рассматривал я такой вариант, но у всего того что попадалось были проблемы с доставкой в мою деревню.
HTPC и подобные NAS и сейчас в какой-то мере актуальны.
Онлайн-кинотеатры и прочие медиатеки ориентированы на попсу и имеют ограничения, с которыми не хотят мириться привыкшие к функционалу "народных" mkv с кучей дорожек аудио/субтитров, а то и с видеодорожками
Смарт-тв далеко не всегда адекватно играют вышеуказанные mkv, и не всегда удается решить дело ремуксингом — вспомнить хотя бы про субтитры в ass.
Стики на андроиде — нужно еще поискать неглючные… Впрочем, есть малина с OSMC.
Новый HPE ProLiant MicroServer Gen8 G1610T — всего 240€.
Где у вас логика?
100$ отличная цена за готовый вариант!
Я облизываюсь на HP потому, что он всего 200 Ватт. Меньший счет будет за электричество в итоге.
У вас DLNA в контейнере из коробки заработал? У меня на freenas со стандартным boot2docker не захотел, пробовал разные сервера MiniDLNA, Plex, Emby…
Решилось созданием ещё одной виртуальной машины, не boot2docker и на ней завелось.
Ещё интерфейс freenas почему то сильно тормозит если его устанавливать на флешку, даже на usb3.0.
Пока не так и не победил эту проблему.
В остальном все очень зачетно, zfs и bhyve очень порадовали, а так же повсеместное использование plan9 filesystem для проброса файловой системы, получается что внутри виртуальной машины, ты работаешь с файловой системой хоста практически напрямую.
8 ГБ ОЗУ для NAS и i3? Серьёзно? Нафига вот это всё? Это же банальное сетевое хранилище, которое просто должно отдавать файлы. Всё. Почему все хабре любят городить каких-то монстров?
Повторюсь про своё решение: неттоп на Celeron'е с 2 ГБ ОЗУ + корзина на 8 дисков (USB3.0) + Debian
Цена: 160USD + 270USD + диски
И не поверите, сколько сервисов у меня крутится на этих несчастных 2 ГБ памяти: pure-ftpd, samba, rsync, rtorrent, lighttpd+php5-cgi, sabnzbd, openvpn, dnsmasq+unbound, ps3netsrv, bitlbee+irssi, kodi, mpd и куча других
WD Blue для NAS? Серьёзно? Про WD Red не слышали?
Слышал, но не стал специально их докупать. Если на то пошло, у меня есть несколько HP SAS, я бы лучше тогда контроллер для них докупил.
8 ГБ ОЗУ для NAS и i3? Серьёзно? Почему все хабре любят городить каких-то монстров?
Да потому что плата с этим процессором стояла около 60 баксов, а оперативка лежала без дела.
Решение на Debian_е конечно классное, стабильное не сильно трудоёмкое, но мне хотелось пощупать именно FreeNAS,
Виртуалки на NAS? Вы или крестик снимите, или трусы наденьте.
Виртуалки на NAS?
Да, у меня трансмишен и плекс в контейнерах.
У меня в одной организации на Debian_е zfs и всего 8 гиг памяти, так удалось поднять всего 2 контейнера, на одном пострги и сервер 1с с 5-тью пользователями, на втором самба.
Если ресурсы позволяют, то чего нет?
Тогда «наденьте трусы» и признайтесь, что это не NAS, а просто домашний сервер.
А то получается, что молоток превратился в мультитул, но статья всё равно про молоток.
При таком подходе требования к железу будут минимальные. Например, RPi + внешний HDD. Дешевле уже некуда.
Но если впихнуть в железку проц за 100 баксов и, к примеру, геймерскую видеокарту то это уже никак не NAS. Это будет сервер широкого круга задач.
Микроскопом тоже можно гвозди забивать, но он всё-таки не для этого предназначен.
Автор сказал, что бо́льшая часть железа у него была. А теперь давайте посчитаем его начинку с нуля (цены брал с Амазона и ибея):
ZOTAC H55-ITX — $99
Intel® Core™ i3-540 — $95
HyperX Genesis 4 Gb 1600MHz DDR3 Non-ECC — $66
Chieftec GPA-450S -$70
Chenbro SR30169 — $170
Итого без дисков: $500
И у автора корпус на 4 диска. У меня же на 8. Модель на на 4 диска того же производителя стоит $100. То есть мой аналогичный вариант стоит $260. В два раза дешевле. А если взять неттоп попроще (у меня две сетевухи и WiFi), то вообще $200.
Работаю с микросерверами Gen7 & Gen8. Прекрасные сервера для SOHO.
1. Оно умеет грузится только с флешки, и диска 0 и 1. Если воткнуть ссд в сата порт для сидюда — хер оно загрузится.Все прекрасно работает, нужны прямые руки, понимание настроек БИОСа.
— корявый биос, который инитится в лучшем случае минутуВсе таки это сервера, хоть и маленькие… Кучи проверок и перепроверок при инициализации железа. На некоторые параметры скорости загрузки можно влиять, к примеру, на количество секунд ожидания нажатия клавиши для входа в настройки RAID при его инициализации. Есть еще что-то, так с ходу не вспомню.
— низкая взаимозаменяемость и об апгрейдах можно забытьЭто семейство законченных платформ, к выбору которых надо подходить с учетом того, для каких задач их будут использовать.
— шумноУ меня сейчас на расстоянии ~1 метра на уровне головы с ушами шуршит домашний Gen7. Я его еле слышу.
4. Закрытая платформа которая нихера не апгрейдится: мать не поменять, дисков не навесить на доп контроллер.При необходимости покупается доп. корзина, которая подключается через eSATA.
Хранение в облаках — для идиотов.
Во первых: Я не храню, я публикую, да и заодно бекаплю таким образом, очень удобно, в несколько облаков сразу.
Во вторых: Почему же? — это действительно удобный способ поделиться фотками со своими друзьями в привычной для них среде.
Нужно меньше говнооадминить (использовать всякие докеры) и больше вникать в систему.
Чем вам докер как технология не угодил? Он отлично изолирует любые приложения от экосистемы хоста, и упрощает настройку для конечных пользователей, что отлично вписывается в идеологию freenas.
По проблеме с DLNA у freenas тикет открыт, и я сказал что уже решил эту проблему для себя.
А вы батенька троль.
А удаленное управление у товарища выше есть? Чтобы Nas ни разу в жизни монитор не видел?
А почему FreeNas, а не Nas4free?
Контейнеры, в корале они есть, jails мне показался очень неудобным. Хотя посмотрим как дальше пойдут дела, возможно буду мирится.
А удаленное управление у товарища выше есть? Чтобы Nas ни разу в жизни монитор не видел?
Какое именно управление иметься введу? Он видел монитор только при установке.
Тогда вы получите удаленный доступ vPro (KVM). Да и дешевле они ~160$. Маркетологи пишут что для круглосуточной работы и так далее. А зеленый олдскульный текстолит это наше все.
А вашем варианте ASMB8-iKVM — +30-50$ плюс кабель Mini-SAS HD — ~15-20$
Сегодня вечером опробую на своей машинке (AMD FX 8320+Asus m5a97 evo r2+ 4 HDDx2TB).
Кстати, по внешнему IP не тестировали?
Покупаете celeron 775 + достаете материнку под 775 из подвала и память оттуда же. ставите на него UbuntuServer и и цена этому 3 копейки, при том получаете те же 1000мбит по SMB. (сам так сделал и не жалуюсь) Можно потом celeron обновить до ксиона е5440 и вообще проблем не будет.
Вдогонку получаете все преимущества настоящей ОСИ, это возможности создания прокси, vpn, ftp, web итд… серверов
Ага купи 775 celleron, мамку, и к мамке еще и контроллер для винотов, так как на плате в лучшем случаи будет 2 штуки SATA 1. Ну и память сколько эта плата потянет? Да и найти рабочую первую DDR еще попробуй. Цена за кучу хама выходит сравнима с моими затратами.
Что с того что вы перечислили не умет FreeNAS?
Другое дело, что искать в подвале старую материнку нет смысла.
Не вдавался в подробности FreeNAS, но ИМХО обычная серверная система имеет больше возможностей, чем «ос для nas»… (другое дело что для ее настройки нужен бубен :) )
Как я дома NAS строил