Pull to refresh

Comments 104

Если с сетью не как у Вас делать, а оба сетевых адаптера протянуть каждый своей витой парой к роутеру, от основного компьютера так же, и настроить везде bonding - то получим 2 Гбит/с. Если, конечно, роутер не настолько дохлый, что станет в этой схеме узким местом :)

Даже не 2, а 5!
Intel 211 - это 2,5GBps NIC.
Тоже первая мысль об этом была!
Кроме увеличения полосы пропускания получаем надёжность - можно сетевые кабели по одному переключать на лету и трафик даже не прервется.

А вот корпус мне не понравился: потоки охлаждения в корпусе непредсказуемые, пылевых фильтров нет. Как итог: или пылесосить его раз в месяц, или это будет ящик забитый войлоком без охлаждения.

За обзор - спасибо!

Осталось найти роутер с четырьмя 2.5-гигабитными портами (2 для NAS и 2 для ПК). А если дома есть ещё устройства, которым нужен Ethernet, задача усложняется, т.к. 4 порта уже заняты.

Стало быть, придется смотреть уже в сторону маршрутизаторов не домашнего уровня.

Не очень понимаю зачем именно роутер. Если связь наружу в 'эти ваши интернеты' не нужна, то возможно остановиться на комутаторе будет заметно экономичнее...

Давным давно делал в аналогичной икее медиа-сервер с торрентами. Чтобы объем был не замкнутым, во внутренней стенке ставится два вентилятора: снизу на вдув и сверху на выдув. А сам шкаф ставится в угол, чтобы за стенкой был объем воздуха.

да тут даже щелки у стенки нет, только что если дверь с дырками

К сожалению так прямолинейно оно не работает: LACP не умеет делить одно соединение на несколько физических линков (для части протоколов это компенсируется multipath'ом), агрегация независимых карт скорее всего окажется несовместима с аппаратной разгрузкой и может заметно сказаться на таком слабом процессоре, плюс накладные расходы по некоторым оценкам выжирают до трети полосы пропускания.

А без протоколов агрегации балансируется только исходящий трафик.

Так что в малых сетях явное деление интерфейсов по назначению/направлению часто оказывается эффективнее.

так балансировать на более высоком уровне, например SMB 3.x умеет мультиченел - проверял на windows server 2019(22) - полностью утилизирует пару каналов

Для мультиченнел ж надо как раз именно что разные сетевые интерфейсы. Т.е. на источнике и клиента должно быть по 2 сетевки.

И почему эту плату, скажите на милость, нельзя запитать только от 12в источника, как у асусовских ИоТ плат? Бп больше, чем все остальные компоненты.

А главное, зачем? Вместо нескольких дисков малого объема лучше купить 1-2 большого.

Вместо нескольких дисков малого объёма лучше купить несколько дисков большого объёма. Это раз.
Если диски уже есть, то купить к ним материнку за 10 тысяч может быть дешевле, чем менять диски. Это два.

Много дисков относительно малого объёма дают возможность построить из них какой-никакой RAID-5, а лучше RAID-6, потратив на избыточность не половину купленных терабайт, а поменьше.

Причём это будет даже лучше, чем много дисков большого объёма (предположим, на них есть деньги и в них есть потребность), потому что RAID из огромных SATA-дисков на таком железе будет ребилдиться месяц, за который с ненулевой вероятностью ещё один диск вылетит, добитый нагрузкой от ребилда :)

RAID из огромных SATA-дисков на таком железе будет ребилдиться месяц

Ну это смотря что у вас за рейд. С нынешними дисками и скоростью записи в 150-200 мегабайт даже 16 терабайт у вас должны ребилдится максимум пару суток.

Оно так в лоб не считается, увы. Чтобы ребилдить, скажем, RAID-5 из 12-ти 16 Тб дисков при замене одного из них, надо прочитать 176 Тб, записать 16 Тб, и всё это время загружать CPU (у нас же RAID софтовый будет на этой железке). И это будет не идеально последовательное чтение/запись, позволяющие достичь максимальных скоростей. И не очень понятно, какая на этой материнке суммарная пропускная способность на все эти 12 SATA-портов, т.е. в какой части получится распараллелиться. А если в это время NAS ещё и использоваться будет - вообще грустно.

У меня дома RAID-6 (ZFS RAIDZ2) из 8-ми дисков по 4 Тб, ребилдится почти неделю, при том, что в CPU/RAM там ничего не упирается (2 6-ядерных Xeon'а / 192 Gb), а система установлена на отдельном RAID из SSD-шек. Так что месяц я прикинул исходя из этого опыта :)

P.S. Вот и на serverfault со мной согласны :)

https://serverfault.com/questions/967930/raid-5-6-rebuild-time-calculation

You can calculate the best-case rebuild rate fairly simply: as rebuild is sequential, the needed time is capacity / transfer rate. For example, rebuilding a 10 TB disk with a 200 MB/s transfer rate needs at least 10000000 / 200 = 50000s = ~14h.

Now take this result and trow it away, as it is an overly optimistic scenario: it suppose 100% disk availability for the rebuild operation and totally sequential reads/writes. Toss in the mix some non-rebuild (ie: application) load, cap the rebuild itself to 30% (to not grind other applications to an halt) and you are suddenly in the 10x (eg: a week) rebuild time.

Так пятый raid довольно тупой, там никакой высшей математики нет, в отличие от zfs. На древнем turion'е в gen7 у меня диск на 6ТБ ребилдился меньше суток (4 диска в массиве RAID5).
А вот с zfs я ребилд не пробовал, но там проц просто с записью уже страдал. Гигабит обеспечить мог, но ценой стопроцентной загрузки.
не очень понятно, какая на этой материнке суммарная пропускная способность на все эти 12 SATA-портов

По идее, у процессора восемь линий pci-e 3.0, то есть 8 ГБ/сек должен обеспечивать. Думаю, что на 12 винтов этого хватит. Тем более, что они там, похоже, разнесены на три контроллера, а не мультипликатор портов стоит.

Проц у меня на ZFS нагружен не был вообще сколько бы то ни было значимо. Вероятно, у меня всё упиралось именно в шину PCIe, на которой стоит аппаратный RAID-контроллер (он просто пробрасывает диски как есть, сам никакого RAID не делает, т.к. для этого осознанно выбран ZFS). Т.к. материнка там хоть и нафаршированная по максимуму для своего поколения, но весьма древняя.

P.S. Да, глянул характеристика железа, меня, по ходу, больше всего лимитирует контроллер, который PCIe 1.0x8, т.е. 2 ГБ/с всего (и это в идеальной ситуации, которой не бывает). На материнке при этом три слота PCIe 2.0x8, т.е. если купить ещё один такой контроллер на Авито (а стóят эти раритеты нынче копейки) - можно улучшить ситуацию... а это идея, запишу, если к тому времени, как вернусь физически к этой железке, не решу апгрейдить её кардинально. Спасибо, что заставили про это задуматься!

Ну так не сравнивайте два шестиядерных ксеона и калькуляторный турион.
Да просто ксеон против целерона — у меня 1610T (2c) при транскодировании видео даже на одном потоке был на 100% загружен, а 1265L (4c/8t) — процентов на десять только.
Так что то, что для ваших ксеонов фоновая нагрузка, то для маленького одинокого двухъядерника может быть делом всей жизни. :)
zfs для hdd дисков очень много лишних телодвижений головкой делает (для hdd даже 1% лишних движений может уронить скорость в разы), тестировал на машине с 16гб ram и тестовыми 1тб массивами (по уму должно было хватит памяти без дедупликации), возможно ssd кеширование могло как то помочь, но маловероятно

mdadm при ребилде упирается только в линейную запись/чтение дисков и по ситуации в ширину пропускной способности контроллера, даже на слабом железе (процессор материнки в статье очень даже хорош)

За такое время ребилда можно в тот же день потерять работу, а вот найти потом новую - может вылиться в многомесячный квест :D

А за какое время ребилд должен делаться, чтобы работу не потерять? Десять минут?

за 2-3 часа. далее идёт уже простой по виде админа/девопса (фиговая конфигурация СХД/ недостаточность ИБП/отсутствие резервируемости) с вполне логичным вопросом насчет компетенции нанятого айтишника... или вы считаете, что раз сервак упал - то пусть весь мир подождет?

Вообще-то, риски заранее оговариваются. Степень резервирования, допустимое время простоя, скорость реакции и т.п. А не «ребилд идёт сутки — админ непригоден». Это раз.
Ну и когда идёт ребилд, массив доступен. Собственно говоря, raid для этого и нужен — чтобы простоя не было, если один из дисков помрёт. Или несколько — в зависмости от вида массива. Это два.
А у вас дедупликация включена? 192 — это всё для zfs отдано?

Я себе сделал два зеркальных пула zfs 2х16Tb и отдал под это дело всего 16 Gb оперативки. Дедупликация естественно даже и не включалось. И оно вполне работает, даже скорости особо не режутся. Скраббинг правда двое суток делается, а вот что будет при замене я не знаю, но о холодных бекапах не забываю пока)

Дедупликации нет, так никакой памяти не напасёшься :) У меня это не только NAS, но ещё и гипервизор на десяток виртуалок разного назначения, так что RAM есть куда девать. Scrub по расписанию раз в месяц, вроде меньше суток занимает.

А NAS как используется — под статичные данные (архивы, бекапы, библиотека) или работает с ним как с рабочим диском и туда активно читается/пишется что-нибудь? Я где-то читал что ZFS для второго использовать не очень хорошо именно из-за механизма CoW, но так и не понял почему — из-за нагрузки при любом изменении? Да и ладно бы с ним, если это, конечно, в разумных пределах)

RAID из SATA-дисков - в основном относительно статичные данные. Сами образы дисков для виртуалок, где больше интенсивность чтения/записи, на другом RAID, который из SSD-шек. Впрочем, там тоже ZFS :) Каким образом использование CoW в ZFS может препятствовать той или иной нагрузке - я тоже без понятия.

Дедупликация — это уже совсем энтерпрайз. Дома то такое зачем? Хоть в теории? Для каких задач? Не позволить залить две одинаковые фоточки?

Для хранения резервных копий с компьютеров, например. Ну и да, те же фотографии хранить в nextcloud с дедупликацией удобно — у всех могут быть свои фотографии в альбомах, но для общих событий одинаковые фотографии будут храниться только один раз.

Дома то?..

Ну отсечет дедупликацая десять, пусть даже сто фоток. Эффективность в домашнем нас — совершенно запредельно низкая

Да, поэтому мне больше нравится идея дедупликации из Windows, когда этот процесс запускается периодически и не требует особых ресурсов.

Да не нужен он в домашнем использовании. А этот НАС не на Винде же, там все ручками
Ну как зачем… экономить память… только явно не оперативную) Экономия будет, конечно, никакая, но, в конце концов, если человек дома до ZFS дорос, то чего бы ему не хотеть дедупликацию-то чисто по идеологическим соображениям?
Было бы интересно получить опыт и вживую посмотреть как оно работает. Но в целом да, поразвлекаться)
Странные люди админы и развлечения у них не менее странные…

какой размер dev.raid.speed_limit_min?

```

Dual Core AMD Opteron(tm) Processor 265

cat /proc/mdstat

Personalities : [raid1] [raid6] [raid5] [raid4]
md128 : active raid6 sdd[0] sdm[9] sdg[3] sdk[7] sdf[2] sde[1] sdj[6] sdn[10] sdl[8] sdi[5] sdp[12] sdo[11] sdh[4] sdq13
64464294400 blocks super 1.2 level 6, 512k chunk, algorithm 2 [13/13] [UUUUUUUUUUUUU]
bitmap: 6/44 pages [24KB], 65536KB chunk

диски одинаковые

scsi 6:0:13:0: Direct-Access ATA TOSHIBA MG04ACA6 FS1K PQ: 0 ANSI: 6

```

3-4 дня ребилдился

У вас не оптимальное количество дисков в рэйде. Для radz2 количество дисков должно быть: 2^n + 2

В RAID для домашнего NAS смысла не вижу, лучше сделать холодный бекап критичной части данных.

Бэкап первичен, но если бюджет позволяет, можно и к NAS'у избыточность добавить. Хотя бы просто чтоб была.

Диски у меня уже были (6шт). Но хотелось бы иметь запас под еще дополнительные диски и более простой способ их замены. Теперь всегда будет место поставить еще 1-2 диска и смигрировать данные.

itx делится на «тонкий» (thin) и «стандартный». Тонкие питаются от «ноутбучного» БП, стандартные — от стандартного. Здесь, не смотря на то, что габариты получаются как у тонкого, вся разводка от стандартного.
Ну и экономия какая-никакая — не надо, к примеру, конвертор питания ставить с 12В на все остальные напряжения, от внешнего БП берёшь сразу готовое.

AMD Radeon SSD диски это и не AMD, и не Radeon, а черт знает что такое — я б выбрал что-то более породистое.

Видимо будет настроен также и автобэкап системного диска (кстати вне зависимости от породы системного диска)?

Под брендом AMD Radeon (SSD и RAM) это локальный бренд для территории СНГ, настоящая компании CALT.

это локальный бренд для территории СНГ

Надо было называть Intel, или там BMW, чего уж стесняться, локальный бренд)

С диском, видимо, я продешевил) Возможно, приобрету под замену тот же intel.

С автобэкапом пока не думал, хотел после основных настроек один раз вручную загрузиться с live cd clonezilla и сделать бэкап.

Но если у вас есть пример гайда по настройке автобэкапа и последующего восстановления, то с радостью бы изучил.

Хотя бы просто периодически архивировать содержимое /

Интеловские ссд, кстати, не панацея — тоже дохнут или глючат временами.

Вот просто это как? Я пока наиболее простой, но ручной процесс планировал , как получу еще один диск, как раз протестировать по описанию https://clonezilla.org/clonezilla-live-doc.php

И не просто забекапить, но и восстановить диск из образа на новый

Просто архиватором.
Образом оно не развернётся, конечно, придётся поставить чистую систему, а потом сверху распаковать бэкап.

Прошел процесс бэкапа и восстановления через Clonezilla и дополнил статью

Клонзилла штука старая и надежная

На десктопе Timeshift для автобэкапа, но там GUI. Консольной версией не пользовался для планировки автобэкапов, только для восстановления
Кажется консольная автопланировка в нем есть, но тут мне сложно, я не настоящий линуксоид)
https://dev.to/rahedmir/how-to-use-timeshift-from-command-line-in-linux-1l9b

Timeshift использует rsync, на его базе есть куча вариантов, скрипты несложные. Но наверное тогда уж проще rdiff-backup

А на сервере rdiff-backup .sh скрипт, запланировал его в кроне:

nice -n 10 rdiff-backup /home/ubuntu/minecraft/ /home/ubuntu/minebak/rdiff/
nice -n 10 rdiff-backup --force --remove-older-than 4W /home/ubuntu/minebak/rdiff/

# ето мой скрипт с путями который по крону срабатывает

rdiff-backup --list-increments /home/ubuntu/minebak/rdiff/

# показать список инкрементов, в них можно подсмотреть даты

rdiff-backup -r 2020-09-08 /home/ubuntu/minebak/rdiff/ /home/ubuntu/minetest

# восстанавливаться через дату

rdiff-backup -r 30D /home/ubuntu/minebak/rdiff/ /home/ubuntu/minetest

# вроде так можно

rdiff-backup -r 2022-12-19 /home/ubuntu/backup/mineserver/ /home/ubuntu/minebak/

# 2022-12-19 вот так норм во временную папку и протестить. но тока дата а как время я пока хз

внутри самой платы расположены 2 порта USB.

Странно расположены, нижним вообще пользоваться реально?
встречал только на материнских платах HP Microserver

На многих серверных материнках такое есть.
12 потов SATA

А на каком контроллере?
lspci показать можете?
Нет дополнительных разъемов (PCI-E), расширить платами не получится.

Подозреваю, что для извращенцев можно взять переходник с m2 на PCI-E.
Кстати, а в углу там что за разъём, около саташных портов?

root@omv3:~# lspci
00:00.0 Host bridge: Intel Corporation Device 4e24
00:02.0 VGA compatible controller: Intel Corporation Device 4e55 (rev 01)
00:04.0 Signal processing controller: Intel Corporation Device 4e03
00:08.0 System peripheral: Intel Corporation Device 4e11
00:14.0 USB controller: Intel Corporation Device 4ded (rev 01)
00:14.2 RAM memory: Intel Corporation Device 4def (rev 01)
00:15.0 Serial bus controller [0c80]: Intel Corporation Device 4de8 (rev 01)
00:15.2 Serial bus controller [0c80]: Intel Corporation Device 4dea (rev 01)
00:16.0 Communication controller: Intel Corporation Device 4de0 (rev 01)
00:17.0 SATA controller: Intel Corporation Device 4dd3 (rev 01)
00:19.0 Serial bus controller [0c80]: Intel Corporation Device 4dc5 (rev 01)
00:19.1 Serial bus controller [0c80]: Intel Corporation Device 4dc6 (rev 01)
00:1c.0 PCI bridge: Intel Corporation Device 4db8 (rev 01)
00:1c.1 PCI bridge: Intel Corporation Device 4db9 (rev 01)
00:1c.4 PCI bridge: Intel Corporation Device 4dbc (rev 01)
00:1c.6 PCI bridge: Intel Corporation Device 4dbe (rev 01)
00:1c.7 PCI bridge: Intel Corporation Device 4dbf (rev 01)
00:1e.0 Communication controller: Intel Corporation Device 4da8 (rev 01)
00:1e.3 Serial bus controller [0c80]: Intel Corporation Device 4dab (rev 01)
00:1f.0 ISA bridge: Intel Corporation Device 4d87 (rev 01)
00:1f.3 Audio device: Intel Corporation Device 4dc8 (rev 01)
00:1f.4 SMBus: Intel Corporation Device 4da3 (rev 01)
00:1f.5 Serial bus controller [0c80]: Intel Corporation Device 4da4 (rev 01)
01:00.0 SATA controller: JMicron Technology Corp. JMB58x AHCI SATA controller
02:00.0 SATA controller: JMicron Technology Corp. JMB58x AHCI SATA controller
03:00.0 Non-Volatile memory controller: Silicon Motion, Inc. SM2263EN/SM2263XT SSD Controller (rev 03)
04:00.0 Ethernet controller: Intel Corporation Ethernet Controller I225-V (rev 03)
05:00.0 Ethernet controller: Intel Corporation Ethernet Controller I225-V (rev 03)

jmicron, да ещё две штуки похоже. Плюс чипсетный. Забавное решение, может быть интересно, если разводить виртуалки — тогда можно отдельные контроллеры туда пробрасывать. Впрочем, проц+память много виртуалок завести не позволят.

В углу, как я понимаю, это MSATA

Это miniPCI-E (не m.2) например для wifi карты. А то что вы имели ввиду, это NGFF и он такой же m.2 разъем, только с другим ключем.

К сожалению, устройств с таким разъемом у меня нет. Мануала, чтобы точно убедиться, также нет. Но по описанию платы путем исключения я предположил, что это msata

Ну отдадите ребенку под десктоп, плюс бэкапы, не расстраивайтесь.

Если собирать NAS то уж поднимать на нём zfs или btrfs. А значит крайне желательно иметь память с ECC. А ECC тут нет, понятное дело — откуда контроллер ECC в селероне? Странное решение для продукта позиционирующегося как NAS, да ещё и Industrial. Для файлопомойки конечно сгодится, но как решение для ответственного хранения как-то сомнительно.

Я в части про материнку постарался это отметить. Под zfs она не подойдет, но мой кейс именно файлопомойка). Софтверный raid0 или просто диски без всяких рейдов. Что то ценное я хранить на таком решении не планировал

откуда контроллер ECC в селероне?

Возможно, будете удивлены, но в некоторых целеронах таки была поддержка ECC. Не в этом, правда.
сли собирать NAS то уж поднимать на нём zfs или btrfs.

Всё зависит от потребностей. Миллионы людей хранят данные без ЕСС-памяти на простой ntfs и не особо при этом страдают. Так что NAS и zfs — не синонимы.
Проблема ещё в том сколько хранить. Если пару сотен гигов — это одно. А если очень много данных, то тут возникает интересный нюанс. С увеличением ёмкости дисков никак не поменялась вероятность ошибок на бит. И получается, что сейчас покупая диск терабайт на 20 (2*10^13 бит) и полностью заполняя его мы уже получаем цифру соразмерную со значениями BER (10^14...10^16). Понятно, что тут смотря что хранить — для большой фильмотеки один вылетевший бит вполне можно допустить. А для каких-то иных данных потери могут быть недопустимы, поэтому в этом случае без RAID или zfs никуда, но даже с ними приходится делать периодические чеки, чтобы данные «не протухли».

Именно. Когда я первый раз про это прочитал - сразу озадачился тем, что поменял аппаратный RAID на программный средствами ZFS. Потому что у ZFS есть scrub, который можно запускать по крону, и если что - он обнаружит и исправит ошибки на уровне файловой системы.

А на втором сервере вот вообще аппаратный RAID-0 на ext2... потому что он под видеонаблюдение, и утрата архива записей за прошлый месяц не станет катастрофой :)

В этом плане ZFS может ошибку при чтении файла исправить и на лету прямо при обращении к этому файлу — поблочное хранение контрольных сумм рядом с файлами вполне себе этому способствует. Но scrub на всякий случай я отключать тоже не стал)
А если очень много данных,

Хранить «очень много данных» — это обычно не та задача, под которую собирают NAS на целероне. Кстати, btrfs и без ecc замечает, что данные портятся. Я у себя именно с ней и понял, что память битая.
даже с ними лучше делать периодические чеки, чтобы данные «не протухли».

С zfs их не «лучше» делать, их там необходимо делать. Не так давно одни ютубовские хипстеры запороли массив на петабайт из-за того, что забыли scrub настроить по расписанию. У них там начали вылетать диски и, если бы всё было нормально, они бы эти диски просто заменили на новые, сделали ребилд и жили дальше. Но не вышло.
ECC нужно же только для снижения вероятности косяка из-за самой памяти. Потому как если на этапе сброса блока на диск данные попортятся или CRC блока, то ничего с этим уже не поделаешь и вся эта надёжность ФС выглядит блёкло. Так-то у меня и zfs работала год на обычной памяти и ничего страшного вроде не случилось.

А у вас btrfs на чём крутится?
Я когда-то делал выбор между этими двумя ФС и выбор как-то склонился к zfs. А вот прогадал или нет пока непонятно)
ECC нужно же только для снижения вероятности косяка из-за самой памяти.

Да. Потому лично я не особо упарываюсь в эту сторону. Просто память стал дольше тестировать перед установкой. Впрочем, ЕСС на домашний сервер я в итоге воткнул — но только потому, что недорого попалось 64 гига подходящей.
А так — данные же на сервере только хранятся. А обрабатываются они на других компьютерах, где обычная память, обычные файловые системы — и если они будут испорчены там, то сервер про это и не узнает.
А у вас btrfs на чём крутится?

У меня unraid стоит, там базовый массив вообще на xfs, а btrfs они используют под диски кэша, куда активная запись идёт. Там обычно живёт кэш записи массива, рабочие файлы виртуалок и докеров и т.п.

У меня пару лет был btrfs. Ещё на предыдущей конфигурации сервера, RAID там был аппаратный, железо поскромнее, диски поменьше (8*1 Тб). Я читал, что btrfs не очень стабильна, но решил, что это всё в прошлом. И в один прекрасный день у меня без всяких внешних к тому причин запоролся раздел на 4 Тб. Все магические ритуалы, подсказанные гуглом, для его восстановления, провёл, понял, что если что и вытяну - но небыстро и не всё. Так что снёс я эту btrfs, докупил оперативки, отформатировал в ZFS и вытянул ~2 Тб из облака, благо всё, что было хоть минимально жалко потерять, туда дублировалось.

Какой бы красивой не была файловая система, бэкапы — наше всё.
Если собирать NAS
иметь память с ECC
подскажите доступное по цене решение, сравнимой компактности и функционалу?

Судя по всему не желание делать ECC нормой на десктопных машинах (а это становится все актуальнее) имеет исключительно меркантильную цель — искусственное удержание серверных решений в дорогом сегменте. Это легко сделать, если производителей процессоров два с половиной.
Я свой NAS построил на б/у E3 1240L V5, выписанном за немного денег из Китая. Правда машина изначально под гипервизор ESXi собиралась, NAS там виртуалкой гостит, но всё равно — суть-то та же. Однако всё остальное кроме проца вылилось в копеечку, так что насчёт компактности и функционала — без проблем, а вот цена подкачает)

Домашние серваки раньше можно было собирать на материнках класса Workstation и 5- летних б/у Xeon, которые совсем за философские цены появлялись на али после очередной волны апгрейдов «больших дядек». От всей этой ситуации у интел видимо знатно подгорело и в новых поколениях чипсетов они начисто выпилили поддержку ксеонов. Получается оригинально — вроде как Workstation само по себе позиционируется под тяжёлые задачи, но ECC теперь в ней нет)
Старое серверное железо очень плохо тем, что жрет как не в себя и даже в простое греется, шумя кулерами. У меня был комп на двух старых ксеонах, на 1080 заикался, но грелся и гудел — будто там 4к рендерилось. Валяется в ящике теперь

Мой опыт-вибрацию создают кулеры, они же передают её на корпус и винчестеры, если жёстко прикручены к корпусу. Попались как-то резиновые крепления для кулеров, что-то вроде шпильки, котороая продевается в отверстие кулера и вставляется в соответствующее отверстие в корпусе, при этом кулер физически не касается корпуса.

И ещё. Нежелательно ставить корпус в воздухонепроницаемый шкаф, нужна вентиляция, иначе будет сильно греться.

Как раз приобретенные под замену стоковым кулеры DeepCool UF 120в комплекте идут с резиновыми шпильками. Пока решил прикрутить жестко, там посмотрим.

И ниша не совсем герметична. Она собрана без задней стенки и есть снизу зазор около 1 см, через который поступает воздух снизу. Также пока дверца всегда приоткрыта для выхода теплого воздуха. В будущем планирую в боковой стенке проделать отверстие именно под вентиляцию и установить на минимальных оборотах кулер 200х200 для отвода теплого воздуха. Так вся ниша будет как бы корпусом с принудительной вентиляцией.

Попробуйте поставить кулера на шпильки, разница должна быть заметна даже на слух. Важный момент-вибрация корпуса передаётся на винчестеры, в случае HDD там головки, ну вы понимаете. Не знаю почему винчестеры до сих пор кремят жёстко к корпусу, их бы тоже надо крепить на резиновые шпильки.

Принудительная-это хорошо, но можно и без неё обойтись, отверстий должно быть достаточно, конвекция будет работать.

В некоторых корпусах и винчестеры через резиновые шайбы-проставки к корзине крепятся (например, Define XL R2).

Другое дело, что не каждому сей корпус подойдёт, как по цене, так и по габаритам. Зато, да, он реально тихий и с кучей посадочных мест под винты.

В приличных корпусах диски ставились через резиновые шайбы уже лет 20 назад как минимум

На обоях будет чёрное пятно через некоторое время

Расстояние между стенкой шкафа и стеной около 2 см. Пятно если и будет, но его не будет особо видно.

Есть и такие материнки, правда там сата поменьше.
Зато 4 по 2,5 стоит.

Вообще уже пора бы на 10 Гбит/с переползать, а то у меня уже WiFi (6) не быстрее провода только потому, что точка доступа сама подключена кабелем на скорости 1 Гбит/с. Но 10 Гбит/с как-то не спешат идти в народ, разрыв в ценах с обычным гигабитом пока очень серьёзный.

Посмотрите connect-x карты для машин. Tp-link 10G свич на Али. Уже ближе к народу, чем кажется.

Карты как раз наименьшая проблема...

Посмотрел на свитчи на Али. Сейчас у меня 28-портовый + 8 портовый + сервера напрямую в роутер подлючены, всё это забито уже под завязку. Прикинем, что мне надо купить на замену. Свитч на 16 портов SFP+ (больше не нашёл) - 53,5 т.₽. С оптимистичным описанием, мол прошивка только на китайском, но с гугл-транслейтом Вы разберётесь :) Плюс 16 собственно модулей SFP+ в него. Плюс ещё один свитч, у которого хотя бы 1 SFP+, а остальные порты 1G, чтобы подключить всякие камеры и пр, чему 10G не надо (или не хватило). Плюс роутер с как минимум 2 портами SFP+ и соответствующей производительностью, т.к. между VLAN'ами трафик пойдёт через него, и чтобы не потерять на этом все прелести 10G, линк между ним и свитчем должен быть хотя бы 20G. Ну это вот всё уже совсем не демократично получается.

А дальше совсем весело, потому что точек доступа, которые подключались бы на 10G, я не знаю вообще. Сейчас купил Unifi U6 Pro, пропускная способность в теории 5,6 Гбит/с, но подключение кабелем на 1G. Т.е. даже в самой идеальной картине два WiFi 6 устройства, расположенные прямо в упор рядом с точкой, будут только между собой резво общаться на скоростях более 1G (и то если им повезёт оказаться в одном VLAN, а домашняя сеть у меня изрядно сегментированная), а при доступе к проводному сегменту сети им достанется по 500M на нос.

Далее ноутбуки. Встроенный Ethernet (да, у меня он есть!) 2,5G. Док-станций, которые имели бы порт 10G, тоже как-то не нашёл (хотя в пропускную способность TB4 укладываемся, но уже конкурируем за неё с мониторами).

Про медиаприставки даже не говорю. Ну им, ладно, в 1G не уложиться надо постараться (даже видео 8k 60fps, вроде, проходит с запасом).

В общем, как-то, во-первых, всё равно дорого. Во-вторых, всю инфраструктуру на 10G не переведёшь, а вложить кучу денег, чтобы всё всё равно упёрлось в "последнюю милю" - так себе идея.

P.S. И это ещё я совсем не уверен, что 10G по меди, разведённые по всему дому, вот так без проблем заведутся и заработают на 10G. Там, насколько я понимаю, к помехозащищённости требования на порядок строже, чем у 1G. А разводить оптику - это надо или покупать сварочник и все прибамбасы к нему (ещё за такие же деньги, как всё перечисленное в начале), или постоянно нанимать сторонних ребят (вероятно, дешевле, но больше мороки).

Так сколько реально вам 10G портов то надо? 7 не хватит? Если хватит - то TP-link

Если нужен аплинк с более чем 10G то смотрите старенькие аристы свичи.

С оптоволокном проблем нет - покупаете претерминированные LC-LC патчкорды и растягиваете их по дому. Если супер красиво нужно, то растягиваются до розеток, в которые ставите coupler-ы.

Всё что близко к свичу - не нуждается в оптике - подключайте DAC-кабелями.

Выбор точки не удачен, лучше бы с портом 2,5G. 10G порт легко снабжается медным трансивером 2,5G и будет ок.

Свич с 24портами 1G и 2х10G - CRS326-24G-2S+

10G по меди, если не превышено 30м длины - будет ок, но дороже оптики

7 не хватит, 16 хватит. Но, повторюсь, купить придётся минимум 3 железки: свитч 10G, свитч 10G/1G (и с PoE на 1G портах), роутер с 10G. Дорого :(

Готовые оптические патч-корды я один раз протянул на второй этаж (между свитчами), больше повторять не хочу :) Ну это специфика моих коммуникаций, пропихивание коннекторов в длинную гофру... По этой же причине сомневаюсь в том, что взлетит 10G по меди, много где прямо рядом с силовыми проводами проложено, 1G-то терпит...

Точка доступа с 2.5G - а подскажите модель? Их в целом-то не то, чтобы огромный выбор с WiFi 6, микротики вон не разродились до сих пор.

P.S. Ну и в целом, я перевод своего дома на 10G пока рассматриваю чисто теоретически. Добраться бы для начала до того дома... А разговор-то начался с того, что 10G пока не очень демократично по цене, ну вот я на своём примере (где точно 1G уже кое-где стал узким местом) и прикинул порядок цен... На фоне микрота 3011 и пары длинковских 1G свитчей, которые там стоят сейчас, - это в разы дороже, как ни крути

Для себя я посматриваю на точка-точка — отдельную сетевушку в сервер, отдельную в свой основной комп и соединить их напрямую.
Остальным же 10 гигабит не нужно, обойдутся и гигабитом.
Ещё бы интернет гигабитный кто провёл… Но более-менее согласны были только МТС, с абоненткой в 25 тысяч в месяц.

Тогда, думаю, нужно идти по пути наименьшего сопротивления, и переходить на 2,5G. Если нужно.

А разводить оптику - это надо или покупать сварочник и все прибамбасы к нему (ещё за такие же деньги, как всё перечисленное в начале)

Ну, положим, такими же деньгами ограничиться точно не удастся. Дорогое это удовольствие. Не говоря о том, что на этом оборудовании работать надо уметь. А вот пригласить в частном порядке, через Авито, к себе домой монтажника от провайдера на час с оборудованием - это и несложно и недорого.

постоянно нанимать сторонних ребят (вероятно, дешевле, но больше мороки).

Много раз в доме сеть перекладывали? Даже если раз в год - ни о чем.

Идея хороша, если надо сделать что-то серьезное, но с ограниченным бюджетом. Скажем, массив на 8-12 дисков. Или очень хочется большой объем, но топовые диски без черепичной записи - очень дорогие. Если же нужно 2-4 диска, хранить фотки и фильмы - проще купить 5-7- летний системный блок с 4 SATA разъемами на Авито, поменять вентиляторы и БП на новые от BeQuiet и проделать все те же манипуляции по снижению вибрации. По деньгам разницы особой не будет, большинство денег тратится на диски.

Зачем подключать НАС к интернету? Поймать какую-нибудь гадость?

Немного фото BIOS
Это же старый добрый Американ Мегатрнедс. У них и ищите мануал

По итогу размышлений и проектирования во Fusion360 родилась такая модель
По виду, туда можно просто поставить 12см кулер плашмя. Нагрузки нет, свинчивать незачем

Идея была получить в итоге монолитное решение, чтобы весь корпус целиком можно было двигать и переносить, не переживая, что эти составные части развалятся.

А ч то с биос? Наши что-то на сайте АM?

Мануал от самой платы, я имел ввиду. Как в материнках от нормальных производителей. Хотя бы ради таблицы совместимости с памятью. Ну и назначение некоторых джамперов для меня осталось загадкой.

Ну, про джамперы из биоса не догадаться, это да

GPIO: Поддержка 8 GPIO

А как получить доступ к этим портам? Драйвер? API?

Совсем недавно вышла статья DIY NAS: 2023 Edition

И там тоже используется похожая материнская плата…

P.S. А есть информация о расстоянии между отверстиями для крепления радиатора?

Размер проприетарный или какой-то стандарт?

Sign up to leave a comment.

Articles