Comments 104
Если с сетью не как у Вас делать, а оба сетевых адаптера протянуть каждый своей витой парой к роутеру, от основного компьютера так же, и настроить везде bonding - то получим 2 Гбит/с. Если, конечно, роутер не настолько дохлый, что станет в этой схеме узким местом :)
Даже не 2, а 5!
Intel 211 - это 2,5GBps NIC.
Тоже первая мысль об этом была!
Кроме увеличения полосы пропускания получаем надёжность - можно сетевые кабели по одному переключать на лету и трафик даже не прервется.
А вот корпус мне не понравился: потоки охлаждения в корпусе непредсказуемые, пылевых фильтров нет. Как итог: или пылесосить его раз в месяц, или это будет ящик забитый войлоком без охлаждения.
За обзор - спасибо!
Осталось найти роутер с четырьмя 2.5-гигабитными портами (2 для NAS и 2 для ПК). А если дома есть ещё устройства, которым нужен Ethernet, задача усложняется, т.к. 4 порта уже заняты.
Стало быть, придется смотреть уже в сторону маршрутизаторов не домашнего уровня.
Есть с тремя портами:
https://aliexpress.ru/item/1005004182442458.html
Этого продавца не рекомендую.
Не очень понимаю зачем именно роутер. Если связь наружу в 'эти ваши интернеты' не нужна, то возможно остановиться на комутаторе будет заметно экономичнее...
учитывая установку в закрытый обьем https://hsto.org/r/w1560/getpro/habr/upload_files/2c9/74f/f19/2c974ff19b0a27d8a173e5635ffda228.jpg
тут больше вопросов про итоговую температуру под нагрузкой
Давным давно делал в аналогичной икее медиа-сервер с торрентами. Чтобы объем был не замкнутым, во внутренней стенке ставится два вентилятора: снизу на вдув и сверху на выдув. А сам шкаф ставится в угол, чтобы за стенкой был объем воздуха.
К сожалению так прямолинейно оно не работает: LACP не умеет делить одно соединение на несколько физических линков (для части протоколов это компенсируется multipath'ом), агрегация независимых карт скорее всего окажется несовместима с аппаратной разгрузкой и может заметно сказаться на таком слабом процессоре, плюс накладные расходы по некоторым оценкам выжирают до трети полосы пропускания.
А без протоколов агрегации балансируется только исходящий трафик.
Так что в малых сетях явное деление интерфейсов по назначению/направлению часто оказывается эффективнее.
И почему эту плату, скажите на милость, нельзя запитать только от 12в источника, как у асусовских ИоТ плат? Бп больше, чем все остальные компоненты.
А чем питать 12 3.5 дисков?
А главное, зачем? Вместо нескольких дисков малого объема лучше купить 1-2 большого.
Если диски уже есть, то купить к ним материнку за 10 тысяч может быть дешевле, чем менять диски. Это два.
Много дисков относительно малого объёма дают возможность построить из них какой-никакой RAID-5, а лучше RAID-6, потратив на избыточность не половину купленных терабайт, а поменьше.
Причём это будет даже лучше, чем много дисков большого объёма (предположим, на них есть деньги и в них есть потребность), потому что RAID из огромных SATA-дисков на таком железе будет ребилдиться месяц, за который с ненулевой вероятностью ещё один диск вылетит, добитый нагрузкой от ребилда :)
RAID из огромных SATA-дисков на таком железе будет ребилдиться месяц
Ну это смотря что у вас за рейд. С нынешними дисками и скоростью записи в 150-200 мегабайт даже 16 терабайт у вас должны ребилдится максимум пару суток.
Оно так в лоб не считается, увы. Чтобы ребилдить, скажем, RAID-5 из 12-ти 16 Тб дисков при замене одного из них, надо прочитать 176 Тб, записать 16 Тб, и всё это время загружать CPU (у нас же RAID софтовый будет на этой железке). И это будет не идеально последовательное чтение/запись, позволяющие достичь максимальных скоростей. И не очень понятно, какая на этой материнке суммарная пропускная способность на все эти 12 SATA-портов, т.е. в какой части получится распараллелиться. А если в это время NAS ещё и использоваться будет - вообще грустно.
У меня дома RAID-6 (ZFS RAIDZ2) из 8-ми дисков по 4 Тб, ребилдится почти неделю, при том, что в CPU/RAM там ничего не упирается (2 6-ядерных Xeon'а / 192 Gb), а система установлена на отдельном RAID из SSD-шек. Так что месяц я прикинул исходя из этого опыта :)
P.S. Вот и на serverfault со мной согласны :)
https://serverfault.com/questions/967930/raid-5-6-rebuild-time-calculation
You can calculate the best-case rebuild rate fairly simply: as rebuild is sequential, the needed time is capacity / transfer rate. For example, rebuilding a 10 TB disk with a 200 MB/s transfer rate needs at least 10000000 / 200 = 50000s = ~14h.
Now take this result and trow it away, as it is an overly optimistic scenario: it suppose 100% disk availability for the rebuild operation and totally sequential reads/writes. Toss in the mix some non-rebuild (ie: application) load, cap the rebuild itself to 30% (to not grind other applications to an halt) and you are suddenly in the 10x (eg: a week) rebuild time.
А вот с zfs я ребилд не пробовал, но там проц просто с записью уже страдал. Гигабит обеспечить мог, но ценой стопроцентной загрузки.
не очень понятно, какая на этой материнке суммарная пропускная способность на все эти 12 SATA-портов
По идее, у процессора восемь линий pci-e 3.0, то есть 8 ГБ/сек должен обеспечивать. Думаю, что на 12 винтов этого хватит. Тем более, что они там, похоже, разнесены на три контроллера, а не мультипликатор портов стоит.
Проц у меня на ZFS нагружен не был вообще сколько бы то ни было значимо. Вероятно, у меня всё упиралось именно в шину PCIe, на которой стоит аппаратный RAID-контроллер (он просто пробрасывает диски как есть, сам никакого RAID не делает, т.к. для этого осознанно выбран ZFS). Т.к. материнка там хоть и нафаршированная по максимуму для своего поколения, но весьма древняя.
P.S. Да, глянул характеристика железа, меня, по ходу, больше всего лимитирует контроллер, который PCIe 1.0x8, т.е. 2 ГБ/с всего (и это в идеальной ситуации, которой не бывает). На материнке при этом три слота PCIe 2.0x8, т.е. если купить ещё один такой контроллер на Авито (а стóят эти раритеты нынче копейки) - можно улучшить ситуацию... а это идея, запишу, если к тому времени, как вернусь физически к этой железке, не решу апгрейдить её кардинально. Спасибо, что заставили про это задуматься!
Да просто ксеон против целерона — у меня 1610T (2c) при транскодировании видео даже на одном потоке был на 100% загружен, а 1265L (4c/8t) — процентов на десять только.
Так что то, что для ваших ксеонов фоновая нагрузка, то для маленького одинокого двухъядерника может быть делом всей жизни. :)
mdadm при ребилде упирается только в линейную запись/чтение дисков и по ситуации в ширину пропускной способности контроллера, даже на слабом железе (процессор материнки в статье очень даже хорош)
За такое время ребилда можно в тот же день потерять работу, а вот найти потом новую - может вылиться в многомесячный квест :D
за 2-3 часа. далее идёт уже простой по виде админа/девопса (фиговая конфигурация СХД/ недостаточность ИБП/отсутствие резервируемости) с вполне логичным вопросом насчет компетенции нанятого айтишника... или вы считаете, что раз сервак упал - то пусть весь мир подождет?
Ну и когда идёт ребилд, массив доступен. Собственно говоря, raid для этого и нужен — чтобы простоя не было, если один из дисков помрёт. Или несколько — в зависмости от вида массива. Это два.
Я себе сделал два зеркальных пула zfs 2х16Tb и отдал под это дело всего 16 Gb оперативки. Дедупликация естественно даже и не включалось. И оно вполне работает, даже скорости особо не режутся. Скраббинг правда двое суток делается, а вот что будет при замене я не знаю, но о холодных бекапах не забываю пока)
Дедупликации нет, так никакой памяти не напасёшься :) У меня это не только NAS, но ещё и гипервизор на десяток виртуалок разного назначения, так что RAM есть куда девать. Scrub по расписанию раз в месяц, вроде меньше суток занимает.
RAID из SATA-дисков - в основном относительно статичные данные. Сами образы дисков для виртуалок, где больше интенсивность чтения/записи, на другом RAID, который из SSD-шек. Впрочем, там тоже ZFS :) Каким образом использование CoW в ZFS может препятствовать той или иной нагрузке - я тоже без понятия.
Для хранения резервных копий с компьютеров, например. Ну и да, те же фотографии хранить в nextcloud с дедупликацией удобно — у всех могут быть свои фотографии в альбомах, но для общих событий одинаковые фотографии будут храниться только один раз.
Ну отсечет дедупликацая десять, пусть даже сто фоток. Эффективность в домашнем нас — совершенно запредельно низкая
какой размер dev.raid.speed_limit_min?
```
Dual Core AMD Opteron(tm) Processor 265
cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md128 : active raid6 sdd[0] sdm[9] sdg[3] sdk[7] sdf[2] sde[1] sdj[6] sdn[10] sdl[8] sdi[5] sdp[12] sdo[11] sdh[4] sdq13
64464294400 blocks super 1.2 level 6, 512k chunk, algorithm 2 [13/13] [UUUUUUUUUUUUU]
bitmap: 6/44 pages [24KB], 65536KB chunk
диски одинаковые
scsi 6:0:13:0: Direct-Access ATA TOSHIBA MG04ACA6 FS1K PQ: 0 ANSI: 6
```
3-4 дня ребилдился
У вас не оптимальное количество дисков в рэйде. Для radz2 количество дисков должно быть: 2^n + 2
В RAID для домашнего NAS смысла не вижу, лучше сделать холодный бекап критичной части данных.
Диски у меня уже были (6шт). Но хотелось бы иметь запас под еще дополнительные диски и более простой способ их замены. Теперь всегда будет место поставить еще 1-2 диска и смигрировать данные.
Ну и экономия какая-никакая — не надо, к примеру, конвертор питания ставить с 12В на все остальные напряжения, от внешнего БП берёшь сразу готовое.
AMD Radeon SSD диски это и не AMD, и не Radeon, а черт знает что такое — я б выбрал что-то более породистое.
Видимо будет настроен также и автобэкап системного диска (кстати вне зависимости от породы системного диска)?
Под брендом AMD Radeon (SSD и RAM) это локальный бренд для территории СНГ, настоящая компании CALT.
С диском, видимо, я продешевил) Возможно, приобрету под замену тот же intel.
С автобэкапом пока не думал, хотел после основных настроек один раз вручную загрузиться с live cd clonezilla и сделать бэкап.
Но если у вас есть пример гайда по настройке автобэкапа и последующего восстановления, то с радостью бы изучил.
Интеловские ссд, кстати, не панацея — тоже дохнут или глючат временами.
Вот просто это как? Я пока наиболее простой, но ручной процесс планировал , как получу еще один диск, как раз протестировать по описанию https://clonezilla.org/clonezilla-live-doc.php
И не просто забекапить, но и восстановить диск из образа на новый
На десктопе Timeshift для автобэкапа, но там GUI. Консольной версией не пользовался для планировки автобэкапов, только для восстановления
Кажется консольная автопланировка в нем есть, но тут мне сложно, я не настоящий линуксоид)
https://dev.to/rahedmir/how-to-use-timeshift-from-command-line-in-linux-1l9b
Timeshift использует rsync, на его базе есть куча вариантов, скрипты несложные. Но наверное тогда уж проще rdiff-backup
А на сервере rdiff-backup .sh скрипт, запланировал его в кроне:
nice -n 10 rdiff-backup /home/ubuntu/minecraft/ /home/ubuntu/minebak/rdiff/
nice -n 10 rdiff-backup --force --remove-older-than 4W /home/ubuntu/minebak/rdiff/
# ето мой скрипт с путями который по крону срабатывает
rdiff-backup --list-increments /home/ubuntu/minebak/rdiff/
# показать список инкрементов, в них можно подсмотреть даты
rdiff-backup -r 2020-09-08 /home/ubuntu/minebak/rdiff/ /home/ubuntu/minetest
# восстанавливаться через дату
rdiff-backup -r 30D /home/ubuntu/minebak/rdiff/ /home/ubuntu/minetest
# вроде так можно
rdiff-backup -r 2022-12-19 /home/ubuntu/backup/mineserver/ /home/ubuntu/minebak/
# 2022-12-19 вот так норм во временную папку и протестить. но тока дата а как время я пока хз
внутри самой платы расположены 2 порта USB.
Странно расположены, нижним вообще пользоваться реально?
встречал только на материнских платах HP Microserver
На многих серверных материнках такое есть.
12 потов SATA
А на каком контроллере?
lspci показать можете?
Нет дополнительных разъемов (PCI-E), расширить платами не получится.
Подозреваю, что для извращенцев можно взять переходник с m2 на PCI-E.
Кстати, а в углу там что за разъём, около саташных портов?
root@omv3:~# lspci
00:00.0 Host bridge: Intel Corporation Device 4e24
00:02.0 VGA compatible controller: Intel Corporation Device 4e55 (rev 01)
00:04.0 Signal processing controller: Intel Corporation Device 4e03
00:08.0 System peripheral: Intel Corporation Device 4e11
00:14.0 USB controller: Intel Corporation Device 4ded (rev 01)
00:14.2 RAM memory: Intel Corporation Device 4def (rev 01)
00:15.0 Serial bus controller [0c80]: Intel Corporation Device 4de8 (rev 01)
00:15.2 Serial bus controller [0c80]: Intel Corporation Device 4dea (rev 01)
00:16.0 Communication controller: Intel Corporation Device 4de0 (rev 01)
00:17.0 SATA controller: Intel Corporation Device 4dd3 (rev 01)
00:19.0 Serial bus controller [0c80]: Intel Corporation Device 4dc5 (rev 01)
00:19.1 Serial bus controller [0c80]: Intel Corporation Device 4dc6 (rev 01)
00:1c.0 PCI bridge: Intel Corporation Device 4db8 (rev 01)
00:1c.1 PCI bridge: Intel Corporation Device 4db9 (rev 01)
00:1c.4 PCI bridge: Intel Corporation Device 4dbc (rev 01)
00:1c.6 PCI bridge: Intel Corporation Device 4dbe (rev 01)
00:1c.7 PCI bridge: Intel Corporation Device 4dbf (rev 01)
00:1e.0 Communication controller: Intel Corporation Device 4da8 (rev 01)
00:1e.3 Serial bus controller [0c80]: Intel Corporation Device 4dab (rev 01)
00:1f.0 ISA bridge: Intel Corporation Device 4d87 (rev 01)
00:1f.3 Audio device: Intel Corporation Device 4dc8 (rev 01)
00:1f.4 SMBus: Intel Corporation Device 4da3 (rev 01)
00:1f.5 Serial bus controller [0c80]: Intel Corporation Device 4da4 (rev 01)
01:00.0 SATA controller: JMicron Technology Corp. JMB58x AHCI SATA controller
02:00.0 SATA controller: JMicron Technology Corp. JMB58x AHCI SATA controller
03:00.0 Non-Volatile memory controller: Silicon Motion, Inc. SM2263EN/SM2263XT SSD Controller (rev 03)
04:00.0 Ethernet controller: Intel Corporation Ethernet Controller I225-V (rev 03)
05:00.0 Ethernet controller: Intel Corporation Ethernet Controller I225-V (rev 03)
В углу, как я понимаю, это MSATA
Ну отдадите ребенку под десктоп, плюс бэкапы, не расстраивайтесь.
Я в части про материнку постарался это отметить. Под zfs она не подойдет, но мой кейс именно файлопомойка). Софтверный raid0 или просто диски без всяких рейдов. Что то ценное я хранить на таком решении не планировал
откуда контроллер ECC в селероне?
Возможно, будете удивлены, но в некоторых целеронах таки была поддержка ECC. Не в этом, правда.
сли собирать NAS то уж поднимать на нём zfs или btrfs.
Всё зависит от потребностей. Миллионы людей хранят данные без ЕСС-памяти на простой ntfs и не особо при этом страдают. Так что NAS и zfs — не синонимы.
Именно. Когда я первый раз про это прочитал - сразу озадачился тем, что поменял аппаратный RAID на программный средствами ZFS. Потому что у ZFS есть scrub, который можно запускать по крону, и если что - он обнаружит и исправит ошибки на уровне файловой системы.
А на втором сервере вот вообще аппаратный RAID-0 на ext2... потому что он под видеонаблюдение, и утрата архива записей за прошлый месяц не станет катастрофой :)
А если очень много данных,
Хранить «очень много данных» — это обычно не та задача, под которую собирают NAS на целероне. Кстати, btrfs и без ecc замечает, что данные портятся. Я у себя именно с ней и понял, что память битая.
даже с ними лучше делать периодические чеки, чтобы данные «не протухли».
С zfs их не «лучше» делать, их там необходимо делать. Не так давно одни ютубовские хипстеры запороли массив на петабайт из-за того, что забыли scrub настроить по расписанию. У них там начали вылетать диски и, если бы всё было нормально, они бы эти диски просто заменили на новые, сделали ребилд и жили дальше. Но не вышло.
А у вас btrfs на чём крутится?
Я когда-то делал выбор между этими двумя ФС и выбор как-то склонился к zfs. А вот прогадал или нет пока непонятно)
ECC нужно же только для снижения вероятности косяка из-за самой памяти.
Да. Потому лично я не особо упарываюсь в эту сторону. Просто память стал дольше тестировать перед установкой. Впрочем, ЕСС на домашний сервер я в итоге воткнул — но только потому, что недорого попалось 64 гига подходящей.
А так — данные же на сервере только хранятся. А обрабатываются они на других компьютерах, где обычная память, обычные файловые системы — и если они будут испорчены там, то сервер про это и не узнает.
А у вас btrfs на чём крутится?
У меня unraid стоит, там базовый массив вообще на xfs, а btrfs они используют под диски кэша, куда активная запись идёт. Там обычно живёт кэш записи массива, рабочие файлы виртуалок и докеров и т.п.
У меня пару лет был btrfs. Ещё на предыдущей конфигурации сервера, RAID там был аппаратный, железо поскромнее, диски поменьше (8*1 Тб). Я читал, что btrfs не очень стабильна, но решил, что это всё в прошлом. И в один прекрасный день у меня без всяких внешних к тому причин запоролся раздел на 4 Тб. Все магические ритуалы, подсказанные гуглом, для его восстановления, провёл, понял, что если что и вытяну - но небыстро и не всё. Так что снёс я эту btrfs, докупил оперативки, отформатировал в ZFS и вытянул ~2 Тб из облака, благо всё, что было хоть минимально жалко потерять, туда дублировалось.
Если собирать NASподскажите доступное по цене решение, сравнимой компактности и функционалу?
иметь память с ECC
Судя по всему не желание делать ECC нормой на десктопных машинах (а это становится все актуальнее) имеет исключительно меркантильную цель — искусственное удержание серверных решений в дорогом сегменте. Это легко сделать, если производителей процессоров два с половиной.
Домашние серваки раньше можно было собирать на материнках класса Workstation и 5- летних б/у Xeon, которые совсем за философские цены появлялись на али после очередной волны апгрейдов «больших дядек». От всей этой ситуации у интел видимо знатно подгорело и в новых поколениях чипсетов они начисто выпилили поддержку ксеонов. Получается оригинально — вроде как Workstation само по себе позиционируется под тяжёлые задачи, но ECC теперь в ней нет)
Мой опыт-вибрацию создают кулеры, они же передают её на корпус и винчестеры, если жёстко прикручены к корпусу. Попались как-то резиновые крепления для кулеров, что-то вроде шпильки, котороая продевается в отверстие кулера и вставляется в соответствующее отверстие в корпусе, при этом кулер физически не касается корпуса.
И ещё. Нежелательно ставить корпус в воздухонепроницаемый шкаф, нужна вентиляция, иначе будет сильно греться.
Как раз приобретенные под замену стоковым кулеры DeepCool UF 120в комплекте идут с резиновыми шпильками. Пока решил прикрутить жестко, там посмотрим.
И ниша не совсем герметична. Она собрана без задней стенки и есть снизу зазор около 1 см, через который поступает воздух снизу. Также пока дверца всегда приоткрыта для выхода теплого воздуха. В будущем планирую в боковой стенке проделать отверстие именно под вентиляцию и установить на минимальных оборотах кулер 200х200 для отвода теплого воздуха. Так вся ниша будет как бы корпусом с принудительной вентиляцией.
Попробуйте поставить кулера на шпильки, разница должна быть заметна даже на слух. Важный момент-вибрация корпуса передаётся на винчестеры, в случае HDD там головки, ну вы понимаете. Не знаю почему винчестеры до сих пор кремят жёстко к корпусу, их бы тоже надо крепить на резиновые шпильки.
Принудительная-это хорошо, но можно и без неё обойтись, отверстий должно быть достаточно, конвекция будет работать.
В некоторых корпусах и винчестеры через резиновые шайбы-проставки к корзине крепятся (например, Define XL R2).
Другое дело, что не каждому сей корпус подойдёт, как по цене, так и по габаритам. Зато, да, он реально тихий и с кучей посадочных мест под винты.
В приличных корпусах диски ставились через резиновые шайбы уже лет 20 назад как минимум
На обоях будет чёрное пятно через некоторое время
Вот бы 2,5Gbps LAN - было бы супер.
Зато 4 по 2,5 стоит.
Вообще уже пора бы на 10 Гбит/с переползать, а то у меня уже WiFi (6) не быстрее провода только потому, что точка доступа сама подключена кабелем на скорости 1 Гбит/с. Но 10 Гбит/с как-то не спешат идти в народ, разрыв в ценах с обычным гигабитом пока очень серьёзный.
Посмотрите connect-x карты для машин. Tp-link 10G свич на Али. Уже ближе к народу, чем кажется.
Карты как раз наименьшая проблема...
Посмотрел на свитчи на Али. Сейчас у меня 28-портовый + 8 портовый + сервера напрямую в роутер подлючены, всё это забито уже под завязку. Прикинем, что мне надо купить на замену. Свитч на 16 портов SFP+ (больше не нашёл) - 53,5 т.₽. С оптимистичным описанием, мол прошивка только на китайском, но с гугл-транслейтом Вы разберётесь :) Плюс 16 собственно модулей SFP+ в него. Плюс ещё один свитч, у которого хотя бы 1 SFP+, а остальные порты 1G, чтобы подключить всякие камеры и пр, чему 10G не надо (или не хватило). Плюс роутер с как минимум 2 портами SFP+ и соответствующей производительностью, т.к. между VLAN'ами трафик пойдёт через него, и чтобы не потерять на этом все прелести 10G, линк между ним и свитчем должен быть хотя бы 20G. Ну это вот всё уже совсем не демократично получается.
А дальше совсем весело, потому что точек доступа, которые подключались бы на 10G, я не знаю вообще. Сейчас купил Unifi U6 Pro, пропускная способность в теории 5,6 Гбит/с, но подключение кабелем на 1G. Т.е. даже в самой идеальной картине два WiFi 6 устройства, расположенные прямо в упор рядом с точкой, будут только между собой резво общаться на скоростях более 1G (и то если им повезёт оказаться в одном VLAN, а домашняя сеть у меня изрядно сегментированная), а при доступе к проводному сегменту сети им достанется по 500M на нос.
Далее ноутбуки. Встроенный Ethernet (да, у меня он есть!) 2,5G. Док-станций, которые имели бы порт 10G, тоже как-то не нашёл (хотя в пропускную способность TB4 укладываемся, но уже конкурируем за неё с мониторами).
Про медиаприставки даже не говорю. Ну им, ладно, в 1G не уложиться надо постараться (даже видео 8k 60fps, вроде, проходит с запасом).
В общем, как-то, во-первых, всё равно дорого. Во-вторых, всю инфраструктуру на 10G не переведёшь, а вложить кучу денег, чтобы всё всё равно упёрлось в "последнюю милю" - так себе идея.
P.S. И это ещё я совсем не уверен, что 10G по меди, разведённые по всему дому, вот так без проблем заведутся и заработают на 10G. Там, насколько я понимаю, к помехозащищённости требования на порядок строже, чем у 1G. А разводить оптику - это надо или покупать сварочник и все прибамбасы к нему (ещё за такие же деньги, как всё перечисленное в начале), или постоянно нанимать сторонних ребят (вероятно, дешевле, но больше мороки).
Так сколько реально вам 10G портов то надо? 7 не хватит? Если хватит - то TP-link
Если нужен аплинк с более чем 10G то смотрите старенькие аристы свичи.
С оптоволокном проблем нет - покупаете претерминированные LC-LC патчкорды и растягиваете их по дому. Если супер красиво нужно, то растягиваются до розеток, в которые ставите coupler-ы.
Всё что близко к свичу - не нуждается в оптике - подключайте DAC-кабелями.
Выбор точки не удачен, лучше бы с портом 2,5G. 10G порт легко снабжается медным трансивером 2,5G и будет ок.
Свич с 24портами 1G и 2х10G - CRS326-24G-2S+
10G по меди, если не превышено 30м длины - будет ок, но дороже оптики
7 не хватит, 16 хватит. Но, повторюсь, купить придётся минимум 3 железки: свитч 10G, свитч 10G/1G (и с PoE на 1G портах), роутер с 10G. Дорого :(
Готовые оптические патч-корды я один раз протянул на второй этаж (между свитчами), больше повторять не хочу :) Ну это специфика моих коммуникаций, пропихивание коннекторов в длинную гофру... По этой же причине сомневаюсь в том, что взлетит 10G по меди, много где прямо рядом с силовыми проводами проложено, 1G-то терпит...
Точка доступа с 2.5G - а подскажите модель? Их в целом-то не то, чтобы огромный выбор с WiFi 6, микротики вон не разродились до сих пор.
P.S. Ну и в целом, я перевод своего дома на 10G пока рассматриваю чисто теоретически. Добраться бы для начала до того дома... А разговор-то начался с того, что 10G пока не очень демократично по цене, ну вот я на своём примере (где точно 1G уже кое-где стал узким местом) и прикинул порядок цен... На фоне микрота 3011 и пары длинковских 1G свитчей, которые там стоят сейчас, - это в разы дороже, как ни крути
Остальным же 10 гигабит не нужно, обойдутся и гигабитом.
Ещё бы интернет гигабитный кто провёл… Но более-менее согласны были только МТС, с абоненткой в 25 тысяч в месяц.
Тогда, думаю, нужно идти по пути наименьшего сопротивления, и переходить на 2,5G. Если нужно.
А разводить оптику - это надо или покупать сварочник и все прибамбасы к нему (ещё за такие же деньги, как всё перечисленное в начале)
Ну, положим, такими же деньгами ограничиться точно не удастся. Дорогое это удовольствие. Не говоря о том, что на этом оборудовании работать надо уметь. А вот пригласить в частном порядке, через Авито, к себе домой монтажника от провайдера на час с оборудованием - это и несложно и недорого.
постоянно нанимать сторонних ребят (вероятно, дешевле, но больше мороки).
Много раз в доме сеть перекладывали? Даже если раз в год - ни о чем.
Идея хороша, если надо сделать что-то серьезное, но с ограниченным бюджетом. Скажем, массив на 8-12 дисков. Или очень хочется большой объем, но топовые диски без черепичной записи - очень дорогие. Если же нужно 2-4 диска, хранить фотки и фильмы - проще купить 5-7- летний системный блок с 4 SATA разъемами на Авито, поменять вентиляторы и БП на новые от BeQuiet и проделать все те же манипуляции по снижению вибрации. По деньгам разницы особой не будет, большинство денег тратится на диски.
Зачем подключать НАС к интернету? Поймать какую-нибудь гадость?
Немного фото BIOSЭто же старый добрый Американ Мегатрнедс. У них и ищите мануал
По итогу размышлений и проектирования во Fusion360 родилась такая модельПо виду, туда можно просто поставить 12см кулер плашмя. Нагрузки нет, свинчивать незачем
GPIO: Поддержка 8 GPIO
А как получить доступ к этим портам? Драйвер? API?
Совсем недавно вышла статья DIY NAS: 2023 Edition
И там тоже используется похожая материнская плата…
P.S. А есть информация о расстоянии между отверстиями для крепления радиатора?
Размер проприетарный или какой-то стандарт?
Собираем NAS на базе китайской материнской платы N5095 Nas Motherboard