Комментарии 42
очередное дно пробито.
Сейчас же вроде майнят на больших SSD, вот и получится похож: тоже будет не достать.
В чём дно?
Ждём статью, - "похожая на видеокарту твердотельная накопителя"
Если конкретно вам такой девайс не нужен — это не значит, что он никому в мире не нужен.
И он действительно, по форм-фактору похож на видеокарту.
А ещё недавно вроде не было RAID для NVMe.
Вообще, если б не майнеры, люто интересная штука. Вот у меня пет-проект крутится на подкроватном франкенштейне, и у него база (InnoDB) уже 1.5 Тб. Сейчас там пара промышленных SSD в raid1, которые стираются за пару лет каждый, т.е. раз в год один диск надо менять. И это стоит половину профита. Такой вот девайс весьма интересен, потому что он просто будет значительно дольше стираться из-за объёма и релокейтов. Вопрос в цене.
Что там так часто и быстро переписывается что нельзя хранить на обычных HDD?
del
UPS конечно хорошо. Даже два UPS и два БП в сервере.
Но даже это совершенно не исключает ситуации "выдернули провода питания после упса" (ну или умирание с коротышом любого соседнего устройства внутри сервера)
Для таких ситуаций давно уже производители RAID контроллеров предусматривают батарейки, которые позволяют после появления питания дозаписать контроллером еще не сброшенный кэш. Притом даже не в этом сервере, а грубо на стенде контроллер-диски.
Для вот таких вот интегрированных конструкций - наличие буферных емкостей/ионисторов - то что доктор прописал: все в одном и потребления скромнее.
Вот у меня пет-проект крутится на подкроватном франкенштейне, и у него база (InnoDB) уже 1.5 Тб. Сейчас там пара промышленных SSD в raid1, которые стираются за пару лет каждый, т.е. раз в год один диск надо менять
хм, а что в той базе вызывает такие объёмы записи? до сих пор не приходилось видеть серверных накопителей, вышедших из строя из-за исчерпания ресурса
Друг рассказывал что им пришлось однажды делать рейд из nvme чтоб выкачать какой-то полный блокчейн. У обычного ssd не хватало пропускной способности — сеть наполнялась быстрее.
У нас на работе Samsung 970pro забиваются и скорости не хватает. Такая пепяка пришлась бы очень кстати.
Работа с графикой, вариантов куча - от батч обработки фотографий с лицевого 3д сканера (получаем все карты для PBR, не только диффуз - каждый скан по 200гб плюс под 1тб временных файлов) до банальной работы с DeepEXR в нюке (каждый КАДР отрендеренного материала в 3-5гб легко).
то надо совсем не на такие штуки смотреть, которые в первую очередь делаются для геймеров, которым эта железка не нужна, но деньги на очередной девайс потратить хочется.Это логика не работает на примере тех же видеокарт. Огромное количество любителей и профессионалов занимаются 3D на потребительских картах, и функции профессиональных Quadro им не нужны. Профессиональное использование не обязывает к покупке профессионального железа за сотни нефти.
Лично мне такой диск бы пригодился для кешей Adobe Premiere и PNG\TIFF раскадровок 4К\8К видео. Желательно вместе. Но пока, вроде, справляется классический raid, без красивой коробочки в pci-e x16 слот.
Что-то у меня есть сомнения, что скорости именно этого самсунга не хватает.Он может перегреваться и снижать скорость, и ему в этом поможет видеокарта или несколько, прямо над ним.
Он может перегреваться и снижать скорость, и ему в этом поможет видеокарта или несколько, прямо над ним.
А вы говорите не обязывает. В профессиональном железе диски не перегреваются, потому что там все рассчитано на длительные нагрузки всех компонентов, а не как повезет. Да и диски m.2 в серверных платформах используют в специфических условиях, т.к. они не могут себя эффективного охлаждать. Нужно pcie — для этого создан U.2.
Это логика не работает на примере тех же видеокарт
Не работает, только при чем тут видеокарты? Диски для домашнего пользования имеют аппаратные ограничения, которые касаются всех. Они не имеют набортных батарей/конденсаторов, чтобы при потере питания успеть сбросить данные на диск и ничего не повредить. m.2 формфактор неэффективен в плане охлаждения. Они практически все имеют кэш на запись и не способны выдавать заявленные скорости при постоянной нагрузке. 970 pro исключение, наверное последнее на рынке. Даже 980 pro угробили.
без красивой коробочки в pci-e x16 слот.
Именно. Эта коробочка скорее всего не более чем пустая плата с 4 слотами m.2, которых на рынке вагон. А рейд делается программно в любом случае, по-другому с pcie дисками нельзя. Так что мой совет, купите нормальный корпус и нормальные диски.
В профессиональном железе диски не перегреваются, потому что там все рассчитано на длительные нагрузки всех компонентов, а не как повезетВ профессиональном железе обычно и стабильность скорости важнее пиковых ее значений. Я в руках не держал ни разу серверные диски, окромя одного SATA DC Intel, но я не уверен, что 4 u.2 можно разогнать до заявленных тут 28ГБ\с.
Они не имеют набортных батарей/конденсаторов, чтобы при потере питания успеть сбросить данные на диск и ничего не повредить.По необходимости такое решается как раз отдельными контроллерами, сам диск не обязан иметь подобной защиты. И поскольку не нужна та же стабильность, что и у сервера, то покрытия ИБП скорее всего хватит.
m.2 формфактор неэффективен в плане охлаждения.Вот тут мы видим попытку от него отойти в потребительском сегменте.
Они практически все имеют кэш на запись и не способны выдавать заявленные скорости при постоянной нагрузке.В случае с raid-0 можно собрать массив из более медленных дисков, но со стабильной скоростью.
Эта коробочка скорее всего не более чем пустая плата с 4 слотами m.2, которых на рынке вагон.Да, она и есть, плюс вентилятор и сомнительный софт. В идеале конечно туда не хватает батареи. Смысла будет больше.
Так что мой совет, купите нормальный корпус и нормальные диски.А тут что выходит: если брать отдельные диски, то нужны pci-e слоты. Это HEDT как минимум, а то глядишь и на серверные сокеты придется заглядываться со всеми вытекающими проблемами. Кроме того, оба варианта проигрывают по однопотоку классическим системам, где-то это важно. И тут выходит, что чтобы воткнуть кучу дисков, нужно потерять однопоточную производительность и еще за это доплатить. Очень сомнительная плата за диски с батарейками.
Альтернатива: один диск в pci-e слот, но такая махина будет стоит скорее всего дороже всей остальной системы. Я даже не знаю, там что-то нынче по pci-e x16 разгоняется до 28 ГБ\с? И сколько оно стоит? Миллион?
Остро стоит вопрос: за что? Зачем? Чтобы было «профессионально»?
Если у меня raid-0 развалится, я его пересоберу на 3 дисках и не замечу скорее всего (если там только кеш на данный момент), ну максимум день работы потеряю (если там раскадровки), в худшем случае. Лично мой день работы не стоит ни миллиона, ни половины, ни даже 100 тысяч, признаюсь. Поэтому не понимаю такого желания впихнуть «профессиональное» только чтобы было.
Справедливости ради нужно сказать что Gigabyte несет в масссы такие системы уже очень давно.
Еще во врмена DDR2 у них были карты с внешними батарейками которые втыкались в PCI для тайминга, а SATA выдавали в отдельный разъем. Я собирал на таких для графических станций системы.
Так то я рад что тему не забросили, хотя и боялся что SSD может это направление убить. Иногда такая критическая производительность действительно нужна и хорошо что для этого не нужно покупать SAN и pizza box на опертивке сегодня.
"Отсутствие дросселирования", srsly tho? Если не хотите использовать кальку-неологизм "троттлинг", то можно хотя бы "отсутствие задержек" написать.
Если у меня все верно с математикой, то получается PCI-E x16/8ssd = PCI-E x2(исходно у ssd x4), и я так и не понял там стоит NVME/RAID контроллер или? Ничего удивительного в устройстве нет, просто много SSD с общим охладом и существуют они давно... А пассивные адаптеры вообще не зависят ни от объёма, ни от стандарта PCI-e, да и ничего не мешает засунуть туда(в пассивный адаптер) 4 такие ssd и результат думаю норм будет. Да и при долгой роботе 28Гбайт/с не будет скорость... Маркетологи! 10датчиков температуры это 8 ССД по Заводу + 2 для регулировки оборотов вентиляторов. Охлад как я вижу дешёвый алюминий а ведь в пике там 50Вт+ тепла... Больше инфы о HW составляющей нужно
Судя по программе для управления накопителем, он рассчитан на винду? Не вижу логики. Такой накопитель вряд ли нужен бизнес-пользователю с экселем и вордом, его имеет смысл использовать на серверах для обработки больших массивов данных, для больших баз данных, а там обычно Линукс используется. Нужно делать не это виндоподелие, а интерфейс командной строки.
его имеет смысл использовать на серверах для обработки больших массивов данных, для больших баз данных
Это продукт для домашнего пользования, состоящий из компонентов домашнего уровня. В серверы нормальные люди такое железо не ставят.
На этой штуке можно будет Signum хорошо майнить. =)
ASUS Hyper M.2 X16 PCIe 3.0 X4
ASRock Ultra Quad M.2 Card
и китайский JEYI iHyper-Pro m.2 X16 на 4X NVME PCIE3.0 GEN3 X16 на известном сайте
Главное, чтобы мать умела бифуркацию слота pci-e x16.
Пользуют для zfs raid10\raid0 на Proxmox VE https://forum.netgate.com/topic/163435/proxmox-ceph-zfs-pfsense-%D0%B8-%D0%B2%D1%81%D0%B5-%D0%B2%D1%81%D0%B5-%D0%B2%D1%81%D0%B5-%D1%87%D0%B0%D1%81%D1%82%D1%8C-2
Gigabyte представила похожий на видеокарту твердотельный накопитель объёмом 32 ТБ и со скоростью чтения 28 ГБ/с