Как стать автором
Обновить

Gigabyte представила похожий на видеокарту твердотельный накопитель объёмом 32 ТБ и со скоростью чтения 28 ГБ/с

Время на прочтение1 мин
Количество просмотров17K
Всего голосов 19: ↑17 и ↓2+15
Комментарии42

Комментарии 42

«похожий на видеокарту твердотельный накопитель»
очередное дно пробито.

Сейчас же вроде майнят на больших SSD, вот и получится похож: тоже будет не достать.

на HDD

НЛО прилетело и опубликовало эту надпись здесь

В чём дно?

Дна пока нет, ждём.

В комментариях к статье:)

Ждём статью, - "похожая на видеокарту твердотельная накопителя"

Если вы попытаетесь собрать накопитель на десятки ТБ с пропускной 28 ГБ/с, то вам потребуется порядка 200 штук жестких дисков 2,5". Потребление у них будет порядка 1...2 кВт и размер с серверную стойку.

Если конкретно вам такой девайс не нужен — это не значит, что он никому в мире не нужен.

И он действительно, по форм-фактору похож на видеокарту.

Единственный вопрос, работает ли оно с сторонним софтом, т.к. софт от гигабайтов это боль, страдания и печаль.

А ещё недавно вроде не было RAID для NVMe.

raid0 из m.2 накопителей. Ну и кому это чудо нужно с учетом, что люди не могут и один m.2 pcie накопитель забить работой на полную? raid10 еще куда ни шло. А сами накопители внутри тоже подозрительные. Как обычно, имеют SLC кэш и проседают по записи довольно быстро. Но в маркетинговых материалах пишут так же, что контроллер умеет использовать и SLC, и DRAM кэш. Вот с последним вопрос. При потере питания данные будут потеряны? На диске не видать конденсаторов больших как на серверных дисках.
Да нет с последним вопроса. Хватит любого упса, который умеет сообщать о своём состоянии, и, учитывая стоимость пепяки, такой упс могут выдавать в подарок.
Вообще, если б не майнеры, люто интересная штука. Вот у меня пет-проект крутится на подкроватном франкенштейне, и у него база (InnoDB) уже 1.5 Тб. Сейчас там пара промышленных SSD в raid1, которые стираются за пару лет каждый, т.е. раз в год один диск надо менять. И это стоит половину профита. Такой вот девайс весьма интересен, потому что он просто будет значительно дольше стираться из-за объёма и релокейтов. Вопрос в цене.

Что там так часто и быстро переписывается что нельзя хранить на обычных HDD?

UPS конечно хорошо. Даже два UPS и два БП в сервере.

Но даже это совершенно не исключает ситуации "выдернули провода питания после упса" (ну или умирание с коротышом любого соседнего устройства внутри сервера)

Для таких ситуаций давно уже производители RAID контроллеров предусматривают батарейки, которые позволяют после появления питания дозаписать контроллером еще не сброшенный кэш. Притом даже не в этом сервере, а грубо на стенде контроллер-диски.

Для вот таких вот интегрированных конструкций - наличие буферных емкостей/ионисторов - то что доктор прописал: все в одном и потребления скромнее.

Вот как раз вопрос есть. Упс, правильно настроить, а тут речь о рейде0 вообще. Это чудо развалится при первом же сбое.

Вот у меня пет-проект крутится на подкроватном франкенштейне, и у него база (InnoDB) уже 1.5 Тб. Сейчас там пара промышленных SSD в raid1, которые стираются за пару лет каждый, т.е. раз в год один диск надо менять

хм, а что в той базе вызывает такие объёмы записи? до сих пор не приходилось видеть серверных накопителей, вышедших из строя из-за исчерпания ресурса

Друг рассказывал что им пришлось однажды делать рейд из nvme чтоб выкачать какой-то полный блокчейн. У обычного ssd не хватало пропускной способности — сеть наполнялась быстрее.

Каким каналом друг был подключен к интернету?

Это был Сам Сатоси Накамото, на модеме 56k.

Друг какую-то ерунду рассказывал, похоже. Сеть — у них там 10гбит интернет? При том, что даже 10гбит не хватит, чтобы обычный pcie ssd не справился.

У нас на работе Samsung 970pro забиваются и скорости не хватает. Такая пепяка пришлась бы очень кстати.

Работа с графикой, вариантов куча - от батч обработки фотографий с лицевого 3д сканера (получаем все карты для PBR, не только диффуз - каждый скан по 200гб плюс под 1тб временных файлов) до банальной работы с DeepEXR в нюке (каждый КАДР отрендеренного материала в 3-5гб легко).

Что-то у меня есть сомнения, что скорости именно этого самсунга не хватает. Что у вас там за железо, что оно способно информацию обрабатывать на скорости в пару тройку гигабайт в секунду, на которые этот диск способен? Если серверное или это рабочая станция какая, то надо совсем не на такие штуки смотреть, которые в первую очередь делаются для геймеров, которым эта железка не нужна, но деньги на очередной девайс потратить хочется.
то надо совсем не на такие штуки смотреть, которые в первую очередь делаются для геймеров, которым эта железка не нужна, но деньги на очередной девайс потратить хочется.
Это логика не работает на примере тех же видеокарт. Огромное количество любителей и профессионалов занимаются 3D на потребительских картах, и функции профессиональных Quadro им не нужны. Профессиональное использование не обязывает к покупке профессионального железа за сотни нефти.
Лично мне такой диск бы пригодился для кешей Adobe Premiere и PNG\TIFF раскадровок 4К\8К видео. Желательно вместе. Но пока, вроде, справляется классический raid, без красивой коробочки в pci-e x16 слот.
Что-то у меня есть сомнения, что скорости именно этого самсунга не хватает.
Он может перегреваться и снижать скорость, и ему в этом поможет видеокарта или несколько, прямо над ним.
Он может перегреваться и снижать скорость, и ему в этом поможет видеокарта или несколько, прямо над ним.

А вы говорите не обязывает. В профессиональном железе диски не перегреваются, потому что там все рассчитано на длительные нагрузки всех компонентов, а не как повезет. Да и диски m.2 в серверных платформах используют в специфических условиях, т.к. они не могут себя эффективного охлаждать. Нужно pcie — для этого создан U.2.

Это логика не работает на примере тех же видеокарт

Не работает, только при чем тут видеокарты? Диски для домашнего пользования имеют аппаратные ограничения, которые касаются всех. Они не имеют набортных батарей/конденсаторов, чтобы при потере питания успеть сбросить данные на диск и ничего не повредить. m.2 формфактор неэффективен в плане охлаждения. Они практически все имеют кэш на запись и не способны выдавать заявленные скорости при постоянной нагрузке. 970 pro исключение, наверное последнее на рынке. Даже 980 pro угробили.

без красивой коробочки в pci-e x16 слот.

Именно. Эта коробочка скорее всего не более чем пустая плата с 4 слотами m.2, которых на рынке вагон. А рейд делается программно в любом случае, по-другому с pcie дисками нельзя. Так что мой совет, купите нормальный корпус и нормальные диски.
В профессиональном железе диски не перегреваются, потому что там все рассчитано на длительные нагрузки всех компонентов, а не как повезет
В профессиональном железе обычно и стабильность скорости важнее пиковых ее значений. Я в руках не держал ни разу серверные диски, окромя одного SATA DC Intel, но я не уверен, что 4 u.2 можно разогнать до заявленных тут 28ГБ\с.
Они не имеют набортных батарей/конденсаторов, чтобы при потере питания успеть сбросить данные на диск и ничего не повредить.
По необходимости такое решается как раз отдельными контроллерами, сам диск не обязан иметь подобной защиты. И поскольку не нужна та же стабильность, что и у сервера, то покрытия ИБП скорее всего хватит.
m.2 формфактор неэффективен в плане охлаждения.
Вот тут мы видим попытку от него отойти в потребительском сегменте.
Они практически все имеют кэш на запись и не способны выдавать заявленные скорости при постоянной нагрузке.
В случае с raid-0 можно собрать массив из более медленных дисков, но со стабильной скоростью.
Эта коробочка скорее всего не более чем пустая плата с 4 слотами m.2, которых на рынке вагон.
Да, она и есть, плюс вентилятор и сомнительный софт. В идеале конечно туда не хватает батареи. Смысла будет больше.
Так что мой совет, купите нормальный корпус и нормальные диски.
А тут что выходит: если брать отдельные диски, то нужны pci-e слоты. Это HEDT как минимум, а то глядишь и на серверные сокеты придется заглядываться со всеми вытекающими проблемами. Кроме того, оба варианта проигрывают по однопотоку классическим системам, где-то это важно. И тут выходит, что чтобы воткнуть кучу дисков, нужно потерять однопоточную производительность и еще за это доплатить. Очень сомнительная плата за диски с батарейками.
Альтернатива: один диск в pci-e слот, но такая махина будет стоит скорее всего дороже всей остальной системы. Я даже не знаю, там что-то нынче по pci-e x16 разгоняется до 28 ГБ\с? И сколько оно стоит? Миллион?
Остро стоит вопрос: за что? Зачем? Чтобы было «профессионально»?
Если у меня raid-0 развалится, я его пересоберу на 3 дисках и не замечу скорее всего (если там только кеш на данный момент), ну максимум день работы потеряю (если там раскадровки), в худшем случае. Лично мой день работы не стоит ни миллиона, ни половины, ни даже 100 тысяч, признаюсь. Поэтому не понимаю такого желания впихнуть «профессиональное» только чтобы было.

Справедливости ради нужно сказать что Gigabyte несет в масссы такие системы уже очень давно.
Еще во врмена DDR2 у них были карты с внешними батарейками которые втыкались в PCI для тайминга, а SATA выдавали в отдельный разъем. Я собирал на таких для графических станций системы.

Так то я рад что тему не забросили, хотя и боялся что SSD может это направление убить. Иногда такая критическая производительность действительно нужна и хорошо что для этого не нужно покупать SAN и pizza box на опертивке сегодня.

НЛО прилетело и опубликовало эту надпись здесь

"Отсутствие дросселирования", srsly tho? Если не хотите использовать кальку-неологизм "троттлинг", то можно хотя бы "отсутствие задержек" написать.

НЛО прилетело и опубликовало эту надпись здесь

Если у меня все верно с математикой, то получается PCI-E x16/8ssd = PCI-E x2(исходно у ssd x4), и я так и не понял там стоит NVME/RAID контроллер или? Ничего удивительного в устройстве нет, просто много SSD с общим охладом и существуют они давно... А пассивные адаптеры вообще не зависят ни от объёма, ни от стандарта PCI-e, да и ничего не мешает засунуть туда(в пассивный адаптер) 4 такие ssd и результат думаю норм будет. Да и при долгой роботе 28Гбайт/с не будет скорость... Маркетологи! 10датчиков температуры это 8 ССД по Заводу + 2 для регулировки оборотов вентиляторов. Охлад как я вижу дешёвый алюминий а ведь в пике там 50Вт+ тепла... Больше инфы о HW составляющей нужно

Да скорее всего примитивная плата с 4 m.2 слотами и может pcie свитчом, чтобы pcie bifurcation не нужно было. Вопрос только с этим рейдом, но наверное он делается программно. Аппаратные рейды такие скорости не тянут. 28гбайт чтения оно может потянет, если охлада хватит, а вот 26гбайт записи точно нет — просядет на таких скоростях моментально, когда кэш кончится. Диски там внутри обычные домашние.
Это получается скорость хорошей DDR2 памяти или средней DDR3, можно использовать как swap огромный, очень выгодно

А что с ресурсом?
А то Apple уже использовала свап-на-ssd-почаще на M1 и привет ресурс тех ssd.

А чей-то девайс на M1 уже умер? Может быть есть ссылочка?

Не умер. Просто статистика смарт по расходу ресурса и tbw, и расход там большой
(хотя вроде бы недавно пофиксили совсем уж зверство + и раньше оно было не на всех машинах и не на всем ПО)

Судя по программе для управления накопителем, он рассчитан на винду? Не вижу логики. Такой накопитель вряд ли нужен бизнес-пользователю с экселем и вордом, его имеет смысл использовать на серверах для обработки больших массивов данных, для больших баз данных, а там обычно Линукс используется. Нужно делать не это виндоподелие, а интерфейс командной строки.

его имеет смысл использовать на серверах для обработки больших массивов данных, для больших баз данных

Это продукт для домашнего пользования, состоящий из компонентов домашнего уровня. В серверы нормальные люди такое железо не ставят.
Софт и завязка на винду действительно странные, но рабочие задачи под виндой (очевидно) не ограничиваются вордом и экселем.

На этой штуке можно будет Signum хорошо майнить. =)

ASUS Hyper M.2 X16 PCIe 3.0 X4

ASRock Ultra Quad M.2 Card

и китайский JEYI iHyper-Pro m.2 X16 на 4X NVME PCIE3.0 GEN3 X16 на известном сайте

Главное, чтобы мать умела бифуркацию слота pci-e x16.

Пользуют для zfs raid10\raid0 на Proxmox VE https://forum.netgate.com/topic/163435/proxmox-ceph-zfs-pfsense-%D0%B8-%D0%B2%D1%81%D0%B5-%D0%B2%D1%81%D0%B5-%D0%B2%D1%81%D0%B5-%D1%87%D0%B0%D1%81%D1%82%D1%8C-2

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории