Комментарии 225
Не просто для разработчика изделия, где этот слот стоит. Изволь вытянуть туда все интерфейсы, которые подразумевает данный ключ. Для реально мелкой электронники (карманной и меньше) — это уже проблема. Да и для ноута. Даже неработающий интерфейс снижает время автономной работы. А если сюда добавить еще и чехарду с длинной карт то становится совсем грустно.
Если карта влезает в слот — значит она работает.Есть m.2 без поддержки сата, есть m.2 без поддержки nvme.
Беда лишь в том, что производители не имеют права продавать автомобили без тормозов и поворотников.
Впрочем, впрочем…
5.3. SSD Socket; Socket 3 (Mechanical Key M)
This Socket pinout and key are only intended for SSD devices. The Host I/Fs supported are PCIe with up to four lanes or SATA. The state of the PEDET pin (69) will indicate to the platform which I/F of these two is actually connected.
Но именно это и требует того, чтоб система могла поддерживать ОБА интерфейса и переключаться между ними в зависимости от воткнутой карты.
Аналогично для
5.2.2. Socket 2 Pin-Out (Mechanical Key B) On Platform
…
— WWAN can make use of USB2.0, USB3.0, PCIe (up to two Lanes), or SSIC host I/Fs. The actual implemented I/F is identified through the Configuration pins state (1 of 16 states) on the Module side...
Вот они 16 вариантов. Но опять — хост должен уметь все. И решать который нужен исключительно в зависимости от воткнутой карты.
Из этой канвы выбивается только Socket 1. Вот у него
I2C (or USB or UART(2))
…
(2) Function to Host I/F allocation is a preferred example. Alternative function to Host I/F allocations are possible if using the Host I/Fs supported in the pin-out and in agreement between Customer <-> Vendor
А то, что Microstar позволяет себе вольно относится к реализуемым спецификациям… Одна из причин, по которым я отдаю предпочтение другим производителям. Если есть хоть малейшая возможность так сделать.
Я в общем-то не сомневаюсь, что из-за мультиплексирования использовать одновременно все возможные интерфейсы не получится. Но и требования их обязательного наличия из приведенных цитат все же не следует.
Ну ок, «can make use» можно посчитать, что хост должен предоставить любой из упомянутых.
Тут (в цитатах) нет ни про «обязаны», ни про «AND». Вы можете получить яблоко или грушу, в зависимости от цвета предъявленной карточки. Но груш нет. Если на синюю карточку выдать яблоки, это нарушение правил. Будет ли нарушением не выдать грушу — не понятно.
Если требуется, что в зависимости от цвета предъявляемой посетителей карточки вы обязаны ему отдать или яблоко (если красная) или грушу (если синяя).Не видим что бы это можно было так перевести.
Если совсем упростить. Охранник (м.2) поддерживает проезд (работу) синих (пси) ИЛИ белых (сата) машин. С помощью глаз (пина 69) он может определить цвет подъехавшей машины.
Тут нет обязанности поддерживать проезд тех и других машин. Тут нет обязанности пропускать машины обоих цветов.
Более того, чисто по фразе которую Вы отквотили, скорее можно сделать вывод, что реализация должна быть только одного из интерфейсов, т.к. там не сказано or/and, там четко сказано or. Но этот нюанс может зависеть от контекста.
В контексте разработки электроники, а равно реализации стандартов, обычно ВЕСЬ заявленный функционал должен быть выполнен. Если только в тексте четко и не двухсмысленно не написано — реализация того или другого не обязательна и выполняется по согласованию. В случае с PCIe я такое видел только про Soсket 1 и интерфейсы I2C/USB/UART. Так что считал и считаю что переходники типа выложенного, слоты с урезанной функциональностью (пусть об этом и написано в инструкции) — это приколы вендоров. И, по большому счету, даже маркироваться «PCI Express M.2» не имеет права, а должна представляться в каком-нить достапамятном стиле «abibus», «nice» или тому подобном.
По сути появление (и активное использование) таких переходников и слотов в пользовательской электронике говорит лишь о том, что разработчики спецификации перестарались. Как в свое время перестарались разработчики USB сказав, что до энумерации устройство может потреблять не более 10mA. И только после — до 500. Те, кто этому четко соответствовал не работают практически ни с одним устройством. Но при этом требование это в 2.0 вроде фигурирует. По PCIe ситуация дурная. По спецификации всегда работает ОДИН интерфейс, но никто не знает какой именно из ДВУХ будет задействован в следующий момент (или при следующем включении). В итоге хост просто обязывают поддерживать оба (или превращаться в китайские часы — там стрелки тоже ничего не ломают, но абсолютно бесполезны). С другой стороны, плодить еще один ключ идея так себе. Потому выбор переложили на пользователя. Хочешь — бери дорого и правильно, не хочешь — есть дешевле, но с оговорками. Раз пользователь выбирает дешевое — значит оно было востребовано больше.
С моей позиции вопрос денег вторичен. Мне не нравится тот факт, что я вынужден резервировать место и питание под неиспользуемый интерфейс. А у меня батарейка. И ограниченные габариты. И масса. Хуже того — в моем случае гарантированно не используемый, ибо изделие под пломбой и вскрытию после сборки не подлежит. Но писать в своей документации «только SATA» или «только PCIe» (а равно создавать сложности закупщикам накопителей) кажется неправильным.
Теперь я наконец понял как появляются китайские кварцевые часы с десятью стрелками.В нашей трактовке написанного лишних стрелок как раз не было бы.
А вот в Вашей трактовке получился бы телефон с 5 симками и телевизором и радио и перцовым баллончиком, потому что в спецификации было указано «или 4 доп. сим слота или телевизор или радио или баллончик»:)
В контексте разработки электроники, а равно реализации стандартов, обычно ВЕСЬ заявленный функционал должен быть выполнен.Апелляция к «обычно» когда есть четкая документация это подозрительно. А дальше что? Давайте реализуем 12в вместо 5в, т.к. обычно делали так?
Для чего вообще по Вашему в английском языке используется слово ИЛИ?
Еще пример попроще.
В ноутбук производитель может установить амд ИЛИ интел процессор, по спецификации. Тип слота на мат. плате указывает какой ставить. :- полная аналогия того, что написано в спеках тут.
И тут приходит разработчик, видит два ключевика — интел и амд и реализует установку туда ОБОИХ процессоров потому что ОБЫЧНО он реализовывал ВЕСЬ заявленный функционал, не обращая внимания на синтаксические конструкции в которых тот упомянут, в частности слово «ИЛИ»:)
В спецификации четко написано — на контакт разъема ДОЛЖНЫ быть выведены интерфейсы PCIe (up to 4 lanes) и SATA. При этом SATA и PCIe lane 1 выводятся на одни и те же контакты, а с каким конкретно интерфейсом работать решает карта и о своем решение сигнализирует используя контакт PEDET. Но о каком ИЛИ там речи нет. Хост ОБЯЗАН поддерживать оба интерфейса. А вот конкретная карта по (понятным причинам) может ИЛИ один ИЛИ другой интерфейс. И соответственно хост с конкретной картой работает ИЛИ одним ИЛИ другим интерфейсом. Если производитель не выводит оба интерфейса на разъем он однозначно и сознательно нарушает требование спецификации.
Если Вас устраивает покупать продукцию такого производителя — да на здоровье. Это Ваш выбор. Только не надо винить в своих проблемах авторов спецификации. Они как раз сделали все, чтоб ЛЮБАЯ карта (соответствующая спецификации) с нужными ключами работала в ЛЮБОМ (соответствующем спецификации) хосте. Если карта или хост не соответствуют спецификации, то это проблема карты или хоста. И тех, кто СОЗНАТЕЛЬНО производит (и покупает) не соответствующее стандартам оборудование.
К слову, спецификация довольно легко гуглится и находится. Не самая актуальная, но тем не менее вполне соответствующая реальному состоянию.
спецификации четко написано — на контакт разъема ДОЛЖНЫ быть выведены интерфейсы PCIe (up to 4 lanes) и SATA.Вы в ходе обсуждения привели цитату из спецификации
Но о каком ИЛИ там речи нет.
The Host I/Fs supported are PCIe with up to four lanes or SATA
Никаких других цитат из спецификации относящихся к именно этому вопросу Вы не приводили.
Авторы спецификации заботились о пользователях, производители плат о прибыли. Производители накопителей порадовались возможности писать крупно FAST M.2 NGFF SSD мелки шрифтом дописывая, что вот этот экземпляр — он SATA и FAST только в сравнении с вращающимися дисками. Тем более, что по сути это решение уже присутствовало на рынке в виде mSATA. Тут производители плат сообразили, что два M.2 лучше чем один, так почему не воспользоваться этим? Попутно родился класс эникейщиков, которые успешно разрешаю проблему пользователей «хочу быструю систему, но боюсь покупать. Дорого — а вдруг не подойдет» за мзду небольшую.
И всех такой расклад устраивает. Вон в комментах ропчут на авторов спецификации — мол не хорошие люди, не могли по людски сделать. Только они-то совершенно не при делах. ОНи все сделали правильно. Правда, судя по всему, слишком сложно. По мне нужны были три ключа — для SATA, для PCIe и для Wireless/GNSS/Other. При чем первые два могли быть комбинированнными.
Потому я воздержусь от обобщений и резких высказываний.
В ноутбук производитель может установить амд ИЛИ интел процессор, по спецификации. Тип слота на мат. плате указывает какой ставить. :- полная аналогия того, что написано в спеках тут.
И тут приходит разработчик, видит два ключевика — интел и амд и реализует установку туда ОБОИХ процессоров
Внезапно вспоминается что было время когда можно было поставить в обычный стандартный Socket 7 или интел или амд (или вообще Cyrix и прочие WinChip), это потом начали городить свои сокеты.
писать в своей документации «только SATA» или «только PCIe» (а равно создавать сложности закупщикам накопителей) кажется неправильным.В спецификации написано «The Host I/Fs supported are PCIe with up to four lanes or SATA.», вот Вы и реализуете «сата или пси».
Если бы было написано «The Host I/Fs supported are PCIe with up to four lanes and SATA. » тогда надо было бы поддерживать оба.
В спецификации написано «The Host I/Fs supported are PCIe with up to four lanes or SATA.», вот Вы и реализуете «сата или пси».
И все четыре линии PCI, ни одной меньше, ведь в спеке есть цифра 4, остальное — детали. Простите что влез в вашу дискуссию и не удержался ;)
Вероятно Dell и Asus тоже не те ребята, как и Microstar, что у них только один слот m2, как правило, работает через sata, остальные — только с накопителями nvme. Даже если, в спецификации было написано иное, хотелось-бы увидеть поддержку на таком уровне для потребителей, которой нет.
Тогда о чём мы спорим?)
По хорошему, тут на плате должен быть PCIe хаб и мост PCIe-SATA. Так того требует спецификация.
То, что данное творение китайско-индусской братии спецификации не соответствует это проблема творения, а не спецификации.
Я сейчас разрабатываю изделие и серьезно думаю на тему использования этого форм-фактора. Вы не представляете как силен соблазн пойти этим путем. Но умение читать спецификацию целиком, а не выборочно (где тебе выгодно) и есть главное отличие инженера от халтурщика-самодельщика. Программмистов, к слову, тоже касается.
Знакомый как раз недавно вообще умудрился вставить обратной стороной новенький M.2 NVMe накопитель в старый USB-M.2 SATA переходник, не заподозрив ничего странного — сказал «было туговато, ну он же новый». Фото показывал, беглым взглядом и не заметно, но присмотревшись видно что вырез под ключ тесно прижат к выступу одной стороной, а с другой — зазор.
через 50 лет переполнение счётчика секунд.
Какие 50 лет? Ближайший конец света на январь 2038 года назначен (https://en.wikipedia.org/wiki/Year_2038_problem)
Ближайший конец света на январь 2038 года назначен
А с 2031 уже все хорошо, проблему решили?
(закрывая книгу Excel)
На этот баг натыкался, в гугловом продукте. Из-за бага время жизни кэша устанавливалось до 2038 года. По итогу падали все приложения которые пытались залезть в кэш(который теоретически раздельный, но видимо внутри общий)
Я всё никак не доберусь до оптанов, но на топовых NVME ситуация крайне любопытная. Они делают производительность реально на грани возможностей процессора/памяти по обработки их, и выглядят как сказка.
Но! В среднем. На nvme всё равно можно словить медленную запись в десятки милисекунд. Ситуация стала сильно лучше по сравнению с тем, что было 4 года назад (когда я бодался с одним вендором за пиковые задержки в 1500мс+), но это всё равно не оперативная память по производительности.
Ну и износ, помните про него.
Ну и износ, помните про него.
В чисто бытовых условиях я тоже в свое время боялся износа, и купив 256Гб SSD, решил, что максимально обезопашу его от "лишней" записи. Обезопасил. Теперь на дворе 2021 год, мой SSD за 10 лет выработал 10% ресурса по SMART, но 256Гб SSD в 2021 году уже и не настолько и нужен. Удобнее купить хотя бы терабайтный.
И я вот сижу и думаю — много бы для меня поменялось, если бы он выработал 50% ресурса, а не 10%? Да и то, даже по пессимистичным прикидкам, 50% он едва ли бы выработал, скорее около 30%.
Вы пропускаете заголовок. С точки устройства хранения ресурс не является критическим. Однако, если вы начнёте использовать SSD (в любом формате) как замену памяти, то все ресурсы устройства испарятся в единицы недель. Вы просто не представляете себе интенсивность обмена данными между оперативной памятью и процессором — там речь идёт о десятках гигабайтов в секунду. Каждую секунду, когда процессор занят. Такая нагрузка снесёт ресурс даже SLC, не говоря про TLC/QLC.
Латентность DRAM — порядка 10 нс. Латентность доступа к памяти в процессорах — порядка 70 нс. Мне кажется, узким местом здесь является не DRAM как технология, а процессорная архитектура.
А процессору — ещё кучу кэшей надо проверить, прежде чем в память полезть.
10нс — это в какой ситуации? Там же тайминги «чуть» сложнее.
CAS Latency как основной тайминг — время между передачей памяти команды на чтение и получением первого бита.
А процессору — ещё кучу кэшей надо проверить, прежде чем в память полезть.
Вот именно. Поэтому вклад латентности DRAM в общую латентность доступа к памяти не так уж и велик.
Да, если открыта. Иначе добавляется ещё столько же времени на активацию строки. Все равно это суммарно меньше, чем полное время задержки доступа к памяти со стороны процессора.
Тем не менее, говорить про «лучший случай когда страница уже открыта» — неправильно. Когда говорят про HDD, почему-то всегда оценивают в предположении, что ему ещё оборот вертеться и головку через всю поверхность переносить. Так и латентность DRAM нужно вычислять в предположении, что страница нужная не открыта. И никак вы меньше 50 нс на практике не получите.
Ну вот почему у Intel задержка доступа к памяти ~50 нс, а у AMD порядка ~70 нс? Куда эти 20 мс теряются?
Отмечу также, что есть ещё HBM, GDDR — это всё та же DRAM, то почему-то более эффективная для определённых задач.
Куда эти 20 мс теряются?
На infinity fabric и общение с IO ядром. У АМД другой интерконнект со своими преимуществами и недостатками.
Но эти внутренние задержки никуда не денутся, даже если задержка самой памяти будет нулевой.
Для нынешних SMP архитектур прироста в десятки раз не будет, особенно с тенденцией к росту числа процессорных ядер. Доступ к общей памяти не очень хорошо масштабируется, и при росте нагрузки задержки будут увеличиваться (loaded latency).
Память в любом случае во многие разы медленнее, чем обращение к кэшам.
Обращение к L3-кэшу — порядка 40 циклов (Intel, AMD). Это около 8–10 нс. Ускорения в разы добиться, в принципе, можно, в десятки раз — уже нет.
Латентность DRAM — порядка 10 нс.
Лучшее время переключения на другую строку на DDR4 — 37.5 нс. У "бюджетных" модулей сильно больше. По DDR5 данных нет, но улучшений там вроде не обещали.
Следующее поколение за MLC какое было? TLC. А за TLC какое было? QLC. А за QLC, видимо, PLC, которое даст 20% прироста ёмкости, но снизит надёжность.
Если вы предполагаете, что надёжность будут увеличивать — это интересная гипотеза, требующая основательных доказательств.
архивное хранение
Архивное хранение на SSD? Проще сразу удалить файлы, заодно и сэкономить на диске.
Архивное хранение может быть и на внешнем диске. Не будет успевать он регенерировать ячейки за то короткое время, которое он подключен к питанию.
Использую массив QLC SSD в качестве последнего слоя для хранения холодных данных. А перед ним небольшой массив быстрых SSD в качестве кэша с очень сильно отложенной записью на QLC.
Раньше вместо QLC использовались 2.5" HDD. С тех пор, как заменил на SSD (год назад), — ни одного отказа или URE, а ресурса записи QLC хватит «лет на 100».
Быстрые SSD с большим ресурсом записи на MLC/TLC, которые используются в качестве горячего кэша, — летят гораздо быстрее. Их лет на 10 хватит по расчетам, не больше.
flash просто должен стать еще одним уровнем кэша.
В чисто бытовых условиях я тоже в свое время боялся износа, и купив 256Гб SSD, решил, что максимально обезопашу его от «лишней» записи. Обезопасил. Теперь на дворе 2021 год, мой SSD за 10 лет выработал 10% ресурса по SMART, но 256Гб SSD в 2021 году уже и не настолько и нужен. Удобнее купить хотя бы терабайтный.
Кому как повезет.
У меня вышло из строя уже 4 штуки 256 Г SSD.
Не дешевые поделки, брендовые.
Эксплуатация обычная домашняя.
Дык скоропостижно померли или именно выработали ресурс?
Обычные HDD тоже прекрасно "внезапно" накрываются.
Дык скоропостижно померли или именно выработали ресурс?
Обычные HDD тоже прекрасно «внезапно» накрываются.
Никто не говорит, что они должны быть вечными.
2 года при обычном домашнем использовании — это как? Скоропостижно или выработали ресурс?
2 года при обычном домашнем использовании — это как? Скоропостижно или выработали ресурс?
Не знаю. Вы же в курсе, что SSD пишут в SMART-переменные, сколько там у них циклов записи прошло? И что любой приличный софт вам покажет, сколько % от заявленного производителем ресурса записи еще осталось? Что у вас показывал SMART перед тем, как оно померло?
Конкретно это обсуждается в ветке.
А не общую способность того или иного девайса жить.
Всё остальное решается использованием более качественных комплектующих. А ресурс ячеек нельзя изменить в рамках одной технологии.
"Более качественных комплектующих" — это каких? Я из этих соображений 8 лет назад не поскупился, купил один из самых дорогих на тот момент SSD от Intel. Год назад он просто взял и внезапно сдох, естественно сполной потерей данных. До момента подыхания всё было идеально, никаких нареканий на качество работы, смарт идеальный. А при следующем включении компа он просто не определился.
Мне, как пользоваиелю, абсолютно наплевать, где там у него какой ресурс выработался. Мне важно, что у меня были потеряны данные. При этом у меня подыхали ХДД два раза за мою жизнь, и оба раза без последствий, так как механика в них помирает постепенно, оставляя кучу времени на то, чтобы спокойно всё забэкапить. Вы можете сказать, что у ХДД тоже может внезапно сдохнуть контроллер. Но во-первых, мне такое ни разу не встречалось за два десятка лет и сотню ХДД, а во-вторых, в этом случае можно найти диск донор и переставить контроллер с него, даже самостоятельно. С ССД такой фокус не пройдёт.
К примеру, полное шифрование диска сильно увеличивает износ. Недавно при дешифровании (штатном, зная пароль) диск просто умерВот это, кстати, странно.
Т.к. вообще по идее современные диски всё время шифруются, просто если шифрование на них не включено, то это прозрачно происходит.
Поэтому непонятно зачем в принципе «перешифровывать» весь диск при включении или выключении шифрования.
Так что надо бекапы SSD делать. Восстановить данные не удастся, даже если получится считать микросхемы флеша — без контроллера там ничего не разберёшь.
Тем не менее, на интерфейс контроллер выдаёт «чистые» данные, про шифрование ни слова.
Существуют так называемые FDE (full disk encryption) носители, и HDD, и SSD, где, грубо говоря, ты можешь задавать ключ шифрования из ОС. Но это надо доверять производителю носителя, что там нет закладок, а это вопрос серьёзный, поэтому вменяемые люди используют шифрование средствами ОС.
Но это надо доверять производителю носителя, что там нет закладок, а это вопрос серьёзный, поэтому вменяемые люди используют шифрование средствами ОС.
Доверие ОС тоже вопрос весьма серьезный и неоднозначный.
Если 0 и 1 должны быть равновероятны в целях минимизации износа памяти, то зачем AES, если можно по очереди давать для xor-а, сначала 010101… а потом 101010…?
Это, к примеру, позволило бы восстановить данные с диска со сгоревшим контроллером
А именно AES видимо потому, что он весьма аппаратно эффективен и есть куча готовых IP блоков с его реализацией, да ещё часто владельцы IP сами и выпускают контроллеры (Intel).
Чета я не видел потребительских sed дисков… Может они конечно существуют, но в другой реальности…
Подскажите модель пожалуйста. Ибо сам интел пишет о том, что sed тока в линейке DC.
У меня такой: ark.intel.com/content/www/ru/ru/ark/products/75328/intel-ssd-530-series-180gb-2-5in-sata-6gb-s-20nm-mlc.html, шифрование есть.
Из потреба — самсунг 850 ево — потребней некуда habr.com/en/post/319054
К примеру, полное шифрование диска сильно увеличивает износ.
За счёт чего? С точки зрения накопителя абсолютно ничего не меняется, разве что записанные нули не будут таковыми — некоторые накопители используют это как хинт для трима, но если использовать трим то и это несущественно.
Если не скомпрометирован, то какой прок от смены пароля, получить ещё один образ мастер-ключа, теоретически увеличив шансы на взлом шифра, с которым сам зашифрован мастер-ключ, особенно если вдруг в шифре найдётся уязвимость типа такой?
Скорее всего он сдох по другим причинам, не связанных с шифрованием, потому что с точки зрения диска разницы нет, а VeraCrypt пишет ровно столько же данных сколько писалось бы без шифрования.
К тому же, по одному случаю судить несколько преждевременно.
Где запросто бывают терабайты записи в час — на 1 ноде/машине.
Говоря понятным для коллег языком — бывает не только 1 DWPD, а и 5, 10 и более. Ситуация «10 и более», понятно, требует решения и оптимизации как на уровне софта, так и на уровне железа.
В общем, проблема износа для NVMe SSD более чем актуальна — за счёт в разы бОльших скоростей неоптимальный код выжрет их ресурс во столько же раз быстрее, нежели аналогичный по ресурсу SATA/SAS SSD.
forums.unraid.net/bug-reports/stable-releases/683-docker-image-huge-amount-of-unnecessary-writes-on-cache-r733/?do=findComment&comment=11233
Ситуация стала сильно лучше
КМК в консьюмерском сегменте "лучше" закончилось в районе Samsung 970 Pro. Это был чуть ли не последний консьюмерский NVMe SSD на MLC, а нынче уже всё на TLC. PCIe 4.0 дает прирост, но скорость TLC его нивелирует.
Всё там нормально, буферизация и заточки под конкретные задачи позволяют эво+ к примеру часто быть быстрее прошки. Другое дело, я не могу себе представить, где дома такие скорости нужны — как минимум, помимо того, чтобы прочитать или записать надо с такой скоростью ещё чем-то обработать, а во-вторых что за задачи такие...
Другое дело, я не могу себе представить, где дома такие скорости нужны
Например, при открытии папки с несколькими десятками фото в формате bmp большого размера — для того, что бы увидеть все превьюшки достаточно быстро (Samsung 950 PRO MZ-V5P256BW) а не ждать несколько минут (860 EVO 1TB (MZ-76E1T0B) или десятков минут (WD4001FAEX)
Да ну? Это ж сложно. Куда проще каждый раз перечитывать файл заново.
Может просто кешировать превью?
Программа очистки диска выносит этот кэш вместе со всем остальным.
А чистить иногда надо, иначе свободное место закончится очень быстро.
Можно установить диск побольше.
Там выше указана модель диска (860 EVO 1TB (MZ-76E1T0B)
Больше — с удовольствием бы, но пока дорого.
PCIe 4.0 дает прирост, но скорость TLC его нивелирует.
А так ли нужна эта скорость? При обычном бытовом использовании вы вряд ли почувствуете разницу между каким-нибудь SATA-II SSD и Samsung 970 Pro, хотя скорость отличается на порядок. А всё потому, что основной прирост в отклике системы и программ происходит не за счёт быстрой линейной скорости чтения-записи, а за счёт случайного доступа, который даже у SSD нижнего ценового диапазона на пару порядков быстрее, чем у HDD.
Также у SSD большого объёма (1ТБ и больше) со скоростью всё в порядке даже у TLC-моделей.
P.S. Себе в ноутбук я выбирал SSD не по параметру "быстродействие", а по параметрам "нагрев" и "энергоэффективность". И по этим параметрам Samsung 970 Pro был отметён почти сразу же. Взял в итоге недорогой терабайтник без буфера. Полностью им доволен.
А так ли нужна эта скорость?
Под скоростью я подразумевал скорость случайного доступа наравне с линейной.
Между SATA SSD и NVMe разница на практике ощущается (загрузка ОС, запуск софтин, которые читают кучу мелких файлов), хоть она и не такая разительная, как между HDD и SSD.
Я вижу разницу в скорости только при гибернации (о переходе из выключенного состояния в рабочее за 5 секунд с медленными SSD можно только мечтать), в остальных случаях для меня видимой разницы нет.
Я переехал с древнего intel 520 sata на 970 evo plus в качестве загрузочного диска. Разницы не заметил. Синтетика, конечно показывает, что последний сильно быстрее, но я этого не ощущаю в каждодневном использовании.
А так ли нужна эта скорость? При обычном бытовом использовании вы вряд ли почувствуете разницу между каким-нибудь SATA-II SSD и Samsung 970 Pro, хотя скорость отличается на порядок.
Ну вот между сатой и NVMe я разницу прям таки чувствую невооруженным взглядом. Между быстрым и медленным NVMe — уже нет. Между 970 Pro и 970 Evo — вообще только приборами.
А на десктопе я особо разницы в производительности межу HDD и SATA SSD не вижу.
Позавчера принесли комп со сдохшим носителем, Intel 540-й серии. Неудачная серия была, они дохли как мухи, но этот оказался долгожителем, аж 2.5 года прожил. Первый раз в жизни я увидел протёртый до дыр SSD. Но не в этом дело, а в том, что какой-то умник вот так наслушался хайпа вокруг SSD и додумался поставить его в систему телефонии для записи телефонных разговоров! А там производительность нужна мизерная, зато хотелось бы подольше жить без обслуживания, а это HDD.
Не надо верить в рекламу. Новые технологии — это хорошо, но нельзя же так.
Ну это вы странные модели смотрите. SATA vs SAS не сильно отличаются. Есть несколько ключевых отличий в районе лучшей очереди команд и дуплексе, но в целом не критично. А вот топовые NVME — это другой разговор (буквально рядом у меня открыт рабочий документ, в котором мы пытаемся выжать больше 1M IOPS на raid10 из NVME, каждая из которых фигачит 500k+ fsync=1 iops'ов на запись). 500k, карл! На таких скоростях уже всё остальное начинает провисать. А 500kIOP x 4k blocksize — это 2GB/s между прочим, так что sas нервно курит в углу.
Ну и третий, который NVME, WD Ultrastar DC SN640. Он явно быстрее SASовского, но не так, чтобы прям вау офигеть как быстро стало.
Вообще-то сравнение нечестное, все машины там разные, но я говорю, по ощущениям, наощупь. С этим 860-м вообще какая-то хрень, почему-то тормозит в линуксе как сатана.
У меня на берчмарках лежит Intel DC P4610 (точнее, его делловский ребрендинг). Оно просто несравнимо с всем, с чем я имел дело в HBA-шинах (sata & sas).
А умные люди рассказывают про Samsung 980-pro-pcie-4-0, который ещё шустрее, и целится в район миллиона иопсов с одной железки.
dram-less диски говнище дешевое
Не соглашусь. В ноутбук я себе поставил именно такой. Одна из причин — у него тупо ниже энергопотребление. А вместо DRAM достаточно SLC-кэша.
Бытовое использование разное бывает. У кого-то бытовое — это открыть фейсбучек. А у кого-то — архив фоток. И там скорости решают (потому что влияют на секунды до появления всех превью).
В случае архива фоток узким местом будет скорость декодирования JPEG, но уж никак не скорость SSD.
Вы уверены? jpeg поддерживает progressive, т.е. для превью не нужно декодировать весь файл. Во-вторых, на условном 12-ядерном amd у нас весьма и весьма приличный запас по числодроблению. Даже если один тред обрабатывает "всего лишь" 100Мб/с, 12 тредов — это 1.2GB/s — сильно за пределами SATA.
Даже если один тред обрабатывает "всего лишь" 100Мб/с
Один из самых быстрых кодеков libjpeg-turbo
на более-менее современном процессоре выдаёт порядка 150-200 Мпикс/сек в многопотоке — это ~10 фотографий в секунду, или порядка 50–100 мегабайт в секунду. Видите: ничто никуда по скорости SSD не упирается.
Да, возможно быстрое чтение JPEG с пониженным в 8 раз разрешением, но я не думаю, что оно будет настолько быстрее, чтобы упираться в скорость интерфейса.
В каком многопотоке? Есть некоторая разница между 4 ядрами и 12. Кроме того, не jpeg'ом единым жив архив фотографий. RAW-файлы запросто под сотню мегабайт на фотку могут быть.
В каком многопотоке?
Порядка 6–8 потоков.
RAW-файлы запросто под сотню мегабайт на фотку могут быть.
Мы именно об архиве фотографий говорим? Я уж молчу про то, что вычисление thumbnails — это обычно разовая операция.
Кстати, в случае RAW обычно рядом имеется его же полноразмерная версия в JPEG, просто потому что так удобнее.
… которую надо выковырять из raw-файла. Короче, sata интерфейс уже не адекватен производительности и параллельности процессоров. (Это мы ещё не обсудили проблемы задирания latency у параллельных запросов в sata по мере роста saturation у интерфейса).
У вас какое-то магическое представление о sas. Там внутри примерно так же всё. Чуть-чуть лучше с дуплексом, но сам протокол не сильно лучше.
Возможно, у вас остались хорошие впечатления от sas ssd, потому что они дороже и туда быстрее память ставят. Ну и сама sas быстрее, но не радикально.
В сравнении с этим pci-e даёт latency классом ниже, плюс глубину очереди почти неограниченную, плюс большое количество очередей.
Топовые самсунги (и не только?) хитро переконфигурируют пустое место под SLC (для принятия буффера на запись), а потом в бэкграунде его в TLC переконверчивают. Алсо, TLC — это благородный вариант, потому что половина рынка уже QLC.
Я всё никак не доберусь до оптановПоторопитесь, а то и не доберётесь. Intel сворачивает линейку Оптанов для потребительского рынка, оставят только серверные.
Я знаю, именно они (серверные) меня и интересуют. Для десктопа оно не даст эффекта из-за медленности приложений. Чтобы быстрый накопитель в потолок уткнуть приходится запускать по 20-30 независимых процессов в параллель. На десктопе такое малореалистично.
Естественно, идет речь о серверной линейке.
А что у меня в компе тогда стоит на 120 гб?
Я вот тоже помню, что были только серверные SSD и карликовые кэши для гибридизации с блинным диском. А сейчас посмотрел — там уже четыре линейки, добавились уже известные вам готовые гибриды из оптанового кэша с традиционным SSD и — то самое, о чём идёт речь — оптановые SSD нормального размера для домашнего использования. Те самые, которые только что перестали выпускать.
Будущее за мемристорами обещали лет 10 назад. Когда память будет одновременно и процессором.
глаз режет ТТН, ведь SSD же!
(еше и вдобавок ко всему, неочевидно тэтээн это или титиэйч в статье)
Смешались в кучу кони, люди…
U2, M2, SATA, разные (68/80 пин) SCSI, pci-e, Mini-pci-e, Express-card — разъёмы.
NVMe, ahci, ide, scsi — протокол
Pci-e, внезапно снова scsi, sas, sata- интерфейс
То есть на m2 мы хоть ethernet можем привести (ну а что, паяльник у нас есть, а дурная голова рукам покоя не даёт), sas интерфейс может по себе пропускать sata протокол, а scsi у нас вообще в разном физическом исполнении был (хотя логически совместимый)
А pci-e ssd к тому же не всегда NVMe, было время они дисковым контроллером прикидывались
Optane появился уже давно. Практически одновременно с NVM-E SSD на обычном NAND. Если он до сих пор не победил NAND во всем, то тут явно есть причины.
Для NVM-E форм-фактора:
- Закрытость технологии. Эту память может производить только Интел.
- Цена. Она гораздо (на порядки) дороже за единицу объема.
- Баги в CPU, вроде SPECTRE. Фиксы и исправления для этих багов напрямую влияют на производительность подсистемы NVM-E значительно (в несколько раз) сокращая преимущество Optane памяти перед NAND на практике.
Для NV-DIMM еще плюсом:
- Вендор-лок и недоступность технологии для других платформ.
- Последние неурядицы Intel на рынке процессоров.
- Принесение в жертву пропускной способности/скорости оперативной памяти. Если у вас два канала оперативки, установив в один их них NV-DIMM вы уменьшите пропускную способность оперативки в два раза. Справедливо и для серверов, у которых бывает до 8ми каналов. Далеко не везде такая жертва оправдана, потому, применимость NV-DIMM ограничена. Если бы Intel увеличила в два-четыре раза количество каналов памяти в процессорах при релизе этой технологии, — все могло бы быть по другому.
После прочтения статьи складывается впечатление, что это все технологии будущего. Когда как, на деле, это достаточно старые «нишевые» технологии, которые не взлетели, и, выше, скорее всего, в ближайшее время не взлетят…
По первому пункту — вообще-то у микрона топовый серверный ссд на 3dxpoint, они вместе эту технологию разрабатывали
Оно ведь у m.2 на одной плате с контроллерами и всеми основными устройствами, что наверняка лучше, чем у ssd через сата шнурок и питанием по отдельной линии от БП, который зачастую не очень хорошего качества.
С чего бы это питание на материнской плате было лучше, если блок питания исходно швах?
Материнская плата питание берет от того же блока питания.
А индивидуальные силовые элементы на материнской плате идут только для процессора и памяти.
На материнской плате скорее даже хуже будет питания из-за множества тонких токопроводящих дорожек соседствующих друг с другом, нежели питание по сравнительно толстенькому кабелю напрямую от блока питания.
(ещё раз скажу, что это предположение, потому что я искренне не шарю в деталях схемотехники материнок)
p.s.
" ORICO LSDT M.2 NVME Enclosure USB C… "
(1)NVMe 10Gbps Model
Only support NVME PCI-E protocol M key/M+B Key SSD, with 15cm type-c to type-c cable and 15cm type-c to usb3.0 cable.
(2)NGFF 5Gbps Model
Only support NGFF SATA protocol B key/M+B Key SSD, with 15cm type-c to USB 3.0 cable.
Оглядываясь назад на десятилетия развития вычислительной техники, видно, что различие между памятью и накопителями существовало всегда.
Лет 30 назад мне в руки попалась книженция от Intel. Мол, вот сейчас, буквально через пару лет мы наконец-то выпустим на рынок память по новой технологии Flash, которая полностью заменит ОЗУ! Мол, больше не нужно будет задумываться о потере данных при выключении питания и о сохранении документов!
А постепенно прояснилось, что флеш и изнашивается что-то быстро, и медленноват он, и физический интерфейс к нему как-то неудобно строить, то, сё…
Это было двадцать пять-тридцать лет назад. Как видим, ничего не изменилось, прогнозы всё те же, только набившее оскомину слово «флеш» заменили на новомодное NVMe.
В основном, конечно, это для серверных применений, тогда мы получаем кучу преимуществ:
— отсутствие проблемы лимитированного количества циклов записи
— можно применять чипы и производственные мощности дешевой RAM предыдущего поколения, которая уже не годится для своего прямого назначения и не востребована рынком, зато цена за 1гб ниже, например как сейчас DDR3, что расширяет для производителя срок службы технологии и повышает окупаемость мощностей.
— минимизация износа flash памяти, особенно для серверных решений (так как flash бы использовалась только при shutdown и запланированных синхронизациях)
— рост производительности IO на порядок — DDR3/4 все таки быстрее Flash SSD, для баз данных это бы означало, что производительность недалеко от in-memory баз, но при этом энергонезависимая.
— можно применять flash более дешевую, с меньшим количеством циклов записи
На полноразмерной PCI плате можно натулить немало так чипов RAM даже DDR3 и выйдет весьма существенные объемы в единицы TБ.
Мне вот не понятно, почему нельзя скрестить SSD и RAM на одной плате,
Можно, но будет дорого. Вся суть иерархии памяти в разделении по объему, скоростям и цене. Штабель DDR объёмом в терабайты будет дорогим сам по себе, кроме дороговизны за байт, он будет потреблять много энергии, что тоже дорого.
Если прикинуть стоимость 1тб DDR3, себестоимость которых бы снижалась после утрате актуальности и наличия множества невостребованных производственных мощностей, то выходят совсем уж небольшие цифры, если взглянуть прямо сейчас на китайские мелкооптовые цены на чипы taobao- 5$ за 8гб чип, то есть 800гб всего 500$, но при крупном опте с завода вероятно еще меньше. Ну выйдет 800-1000$ за 1Тб RAM/SSD — это страшные деньги для серверных решений?
это страшные деньги для серверных решений?
Вы ж не голые чипы будете ставить, контроллерчик ещё для управления этой связкой потребуется (который не факт, что существует в природе, возможно его ещё проектировать придется и программировать), плата, разводка, труд и прочее. Т.е. итоговый ценник далеко не 500 баксов будет, готовый продукт дороже, чем сумма его комплектующих.
Далее, цену на электричество, потребляемое DDR, не забудьте включить. Из-за электричества стоимость эксплуатации вашего зверя существенно выше, чем обычного флэш ssd и соответствует прочим решениям на базе RAM. А с высоким энергопотреблением, глядишь ещё и не в каждый сервер впишетесь. В общем, сходу вопросов много.
Не стали покупать.
en.wikipedia.org/wiki/RAM_drive#Dedicated_hardware_RAM_drives
Говорят, с надежностью были проблемы.
Собственно Optane подешевле Ram будет и надежнее.
Кому нужны RAM диски — они их используют, бэкапятся на ходу и т.п.
Кому нужны RAM диски — они их используют, бэкапятся на ходу и т.п.
Ну RAM диски, особенно программные (т.к используют дорогую память сервера, а не дешевую прошлых поколений), это костыль, дабы обойти узкое место в IO. Есть те, кто откажется от «лишней» серверной производительности без плясок с бубнами, так как с их точки зрения это обычный SSD? Нет, просто это упирается в деньги. Ну и ионисторы более подходящее отказоустойчивое решение.
Память на магнитных сердечниках 64×64 (4 кБ) [пользователь closegl утверждает, что тут ошибка, и имеется в виду 32×32, 1 кБ ]Не, ну ферритовых колечек точно 4096 (сетка мелких проводов 64х64, распаяны по 32 с каждой стороны платы).
Правда врезка — лажа, кроме сетки, есть несколько служебных проводов, так-что сквозь каждое колечко проходит больше двух проводов.
Причём памятью всегда служили энергозависимые устройства типа SRAM или DRAM.Странное предложение прям сразу под фотографией модуля ОЗУ на ферритовых сердечниках, который энергонезависим.
Не, ну ферритовых колечек точно 4096 (сетка мелких проводов 64х64, распаяны по 32 с каждой стороны платы).
Непосредственно подсчитать по фото — в каждом ряду по 32 кольца, и 32 ряда. И 32 провода с каждой из 4 сторон — если вы думаете, что там они все внутри этой платки уходят на общий ноль, то это явно не так. Скорее в одном режиме подаётся плюс слева и ноль справа, а в другом — ноль слева и плюс справа. Ну и аналогично для вертикальных.
так-что сквозь каждое колечко проходит больше двух проводов.
Три. Вертикальный, горизонтальный — и один считывающий. Но он тонкий, могли удалить при ретушировании (не понимая его смысл).
Непосредственно подсчитать по фото — в каждом ряду по 32 кольца, и 32 ряда.Разрешение низкое (размер кольца ≈6 пиксел, сливаются), провода строк и столбцов надо считать, а их подходит с каждой из четырёх сторон по 64 провода (32 припаяны к дорожкам лицевой стороны, 32 к дорожкам обратной стороны).
… могли удалить при ретушировании (не понимая его смысл).Врезка вообще синтезированная и, по-моему, не способная к работе, принципиально.
В большом масштабе, что б кольца более менее было видно (размер кольца ≈13 пиксел):

Из лота CDC 6600 64X64 (4 KB) https://www.worthpoint.com/worthopedia/vintage-control-data-cdc-6600-64x64-1803079799, точно такая же микросхема, что и на фото из статьи.
Таки да, согласен. Исходное в статье как-то сильно пережато.
На этом ещё и считывающие провода отлично видны.
NVMe стирает разницу между памятью и накопителями