Комментарии 121
И в серверах тоже всё не так радужно — и там самый ходовой товар пятисотки, а не террабайтники.
Так же имхо, 1тб это ни рыба ни мясо. Под систему и необходимый софт достаточно 256гб с одной стороны, с другой стороны хранить архив фото и видео за 10 лет да еще игрухи — тут и терабайта не хватит. Поэтому стоит сравнивать 512гб ссд с 128гб ссд + скажем 320гб хдд. От чего разница становится еще меньше.
Прибавим к этому ту уберфичу, о которой редко говорят. Скорость ссд при бакапах. На хдд у нас бакап делался 4-6 часов, на ссд делается 20-40 минут. Бакапы стали делаться чаще и веселее, а это зачастую даже важнее чем скорость работы диска ежеминутно.
В общем и целом на потребительском рынке, если пользователь хоть немного в теме, просто для компьютера он хдд уже не возьмет. Если у него большие объемы фото/фидео — он возьмет отдельный внешний хдд (небольшие влезут и на ссд). Если же речь о том, что компьютер нужен для работы, то там вообще вопроса нет хоть 2 ссд по 1тб воткнуть, это себя окупает.
Тред начался вот с этого )
Само собой, 1ТБ неинтересен, самые ходовые hdd — 2ТБ.
> Поэтому стоит сравнивать 512гб ссд с 128гб ссд + скажем 320гб хдд. От чего разница становится еще меньше.
Ага, или сравнивать 2 ТБ ssd vs 2 ТБ hdd + 128G ssd, тогда разница в другую сторону убегает.
Проблема именно в переломе цен вокруг террабайтных SSD. 512 стоит ~6 тысяч (в среднем), террабайт — ОТ 12 тысяч, а за 2 террабайта просят космические деньги (на российском рынке).
У hdd этого перелома нет, цена гигабайта при росте объёмов наоборот снижается (хотя тренд и ломается где-то в районе 12ТБ на 3.5'').
Проблема именно в переломе цен вокруг террабайтных SSD. 512 стоит ~6 тысяч (в среднем), террабайт — ОТ 12 тысячНо мы же не говорим о создании файлостоража, речь просто о бытовом использовании. 512 вполне достаточно, 1024 уже до фига.
Если надо больше, то Вы или профи для которого и 2тб ссд (1+1 для экономии) не проблема купить или же нуждаетесь в файлопомойке (для которой ссд вообще не годятся), но обе эти аудитории не массовая ЦА.
У меня жена не напрягаясь загадила 2ТБ-hdd за пару лет =)
Ну а вообще в эпоху игр по 200Гб диск на 512 выглядит смешным.
А вот мне по работе как раз хватает ssd на 128 и файлопомойки на 500 в raid1 для бэкапов и фильмов/музыки.
Вы как-то странно оцениваете потребности современных пользователей в месте на диске.По рынку ноутбуков, как самых популярных устройств. У большинства объем от 128 (в случае ссд) до 1тб (в случае хдд), крайне редко больше. Т.е. пользователю интересны объемы с крайними значениями 0.128-1.00 тб.
У меня жена не напрягаясь загадила 2ТБ-hdd за пару лет =)Это не мэинстрим. И опять же — если 2тб именно «загажено», то вопрос решается чисткой и выносом «мусора» на внешний носитель (хдд разумеется) и на основном компе вряд ли больше 1тб останется.
BTW, а откуда инфа про 1000 циклов? ЕМНИП вроде ~1000 циклов было у TLC.pikul с самой первой картинки. Там у TLC написано 3к p/e циклов, а у qlc 1к p/e циклов.
Ноутбук редко у кого является единственным устройством хранения — обычно к нему есть десктоп или, хотя бы, внешний hdd.
Так что не совсем показательно.
> выносом «мусора» на внешний носитель
Чем это отличается от парадигмы «ssd под систему/программы + hdd для жирных данных»?
> чисткой
Не, вы точно с обычными пользователями не общаетесь. Они ж реально покупают новый диск, когда старый кончается, потому что так проще.
Само собой, 1ТБ неинтересен, самые ходовые hdd — 2ТБ.Недавно $\ТБ считал для дисков, выгоднее всего были 4Тб.
1. Для установки Винды на GPT, ЕМНИП, нужна флешка с FAT32.
2. Кроме rufus есть странная прога, она копирует ISO на диск. То есть тупо лежит файл — в FAT32 ограничение его объема на 4 ГБ.
Если пользоваться, то на флешку гарантированно влезет только образ Win7 (MSDN + SP1) — не сборка со свежими обновами, не 2 разрядности сразу и куча редакций — 3 ГБ файл для x64, влезет на флешку «фальшивые 4 ГБ» даже. Не влезут — 8.1 или 10 (смотрю на примере Win10_1809_Oct_Russian_x64). Может старее версия 10ки влезет.
habr.com/ru/post/240793
Без шаманства выходит такое:
Выбираем FAT32 — грузимся в UEFI без проблем, но нет поддержки файлов >4 Гб, и наоборот — NTFS без UEFI, но с поддержкой больших файлов. Если Ваши образы весять меньше 4 Гб каждый, то смело выбирайте FAT32. С NTFS немного сложнее, а именно — флешка в UEFI не загрузится
Но есть и метод решения проблемы
каким образом заставить загружаться старый компьютер (читай компьютер с BIOS) с данного жесткого диска, который размечен в GPT
4TB — €28.50 за ТБ
8TB — €28.24 за ТБ
Недавно $\ТБ считал для дисков, выгоднее всего были 4Тб.
www.amazon.com/gp/product/B076MPMZDV — раз в месяц-два на неделю цена становится 100$
Внутри WD Red
p.s. Никогда не смотрю отзывы непосредственно к внешним/портативным жестким дискам, потому что в живую видел как среднестатистические пользователи их используют, только что в футбол ими не играют.
Нет смысла смотреть на 128гб ссд + скажем 320гб хдд. цена ёмкость в таком случае отвратительная. Сейчас 1тб HDD это если прижимает совсем, а так 2Тб тамое то. + под систему 256. 256, что бы кроме системы еще и игру второю поставить можно было. НО свободного места при этом для QLS явно маловато, начнет задыхаться.
Для бекапа, часто ограниченим сеть выступает.
Учитывая, что при той же цене ёмкость QLC-накопителей выше MLC, то средний пользователь «печатной машинки с интернетом» вряд ли успеет выработать этот ресурс.
Заявление одновременно неверное и с точки зрения логики (чтобы сделать заявление о том, хватит ли среднему пользователю ресурса QLC-накопителя, нужно как минимум привести данные о том, какой процент ресурса TLC-накопителя успевает выработать этот самый средний пользователь), и по смыслу.
Простая прикидка: предполагаем, что «неизменность цены» = «неизменность количества ячеек». Тогда рост объема при сохранении цены составит 33% (раньше ячейка хранила 3 бита, стала — 4). Однако надёжность упала на 300% (DWPD был 0.32, а стал 0.1). Таким образом, если на условный 100ГБ TLC-диск «средний пользователь» мог писать 32ГБ/день, то на QLC-диск той же цены (133ГБ) сможет писать 13.3ГБ, т.е. в два с лишним раза меньше.
Однако и предположение «неизменность цены» = «неизменность количества ячеек» неверное.
Цена накопителя складывается не только из ячеек памяти, но ещё из стоимости разработки (QLC — более «продвинутая» технология, и разработки для неё, вероятно, будут более дорогими), стоимости платы/контроллера/корпуса/работ по сборке (примем, что на это всё цена не меняется). Поэтому реальный рост объема накопителя «за ту же цену» будет не 33%, а меньше (и чем меньше объём накопителя, тем меньший «дополнительный объем за ту же цену» будет получен)
А ещё у ячеек есть такой параметр, как «время удержания данных», который при переходе от TLC к QLC должен снизиться.
Совершенно непонятно, кому нужна новая технология, если про неё писать не маркетинговый булшит вроде этой статьи, а факты («вы можете получить накопитель большОго объема по меньшей цене, чем раньше, но он будет гораздо менее ненадёжным», и «накопитель маленького объема будет гораздо менее ненадёжным, и стоить он будет лишь незначительно меньше»)
А если у Вас Фотошоп из сетапа весом 1.63 ГБ — он займет не очень много? Может у Вы программист, и у Вас IDE + что-то для тестирования (локальный веб-сервер + сервер приложений)?
Ну а самый тяжелый случай — у Вас на компе HDD, т.к. нужно протестить софт на виртуалках — Win (7+8.1+10)*2 разрядности. Ещё скажем Вы прогаете на .Net и нужно иметь самые свежие обновы в каждой из систем.
А вот макс. размер это дело сугубо индивидуальное. Нам пришлось взять 750гб + 1тб, ибо базы данных много занимают, бакапы проектов и прочее.
место для апдейтов с 1903 версии виндов
Я понял, что MS создало какой-то бред. Будь у меня лишний комп — поставил бы скачанную 1809_Oct_Russian_x64 на скромный тестовый хард на 50 миллиардов байт и оценил бы, как быстро она забьется при настройках:
— защита системы (такое ещё есть в 10ке?) — 9% раздела;
— pagefile 4 ГБ — если Вы смогли установить Винду 10 на 1.5-2 ГБ оперативки, Вам без подкачки будет сложно жить даже на «условно рассчитанной под гаджеты» операционке.
Брат поставил на новый ноут 2016 LTSB, качает только секурные обновы.
Если я прочитал фразу про «1000 циклов» — я гибернацию при SSD не включу, так как не привык покупать новый винт каждые 2-3 года.Гибернация даже 3 раза в день съест у Вас 24гб от объема диска (условно) за 3 года. Вряд ли именно гибернация будет самой большой проблемой, что-то еще все же будет на компе делаться?:)
поставил бы скачанную 1809_Oct_Russian_x64 на скромный тестовый хард на 50 миллиардов байтУ нас свежая 10-ка со всеми апдейтами и минимумом софта (пара браузеров, скайп, far, ssh, еще по мелочи — не больше 500мб) занимает 52гб (после установки новой системы обычно делаем бакап) — это вместе с гибернацией и т.д., но без резервации места под апдейты и свободного метса на ссд — с ними были бы все 64гб.
p.s.: Вообще конечно дичь с ресурсом ssd происходит. Мы брали как-то 320 ssd intel еще когда он только вышел (больше 5 лет точно), не так давно продали его — там еще 99% ресурса было. А диск использовался в хвост и гриву — и торренты и свапы и гибернация и базы данных нагруженные. А последний взяли tlc (mlc хотели, но их уже не было в продаже), так блин меньше чем за год уже 89% осталось, при чем эксплуатируем менее жестко.
С другой стороны учитывая как растут размеры ссд — следующий апгрейд у нас будет скорее всего через годик, старый можно будет продать, у него еще 3 года гарантии останется, так что скорее всего надо просто принять текущую ситуацию.
занимает 52гб
А ведь когда-то Win 10 (только это x32 у меня на виртуалках Винда) весила 10 ГБ, могу глянуть объем образов виртуалок для точности.
25.4gb — windows.
8.3gb — Programm Files
4.4gb — в корне диска, гибернация и прочее.
4.4gb — Programm Data
4.2gb — Programm Files (x86)
3.8gb — Users (из них около 1гб кэши файрфокса, хрома и т.д.).
3.1gb — Recovery
2.8gb — eSupport (файлы дров производителя ноута, на ноуте без них никак).
WinDirStat по факту показывает 56.7gb
Можно выкинуть рековери, почистить изначальные файлы драйверов, сжать диск (винда обещает +13гб), убрать своп и гибернацию — но это уже не айс. Да и придется добавить на резервную область для апдейтов и для ссд. Так что 64гб не вариант вообще.
p.s.: первый раз не все файлы подсчитали, отредактировали.
На более официальной семерке (образ MSDN) дела обстояли хуже. Тот же набор оставлял свободными всего около 5 ГБ от 64-гигабайтного SSD.
Win7 x64 с набором софта занимает не более 10гб
Ну не знаю. У меня 1 папка winsxs весит 13.7 ГБ («на диске», 13.5 инфы).
Наверное это фейковые ГБ, но там кажется в «чистой» Винде папка Win весит 20 ГБ (конечно это сборка, так что не очень чистая).
А потом все растет. \SoftwareDistribution\DataStore висит спец-файл 1 с каплей ГБ.
Про явно «полезный» объем:
System32 — 4.51 ГБ;
SysWOW64 — 1.42 ГБ.
Вспомнил, что нужно чистить.
C:\Windows\Installer — куча сетапов через неё ставятся и не удаляют потом:) Сейчас там 3.33 ГБ.
Да, там В DataStore файл занимает 16мб. Но я не пользуюсь автоматическими обновлениями — думаю, это именно из-за них.
В Windows\Installer вполне можно удалить все большие файлы, там некоторый софт зачем-то размещает свои полные установщики (у меня там сейчас 49мб).
System32/SysWOW64: 3.9/1.3гб, ну тут разница небольшая. Там ещё в System32\DriverStore\FileRepository хранятся предыдущие версии драйверов, если обновлялись (например, видео) — тоже можно почистить (предпочтительней через pnputil).
Вспомнил, что нужно чистить.Только специальным софтом, а то потом замучаетесь с сообщениями «вставьте установочный диск чтобы продолжить» при удалении или обновлении софта. MSI-установщики — дело гиблое.
C:\Windows\Installer
Ну и софт в Program Files ставится в основном сторонний, к системе не относящийся, это ещё ~12гб у него…
Ну и софт в Program Files ставится в основном сторонний
Из всех прог только для Офиса кажется не сразу нашел, что можно выбрать и не ставить в C:\Program Files (x86).
Почему-то Мозила стала в C:\Program Files. По дефолту Хром себя пихает в C:\Program Files (x86)\Google\Chrome — лень было качать сборки, которые дают выбрать место установки. О ужас — там папка весит 427 МБ.
Нужно почистить файл Application\71.0.3578.98\Installer\chrome.7z весом 212 МБ.
>Использовано 22G
У тебя тоже жесть :) Linux с Windowmaker или XFCE занимает пару гигабайт. Причём все драйверы, браузеры, шмофисы уже внутри. Это особенно смешно. 15 лет назад надо было железо тщательно выбирать, чтобы оно работало в linux. Сейчас всё из коробки взлетает, а узеры вантуза должны тщательно выбирать. Плюс при установке изрядно поприседать.
У нас образ, который раскатывается на компы — вин10 и основной софт (офис, антивирус и по мелочи) около 35гб. Как у вас 50 набирается?
Если 35гб из образа достать — будет побольше уже, плюс рековери 3гб + родные дрова 3гб + временные файлы 1гб + хибернация и своп 5гб = вот уже 47гб наберется. Если это ноут и не хочется заморочек, то отказываться от рекавери и родных дров не вариант, а своп и хибернация на рабочей винде сами материализуются.
Черт с ними с гибернацией и свопом. Но дрова то вам чем не угодили? Или вам нужно, чтобы они кучкой лежали обязательно рядом? Так же, как и бестолковый рекавери раздел.
Я привет пример образа, в котором уже включены точки восстановления, в котором уже есть дрова для нескольких моделей ноутбуков. Этот образ раскатывается на многие типы компьютеров, которые потом себя прекрасно чувствуют. И весит уже после раскатки все равно <40гб.
Но так как в любом случае Вы ставите образ конкретной разрядности (скажем на 6 ГБ ОП ставите x64) — и установщики дров ставьте под ту разрядность, что будет ОС. Более полезная для универсальности штука — сетап «усредненных» дров видяхи (скажем условно стабильные nVidia 376.54 пойдут без проблем даже на 730M, но на ноут 1050M может не станет ни ОС, ни дрова эти). Каталист — тоже какой-то «усредненный» сетап.
После установки скажем дров видяхи может даже «Центр обновлений» найдет более новые — именно подходящие под конкретную модель.
Но дрова то вам чем не угодили? Или вам нужно, чтобы они кучкой лежали обязательно рядом? Так же, как и бестолковый рекавери раздел.Так мы со своей колокольни обычного юзерского ноута, на котором в случае факапа и рековери пригодится и дрова родные лишними не будут и одновременно с этим не хочется тратить время на спец сборку для экономии места.
Наверное, нас сейчас сожгут, но так-то по современным меркам не видим разницы +-10гб, что бы из-за нее как-то специально напрягаться. Взять 128гб вместо 64гб и закрыть тем самым все вопросы с нехваткой места невелика проблема.
p.s.: Энтерпрайз это несколько другое, к тому же нам в принципе не вполне понятно на кой черт в энтерпрайзе сейчас 10-ка, 7-ка еще пару лет вполне может пожить.
Так и я не вижу беды в лишних гигабайтах, мне просто непонятно было нафига это все хранить. Дрова качаются с сайта (а в идеале самой виндой), мы в 2019 или как?
А про 7ку не надо петь песни — поддержка уже почти все, да и кто видел как 10ка воспринимает перенос с одного железа на другое, совсем отличное — тот семёрку уже не поставит никогда. Ну и ещё куча всего, особенно в энтерпрайзе.
Так и я не вижу беды в лишних гигабайтах, мне просто непонятно было нафига это все хранитьПотому что это не проблема вот вообще, настолько, что мы заметили хранение этого, только во время обсуждения в этом топике, когда пошли смотреть куда место уходит, хотя ноуту уже год скоро будет:)
Дрова качаются с сайта (а в идеале самой виндой), мы в 2019 или как?Что бы их скачать надо сначала (из своего опыта на своем ноуте) а) поставить винду, для чего нужен оригинальный драйвер юсб и тачпада б) выйти в эти ваши интернеты. для чего нужен драйвер вай-фай карты в) если ставишь на м.2 диск (основной мсата), то нужен еще родной драйвер чипсета, иначе bsod при попытке загрузиться постоянный.
И ни один из этих 4 драйверов с дефолтовой флэшки с просто виндой не будет работать (добро пожаловать в 2019 ***), зато из рекавери все на раз-два ставится.
Что характерно (как уже выше подметили кстати) убунта заводится без проблем с дефолтного инсталлятора, хотя драйвер вайфай и приходится потом заменять для поддержки 5ггц, но это единственная проблема. Правда убунта адски жрет батарею, 1.5 часа максимум в режиме экономии против 4.5 часов на винде не особо напрягаясь.
Жесть… Это какой ноут, если не секрет, таких танцев требует от владельца с вин10? У нас hp пробуки, пара моделей вайо и фуджиков — такого даже близко нет.
Ноут asus n705un, как по нам — эта линейка асусов (начиная с появления в ней kaby lake-r) не просто шикарна, а безальтернативна, пусть и есть там пара нюансов.
Совсем плохо будет, если у Вас видяха старее, чем поколение R-n 5870/G-e 480. На 10ке дрова к ним ещё нормально работают?
Про организации с чипсетом G31/945 вместо видеокарты я говорить не буду. Хотя узнал, что и на них 10ка ставится.
А вот постоянный фоновый срач операционной системы и сервисов (логи, журналы), несмотря на малый объём данных, из-за высокого коэффицента Write Amplification приводят к большему расходу ресурса, чем вё вышеописанное.
У меня был момент, когда я разворачивал тяжёлые виртуалки (правда, сами виртуальные диски были на HDD) — своп на 16 гигов на SSD использовался почти полностью. Так вот скорость износа диска (количество записанных данных с учётом WA) выросла только в 1.5 раза по сравнению с обычным режимом работы без свопа и виртуалок.
Хотя гибернация при большой объеме памяти тоже приличный вклад дает. Запись-то линейная и WA почти не дает, но все-равно это сразу по 8-16 ГБ записанных данных при каждом уходе компьютера в спячку даже при идеальном WA=1.
Кстати 10-ка по умолчанию с какой-то версии использует Hybrid Shutdown при выключении, что почти аналогично гибернации.
И конечно после «просыпания» (на 5-10%) ноут должен делать процесс сохранения в hiberfil.sys.
Если у Вас SSD — можете рискнуть и использовать такую функцию только при сильном разряде батареи, а в прочих случаях юзать «Сон» или «Завершение работы».
pagefile мы себе перенесли на винт и оставили минимальные 2 ГБ (в основном рассчитывали, что для x86 процессов, которые не более 2 ГБ оперативки смогут потратить, а вот page хоть 4095 МБ может быть).
А зачем pagefile переносить на винт? Если его размещать на SSD, то производительность системы станет существенно выше при забитой памяти. Это как раз тот случай, когда не стоит жалеть ресурс SSD — ведь SSD покупают ради ускорения системы.
Другое дело — гибернация. Система резервирует под неё кучу места, которое не используется в процессе работы и лежит мёртвым грузом.
Дело не в ресурсе SSD, а тупо в количестве места, которое этот hiberfil.sys занимает на диске. Я ещё 7 лет назад воткнул в ноут 16 гигов памяти и небольшой SSD, и мириться с потерей 16 гигов на системном разделе ради этого файла я не планировал.
Да не случится ничего с ссд от нескольких лишних гибернаций, а запас батарейки 10-20% в ноуте может выручить.
Вообще, всё это индивидуально. Например, у меня зарядка всегда с собой. Если нет розетки — беру ещё повербанк, который даёт ещё около 2-3 часов работы ноутбука. Сценарий, когда ноутбук несколько суток может оказаться без возможности зарядки, вообще считаю невозможным.
Плюс после засыпания ноутбук просыпается мгновенно, а из гибернации выходит примерно полминуты, ибо legacy BIOS, а не UEFI.
Я ещё 7 лет назад воткнул в ноут 16 гигов памяти и небольшой SSD, и мириться с потерей 16 гигов на системном разделе ради этого файла я не планировал.Ну за 7 летний то ссд можно наверное и на более большой поменять, не? Там же небось еще сата-2 вообще.
А зачем, если всё нормально работает?
Там же небось еще сата-2 вообще.
Ну да, а какое это имеет значение?
А зачем, если всё нормально работает? Ну да, а какое это имеет значение?Речь о том, что в топике обсуждается свежие qlc. Со скоростью под 1000мб и объемами под 1000гб. А Вы аргументируете «16гб места не хватает» в диске на протоколе который больше 300мб в принципе выжать не может.
Т.е. мы в принципе с Вами согласны — работает не трогай, но в контексте топика вроде не очень в тему.
Начиная с Windows 8.Taciturn да, сорри, имели ввиду автозагрузку программ.
Кстати 10-ка по умолчанию с какой-то версии
Начиная с Windows 8.
Потом производители стали переходить на 3х мерную многослойную флэш-память (типа V-NAND и аналогов), заодно откатились на использование более «грубых» тех. процессов и более крупными элементами (зато расположенными в много слоев). Заодно внедрили продвинутые коды коррекции ошибок (позволяющие работать на более «убитых» ячейках без потерь пользовательской информации). Все эти 3 изменения позволяют увеличить ресурс/надежность.
В результате ресурс подобной TLC подпрыгнул где-то до 3-15 тыс. циклов в зависимости от разновидности памяти и производителя.
Правда после этого в погоне за плотностью и удешевлением стали наращивать количество слоев(32-48-64-96) и снова мигрировать на более тонкие/плотные тех. процессы и ресурс стал опять постепенно снижаться.
QLC по-моему все изначально только в 3D делают. Без него был бы совсем мрак с надежностью — что-нибудь в районе 100 циклов.
Ещё 1 раз случайно разместил диск Virtual Box (именно этого условного DHCP/DNS/DC на Win 2008) на самой SSD, а как поменять конфиг и перенести диск только недавно освоил.
Кто-то проверял такую идею, что работа связки виртуалок «Клиент + сервер» реально ускоряется при переносе образа диска (ну и всего конфига) сервера на SSD (но без переноса клиента)?
P.S. Конечно обычно фотошоп и виртуалки не нужны на 1 машине. Если ты кроме «тестировщика ПО/Веб» стал заодно дизайнером своего сайта — юзайте PS или хотя бы Paint.NET.
тексты это же не только plaintext, а документы с форматированием (ворд и подобные ему), иногда с картинками, а так-же пдфки…
так-же те ко серьезно работает с текстами в той или иной форме хранят версии, это или отдельные файлики, или теневое копирование винды.
Но ладно, допустим HDD по какой-то причине не подходит (ну вот надо постоянно вычитывать все файлы в случайном порядке), и Вы нацелились на дорогущий 1TB QLC. Вы и правда не добавите 20% за более быстрый и надежный TLC?
я не знаю как ведут себя пользователи пишущих машинок, просто описал ситуацию в которой пишущая машинка может требовать довольно большого диска…
в свой старый нот (какой-то атом старше 10-15 лет, та самая пиш-машинка), на котором я работать не собираюсь чаще пару дней в месяц, если решу оживать воткну дешевый SSD, может быть б/у, про размер фирму и прочее не думал, озабочусь бекапами, то есть хранить на ноте ничего не буду.
Смотря что с ними делать, даже 10 тысяч циклов — это очень много, не все диски столько переживали по механическим причинам.
Быстро дохли поделки на SandForce, а также продукция OCZ, у которой одно время возврат достигал 20 процентов.
Для начала стоит честно признать, что накопители, созданные по новой технологии QLC, категорически не годятся для серьёзных/критических задач.
1000 циклов говорите? Тогда наверное сначала спрошу, есть ли на такой технологии малого объема накопители, скажем no-name 60 ГБ?
Если Вы на такой диск поставите Win 8.1-10, она много лет протянет? Конечно без всяких «Точек восстановления» и для pagefile купить хард на 1 ТБ хотя бы.
Вопрос не совсем правильный. В реальной машине никто не будет отключать точки отката и файл подкачки. Так же на бюджетку не будут покупать и SSD+HDD. Скорее уже только HDD (можно больше ОЗУ докупить_.
Вот и интересно сколько протянет QLS именно как чистый, системный.
В реальной машине никто не будет отключать точки отката и файл подкачки. Так же на бюджетку не будут покупать и SSD+HDD.
Так по Вашему на реальной казенной машине админ купит сотруднику не SSD, а HDD на 1 ТБ. Условно — самый дешевый Тошиба на 1 ТБ у нас стоит 1136 грн. Пускай я куплю SSD на 240 ГБ за 956 грн. На «разницу» в 180 денег с каждого компа (N штук) мне нужно будет собрать сервер с портом 1 Гбит/с и установить на нем SMB для общественной работы типа «файлопомойка» на N*760 «фальшивых ГБ».
Правда будут накладные расходы — желательно на каждые 8 компов взять свич типа «8 портов + ап-линк 1 Гбит/с». А так как число N логично стремится к 100 и далее (чисти из бюджета, я не соберу все это на 18к наших денег), то на каждые 80 компов (10 свичей) желательно гнать оптический канал 10 Гбит/с.
Либо же таки не SSD, а винт + 8-12 ГБ ОП:) Главное — запретить юзать гибернацию, т.к. убрать hyber с диска C: — это кажется верный путь к сносу Винды, а про место на диске мы уже обсудили. Либо даем 1/4 объема HDD (того, что 1 ТБ) под Винду + «диск №0».
Недавно отключил машину с зеркалом на старых SAS винтах. Скорость порядка 40-60 мегабайт/с там был потолок. И этой машины хватало на 50 человек для документов аж бегом. И вы путаете покупку с созданием всей инфраструктуры и добавление в существующую.
Еще раз. Смысла SSD+HDD для контор практически нет. Или то или другое. Получается SSD должен надежно заменить HDD без отключения и переноса всего что можно на HDD. Бюджетные SSD QLS? В лес. По ним пока очень много вопросов. Даже более продвинутые вылетают бывает из-за памяти или контроллера. А тут технология новая.
Если по вашему, то купить обычный HDD и расшарить по сети для сотрудников калог с документами к котором нужен доступ. Сразу предусмотреть отдельный раздел для бекапа от другого сотрудника, будет такой себе бекап на 1 или и больше копий. Извращаться можно долго. Главное HDD скорее всего будет надежнее QLS во времени. И Если купить SSD+HDD, то сеть не нужна???
Главное HDD скорее всего будет надежнее QLS во времени.
Я с этим согласен. А про 40-60 МБайт/с винт под шару — значит даем порт 1 Гбит и вполне хватит людям (не будут 50 человек ведь сразу качать/записывать документы?). Главное — найти лишний (не очень загруженный сервер) с местом под винты. И скажем раздел 500 ГБ, 50 человек — каждому даю квоту 10 ГБ на разделе.
Обычная работа Винды SSD на предел выносливости флеш-памяти не должна, скорее выйдет из строя контролер.
а технологией «склеивания» двух 48-слойных кристаллов пока обладают только такие гиганты электроники, как Intel и Micron
Почему в этом списке производителей 3DNAND отсутствует Toshiba?
Некоторые китайские фирмы, производящие чипы
О ком речь идёт?
HDD себе такого не позволяли. Либо читается нормально, либо читается медленно из деградировавшего сектора (диск может автоматически десятки попыток чтения подряд делать), но если все-таки прочиталось с -дцатой попытки — то считанные данные будут корректные. Либо если не прочиталось несмотря на все усилия (и повторные попытки и ЕСС коды не помогли) — и тогда ошибка чтения и ты сразу знаешь, что
1 — у тебя проблемы и надо принимать меры
2 — ГДЕ ИМЕННО эти проблемы (какие конкретно данные пострадали)
А с SSD иногда бывает — вроде все прочиталось без особых проблем. А потом — ОПА, а контрольные суммы у некоторых считанный файлов не совпадают или видео на каком-то месте «залипает» или хрюкает (случается при отдельных битых кадрах) или какой-то артефакт на фото появился — один из секторов файла прочитался некорректно.
Раньше (когда-то очень давно) с таким только на бракованных CD-приводах сталкивался, когда они могли молча мусора в содержимое файла вывалить при чтении с поцарапанного/загрязненного/помутневшего диска вместо выдачи ошибки чтения.
HDD себе такого не позволяли. Либо читается нормально, либо читается медленно из деградировавшего сектора (диск может автоматически десятки попыток чтения подряд делать), но если все-таки прочиталось с -дцатой попытки — то считанные данные будут корректные.
Была такая ситуация на ноуте. Винда не грузится, в безопасном режиме зависает на каком-то драйвере. Как объяснил чуть более опытный чувак — это значит Винда не дождалась нужного числа попыток чтобы за -дцать раз прочитать. Когда скопировали винт на новый (500 вроде брали, хотя нет — там был 9.5 мм и на 1 ТБ взяли) Винда загрузилась без проблем.
Небольшие китайские фирмы пользуются недорогими и простыми контроллерами прошлых поколений, руководствуясь не качеством и новизной алгоритмов, а ценой. Крупные компании не экономят на железе для своих SSD и выбирают контроллеры, обеспечивающие накопителю долгую жизнь и бо̒льшую скорость работы.
Kingston_Technology, можете привести пример?
Скорость доступа. Для модели с чипами QLC она составляет: на чтение до 1500 Мб/сек, на запись до 1000 Мб/сек. Для модели на чипах TLC — 3210 Мб/сек и 1625 Мб/сек соответственно.
Это где такие «шикарные» QLC бывают, которые «всего» в ~2 раза медленнее TLC?
Или же это выдача скорости псевдо-SLC кэша под видом скорости работы QLC?
Или же результат для каких-то топовых 4 ТБ моделей, в которых такую скорость можно натянуть огромным количеством параллельно работающих ядер памяти?
Потому как у ходовых 0.5ТБ — 1 ТБ моделей на QLC судя по появившимся тестам/обзорам скорость записи просто мрак — даже на линейной записи всего порядка 100-200 МБ/с. Т.е. на порядок (в 5-10-15 раз) хуже чем у TLC и даже медленнее чем у современных механических HDD!
А так же причина почему <0.5 ТБ моделей нет и большинство производителей выпускать не планирует — слишком уж сложно будет скрывать низкую скорость и надежность самой QLC.
Терабайтник интела в тестах вполне достойно и на уровне себя показывает.
Правда при цене в 130 баксов за 1тб — не очень понятно зачем qlc, тогда как за те же деньги можно более ресурсоемкий tlc взять или даже на старенький mlc покусится если поискать такие в продаже.
А вот когда SLC кэш заканчивается (при большом объеме записи данных или когда на диске мало свободного места остается) и начинает работать собственно QLC память, то не просто медленнее, происходит вообще подобная жесть:
После удаления файлов при «расчистке» свободного места тоже жесть — скорость падает так, что становится на порядок хуже даже жестких дисков — это заметно даже без всяких тестов, все начинает тупить и лагать при любом обращении к диску до тех пор пока он не закончит чистку освободившегося места.
Источник — 3dnews.ru/981785/obzor-nvmenakopitelya-intel-ssd-660p-umestna-li-qlcpamyat-v-ssd-dlya-pci-express
Правда надо признать что при типовых легких «бытовых» нагрузках всю эту жесть обычно получается удачно замаскировать работой большого SLC кэша. А чтобы он был большим — производители решили продавать только QLC диски большого объема, т.к. на каждый 1 ГБ SLC кэша нужно уже по 4 ГБ свободного места на диске резервировать.
Но в начале диска даже «потребительские» 7к модели уже уже за 200 МБ/с шагнули. Даже мой старенький (~5 лет с момента выпуска, ~25 тыс. часов наработки) диск из эконом серии (но на 7200 rpm) на 1м логическом разделе выдает:
Sequential Read: 196.633 MB/s
Sequential Write: 184.630 MB/s
Тогда как у QLC «небольших» объемов линейная скорость вообще ниже 100 МБ/с падает когда идет работа с ней напрямую (а не с кэшем) — см. графики выложил выше.
а при записи ставить третий бит в 1
Нет, это совсем не то. 3-битовая ячейка — это ячейка, при работе с которой считыватель способен разделить 8 уровней заряда, а «записыватель» — записать эти уровни.
Условно могу сказать, что эти уровни равны 1..8*«условную энергию шума».
Возможно, что мы как-то ускорим процесс при Вашем методе, то есть что уровни энергии
E = 5..8 N (или 1..4 N) дают более быстро записывать и считывать, но, ИМХО, не существенно.
Но я так понял, что запас ячеек в 2-битовом режиме именно для скорости задается. Конечно после заполениея 50% ячеек SSD таких ячеек уже не должно остаться.
P.S. Для многих программ есть рекомендуемый размер кластера, правда кажется на современных дисках с объемом в терабайты кажется сектор уже не 512 байт, а больше. Есть ли какие-то рекомендации для SSD, кроме «Доверьтесь Винде и выберете 4096 Байт»?
Т.о. MS сама рекомендует для своей СУБД использовать размер кластера в 64КБ для раздела с файлами баз и логов, а в некоторых случаях (как я понял, аналитических базах) в 32 или 64КБ, выбрав оптимальное путем тестов.
Замечу, что размер кластера менять рекомендуется именно и только на разделах, отданных под СУБД.
Ну и понятен такой факт — что хорошо для раздела под БД, может быть не хорошо для любых других способов юзания FS на диске.
SSD на базе QLC — убийца жёстких дисков? На самом деле нет