Pull to refresh

Comments 152

SSD в отличие от HDD не имеют механических частей и поэтому имеют более предсказуемый ресурс. Если HDD может откинуться через 5 лет, или через 10, то для SSD заранее известен ресурс записи в терабайтах. 600 ТБ записи при расходе 15 ТБ ресурса в год хватит на 40 лет. Хватит ли HDD на 40 лет?

Единственное преимущество HDD на данный момент — это дешевизна единицы объёма по сравнению с SSD.

то для SSD заранее известен ресурс записи в терабайтах.

Для SSD известен только некоторый среднестатистический ресурс "штатного" износа. Как и когда произойдёт нештатная поломка, точно так же не знает никто. Он может проработать и до штатного износа, и просто до морального устаревания, а может выйти из строя в самый неподходящий момент.


SSD в отличие от HDD не имеют механических частей и поэтому имеют более предсказуемый ресурс

Механика в HDD, к слову, достаточно надёжная часть, которая с одной стороны, достаточно простая, с другой — обвешанная датчиками и системами контроля. Внезапные поломки, приводящие к потере данных, и в SSD, и в HDD имеют схожую природу, они сидят чаще всего в электронике.

Я вот недавно уронил внешний hdd и он перестал работать, и ни один датчик и система контроля мне это не предсказали. С ssd бы при падении с такой высоты вряд ли бы что то произошло, так что надежность механики тоже довольно спорный критерий.

Для платы электроники вполне хватит и микротрещины в дорожке от падения.

Хватит, но микротрещину получить гораздо сложнее, особенно при учете массогабаритных характеристик плат ssd дисков.

SSD это такой большой, в коробочке 2.5"?
Если m2 на керамогранит со стола уронить - шансы уравниватся.. А если ногой наступить - тут уже hdd вырывается вперед

служба доставки
служба доставки

служба доставки инторнет гамазина делает это легко и непринуждённо.

Если кому непонятно - это М2, вид сбоку

Я как-то уронил hdd (quantum fireball 6.4 gb) с дипломной работой, на бетонные ступеньки универа. И ничего. Пара бэдов. hdd после этого ещё много лет работал, правда издавал звук, как будто там внутри крутится наждачный камень, затачивающий ножи...

Он так и не умер и был заменён на 40 гб maxtor чисто из-за объёма.

странно сравнивать надежность в нештатных ситуациях )))

А если бы космический луч попал в ячейку вашего SSD и изменил там заряд ? )))

В таком случае HDD будет более надежен так как его магнитным домменам космические лучи по сути менее опасны

Уронить диск - обычная бытовая ситуация, довольно часто происходящая у очень многих пользователей. Штатная она или нештатная пользователю все равно. А у вас я так понимаю космические лучи изменяющие заряд это обычное дело? Расскажите подробнее, очень интересно, потому что людей ронявших диски я знаю десятки, а с космическим лучами вы первый.

Это значит, что HDD плохо приспособлен для переноса данных и для использования в ноутбуках. У вас ноут основной компьютер?

Сейчас да, раньше был десктоп, с несколькими hdd и ssd вперемешку, hdd только для хранения видео и аудио, ssd для всего остального. Единственная причина использования hdd - низкая цена, остальное недостатки - большие, тяжелые, медленные. Даже архив фото в raw формате я храню на ssd, потому что при размере одного снимка в 80мб, о какой либо вменяемой навигации по каталогу на hdd речи уже не идет.

Вот в этом комментарии пользователь собрал подборку ссылок по теме. В данном контексте, конечно, скорее смешно, но может иметь место

Имеем SSD 64ГБ TLC, Ресурс 80ТБ.
40ГБ занято системой, обновления выключены. 15ГБ хранятся в моих доках в виде таблиц отчётов, видосов со школы/универа или свадьбы, то что жалко удалить. На всё про всё остаётся 9ГБ.

Вопрос:
Ресурс 80ТБ будет расходоваться в пределах этих 9ГБ для TLC памяти это сильно предсказуемо? Выходит почти 9 тыс. перезаписей на ячейку при ресурсе 1 тыс.

Пример утрированный, но и ситуация у каждого индивидуальная. У меня например в ноутах стоят 2 SSD по 32ГБ каждый с MLC и TLC памятью.
У кого-то может быть видосов с выпускного на 200ГБ. Ситуация полностью аналогичная, только в масштабе.

Ни о какой предсказуемости не может быть речи.

Ресурс 80ТБ будет расходоваться в пределах этих 9ГБ для TLC памяти это сильно предсказуемо? Выходит почти 9 тыс. перезаписей на ячейку при ресурсе 1 тыс.

В теории, прошивка диска должна следить за равномерностью записи и "перекладывать" информацию с места на место.

В таком случае это бестолковый расход ресурса и падение скорости на пустом месте.
И потом, откуда прошивке знать, какие ресурсы перекладывать? Надо иметь для этого системную память эквивалентную по размеру основной, т.е. реальной памяти должно быть в 2 раза больше. А ещё эта память будет иметь свой ресурс.
ИМХО. Игра с прошивкой не стоит свеч.

Учитывая то, что обновлять ячейки всё равно приходится периодически, какой-то таймер там должен быть. Само собой, он не на каждый бит информации, а на блок какого-то размера.

Ещё как стоит свеч...

Никакой дополнительной памяти не надо - контроллер меняет местами "холодные " и "горячие" данные, тем самым размазывая износ равномерно. Но так умеют делать не все контроллеры - тут уже конкретно не скажу. Но сейчас подавляющее большинство уже реализовало такой функционал.

Делается в общем-то такое достаточно легко. Все данные пишутся не по 1 сектору (4К/512), а блоками по сотне таких секторов - ограничения многослойной NAND-памяти. Вот в этих блоках хранятся и служебные данные в том числе (которые пользователю никак не видны). Контроллер периодически (с очень большим интервалом) считывает эти данные и смотрит, насколько они хорошо прочитались. Если ошибок чтения стало больше некоторого порога - данные всего блока переносятся в другой блок. И да - ошибки чтения будут всегда, это минусы технологии, компактности и скорости. Потому в данные при записи в NAND всегда вводится избыточность для компенсации этих ошибок (и этот избыток юзер тоже не видит).

Как минимум, чтобы это работало эффективно, на диске должно быть много свободного места.

Нет. Контроллер считывает данные во внутреннюю память, пишет их в свободную ячейку, стирает ячейку, откуда было чтение. Там по алгоритму нужна только буферная память (SRAM/SDRAM). И в любом диске есть резервные ячейки как раз для проведения таких операций - часть объёма рехервируется и недоступно пользователю. Так же есть системная область, где хранятся фирмварь и служебные данные.

Говорю об этом как человек, который учавствует в подобном, а не "где-то в интернетах читал" ;)

Забитые 8хх и 9хх Самсунги живут заметно меньше, чем такие же, но с заполнением в 30-50% :)

Так потому на нормальные ссд и ставят памяти с запасом.
Даже из дешевых китайцев иногда после перепрошивки на коленке процентов 20 дополнительного места получается выжать. Типа был диск на 240, а после прошивки стал на 280, я подобные случаи встречал.

Ну, совершенно необязательно "эквивалентную по размеру". Во-первых, у SSD обычно есть FTL (служебная область), где зачастую поблочно хранится wear level. Во-вторых у NAND-памяти есть OOB-зона на каждой странице. Каждый вендор хранит по-своему эту информацию.
Вот немного обзорного материала на эту тему.
А вот например работа про помещение в OOB-зону. А еще можно подсмотреть как это делают в OpenSSD project.

У большинства SSD есть зарезервированная область для wear leveling.

Единственный нюанс HDD обычно откидывается постепенно и это можно заметить, а SSD внезапно и целиком. Отключенный SSD хранит данные не так долго как отключенный HDD.

Ни один из десятков SSD в моей практике не вышел из стоя из-за износа. Те же немногие, что отказали, в массе — внезапно из-за отказа или слёта прошивки контроллера, и один — из-за бракованного чипа флэш-памяти сразу в начале эксплуатации.

Жесткие диски отказывают предсказуемо, что дает возможность легко перенести данные, и происходит это на порядок реже.

У меня в прошлом месяце на ура отлетел 480гб диск, за квартал, занятый на 20гб. Полгода пробега, просто лочит шину. В итоге узнал что за контроллер, Realtek и прошивок нет. С нжмд уже за добрые 50+ лет и за 30-35 лет с wd1010 всё вылизано. Воин объёмов и цен давно нет. Во всяком случае с дисками в России.
У нжмд один критичный недостаток — опасность повреждения от вибраций и ударов. Другой, надёжность, увы у ССД практического манипулятивный характер.

Имею SSD диск ADATA. Ресурс 300 TBW, умер на 24 TBW. Просто перестал записывать данные. Вот она и предсказуемость.

Фейковый параметр эти TBW. Очередной оценочный критерий идеального сферического коня в вакууме.

Были у меня флешки ADATA, ни одна не прожила и пол года. Так что ваш результат для меня очень даже предсказуем :)

Около полутора сотен ADATA 650 на 240GB — трупов за три года штук пять. Молча умерших три, с двух что-то удалось выцепить.

у меня ADATA 128Гб залочилась ATA паролем в результате....неважно, это отдельная пестня про "Дуал бивис гигабайт"... и так залочилась, что родная утилита для восстановления прошивки посылает нафиг, ну и все остальные танцы с бубнами бесполезны

Ssd мрут хуже, если диск ещё даёт шансы и начинает замедляться и сыпать бэдблоки, то отказ ssd это как лампочка, раз и нету его

Из практики ssd плохо выживает включения-выключения, прям ахиллесова пята.

а если SSD долго не подключать к сети? ))) что будет с запертым там зарядом ?

Все таки архивное хранение данных например делают до сих пор на магнитных лентах ибо дешево и можно восстановить данные в случае чего

А на том же SSD восстановление данных практически невозможно ввиду работы контроллеров для равномерного износа SSD

а если SSD долго не подключать к сети? ))) что будет с запертым там зарядом ?


Вообще, в первом приближении ничего не поменяется. Это динамическая память хранит информацию в виде заряда на конденсаторе, присоединенном к цепи. С ненулевыми утечками, и необходимостью регенерации. Флеш-память закидывает заряд за потенциальный барьер (используя повышенное напряжение), утечь оттуда не так просто. Более того, никакой регенерации в ячейке флеш-памяти не предусмотрено. Так что, с точки зрения хранения, режим "питание включено" не так сильно отличается от "питание выключено"

Так что, подозреваю, истории с флешками/SSD, которые умерли от хранения, имеют другое объяснение, и умерли эти дивайсы в момент включения, или выключения.

В QLC флешках на мелких нанометрах ситуация уже не такая однозначная. И заряд утекает заметно (толщина диэлектрика меньше, самого заряда меньше), и чтение немного разрушающим становится.

Флеш это фактически тоже конденсатор, просто никуда не подключенный электрически. Т.е. утечка через диэлектрик никуда не девается. По поводу регенерации - как минимум, пресловутые перемещения блоков контроллером это в том числе и регенерация, а возможно какие-то контроллеры умеют и настоящую регенерацию делать, обнаружив просевший заряд. Так что при достаточно умном контроллере прикол про "заряжать флешку" - не такой уж и прикол.

увы, SSD, даже серверные умирают случайным образом. у меня в прошлом году померла SSDшка для СУБД, у которой оставалось более 70% ресурса. тупо перестала определяться. серверные винты так не умирают, там процесс хорошо виден в SMARTе и можно заранее произвести замену.

Тем не менее SSD часто умирает задолго до конца ресурса, и не всегда переходит в режим частичного только чтения (часть операций записи проходит). Под часть нагрузок SSD не подходит физически (бекапы). Ну или постоянно покупать новые диски. Часть служебной информации, как я читал, не может распределяться по всему диску т.е. у SSD есть участки памяти которые имеют свои лимиты. Пропадание информации спустя время у SSD тоже в минуса.
В итоге, все, что требует перезаписи данных постоянно не может заменить HDD. Иной раз важен объем и время жизни данных.
Не так давно спустя гарантию и пара месяцев перешел в режим только чтение на работе один из SSD. Причем до конца ресурса там еще много оставалось.

Всё зависит от воздействий, вида использования и т.п.
Надо ещё учитывать, что ссд обычно дохнут целиком, а хдд сперва начинает сыпаться, что можно отследить и успеть спасти часть данных.


Но основной принцип — верить нельзя никому. Ненадёжны любые носители. Потому — бэкапы.
На разные носители и в разные места.

За второй абзац - плюс много. Если вообще встаёт проблема восстановления данных - то ошибка была допущена изначально. Без бекапа могут оставаться только те данные, которые в принципе никогда не надо восстанавливать (кэши всякие и иже с ними).

Но внезапность смерти SSD может быть недостатком и с другой точки зрения. Увы, отнюдь не у каждого сервера круглосуточно сидит инженер поддержки с запасом запасных дисков. Иногда приходится этот диск искать, покупать, куда-то ехать. И тут запас времени, который даёт начавший давать ошибки в SMART HDD, может изрядно сократить вероятность простоя.

Без бекапа могут оставаться только те данные, которые в принципе никогда не надо восстанавливать

Ну, ОС с программами на юзерской машине тоже особого смысла хранить нет, они даже не из образа за полчаса раскатываются. А вот профили крайне желательно бэкапить. Ибо как юзера не пинай "храни всё на сервере", самые важные файлы всегда оказываются на рабочем столе...


И тут запас времени, который даёт начавший давать ошибки в SMART HDD, может изрядно сократить вероятность простоя.

Оно тоже не панацея, я видел и сдохшие диски с нормальным смартом, и просто молча пропавшие из системы, как ссд обычно делают. Другое дело, что для hdd это редкость, а для ссд молча сдохнуть — стандартное поведение.


Но если с жесткого диска ещё можно потом что-то вычитать (и вообще, удалённые файлы восстановить на коленке, если вдруг что), то вот с ссд тут всё гораздо сложнее.

Хранить ли "ОС с программами" - даже для сервера вопрос удобства в каждом конкретном случае. Где-то удобнее бекапить полными снэпшотами и их же и восстанавливать, где-то - разворачивать сервер с нуля и накатывать софт с конфигами Ansibl'ом.

А вот юзерские "рабочие столы" и даже "загрузки" надо делать синхронизируемыми с облаком (лучше частным) папками, да. Может, даже и весь профиль, но когда в этом профиле гигабайт 50 занимает почтовый ящик Outlook в формате OST одним файлом, который и так на почтовом сервере лежит, - уже вопрос. Но да, пользователю бесполезно объяснять "храни всё на сервере", он даже будет искренне считать, что "да, да, потом сохраню, а сейчас мне срочно" - и так в итоге и оставит важную инфу навеки лежащей незнамо где. Так что в условиях быстрых каналов и дешёвых терабайтов лучше сихронизировать в реальном времени кучу лишнего мусора, чем потерять что-то важное.

На сервере всё же много системных настроек бывает, потому его чаще проще из образа восстановить, чем для каждого сервиса с нуля.


А вот юзерские профили да, я своих не синхронизирую целиком именно из-за того, что у них ящики почтовые на десятки гигабайт, да ещё и фильмы и фотки хранят. Потому просто рабочий стол копирую да документы, с ограничением на максимальный размер файла.


в условиях быстрых каналов и дешёвых терабайтов лучше сихронизировать в реальном времени кучу лишнего мусора, чем потерять что-то важное.

К сожалению, даже локально каналы не всегда достаточно быстрые. И терабайтов на всех тоже не хватает.

Если на сервере есть настройки, которые созданы не в результате применения централизованной системы управления конфигурацией (Ansible, Puppet и пр.), а вручную - это тоже изначальная ошибка... Хотя да, это в идеальном мире, а бывает по-всякому. Но я стараюсь держать себя в руках и даже если что-то подправил руками - сразу же переносить в плейбук.

Тут всё зависит от серверов. Я подозреваю, что ансибли и т.п. — это линуксовые инструменты, а я больше виндовый админ. То бишь AD и всякие странные проприетарные конструкции, которые для меня чёрный ящик и восстанавливать в случае проблем его только откатом на изначальный образ.

Ну да, сервера под Windows для меня - это какой-то неизведанный мир, где обитают чудовища :) Года полтора назад пробовал для одной задачи (как раз сделать локальный AD для SSO через Azure), долго плакал и матерился, - но возникшая параллельно этими попыткам невозможность без танцев с бубном купить лицензии MS окончательно убедила меня в том, что мне это не надо. Для Win тоже какие-то системы управления конфигурациями есть, и тот же Ansible определённый уровень поддержки Windows имеет, но тут я только краем уха слышал.

Отключение дефрагментации не поможет. Система посылает контроллеру SSD команды TRIM или Deallocate, в случае SSD с интерфейсом NVMe (поддерживается, начиная с Win8). Команда сообщает контроллеру накопителя, какие блоки памяти можно удалить. Если отключить дефрагментацию, скорость записи на SSD-накопитель начнёт снижаться.

TRIM отправляется при удалении файла, при чем тут дефрагментация, которая перезаписывает части файла поближе друг к другу для ускорения линейного чтения на HDD? В винде дефрагментация SSD отключена по умолчанию. На SSD c SATA (ACHI) тоже вполне есть TRIM не понятно как это связано с NVMe.

В стремлении сэкономить ресурс SSD некоторые пользователи отключают файл подкачки или переносят его на HDD. Но зачем тогда нужен SSD, если, в обоих случаях вы теряете в производительности?

Пользователи ставят достаточное количество памяти - тогда отключение\перенос подкачки ничего не замедляет, зато предотвращает ситуации когда из-за ошибки или большой нагрузки подкачка начинает очень интенсивно использоваться, съедая проценты ресурса.

Возможно остальные советы из статьи тоже не стоит воспринимать всерьез - тут уже не вчитывался\или не в курсе.

Пользователи ставят достаточное количество памяти - тогда отключение\перенос подкачки ничего не замедляет

Не уверен, надо смотреть как работает конкретная ОС - та же Виста пихала все что можно и нельзя в память и отлично работала если не ставить на калькуляторы. А её ставили, в итоге после плача, о том какая тормозная Виста, в 7ке, при свободной памяти, уже файл подкачки во всю использовался, а 8гб памяти пустовали...

В те времена когда вышла Виста, даже новые машины с магазина были калькуляторами. 2 ядра и 2 гига были ни о чем. Хотя у меня на рабочей машине NT5 с 2гб работала без подкачки и никогда память не забивалась.

Когда вышла виста, её втыкали на одноядерники с 512 мегами. Отчего и ненависть пошла.
А два ядра и два гига стали мейнстримом где-то к выходу семёрки.

Это очень хорошие компы на том момент! Висту ставили на ноуты с 256 мб...

конкретно в винде отключать своп все же не стоит. гигабайт-два лучше оставить.
без свопа не будет работать сжатие памяти (а это +треть памяти почти без потерь перфа). и опять же, без свопа нельзя будет использовать всю память машины- винда не оверкоммитит память и вполне может сказать, что она закончилась, когда по диспетчеру задач свободно еще половина.

поэтому на своем лине я жму оперативку в zstd в zram а для файла подкачки выставил меньший приоритет

Ибо при современных апетитах браузеров 16 гигов уже катострафически мало ))

Ну и для SSD тоже выставил сжатие на лету в BTRFS с помошью zstd

У меня 32 гигабайта ОЗУ, ни разу за все время не сталкивался с проблемой нехватки памяти. Но могут возникнуть проблемы с некоторыми приложениями требующими файл подкачки. С другой стороны я конечно и не грузил систему прямо по максимуму.

У меня 32, в BSOD улетаю регулярно при работе с 4К+ HFR видео. Заказал как раз на пятницу 64 гига двумя плашками, буду посмотреть, хватит ли. :)
Был еще случай, когда монтажная программа сожрала 32 гига RAM и еще 67ГБ swap сверху… НА ЗВУК.

2019 год, адоб премьер, сложное видео чуть больше часа (любительская съёмка - куча кусков и попыток исправить косяки съёмки), интел 4/8, 16 гигов озу, да ещё тогда видюха накрылась (осталась встройка) - с небольшими перерывами редактура и рендеринг в сумме заняли почти полгода и не вылетало только на 70 гигах свопа. Со звуком таких проблем не было, саунд форж какой-то в то время версии.

Вот много где читал этот совет, что не нужно совсем выключать своп. Но под win 7, 16 gb ram, 256 gb ssd под винду, 512 gb ssd под стим переодически ловил в играх статтеры. Стоило только выключить своп всё становилось ок. Но если запустить android студию + эмулятор + тяжёлую игру, то естественно можно словит вылет игры из-за нехватки памяти. Докупил оперативы до 32, пробовал играться с свопом, всё то же самое. С включенным свопом статтеры есть, хоть и реже, с выключенным статтеров нет. Под Win 10 не экспериментировал.

Своп лучше всего ложить в RAM disk :)

В винде дефрагментация SSD отключена по умолчанию.

Если не ошибаюсь, в винде штатный дефрагментатор, будучи запущенным для SSD, как раз и занимается тем, что отправляет TRIM по пустым блокам. А вот при удалении файла, наоборот, TRIM не посылается, потому что обычное удаление файла подразумевает обратимость операции хотя бы сразу после её совершения, если это произошло непреднамеренно. После TRIM же уже восстановление на уровне ОС/файловой системы невозможно, ибо контроллер там физические страницы перетасует, и ОС про это ничего знать не будет.
Но, повторюсь, могу и ошибаться.

Возможно и чистит как дополнительный шаг, но вообще TRIM при удалении файла вызывается, судя по докам:

Delete notifications (also known as trim or unmap) is a feature that notifies the underlying storage device of clusters that have been freed due to a file delete operation.

Да, действительно, там вот так:


For systems using ReFS v2, trim is disabled by default.
For systems using ReFS v1, trim is enabled by default.
For systems using NTFS, trim is enabled by default unless an administrator disables it.
For systems using ReFS v2, trim is disabled by default

О_О Ну как так-то, а?

SSD под базы данных юзать только в RAID, чтобы когда вылетит диск, его можно было заменить на новый без перерыва в обслуживании.

был raid10 на ssd samsung 870 evo 1tb, хранились фотки, рабочие документы и докер с 3мя докер контейнерами(без особой нагрузки),домашняя нагрузка(установлена дома), все это установлено было в nas synology rs1221, под кондиционером, кроме выше указанных данных там ничего не хранилось, через примерно 4-5 месяцев, в течении часа-двух вышло из строя 3 накопителя из 4х, это к тому что хранить базы хз, хоть и храню чувствительную информацию уже на ссд для корпоративного назначения, но бэкапы снимаются на ежедневно и ежечасно уже на hdd

3-2-1:


  • 3 копии
  • 2 типа носителей
  • 1 удаленный

Все верно делаете.

Ну, кроме того, что 870 вроде как бракованные получились, RAID на SSD — вещь не самая полезная, тем более дома.

про брак у 870 не знал, этих дисков у меня установлено 10 штук, дома у меня не совсем типичное использование( конкретно об этих 4х ссд они были лишними и дабы их куда то пристроить, был выбран вышеуказанный способ их задействовать), а так дома у меня в спец комнате установлена стойка, с кондиционером, инверторным ибп на 2квт, перед всем этим добром инверторный стабилизатор на 14квт, т.е. идеальная среда для работы техники( кроме влажности), так же аналогичные ссд стоят еще под виртуализацию но уже в raid1 (как помрут поменяю на sm883), с ними не так критично ибо репликация каждые 15минут и ежедневные бэкапы на хранилище с hdd

На ixbt есть тема конкретно по браку 870 evo. Пишут, что "до 90%".
В подробности особо не вникал, у меня таких нет.


дома у меня в спец комнате установлена стойка, с кондиционером

Ну если так, то можно и рейд. Разрешаю. :)


Просто зеркало на ссд я понять ещё могу, а вот страйп — не особо. Ну да, по тестам скорость подрастёт, но в реальной жизни только на очень специфичных задачах заметишь.

А что ещё полезного можно собрать из 4 дисков? Рейды 5/6 — наоборот задержку дадут. Вот и остаётся либо 10 рейд, либо зеркало двух объединённых дисков(span).

Два зеркала. :)
И второе под бэкапы/снапшоты/теневые копии :

А почему RAID не полезен на SSD?

Дома.
Основная задача рейда — обеспечить бесперебойность работы. Если у вас не какой-то домашний офис с хостингом проектов, то бесперебойность не особо нужна. Сдох диск — воткнул новый, накатил образ из бэкапа, работаешь дальше. От того, что компьютер несколько часов не работал, никто не помрёт.


Вторая задач — всякие там страйпы — скорость работы и объём. Но, во-первых, скорости простых sata'шных ссд для дома и так за глаза. Во-вторых, как мне кажется, лучше уж взять один более быстрый диск большей ёмкости, чем городить из двух медленных raid0.

Сдаётся мне, что в таком выводе за меня решили, что если 'дома' то простой и потеря самых свежих изменений файлов (не каждую же минуту делаются бекапы) -- прокатят, а вот ужас-ужас -- падение производительности ссдшек в рейде5-6 -- ни в коем случае не прокатит.

А подскажите, в качестве полочника SSD надёжнее HDD или нет?
И если использовать как полочник, как часто его надо подключать к питанию, чтобы не протух?

Мы при парке в сто машин поймали два или три случая, когда данные на ссд посыпались через 2-3 месяца без питания. Это было в пандемию. После выхода в офис люди сталкивались с рандомными синими экранами. Переустановка системы на отформатированный диск решила проблему. Также я себе часть виртуальных машин скинул на внешний ссд. Через полтора месяца попробовал запустить систему с этого ссд, но диск отваливался. По диспетчеру были видны задержки в чтении в 10 секунд (не миллисекунд, а 10 сек). Соответственно VMware падал с ошибкой. Но при этом данные прочитать удалось. Очень медленно, но ссд прочитался. Потом я его форматнул и снова получил полную скорость. Так что для хранения (долгого и без питания) ссд больше не использую вообще

Спасибо! Проблемы через всего полтора месяца — то есть подключать надо хотя бы раз в месяц.
У меня несколько разного объёма полочников HDD, рефрешу раз в год, все достаточно старые (2010-2015), за последние 5 лет ухудшения только у одного.
Похоже, на SSD переходить рановато. Особенно учитывая разницу цен.

Спасибо! Проблемы через всего полтора месяца — то есть подключать надо хотя бы раз в месяц.

И не будет никакой уверенности, что контроллер что-то сделает (к ним у меня веры нет). Это значит подключать и насильно делать именно дефрагментацию или другой метод перезаписи данных.

Мы при парке в сто машин поймали два или три случая, когда данные на ссд посыпались через 2-3 месяца без питания.

В таких случаях интересно записать контроллер и тип флеш-памяти. И то, по модели не всегда будет понятно кто есть кто, потому что производители любят втихую менять компоненты не меняя SKU.

Ну если с полки навернётся, то у SSD шансов выжить больше. Хотя бы потому, что он просто легче.

Помните времена, когда в фирменные, не палёные SSD гайку вклеивали, чтобы не пугать покупателей их лёгкостью?

Типа того, только это явный левак, а в несколько ранних моделей производитель утяжелитель ставил. Размер 2.5" очень быстро стал великоват для SSD, но отказываться от установившегося стандарта не так-то просто.

У Самсунг был и есть корпус из алюминия. Тоже немного влияет на мнение покупателей.

Вспоминая времена до SSD диски дохли регулярно, раз в год - два HDD сдыхал иногда раньше иногда позже (встречались живущие очень долго).

После перехода на SSD ни одного диска не сдохло за последние 10 лет.

И да это мой личный опыт и скорее всего ошибка выжившего, я теперь только на SSD )))

Вопрос не в том, что "сдох"/выжил. Вопрос - насколько вероятно восстановить данные. У меня есть печальный (для ssd) опыт. Благо, ценного там ничего не было, а попытка восстановить была чисто из интереса. С другой стороны, с hdd опыт восстановления был успешный.

Да сдохший SSD в кошмарах сниться, хотя в моем опыте вытащить хоть что то с умирающего HDD получалось гораздо реже, чем не вытащить. Хотя естественно пытался вытаскивать подручными средствами вроде спец софта. Восстановление в лабораториях было за рамками моего потребительского бюджета )

Если вы храните данные на нонейм китайских флешках с алиэкспресса но у вас должным образом организован бекап, то вероятность восстановить данные значительно выше чем при хранении всего одной копии на самом лучшем hdd.

С HDD сейчас тоже как то сложно. Умер диск, нашел идентичный, отнес в сервис для восстановления, говорю сделайте мне DD обычный с мертвого на блиннице на донора. Не могут почему-то. Посоветуйте, если есть положительный опыт, сервис где могли бы такое сделать.

Вы бы страну написали. Есть https://hdd.by/ (автор Victoria), http://rozik.od.ua/ , https://rlab.ru/ .

Донор не спроста называется донором — он разбирается. К работе после этого он не пригоден.
Если вы хотите копию данных, то вам нужен еще один диск, на котором вы ее унесете.

Имел в виду следующее, диск с данными разбирается, блины в блинницу, данные копировать на рабочий такой же диск посекторно.

Так нет никакой "блинницы" у сервисных центров. Если оно там более-менее живое в целом, но пошло поспать из-за глюков, то можно попробовать оживить пациента с помощью штук вроде РС-3000, или хотя бы посекторно вытянуть из него ещё живые данные. А если электроника накрылась, то восстановление данных с винта с дохлой электроникой производится с помощью аналогичного винта-донора. С него снимается живая плата, с дохлой платы выпаивается ПЗУ с адаптивами и пересаживается на живую плату, живая плата ставится в дохлый винт. И эта процедура подразумевает, что данные стоят намного дороже винта. Или ещё более роскошные варианты, в зависимости от характера неисправности — с донора могут пересаживаться и головки, или наоборот, пакет блинов из неисправного винта садится в донор. Но в любом случае, деструктивное использование аналогичного винта-донора присутствует в любых вариациях восстановления данных с убитого винта.

Вот это вселенская синхрония. Только вчера у меня безвременно ушёл в read-only Samsung 980 PRO через год с небольшим работы без каких-либо нареканий. Не уследил что надо было прошивку обновлять, а теперь уже ничего не сделать.

Статья по проблеме: Samsung Issues Fix for Dying 980 Pro SSDs | Tom's Hardware (tomshardware.com)

И на хабре по аналогичной проблеме с 990: Samsung отказалась заменить по гарантии SSD 990 Pro с проблемами работоспособности / Хабр (habr.com)

Сейчас такое время, что имеет смысл покупать новое железо через год после его выхода, что бы проявились всё проблемы, выкатились новые ревизии. Проблемы были с процами от АМД, и от Интел. Проблемы с видяхами, проблемы с ССД. Даже с памятью проблемы.

Это касается топового железа.

Бюджетные железки, я вообще не представляю как покупать, производители меняют компоновку как захотят.

Такого принципа стоит придерживаться не только при покупке железа, а вообще всего мне кажется.

Даже бренды через какое-то время могут втихую поменять характеристики, так что вообще никому верить нельзя.

Еще 870 серия у Самсунг очень не очень, умирали очень быстро буквально после одного терабайта записанных данных начинался износ. Вроде как кривая прошивка тому виной. У меня тоже есть такой накопитель но из новой ревизии, пока наблюдаю.

Только-только собрал новый ПК, полностью избавленный от HDD. В прошлом как раз наблюдал тенденцию внезапной смертности HDD: на одном отказала механика и он запилил себе поверхность, второй умер от удара, а ещё один просто "ушёл в себя" без объяснения причин. Ни в одном из случаев SMART не помог. И это не говоря о дисках, которые начинали издавать звуки истязаемых в аду стиральных машин 63-го года выпуска, при вполне нормальных показателях. А вот SSD у меня пока не умирали.

У меня и трупов HDD и трупов SSD вполне достаточное количество было. Тут имхо больше везение играет роль.

на одном отказала механика и он запилил себе поверхность, второй умер от удара, а ещё один просто "ушёл в себя" без объяснения причин

Вы их ногами пинали или громко музыку слушаете?

Вроде бы нет. А вот умерший от удара был внешним, был зацеплен проходившим мимо человеком и шлёпнулся оземь. "Ушедший в себя" вообще стоял пол-года в NAS без обращений к нему.

За все время помер только один жёсткий диск от макстор но судя по всему он был мертв еще при рождении. Остальные носители живы, хотя и есть признаки износа.

А как SSD vs HDD в плане долгосрочного хранения? Если я запишу туда много данных и положу на полку, через 10 лет с SSD можно ли будет прочитать всё без ошибок, или электроны "утекут" и ситывать будет нечего? Есть разница в надёжности между SLC/MLC/TLC/QLC?

Утекут, да. Причём чем больше х у хLC, тем выше вероятность. Впрочем с HDD тоже могут быть проблемы, подшипникам долгий простой не нравится, да и firmware на flash-памяти у них тоже есть, которая к этому времени может протухнуть.

Возможно, мифы о ненадёжности SSD стоит пересмотреть?

Не стоит. Наблюдаю в компании парк около 500 офисных рабочих станций под разные задачи. По сравнению с личным опытом из разряда «А вот у меня» считаю, что это вполне себе корректная статистика. Так вот. Отказы по HDD и SSD примерно одинаковы. Но у SSD есть один гигантский минус – он уходит в Валгаллу без предупреждения, без намёков, моментально. С этой точки зрения голосую за HDD. SSD – лишь под ОС и ПО, чтобы шевелилось быстрее.

Почему не делают гигантские SSD? преступный сговор производителей, очевидно же. Цена чипа на условные 1 гб и на 2 гб различается незначительно

Выше станет шанс внезапной смерти и продавать TBW им станет сложнее. ИМХО.

Этот шанс очень слабо коррелирует с объёмом

Ну как произведения вероятности нормальной работы ( надёжности ) вполне даже коррелирует.

Чем больше ячеек и сложнее ( всякие *LC ), тем выше шанс не просто единичных ошибок, а каскадных, которые и являются причин выхода из строя сложных систем. А если в функцию ещё учитывать процессы работы, то становится грустно.

Тогда бы ссд мог корректироваться на меньший объём, как это делают хдд. И такие диски были бы в продаже на али. Но такого не происходит, значит ссд умирают только целиком

А вот кстати вопрос. У меня недавно ZFS pool из трёх SSD ушёл в состояние degraded из-за превышения порогового значения CRC errors по одному из дисков (коих накопилось 15 штук). При этом по данным SMART все диски 100% здоровы, ошибок ноль. После "zpool clear" выкинутый из массива диск опять стал online и успешно работает. Это что вообще могло быть?.. Диски WD Red, вроде как для NAS/серверов, даже малой доли ресурса не отработали. Память на сервере с ECC, так что с её стороны глюки не ожидаются. Но было аварийное отключение питания, может, оно виновато?

CRC Errors это почти всегда кабель или разъёмы, иногда мать, очень редко сами диски. Иногда вообще "музыкой навеяло", то есть прилетел десяток и всё, больше не будет.

Проверьте кабели, подозрительные и слишком гнутые поменяйте. Кабели без защёлок - это для тех экономных, что на старых шинах новый протектор паяльником вырезают.

Спасибо. Там, ЕМНИП, четырёххвостые SFF-8087 -> 4xSATA, которые вряд ли без защёлок. Как будет возможность, перепроверю всё равно.

Любые ошибки в ZFS могут быть вызваны не дисками, а чем-то еще.
У меня из-за некорректных параметров PBO на 3900Х были MCE, в результате давали ошибки чтения на дисках, которые очищались zpool clear и больше не возвращались. Ну про кабели и причастное железо вам уже написали.

Лет 10 назад у меня в raid5 умерли одновременно 2шт WD Red, возрастом менее года.

С тех пор доверия к данным дискам как-то не прибавилось.

В то время перешли на Hitachi, а когда оная растворилась, то стали юзать Toshiba.

И наступила благодать

Hitachi превратилась в HGST (Hitachi Global Storage Technologies), а потом была выкуплена WD. По моему мнению, HDD от HGST — лучшие. Если сейчас брать WD, то по внешнему виду понятно, какая модель является перемаркированной HGST (это Ultrastar DC), а какая модель является продолжением старых (ненадёжных) линеек WD.

fsutil behavior query disabledeletenotify
zsh: command not found: fsutil

Хорошо бы указывать, какая ОС подразумевается.

Не совсем в тему статьи, но на скриншоте с числом циклов записи/стирания для разных технологий что-то непонятное. Cильно зависит от техпроцесса,

SLC на 100k циклов у Интела 50nm вопросов не вызывает. А вот MLC 34-25nm начинались c 5000 циклов вплоть до 3000 и менее.

TLC, судя по спецификациям, около 300 циклов, QLC и 3D NAND вообще ниже плинтуса. Пользователям нужен объём для совреименных монструозных приложений и медиа, а ресурс дело второстепенное. Возможно в корпоративном сегменте дела обстоят иначе и остались модели MLC, но там цены другого порядка. Для быта остаётся только покупать на вторичке (с предварительным контролем S.M.A.R.T.).

>что отказоустойчивость даже недорогих моделей SSD нижнего и среднего ценового сегмента на самом деле не уступает HDD. Возможно, мифы о ненадёжности SSD стоит пересмотреть?

Обязательно пересмотрим как только ссд перестанут дохнуть пачками каждый год. Были у нас адата, вд, кумо, ещё какие-то китайские... Пока что используем эти не помню какие китайские и недавно закупили гигабайт. Остальное скорее всего подделка, но говном быть не перестаёт.

За 2 года сдохло 5% всех ссд (и 2 шт (примерно 1.9%) хдд, но сейчас не о них), м2 дохнут гарантированно за год-два, саташные понадёжнее. 20% из нерабочих - флеш, остальные 80% - контроллер. Последние трупы не исследовали, надоело.

Есть мнение что 'контроллер' -- это тоже, на самом деле, флеш. Если прошивка хранится в тех же мсх флеш-памяти что используются для обычной работы, то точно так же эта прошивка подвержена деградации (выше уже писали, что заряды с плавающих затворов просто со временем стекают, кроме того нонче в флеш-памяти чтение тоже деструктивное -- способствует утеканию затворов и прочитать один и тот же блок можно не более N раз, потом надо обновлять) и точно так же контроллер (точнее управляющая им прошивка) может упустить момент (или оказаться без возможности, если девайс долго был обесточен), когда необходимо обновление. Или из-за общего истраченного ресурса флеш-микросхем даже обновление перестанет помогать. Однажды контроллер при загрузке прошивки не сможет полностью исправить все ошибки и девайс окирпичится.

В каждом узле находилась непроводящая перемычка — логическая «единица».
Прожигая её высоким напряжением, получали «ноль».

если перемычка не проводящая, как её прожигают ?
а вообще, PROM, как раз на ПРОВОДЯЩИХ ПЕРЕЖИГАЕМЫХ перемычках работает.

https://ru.wikipedia.org/wiki/PROM

Данные в такую микросхему добавить можно, а вот стереть нельзя

такое ощущение что статья кривой машинный перевод,
потому что любой инженер напишет "данная микросхема прошивается/прожигается один раз", причём первые версии прошивались на отдельных программаторах,
как нам рассказывали на лекциях, материнки не могли прошивать такие чипы, потому что не развивали нужную силу тока.
а следовательно и "добавить" информацию не могли.

и кстати "стереть" такую ИМС вполне можно, просто сжечь остатки перемычек, чем же это отличается от "стирания данных" ?

по делу: нельзя ИЗМЕНЯТЬ данные. стереть можно. добавить только в конец, но толку может быть ноль если софт не умеет искать данные с конца и проверять актуальность "фрагментов" новых записей.

как нам рассказывали на лекциях, материнки не могли прошивать такие чипы, потому что не развивали нужную силу тока

В материнках такие чипы и не применялись, точнее, не применялись для хранения BIOS. В материнках для этого изначально использовались УФ ПЗУ. А прожигаемыми ПЗУ обычно разруливались какие-то технологические штуки вроде дешифрации адреса, которые не предполагают перепрограммирования, зато предполагают дубовую и быструю логику. Программировать прожигаемую ПЗУ без специального девайса было проблематично — там во-первых, сложный цикл собственно пережигания, во-вторых, нужна ещё термотренировка микросхемы, без которой некоторые пережжённые перемычки имеют нехорошее свойство самовосстаналиваться со временем.

во-вторых, нужна ещё термотренировка микросхемы, без которой некоторые
пережжённые перемычки имеют нехорошее свойство самовосстаналиваться со
временем

это как протягивание оловянных "усов" по поверхности платы ?
на днях я ещё узнал что внутри стеклотекстолита
могут расти "усы" из меди.

Вроде того. Перемычка же, когда её пережигаешь, не исчезает в никуда, она сначала испаряется, а потом там же вокруг и конденсируется. И вот эти капельки металла со временем могут спекаться друг с другом, восстанавливая какую-никакую проводимость между контактами.

Что надёжнее, SSD или HDD? Холивар продолжается…

У меня не один HDD столько проработал. Про SSD пока сказать не могу, не использую их пока так долго. Да и то SSD предпочитаю в основном для системы, для файлопомойки смысла особо нет.

13 лет? Ну, я не могу сказать, много это или мало — обычно и хдд, и ссд уходят на пенсию куда раньше, причём ещё живыми и здоровыми. Тем более что этот включался всего лишь 188 раз, т.е. работал в щадящем режиме. Самый старый из эксплуатирующихся у меня сейчас, это WD Black 1003, наработал 43903 часа, пока живой. Собственно, он же и единственный — все остальные диски уже SSD.
Я, правда, не знаю, как оно считает. Вот сейчас смотрю смарт дисков — у одного наработка 9519 часов, у другого 19571 час. Число включений одинаковое, что вполне логично, оба диска были куплены одновременно и поставлены в комп также одновременно.

Тем более что этот включался всего лишь 188 раз, т.е. работал в щадящем режиме.

Просто редко выключался, это стационарный комп, по совместительству домашний сервер, работающий круглосуточно. Отсюда и 13 лет чистой наработки.

У меня не один HDD столько проработал.
Я товарищу ПК переносил из одного корпуса в другой. Так у него там один из HDD — на 120 гигов. Я даже не поверил сначала. Работает…
один из HDD — на 120 гигов. Я даже не поверил сначала. Работает…

А в чём проблемы? Я за последние пару лет на работе практически везде ссд воткнул — так восьмидесяток, которые лет по 10-15 отпахали, у меня штук 30, не меньше. 120/260/250 тоже достаточно.
Само собой, офисные, так что 8/5 работали, а не 24/7. Но это с какой-то стороны даже тяжелее, винту проще непрерывно крутиться несколько лет, чем каждый день останавливаться и запускаться.

Я думаю, мой первый диск на 850 мб ещё а рабочем состоянии

Ну ваш-то на полке лежит, а тот жужжит ежедневно.

Я вот удивился, когда дискеты, записанные в 1994 году на MSX2, прочитались в 2023 году. Причем практически полностью прочитались, а что не читаются полностью - похоже, с ошибками были уже тогда, давно.

Статья не вызвала у меня доверия к изложенному в ней, по нескольким причинам:


  1. Невнятные и малопонятные формулировки, что замечено и другими комментирующими.
  2. Изрядные расхождения с другими материалами на эту тему. А написанных в рамках холивара подобных материалов я прочёл немало.
  3. А кое-что, причём весьма существенное, вообще не упомянуто в статье (например, нет ни слова про три фоновых процесса, которые постоянно исполняет контроллер SSD — "сборка мусора", выравнивание износа блоков и восстановление утекающих зарядов на затворах транзисторных запоминающих ячеек). Если упущено это — значит, может быть упущено и другое, аналогичное по важности.
Наверное, из-за таких проблем SSD до сих пор полностью не захватили рынок, а HDD ещё крутят свои пластинки в наших системниках.

Что-то вы скромно умолчали про цену)

Я могу понять, почему в статье не упомянули про IOPS. Но вот почему про это никто не упомянул в комментариях, понять не могу. Все же помнят, сколько IOPS в среднем у HDD и SSD?

IOPS штука достаточно специфичная. Она не для всего нужна. На диске под систему — да. На диске под данные — ну, сильно зависит от данных.
Про линейные скорости забывать тоже не стоит. А то сейчас можно делать SSD с крошечным кешем записи, после исчерпания которого скорость падает до уровня дешевой microsd карты. Тут никакие йопсы не помогут…

А какое отношение это к надёжности имеет?

Что бы продлить жизнь SSD его надо как клавиатуру в целлофановый пакетик заворачивать и под хвост целовать: https://pikabu.ru/story/kak_ya_beregu_ssd_10227328 как и современные HDD. Старые были надёжнее.

SSD только под систему. HDD - под данные. У меня так дома. HDD - Toshiba 1 Tb выпуска 2014 года, домашняя машинка, можно сказать, выключается раз в пару месяцев. Диск живой, по S.M.A.R.T.'у убито 1%. Думаю заменить на другой, побольше, но только из-за морального устаревания, а так трудится, старичок... SSD уже второй меняю за третий год - WD Green умер почти, вовремя успел заменить.

Может я и слишком стар и от этого консервативен, но: SSD и HDD. У меня дуалбут. Одна система на одном винте, вторая - на втором. Бут - с HDD. Ну и бэкапы того, что не хочешь потерять - само собой :)

SSD только под систему. HDD — под данные.

Ну сейчас-то зачем? Цены на SSD упали, спокойно можно на SSD хранить и рабочий софт, и рабочие данные, а HDD держать только под файлопомойки/музыку/видео, где объемы большие, а быстрая скорость доступа не важна. Зато ускорение заметно невооружённым взглядом, когда у вас не только система на SSD, но и софт/данные, с которыми вы повседневно работаете.

Вижу в комментариях множество людей, и у первых HDD ненадёжные, у вторых SSD. Причём зачастую долго живут HDD WD Blue либо старые HGST и т.п., а умирающие SSD внезапно безымянные китайцы либо забитые под завязку. У других SSD аж целых десят лет отработал (аж целый один), а HDD как-то помирают за несколько месяцев. Правда почему-то умирают от падения зачастую. Господа, не покупайте ширпотреб и будет оно работать нормально.

Немного скучных историй

Лично у меня WD10EZEX с 2014 года сначала системным диском жил, потом переехал под данные, а недавно под холодные бекапы. Уже тогда время работы в SMART значилось в 4 года. То ли от глюка, то ли при снятии платы SMART сбросился. Тогда же купил себе гудящий Toshiba X300 на 4Тб (HDWE140), у которого уже больше 23.5к часов наработки. Гудет стал еще больше (в отличии от WD), mechanical shock уже перевалило за 200, но работает нормально.

Когда-то взял себе Kingston Furry. Это те, которые на контроллерах со сжатием данных и MLC. Стабильностью работы не отличался. Чуть больше года назад взял Samsung 970 Evo 250Gb. Наработку сейчас глянуть не могу, но работал он благополучно до прошлого года, пока не ушёл в ПК родителей. На его место стал 980 Pro 2Tb. Еще в позапрошлом году получил бесплатно 850 Pro 512Gb, который у владельца систему в синий екран погружал. И это при 180TBW из заявленных 300. Но експлуатировался он забитым под завязку с 32Гб интенсивно используемого свопа.

Субъективные выводы:

  1. не стоит экономить

  2. SSD обязательно брать с большим запасом по объёму

  3. HDD не бить и не ронять

  4. HDD не должны хрустеть, гудеть и т.п.

у первых HDD ненадёжные, у вторых SSD

А прав все равно окажется тот, кто сделал бэкап и сумел из него восстановиться.

SSD в любом случае лучше, если не смотреть на цену. Например я бы лучше поставил SSD на 8Тб, чем HDD на 8Тб, если цена была одинакова.

Надежность это хорошо... А вот недавно столкнулся с неожиданным сценарием. Имею в домашнем компе SSD и HDD. Как-то случайно удалил мимо корзины нужный файл с ССД, немедленно запустил старый добрый (новой версии) R-Studio и что же... Нихрена уже нельзя было сделать. Все побилось. С HDD с этим намного проще.

Для этого есть CoW FS, как zfs или btrfs, и автоматические снепшоты: никаких танцев с аварийным отмонтированием, запуском специальной утилиты — просто извлекаем файл из снепшота, где он был.
А перетереть файл безвозвратно и на hdd можно.

SSD трудно восстановить после сбоя. И еще есть махонький косяк - если SSD долго лежит где то на полке, то есть вероятность что через пол года - год какие то данные на нем кирдыкнутся. Утечка заряда. Поэтому SSD рекомендуют юзать активно.
С жестким диском даже с щелкающими головками хоть как то но вытянуть инфу еще можно. А если руки из того места где надо то и блины перетянуть в другой бокс с новыми головками.

Так что однозначно круче лазерная голограмма данных в алмазе. Во первых его фиг сломаешь и данные точно уже никуда не денутся. Хоть ты его молотком долби. Проблема может возникнуть только со считывающим устройством)))

ССД хороши для оживления ноутов, но для домашнего ПК обычные жесткие обладают большей предсказуемостью в смысле отказоустойчивости на опытном уровне. То есть поясню - я примерно предполагаю что может статься с hdd через nn времени и делаю бекапы, произвожу замену или ставлю еще один параллельно. Про ССД непонятно до сих пор когда, из-за чего, и почему он может выйти из строя.

Одноуровневая (SLC) — ячейка может включать один бит данных, из-за этого SLC работает быстрее остальных но записывает значительно меньший объём информации.
Гладко было на бумаге… А на практике — попробуйте-ка найти в продаже SLC-диск, флешку или карту памяти, хотя бы в 3-4 раза меньшего объёма за те же деньги (да хоть за +десятки % к цене в качестве чистого штрафа за сопротивление мировому заговору).

Расходимся, ssd быстро, но с hdd, можно поднять инфу, если 1vs1

Sign up to leave a comment.