Pull to refresh

Comments 224

Пост понравился, запомню. Но я бы попросил либо выкладывать в час дня, когда мозг ещё способен разобрать суть за горой лирики, либо писать больше по сути и меньше про то, какие ${vendorname} плохие.
Так это же по результатам вчерашнего поста — ночные посты собирают больше всего плюсов
Мне интересно одно, зачем в домашних условиях Nas, он должен стоять в офисах как замена серверам, если нет денег на сервер. Но рынок офисов не такой большой, то производители Nas пытаются расширить его за счет домашних пользователей. Но если все таки купили нужно использовать специальные жесткие диски для серверов, работающие круглосуточно и с гарантией 3-5 лет, например такие www.wdc.com/ru/products/products.aspx?id=810#tab3
Там гарантия довольно интересная на пять лет, первые два года производитель возвращает 100% про текущему прайсу на винты, на третий год 50%, на четвертый 30% и на пятый 20%
Последние проценты мог немного напутать.
Когда писал статью про гарантии на винты но её потерли.
Как зачем? Мой десктоп жрёт до 800W в простое. А сколько будет потреблять NAS, точно также расшаривая папки и качая торренты? Окупается за полгода.
Мой десктоп жрёт до 800W в простое.
Вы случайно порядок цифр не спутали?
NAS жрет копейки, в этом его большой плюс.
Об том и речь, что мой десктоп обходится дороже NAS. Хотя да, виновен, речь про «пик в простое», а не среднее.
Synology DS212 вместе с wifi роутером dlink dir300 и микротиком rb750 потребляют вместе 45 ватт.
Если конечно вы торенты раздаете 24 часа в сутки, то для вас это хороший выбор. Но вопрос зачем? Если вы Nas используете как дополнительное файл хранилище, не проще ли купить еще один жесткий диск.

Кстати нужно будет попробовать сделать маленький сервер у себя дома, у меня сейчас vps в сша.
Если вы Nas используете как дополнительное файл хранилище, не проще ли купить еще один жесткий диск.

Сейчас у очень многих возникает потребность шарить файлы между различными устройствами (десктоп, ноут, планшет, смартфон и т. п.), зачастую не только из локальной сети, но и из внешних. Держать для этого постоянно включенный десктоп может быть не разумно с экономической, эргономической и даже экологической точек зрения.
Альтернативы пользователям, у которых несколько устройств дома и хочется шарить данные между ними, а то и доступ извне иметь? Купить сервер домой? Сделать сервер из десктопа (допустим, что он есть)? Купить арендовать пару терабайт в облаке?
Да банально даже. Если занимаешься фотографией полулюбительски-полупрофессионально, а офиса нет, почему бы не скидывать фотки (а их может быть много) на RAID-1 (для надёжности)? Варианты — NAS или сервер. NAS обычно жрёт меньше, хотя местами и не столь производительно. Зацепить его в домашнюю сетку — и вот куча более или менее надёжного места доя хранения фоток.
Шарить медиа по домашней сети, на проектор в гостиную, на телевизор в спальню, на кухонные колоночки, облачное хранилище. В наше время NAS для дома это не такая уж «гиковская» штука, любой мало мальски интересующийся техникой человек рано или поздно сталкивается с его необходимостью.
NAS? дома? ну, например, лаборатория с кучей виртуалок. Да, не совсем домашнее применение.
Более домашний вариант — толстая фото/видео/аудио/3д-рендер помойка для аудио-видео инженера, 3д монтажника или фотографа/фотокорректора.
За день летней сьёмки домой может приехать пару десятков гигабайт фотографий, мой рекорд — забитая карточка на 16.
Разбираться такие фотосеты могут неделями, если не месяцами…

А если снимать гигапиксельные панорамы…
Есть одна проблема гарантия не покрывает утерю данных.
Если я правильно уловил мысль автора, то два ведущих производителя просто перестали золотить контакты во всех потребительских категориях жорстких дисков из-за чего вероятность выхода из строя диска возрастает многократно.
С моей практики, диски из одной партии и которые эксплуатируются в одинаковых условиях выходят из строя примерно одновременно или не выходят из строя вообще. При одновременном выходе из строя RAID не спасёт.
У меня в рабочих станциях винты не дохнут. (тьфу-тьфу-тук-тук) Я их меняю по моральному устареванию.
Конечно, за 2 года из 27 винтов в серверной, сдохло 2 в полке, но там и вращение другое и нагрузки и рейды, и винтам этим уже было по 7 лет. Так что оцениваю винты как высоконадёжную технологию. Никак их предварительно не подготавливал — Что Я Делаю Не Так?
UFO just landed and posted this here
Кстати, на счет отключения парковки головок, насколько эта операция актуально для более-менее современных HDD? Гуглятся довольно противоречивые мнения…
Тут ИМХО смотря как она работает, коректно ли… В данном случае т.к. сервер с торрентами 24/7, то парковаться могут много раз, а смысла нет в этом, только дольше время обращения получается… А у некоторых вообще бывает глюк в прошивке, например время до парковки слишком маленькое, и тогда он начинает постоянно щелкать.
UFO just landed and posted this here
Вы для рейда юзаете материнскую плату или сторнний контроллер?
UFO just landed and posted this here
Серьезный выбор.
Cachecade включить нет желания или скорости и так хватает?
UFO just landed and posted this here
Дорогое железо — а чем хуже поделки на kогике Виа/Тексас Инструментс/Силикон павер с цной мение 100$?
«ужасных» WD Green

А что в них ужасного? Можно ссылочку? Ибо у меня тоже два, одному 2 года, другому 5 — все работает (только на новом парковку отключил), не знал даже, что их считают ужасными.
Про кучу отлично работающих SSD от OCZ — которые взрываются ещё до установки в комп

И снова плюсую. У меня не просто OCZ, а сам Vertex 3, который на том самом SandForce, который, по слухам, даже убивает хомячков! :D
Ему, правда, всего полтора года, но проблем не было абсолютно никаких, даже прошивки до сих пор обновляют.
Полагаю что именно парковочный таймаут в 2 секунды бездействия и является основанием для ярлыка «ужасный» у Гринов. А утилита отключения парковки вообще полупиратская, точнее инженерная, для внутреннего использования. Некоторые клиенты жалуются на постоянный стук в ноутбуке.
OCZ Vertex 2/3/MI мои любимые, т.к. знаю что у них греется контроллер и обеспечиваю охлаждение.
Пользуясь моментом, хочу еще кое что спросить.
У меня WD10EARS. Довольно часто в простое он начинает издавать странный шум. Не представляю, что это может быть и как описать. Будто головка пытается припарковаться, но у нее не выходит и она постоянно пытается сделать это снова и снова, в итоге получается такой звук, будто в диске поселился маленький кузнечик с металлическими крылышками :) Длится это около 5 минут, затем прекращается так же внезапно, как и начинается.
Если в такой момент начать работу с диском — шум моментально прекращается, при этом никакой задержки в обмене данными не происходит, все работает плавно и естественно, т.е. будь у меня корпус с лучшей шумоизоляцией — я бы вообще ничего не замечал, винт в работе ведет себя совершенно нормально.
Толком уже не помню — процентов на 80 уверен, что такое было и до того, как я отключил парковку — но могу ошибаться.
Быть может, вы в курсе, что это может быть? Стоит ли беспокоиться?
Если стук с частотой больше 1 в сек. и дольше 3-х сек. я бы не беспокоился а тут же заменил ЖД. Одиночный щелчок обычно парковочный. Несколько одиночных- термокалибровка блока головок. Это всё штатно. Другие естественные звуки на ум не приходят.
я бы не беспокоился а тут же заменил ЖД

Да и я тоже, только вот он у меня с самого момента покупки так работает, т.е. с февраля 2011 :)
А SMART тут может что-то подсказать?
Прошу прощения за некрофилию, но в последнее время проблема обострилась (звук стал громче и надоедливей), поэтому я снял видео. Было бы интересно услышать вердикт, ибо менять винт сейчас нет никакого желания.
Трудно что то однозначно сказать. Слышно монотонное жужжание. Если это не вентилятор то очень похоже на подшипник. Слышен «жестяной» звук. Обычно так резонирует верхняя крышка гермоблока нри ритмичных движениях блока головок. В нормальной работе звук более хаотичный- фрагментация, очередь запросов и т.д. В любом случае диагностика на рабочей Винде малодостоверна,- мало ли что ей придёт в голову в этот момент. Прогоните сканирование в MHDD под DOS-ом, он не разрушает данные. Время доступа должно плавно увеличиваться от начала теста к концу. Острова медленных секторов в море более быстрых будут плохим признаком. Не претендую на истину в последней инстанции но я сам этим руководствуюсь. Удачи.
MHDD не разрушает данные если выбирать тест чтения, но некоторые тесты все же могут разрушить данные если бездумно пользоваться инструментом.
Полностью согласен. Понимание сути происходящего производящим всегда давало +1 к достижению положительного результата. К чести MHDD по умолчанию стоит режим проверки чтения поверхности. Но даже HDD Regenerator, где первым пунктом стоит сканирование с восстановлением, на моей памяти убил только один диск, правда насмерть. Тест был запущен в ПК без обдува корзины ЖД и без присмотра, из-за большого количества бэдов диск тупо перегрелся насмерть. Надеюсь наши советы и предостережения помогли товарищу.
Винчестер установлен в десктопе или NAS? Посмотри его атрибуты SMART. Частый стук может быть частью активного теста SMART выполняемого периодически самим винчестером.
Обычный десктоп. Частый стук — не совсем точное определение. Я бы сказал, это очень четкий, равномерный треск. Как если бы я записывал кучу данных линейно, только в несколько раз громче. И длится это по 5-10 минут, что на SMART не похоже.
Не силён в теории, но мне известен только один активный тест SMART — термокалибровка. Остальные — статистические, т.е. накопительные.
Десктоп!? LiveCD Ваше всё. Грузитесь и слушаете, можно музыку запустить для нагрузки. Если застучит — в недоверенную стопку. Если не застучит- Ваша Винда занимается рукоблудством. Надо переставлять или лечить.
Ваша Винда занимается рукоблудством

У меня не винда :)

Вот, добрался до компа. Оказывается, все хуже, чем я ожидал. В последний раз проверял месяц назад — все было чисто, а тут такое…
Пора на помойку? :)
5 и 196 по нулям, это хорошо. 197 — 2 пункта, я бы забеспокоился.
Вот в НАСе откопал пункты — быстрый тест SMART и расширенный тест SMART. Оба активные, первый занимает 2...5 минут, на второй дает прогноз в 255 минут. Видать в первом измеряются динамические параметры БМГ и некоторые цилиндры на качество сигнала сервометок, второй тест видимо более тщательный.
Набор тестов может отличатся от винчестера к винчестеру так же как и их длительность. Используемое оборудование может запросто запускать их периодически.
Как я понимаю, это ОС NAS запускает процедуры диагностики параметров ЖД оговоренных стандартом SMART(представленных в нём). Для десктопных ОС(Win, nix...) мне такое не известно. И в условиях чистой ОС такое поведение ЖД будет расценено как ненормальное и подпадающее под гар.
Рекоммендую для начала прочитать хотябы ВИКИ ()СМАРТ
Информация полезна исключительно в накопительном смысле.
Пример: у вас на рука два диска WD: Green и Black серии. Содрав с каждого из них данные по количеству ошибок вы получаете условно говоря текущие координаты диска в координатной сетке производительности. И данные у них будут разные. Если у вас два диска одной серии — можно понять кто лучше кто хуже.
Если вы сходили по ссылке и почитали значения аттрибутов и названия тестов перейдем к назначению смарта:
Есть хранилище. Медиа. Предположим RAID6 из 12 дисков. При чтении/записи единого страйпа делается одновременно 12 сходных операций записи или чтения (может меньше если мы читаем/пишем часть страйпа), то есть каждый диск ловит одну операцию на предоставление кусочка набора. Логика 99% рейдов такова что мы не получим набор не собрав N-2 (у нас RAID 6, не забываем) чанков из запрошенных (в 1% он захочет N чанков, чтобы еще проверить как там у нас парити хранится). Теперь представим что один из дисков просел по скорости (спинап не особой интересен, но может быть признаком подыхающего движка ХДД, но на скорость сильно влияют error rates) — синдром флота идущего со скоростью самого медленного корабля. Зеркала (RAID 1) выкручиваются, им практически плевать ибо чтение идет независимо с каждого из элементов зеркала, а вот на запись они опять же просядут, ибо пока Write ОК не скажут оба диска — данные не записаны. Тут конечно помогает кэш контроллера (если аппаратный контроллер конечно установлен), но он А) забивается, Б) если вы не озаботились батарейкой прикрытия — в случае внезапного отключения питания получаете неконсистентные данные. Ибо система считала лежащее в кэше уже записанным, а на диски это еще провалится не успело — в общем прочитать их уже более чем никак.
Если по рейд контроллерам — предпочитаю LSI. Причина проста. В рэковых серверах есть бэкплейн, если бэкплейн активный — в нем есть SAS expander. 90% что экспандер производства LSI. Можно сделать эксперимент, но лучше уж втыкать LSI в LSI — глюков меньше. Особенно в production среде.
Но если бэкплейн пассивный или безэкспандерный — люблю адаптек. Просто у них лицензия кэширования на ССД дешевле :)
У меня Сигейт полгода так постукивал, так я сначала грешил на программы. Оказалось все прозаичнее — он фоном копировал секторы, пока резервные не исчерпались. При этом смарт при загрузке компьютера до последнего не ругался, а увидел я результат, когда запустил speedfun. 99,9% данных я успел слить.
Так и есть. У ЖД есть запасная область для ремапинга нечитаемых секторов. И пока эта область не исчерпается в SMART не будет ни каких намёков. Именно по этой причине наличие даже 1 бэдблока в SMART означает, что ему хана, ибо предыдущих вы просто не видите(как того суслика). Замена по гар.
Не, замена по гарантии уже не катила — 3 года. На ноуте тоже кстати 3 года прожил, но уже Самсунг.
Я понял. Подразумевал тип данного поведения ЖД и решения. Кому то может быть полезно знать.
Эта область невидима для OS или доступна для форматирования штатными высокоуровневыми утилитами?
Я имею ввиду: за счёт чего образуется эта область?
Да, система её не видит. Это резерв, которым управляет контроллер диска.
В старые времена, когда деревья были большими… была утилита для ПОЛНОГО форматирования флоппи дисков. Начиная, как и положено, от края она щёлкала головки не штатные (по памяти) 40 цилиндров, а пока не упиралась в шпиндель. Получалось 41-44 цилиндра, что давало некий профит в ёмкости. Потом научились так же выжимать соки из копашек- некоторые под 900МБ вмещали. Может кто и напишет утилитку для изменения резервной области ЖД(почти шутка).
Николай, я задавал вопрос с позиции как раз обратной: в условиях понижения надёжности серийных изделий обеспечить приемлимую надёжность в рамках решаемой задачи. Своего рода «сэкономить», но в долгосрочной перспективе.
Я понял Вас. Суть в том, что если кто то сумеет создать утилиту для изменения размера резервной области, то она будет двунаправленной скорее всего. Можно будет как увеличивать резерв- уменьшая объём для пользователя и увеличивая долгосрочную надёжность, так и уменьшать резерв- увеличивая объём хранения за счёт уменьшения наработки на отказ из-за переполнения SMART.
Этим резервом сейчас играют производители SSD, но пользователю эти ключи прошивки недоступны.
А вот векторы дохнут. Завтра на обмен несу уже второй.
Хорошие железки, но увы, ненадежные.
Даже новая прошивка не помогла. Стоило ноут при зависании через кнопку отключить — все. пишите письма
еще парковка каждые 2 сек напрочь забивает счётчик парковок в SMART, куча блюшек с этим полегло
WD Green на 1.5 ТБ сдох именно так как описывает автор.
Человек дело говорит. Грины не для NAS-ов предназначены, для этого Рэды есть, так что уж простите…
Странно, как раз «Зеленые» обычно и советуют в качестве винтов для домашних NAS-ов.
В чем преимущества «Красных»?
Чтобы не быть многословным и посмотреть реальные данные я Вас направлю на THG и Storage Review
Реальные данные мало о чем говорят. Единственное отличие которое я заметил по сравнению с «зеленым» — то что он похоже энергию не экономит за счет частой парковки головок.
Остальные характеристики на том же уровне.
Зелёные позиционируются как домашние и тихие. ЦА — люди, которые включают компьютер на 2 часа в день. На красных даже написано, что они для NAS.
По факту общения с Constellation ES могу сказать, что там нет золочения. Диск был новый и окисляются ли они со временем мне не известно. Чем принципиально они лучше Барракуд так и не выяснил. Сравнить бы элементную базу, может там что покруче стоит. Может просто алгоритмы коррекции CRC более глубокие…
Впрочем, теперь уже поздно. Пол года как зеленый работает в НАС-е, и по всей видимости замена по моральному старению ему еще долго не светит.
У меня зелёный под нагрузкой выдержал 9 месяцев. Без намёков, просто делюсь.
Выдержал в смысле 9 месяцев и работает, или 9 месяцев и концы в воду?
UFO just landed and posted this here
Первое. При том умер так, что с того света не удалось достать ничего даже сервисными утилитами, кажется, отломилась головка.
Оно бы шурудело если бы головка отвалилась.

У нас есть парочка винтов старинных на 20 гигов в которых «что-то ездит внутри» будто люфт появился в подшипниках, один точно дохлый а другой неизвестно.
А если речь о домашнем NAS? Зеленые будут оптимальны, нет?
понятие «оптимальны» требует выделение критерия оптимизации. Да, зелененький будет оптимален по стоимости, шуму и потреблению энергии. Если у вас NAS дома/офис предназначен для частого обращения к нему преимущества зеленого быстро уходят в сторону его недостатков — слишком часто экономит не вовремя в ущерб скорости…

Мой зелененький WD на 2ТБ в NAS Synology с гигабитным портом обеспечивает скорость 30мб/сек на запись/чтение на обычном виндовом шаринге, думаю что по ФТП должен до больших скоростей разогнаться.
UFO just landed and posted this here
Да, пожалуй ограничивается процессором. Заодно посмотрел СМАРТ, всего 12 парковок головок. Наверно, NAS дружит с функцией автоматической парковки головок или как-то её обходит чтобы не дергать зря.
Они будут оптимальны, если время обращения к диску будет сопостовимо с 2 часами в день работы его в роли основного диска в десктопе.
А на китайских флешках напиано «64 Гб». Вы всему верите?

Вообще, слово «позиционируются» характеристикой девайса не является по определению.
Если это рынок для «обычного» покупателя, то там пишут скорее то, что нужно. Как бы то ни было, а компании надо продавать не только ломкий продукт, но и тот, который удовлетворит потребности, а значит пишут не столько «ложь», сколько стереотипы, дабы «подсунуть тупому юезру» то, что надо.
Компании надо продавать не тот, который удовлетворит потребности, а тот, что в 2 раза дороже.

На чём именно вы видели надпись «ломкий продукт»?
Много раз видел на аудиотехнике, если речь про хрупкость. Ну и да, срок гарантии в некотором роде и есть та самая надпись «я ломкий на столько-то».
а вы говорили про хрупкость?

Срок гарантии и срок службы — разные вещи. Срок службы говорит о ломкости, гарантия — только меняет ценник (прицениться можно на service.mvideo.ru/pdo/)
а чем они реально, кроме ценника, отличаются? Там контакты золотят?
Немного доработанная механика и изменённая прошивка.
Прошивка оптимизарует что-то, но на жизнеспособность влияет чуть меньше, чем никак.
Про доработанную механику откуда инфа?
Прошивка влияет на логику работы в том же RAID. К примеру — как диск ведёт себя при обнаружении ошибки: пытается прочитать пару минут (как делают зелёные винты) или сразу передают ошибку наверх (red), чтобы контроллер сам разобрался и считал данные с другого диска.

Про механику. Встречал упоминание про «Кроме того, в жестких дисках WD Red применяется современная технология балансировки 3D Active Balance Plus, которая, по данным компании, существенно улучшает их общую производительность и стабильность работы.», которая работает в сборках до 5 дисков, если не ошибаюсь.

Про сравнение и разницу — просмотрите вот эту статью, www.3dnews.ru/storage/637274/ Там есть немного и про отличия прошивки.
Ну да, иметь Red в stripe — сомнительное удовольствие.

> Повышенная устойчивость к вибрации. Все понятно, без комментариев.

За что люблю 3dnews, так это за любовь к деталям. Повышенная в сравнении с чем?

Совершенно непонятно прибавляют ли примочки с красивыми названиями 3D Active Balance Plus времени жизни харду.
Увы, не эксперт в данном вопросе, так что затрудняюсь что-либо сказать. Т.е. за счёт чего реализовано — не знаю.

«3D Active Balance Plus» — ну вроде как снижение вибраций (пусть и до 4-5 дисков, вполне ОК для SOHO) для жизни винтов очень положительный фактор.
А это ли не синхронизация вращения дисков с целью минимизации наложения колебаний от каждого диска?
> 3D-балансировка. Как у автомобильных колес. Блок магнитных пластин закреплен на шпинделе несколькими винтиками. Регулируя их длину, можно добиться снижения вибрации и шума.

Винтиками. Несколькими. А когда они открутятся от вибрации?

Хотя судя по количеству ерунды в статье это может быть отсебятиной. Винтики ни на «Active», ни на «4-5 дисков» (если 6 — винтики самоликвидируются) не ложаться.

И главное, почему эта технология не используется в более дорогих дисках?

Подозреваю, что приличный корпус с вибрацией борется лучше.
Винтиками. Несколькими. А когда они открутятся от вибрации?

А с чего вдруг смутили винты? Или их наличие? Вот на Барракуде их 6 штук.
image

Подозреваю, что приличный корпус с вибрацией борется лучше.

Тяжёлый и жёсткий корпус безусловно поможет. Но если внутри крутится на большой скорости конструкция с нарушенным балансом — одним корпусом не отделаться. Это ведь элементарная физика.
> Вот на Барракуде их 6 штук.

И как «регулируя их длину» вы баланс поменяете? Пластин там 4, и балансировать их надо по отдельности.

> Тяжёлый и жёсткий корпус безусловно поможет.

Резиновые прокладки помогут. Там не такая вибрация, чтоб землетрясения вызывать

> Предполагаю, что для более дорогих дисков можно позволить более тщательный контроль качества и отбор идеально сбалансированных компонентов.

Зачем на это тратить деньги, если 6 винтиков решают проблему?

Чтобы отобрать идеальные надо проверить все. И, заодно, для Red отобрать поприличнее.
Резиновые прокладки помогут. Там не такая вибрация, чтоб землетрясения вызывать

Оно помогут погасить вибрации, которые могли передаться на корпус. А как насчёт вибраций, которые будут добивать механику самого диска?

Чтобы отобрать идеальные надо проверить все. И, заодно, для Red отобрать поприличнее.

Опыт массового производства и статистика говорят о том, что делать 100% контроль совсем не обязательно.
> А как насчёт вибраций, которые будут добивать механику самого диска?

При чём тут NAS и 4-5 дисков? Они добивать будут и 1, и 51. Но этой технологии больше нигде нет.

> Опыт массового производства и статистика говорят о том, что делать 100% контроль совсем не обязательно.

А 100% юстировка Red'ов вас не смущает?
Если позволите, я выскажу свои предположения ибо на ЖД-шной фабрика не работал. Стоимость производства нового изделия, в рассматриваемом секторе, ниже чем ремонт или тонкая юстировка всего произведённого. Но выходной контроль качества всё равно есть. И здесь интересно появление пресловутого G-сенсора, который должен отслеживать «свободное падение» накопителя и парковать головки до того как этот накопитель грохнется оземь. И всё для блага пользователя. Или это и есть элемент выходного тестирования балансировки и биений ЖД? Слабые биения — в RAID серию, средние- в RED/бизнес сектор. Остальное в SOHO/Home -блек и грин там всякие. Если разлетелся на куски то в брак придётся списать. А маркетологи ещё и заработать решили на покупателях — отбить деньги диагностического оборудования, встроенного в сам товар. По моему всё сходится. Нет?
Свободное падение у включенного 3.5"?

Если бы это делал я, то тестировал бы пластины задолго до G-сенсора. Тем более у разных секторов разные «банки», их на выходном тестировании не рассортируешь.

G-сенсор появился, на сколько я помню, во времена SMART, чтоб в гарантии можно было отказывать.
У нас нет инструкций снимать с гар. по показаниям счётчика G-сенсора, как в прочем и прочим счётчикам SMART. Только мех.повреждения.
И главное, почему эта технология не используется в более дорогих дисках?

Просто гипотеза. Предполагаю, что для более дорогих дисков можно позволить более тщательный контроль качества и отбор идеально сбалансированных компонентов. Всё-таки объёмы производства, целевое время наработки на отказ, эксплуатационные параметры и стоимости изделий разные, поэтому и используются различные технологии как в производстве компонентов, так и настройке/юстировке.
Надо брать WD Enterprise!

P.S. У меня Green сдох за полгода, Red и Black работают 2 и 4 соответственно.
защищать контакты термопастой? мда…
Можно для этого использовать технический вазелин — это его прямое назначение. Но не у всех он есть, так что термопаста тоже сойдет.

Стоит еще сказать что подобные проблемы у винчестеров появляются если не соблюдать условия их эксплуатации! Почему-то мало кто следит за влажностью воздуха в помещении с винчестерами, а это собственно самый главный враг окисления контактов! В условиях серверной где воздух кондиционируется проблем с влажностью и окислением контактов нет, поэтому там и винчестеры работают долго и не помирают от окисленных контактов.
А разве за влажностью в комнате надо следить? Учитывая, что «Operating Humidity: 5 to 95% RH non-condensing», а 95% бывает очень-очень редко.
Зависит от региона. У нас влажность 80-100%. Кстати, своей смертью не умер ещё ни один hdd — пару раз было, но оба были из-за сбоя питания.
Следить надо. Вот у меня влажность — около 70% в переходный период и около 40% летом и зимой(когда отопление включено) это нормально. В соседнем доме гигрометр показывает постоянно 100% и в «сухие периоды» показания опускаются до 70-80%. Все очень зависит от конструкции дома. Советую все же приобрести какой-никакой гигрометр и проследить за влажностью.
Конечно, на поверхности работающего винчестера относительная влажность(RH) несколько меньше чем влажность окружающего воздуха, поэтому при работе условия эксплуатации более-менее соблюдаться будут. А вот в моменты останова/запуска и простоя? Очень интересный вопрос… Учитывая что при остывании винчестера в условиях высокой влажности на нем может образовываться конденсат хоть и на короткое время.
На моей памяти подохло много винчестеров, но большинство из них в первые часы (максимум дни) работы. Одно время мы ставили Maxtor (первые из тонких одноблиновых, тогда в ходу была фраза «лучше 2 по 40 чем 1 на 80»). Так вот они дохли просто пачками, прямо в момент установки операционки. После десятого я сказал шефу, что с Maxtor работать больше не буду и мы их уже не заказывали.
В домашнем компе подохли два Samsung на 20Gb. Отработали по году с хвостиком и померли с разницей в неделю — сразу защелкали, я кинулся бекапиться — повезло — успел. Самая первая десятка от Samsung посыпалась на втором году жизни — поперли беды.
Одна WD 320Gb защелкала через неделю, но так как каждый винт у меня проходит испытательный период (не складываю на него ничего важного), то просто сдал по гарантии, без потери важных данных — каких-то фильмов успел на него накачать.
Ну и, в общем-то, всё. Сейчас у меня 6 WD по 1TB (большинству 3-4 года). 3 Black и 3 Green Наработка уже на 20+ тысяч часов, но тьфу-тьфу. Постепенно переезжаю на 2TB Green (уже 4 штуки) — пока тоже без приключений.
Так что согласен, что винты — достаточно старая технология, в которой достигли какой-никакой стабильности качества.
К Seagate после слияния с Maxtor отношенией двоякое — не тянет, хотя в своё время Barracud поставил сотни штук без проишествий.
У меня до сих пор имеются три WD250YS с налетом около 40000 часов =) Так что 20к+ еще даже не предпенсионный возраст =)))
Винты — штука непредсказуемая. У меня вот ( с целью энергоэкономии) стоит раздаёт торренты Pentium II с системным винтом Fujitsu MPB3043ATU из конца 90-х на 2 Гб (!) и со вторым винтом WD 1600AAJB-00WRA0 на 160 Гб, работают 24/7 без проблем. WD уже года 3, а Fujitsu вообще невесть сколько прослужил.
А около 2 лет назад я купил Seagate на 2 Тб — посыпался через 2 дня, поменяли по гарантии — пока полёт нормальный.
Ещё один Seagate на 80 Гб пошёл бэдами после около 1,5 лет службы в домашнем компе.
Так что кто его знает. Давно мечтаю купить NAS и поднять в нём RAID1 на винтах по 2-3 Тб (те же WD Black или Red), чтоб хранить и раздавать коллекцию музыки и личные фото с документами, но это недешёвое удовольствие и денег пока на это нет.
Совсем забыл — один WD10EARS уже полгода как желтый по версии CrystalDiskInfi. Желтые два параметра — «нестабильные сектора» и «неисправимые ошибки секторов». При том, что оба параметра показываются как «200 из 200». К счастью на этом винте у меня только фильмы — поэтому и использовался он поактивнее, чем другие — торренты и все такое… На этом же винте в отдельном разделе лежали каталоги LightRoom.
Наработка 21811 часов, при этом пока никаких признаков умирания не заметил. Поэтому и начал постепенно переезжать на новые винты, а на старичков скидывать менее ответственную работу.
Самый старый — 1001FALS (Black), который вместе с железом покупал 4 года назад. 25354 часа, 1021 включение. Ещё один такой же на 23614 часов, и еще один я брал в офис — тот тоже не намного меньше наработал.
У меня тоже есть 320ка от WD, которой лет 6, и 40ка Barracuda, но они на заслуженном отпуске в шкафу, хотя были живы в момент отключения. Написал туда всякого и в отставку — своего рода капсула времени.
=== START OF INFORMATION SECTION ===
Model Family: Hitachi Deskstar T7K250 series
Device Model: HDT722525DLA380
Serial Number: VDS41DT4EARYBJ
Firmware Version: V44OA96A
User Capacity: 250 059 350 016 bytes

1 Raw_Read_Error_Rate 0x000b 100 100 016 Pre-fail Always — 1
4 Start_Stop_Count 0x0012 100 100 000 Old_age Always — 202
9 Power_On_Hours 0x0012 091 091 000 Old_age Always — 63712
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always — 202
194 Temperature_Celsius 0x0002 137 137 000 Old_age Always — 40 (Lifetime Min/Max 21/47)
196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always — 2



Бэды вылезли в первый год жизни, винт крутится 24/7, чем собственно его живучесть и обусловлена.
Про сказёвые я уже писал раньше, им вообще памятник ставить можно.
Статья интересная, но у меня никогда не было таких проблем.
Есть до сих пор живой 30 гиговый Futjitsu, купленный в 2000 году, или около того.
Сейчас пользую SAS диски от HP, проблем не было.
Не делайте Raid-6 на дисках, для этого не предназначенных и всё у вас будет прекрасно. А холивары Seagate / WD — это наверное здесь не стоит. У всех свой опыт. У меня например уже три сигейта сдохло, причем без особой нагрузки, а WD Green и Blue все живы и здоровы.
А какая разница диску какой на нём Raid собран? И где посмотреть табличку на каких рейдах какие дохнут?
Пересборка массива RAID 5/6 — довольно тяжёлая и длительная процедура. RAID-1 в этом плане ведёт себя значительно легче, хотя массив будет существенно дороже.
Пересборка — это то, что происходит, когда уже сдохло, это уже плохо.
Сама пересборка — это не на столько тяжелая процедура, чтоб убить хард.
Но может стать достаточно чтобы добить недобитый…
а недобитые WD Red и Seagate Constellation не умирают из принципа?
У них открывается второе дыхание!
Скажем так. SAS хард более живуч чем NL-SAS который по наработке на отказ превышает SATA. Это серверные. Десктопные пролетают лесом в этом забеге ибо современный десктопный диск тестируется из расчета 8/5, а серверный рассчитан на 24/7.
Причины выхода из строя диска в общем две: скрытый брак или выработка ресурса. Возьмем серверные предназначенные на длительные нагрузки. Наработка на отказ составляет 1400000 часов (пдф, стр 16). В году кстати всего лишь 24*365=8760 часов. Теорвер дает что в год в массиве из 100 дисков в среднем будет ломаться два. причем по причинам не связанным с износом и браком.
Десктопный диск рассчитан на 8/5 офисной работы (так же как и человек). У них уже сложно найти заявленный МТБФ, но есть срок службы. 5 лет обычно.
Тот же массив из 10 дисков имеет шанс выхода при нагрузе 24/7 (нештатный нагруз) уже имеет неиллюзорные шансы выхода из строя диска со скоростью приблизительно один в неделю. На практике дисковая полка на 48 дисков в 60 рейде кушала зеленую игру (Caviar Green) и не только, жадные дети не хотели покупать нормальные диски и брали что подешевле и пообъемнее, со скоростью два диска в месяц, что показывает что десктопные диски производитель недооценивает относительно теоретической живучести (завись видео с камер наблюдения нескажу где). Так продолжалось восемь месяцев пока клиент не решился таки закупить NL-SAS диски (просто произошло маловероятное и нежелательное событие выхода из строя трех дисков одновременно(один от старости, второй от излишней нагрузки в процессе ребилда отказал, а хотспара оказалась просто глючной), с потерей данных, раздачей люлей и наказанием виновных на болоте).
В общем на десктопных собирайте зеркала или 10-ки. 3-4-5-6-DP-DDP и всякие коды Соломона-Рида (Соломон это в данном случае фамилия, Рид тоже) с этим пусть возятся аппаратные контроллеры и специально подготовленные харды.
Большое спасибо за столь поучительный и увлекательный ликбез.
Смотрю, Вам тоже не спится…
Десктопный диск рассчитан на 8/5 офисной работы (так же как и человек).


А можно этому факту ссылки на кого-нибудь на факты, информацию от инженеров, и т.п.? Уж очень странно звучит.
Ну для начала мое слово, как инженера по системам хранения данных. но его Вам мало, так что
дескстар.
собственно место про миллион часов у него идет со следующим комментом: Low duty cycle, non mission-critical applications in PC, nearline and consumer electronics customer environments
are different from application to application. An MTBF measurement is based on a sample population and is estimated
by statistical measurements and acceleration algorithms under nearline / low duty cycle workload. MTBF ratings are
not intended to predict an individual drive’s reliability. MTBF is not a warranty measurement.
Выдержка из офф дока по зеленой икре:
Business Critical RAID Environments – WD Caviar Green Hard Drives are not recommended for and are not warranted for use in RAID environments utilizing Enterprise HBAs and/or expanders and in multi-bay chassis, as they are not designed for, nor tested in, these specific types of RAID applications. For all Business Critical RAID applications, please consider WD's Enterprise Hard Drives that are specifically designed with RAID-specific, time-limited error recovery (TLER), are tested extensively in 24x7 RAID applications, and include features like enhanced RAFF technology and thermal extended burn-in testing.
Про 8/5 против 24/7 (причем всмысле нагрузки, а не онлайна) регулярно показывали лекторы как из LSI, так и из Adaptec. На руках у меня копромата на десктопников нет, но можете сравнить приведенные в этом сообщении отписки с серьезным описание МТБФа с порядком расчета и учетом уровня нагрузок в примере сигейта из моего сообщения выше по треду.
По адресу адрес есть интересные комментарии по той же зеленой икре:
MTBF (Mean Time Between Failures) 300,000 hours
, но в примечаниях к этому добавляется:
3.Specific application environments such as temperature and duty cycle will affect the overall reliability rates.

upd: Как ни забавно нашел на tomshardware. линк, или выдержка из ответа для нехожденцев:
The AS drive is the Barracuda 7200.10, desktop version.

The NS drive is the Barracuda ES.2, near-line storage/server version.

The NS drive is more reliable, with 1.2M hours MTBF and 0.73% AFR @ 24/7 operation. The AS drive is 750K hours MTBF and 0.34% AFR @ 8/5 operation.

The NS drive also has a few server-tuned tweaks to the firmware.
В иностранных источниках к этому факту в целом относятся как к азбучной истине. Ниодин капиталист не будет в десктопный хард перезакладывать ресурс, и ниодин бы серверный хдд не продался бы еслибы разница в цене в четыре(и более) раза не давала бы никакой пользы.
За ссылку благодарю, обязательно изучу на досуге.
> ниодин бы серверный хдд не продался бы еслибы разница в цене в четыре(и более) раза не давала бы никакой пользы.

Наткнулся сейчас в интернетах на цитату:

Как утверждает директор по техническому планированию компании NetApp Вал Берцовичи (Val Bercovici), "… то, как дисковые массивы справляются с соответствующими отказами жёстких дисков, продолжает создавать в восприятии потребителя точку зрения, что более дорогие диски должны быть более надёжными. Одна из грязных тайн данной индустрии заключается в том, что большинство дисков Enterprise-класса состоит из тех же компонентов, что и накопители потребительского класса. Тем не менее, их внешние интерфейсы (FC, SCSI, SAS и SATA) и, что более важно, специфические особенности firmware, оказывает наибольшее влияние на поведение дисков потребительского и Enterprise-класса в реальных условиях".
Не на 100%. Но интерфейсы и электроника решают многое. Физически SAS диск и SATA почти не отличаются. Где то как самец шимпанзе от самца человека. НО вот разница в прошивке точно такая же… :)
С другой стороны механика вся совместима, но… Вот ВЫ, положа руку на сердце, в какой диск поставите мотор/подшипник первой категории, а в какой еще рабочий на этапе производства, но уже почти брак? Первый скорее уйдет в вендорскую поставку для HP, а вот второй — в обычный кавиар грин 5400, ибо изначально рассчитанный на 15000 он на 5400 имеет все шансы прожить счастливую жизнь…
А Берцович урод. Он скоро убьет ФАС серию, а потом и до свежекупленной Е-серии доберется и тогда ее полностью выкупит себе ИБМ. Как техдир он не имеет права делать такие заявления и в такой форме.
Если бы купив диск на 15000 24/7 и подрезав его до 5400 и 8/5 можно было бы получить вечный диск — это давно бы стало модно.
А Вы таки не поверите куда у меня уходили всегда дохлые харды из серверных массивов. В рабочих станциях они и по сей день работают. :)
И клиентам рекомендую тоже самое. :)
Если секрет то в ЛС, а я могила, — как обороты понижали? И потом, у SAS обычно плотность записи(проще объём) сильно меньше, чем у «народных». В чём профит?
Профит в том что диск который уже умер в рейде, в одиночку может работать до посинения, если из рейда он выпал не по нарушениям механики, а по причинам вроде выработки райтсайз резерва. Такие без проблем стреляют еще очень долго в рабочих станциях. Бэды конечно ползут дальше, но они и на десктопных ползут не хуже.
Кстати если собирать рэйд на десктопных и оставлять резерв, то есть втыкаем харды по 500 но рейдовый страйп шириной в 400 делаем, жизнь массива становится дольше и веселей. Хотя всеравно небезоблачной.
Стало быть с оборотами — облом. Печаль. А вот про неразмеченный резерв я в диаграмме Intel про наработку ТераБайт на отказ SSD видел. Если оставить 10-20% такого резерва, то ресурс увеличивается в полтора-два раза(цифры по памяти). Нет оснований не доверять Вам, просто буду учитывать на будущее.
На любом харде количество бэд блоков постоянно нарастает. Это как смерть нервных клеток. На ССД этот процесс настолько развит что резерв в 2-3 ёмкости диска дело обычное. А вот с шпинделями есть чит от аппаратчиков. Аппаратный рк при инициализации диска делает rightsize диска, подрезая его по ёмкости до определённого стандарта. Скажем 2000 гб диск классический рк увидит как 1850 ГБ в среднем. При полной разметке, если на этом диске вылезает 150 ГБ бэдов, он будет признан фэйлнутым (ибо на него не влазит то что должно уладить). В одиночном забеге этот хард бы до рисовал себе ещё пару букв В в разметку и работал бы дальше. Если у диска распилен страйп на 1000 ГБ, то страйп не уйдёт в дегрейд пока диск вхлам не осыпется. Собсно в том и чит. Не резать полные страйпы, и не кидать пенсионеров гвардии в помойку :-)
В этом случае если говорить об HGST Ultrastar 7K3000 (http://www.hgst.com/hard-drives/enterprise-hard-drives/enterprise-sata-drives/ultrastar-7k3000) правильным ли будет с точки зрения надёжности, отказоустойчивости (планируется 24/7 Media RAID, 97% операций — последовательное чтение):

1. Учитывая стоимость и enterprise-качество и отменное качество именно этой серии дисков, выделять 20-30% диска под беды и использовать в RAID 5/6 страйпе, получая более эффективное использование емкость/$.
Или, игнорировать происхждение, отзывы о дисках и стоимостную составляющую, ставить всех в зеркало с 3%-5% под беды + 1 на hotspare.?

2. Если работали с этой серией, SATA или SAS предпочитать?
UPD: в пункте 1. «использовать RAID6», чуть внизу прочитал о том, что 6-ка спускается к 5 на время ребилда, а 5-ка, — до 0. Не есть гуд для нас — данные критичные.
> На ССД этот процесс настолько развит что резерв в 2-3 ёмкости диска дело обычное.
Расскажите пожалуйста, как из, для примера, 8 микросхем, по 256 Гигабит каждая, стоящих на плате 250 (на самом деле 256) Гигабайтного диска, сделать резерв в ещё 2-3 ёмкости этого самого диска? Мне правда очень интересно!
Раз уж у вас с прикдадным гуглением плохо, то www.outsidethebox.ms/14484/#_Toc346479652
Наглядный пример это серии серверных ссд. Они обычно подчиняются закону size*mtbf=const, что намекает что внутренняя ёмкость у них одинаковая, но соотношение между резервной и доступной меняются в рамках серии.
Я понимаю, что некропостинг, но ссылкой на эту статью в меня кинули только на днях :)

Статью Вадима я читал сразу после публикации, но там не говорится о, я уточняю ещё раз цитатой «резерв в 2-3 ёмкости диска дело обычное».
Серия 4000 от Интел содержала харда от 100 до 800 ГБ.
И при этом мтбф у них убывал соответственно (у 100 был в 8 раз больше чем у 800)
Что наводит на мысль о том что основа у серии одна и также, но резерв инкрементный.
И сейчас скорее всего серверники содержат
внутренний резерв минимум в объём диска.
Возможно 2-3 раза уже не резервят ибо живучесть ссд за два года подросла, но резерв позволяет бороться с дегрейдом и продлить жизнь :-)
дохлые работают?? Хотя это объясняет 2 харда в месяц ;)

Я про промышленные масштабы. Хард с гарантией в 20 лет, я б купил.
То что не работает в рейде — еще отлично работает вне рейда на задачах на которых смерть харда абсолютно не критична.
Со современным хардам гарантии на 20 лет не дам, а но отторгнутые из зеркала SCSI 320 к сожалению пришлось нахрен выкинуть по причине морального устаревания… SATA драйвы отторгнутые из рейдов еще работают, это 4-5 лет, что не показатель.
а NL-SAS с какой скоростью кушался?

По формуле в ссылке MTBF от перехода с 24/7 на 8/5 не меняется.

я думаю 24/7, тип рейда и реальная нагрузка в общем случае вещи не связанные. Домашний NAS — не Enterprise.

Не смотря на то, что у меня сдохло 2 black ещё на гарантии, в отличии от Green, у меня нет сомнений, что где-то есть надежные харды(хоть я и смутно понимаю зачем они дороже зеркала). У меня, правда, есть сомнения, что Red можно всерьёз к ним отнести. Разница между Green и Red далеко не в 4 раза.

А вот что такое «излишняя нагрузка» я не понимаю. Что такого может случиться с хардом на 9-ом часу, чего не произошло на 8-ом? Чем дефрагментация или бекап меньшая нагрузка, чем перестройка рейда?
Относительно четырех раз и прочих баек. Попробуйте перейти с восьми часового рабочего дня на двенадцатичасовой. Сравните ощущения. Вы не умерли, Вам хреново. Если вы с таком режиме поработаете полгода — Вы уйдете с такой работы на старый график (при наличий такой возможности) даже на меньшую зарплату.
NL-SAS не имеет изменений механики, но контроллер в нем поумнее и с более жирным кэшем. Фактически в SAS дисках два контроллера, в SAS сеть они моргают двумя WWPN. К сожалению у меня лично нет материалов с курса адаптека на котором была приведена таблица зависимости средней живучести диска от его принадлежности к семейству. Чистые SAS обходят на пониженной плотности записи по сравнению с другими. NL-SAS диски имеют по некоторым источникам отборные моторы и подшипники (высшая категория по производству), в остальном механика и заполнение диска SATA, но контроллер SAS.
Честно я разницу между РЭД и Грин сам не знаю. С массовыми дисками возникают косяки с прошивками (фирмварь самих дисков) и я их если и использую, то только дома без всяких рейдов. по работе у меня в основном вендорские серии, если набивка серверов то чтото типа Hitachi Ultrastar 4000 или интеловские ССДшки. Изучение фэйл стори от клиентов как у них рассыпалось на дисках серий не Raid-ready превентивно отталкивает от приобретения и использования таких дисков в массивах.
Кстати. Если вы дефаргментируете рейд — вы садист. Если делаете бэкап — это потоковое чтение что очень легко. А вот ребилд — это большая нагрузка на контроллер и на диски. Это длительный процесс (неделю? — легко) в отличие от бэкапа. В общем из 10 дисков десктопных серий пять то конечно переживут это. Но изза того что другие пять ломаются и выпадают — даже пять крепких подорвут себе моторчики и украсят своими магнитиками ваш холодильник :(
в общем я даже не знаю как объяснить. По хорошему — выделите время. Постарайтесь поймать курс Дмитрия Зотова до рэйд контроллерам (при везении даже бесплатный) — к сожалению я не могу в ответ на пост загнать материал не одного недельного курса и трёх лет работы непосредственно на внедрении решений по хранению данных с ломанием копий, вылавливанием багов в энтерпрайзовых фирмварях и прочим. Собственно поэтому в тренеры и не иду :(
Собственно оттуда (от партнеров) кстати и пошло что энтерпрайз это 24/7 а десктоп 8/5.
Извините за сумбур. :)
Собственно оттуда (от партнеров) кстати и пошло что энтерпрайз это 24/7 а десктоп 8/5.

Кстати, вот тут завляется про 24*7 для WD Red. Хотя тот же Black — как раз как упомянутый десктоп (явно пишут, что не рекомендуется для NAS)
Desktop drives are not recommended for use in RAID environments, please consider using WD Red hard drives for home and small office, 1 to 5 bay NAS systems and WD Datacenter hard drives for 6 bay and greater NAS systems.
Про ВД Рэды ничего сказать не могу. Фильм РЭД нравится :)
Судя по описанию линейка WD Red для small NAS и делалась, то есть держит среднюю линию. Там же и написано что не больше 5 дисков в массив. (другими словами, но суть именно такая). То есть один хрен (извиняюсь) не медийно ентерпрайзовый уровень. Но можно в качестве дублирующей хранилки для бэкапов использовать :)
Там просто. Есть TLER — рекомендуется в RAID.
> Попробуйте перейти с восьми часового рабочего дня на двенадцатичасовой.

Как только покажете мне того, кто работает 24/7. Странная у вас аналогия.

> В общем из 10 дисков десктопных серий пять то конечно переживут это.

не раз пересобирал и ни один не умер. Может и потому, что дешевый контроллер не может дать нагрузку, но другого и быть не может.

А вот пара RE(снятые с регулярно рассыпающегося зеркала) и пара Black умерли парами же в конце гарантийного срока, как по расписанию, и вполне на десктопе
Ни блэки ни рэды не энтерпрайзы. Это просто отсортированные по качеству десктопы. Блэки еще и с повышенной скоростью вращения шпинделя.
из разряда никто не умер.
Был случай как то… 1 раз. повторений не слышал. Изза встречного несоответствия прошивок пара дисков в зеркале повела себя специфично. Биск А с себя данные на диск Б писал точка в точку, а диск Б на диск а со сдвигом. Насколько я знаю это единичный случай. Повторов не было. Но этот единичный случай столько седых волос добавил всем кто с этой системой работал… В общем когда у Вас одна хранилка и Вам нечего делать — можете с ней нянчиться. Если у Вас 20 стоек с ними — Вы просто хотите чтобы они работали и не ломались. Становится проще использовать однотипные харды с эквивалентной фирмварью. В общем все становится проще. Это уже и есть энтерпрайз или предприятие. Отдельный НАС это кустарное производство. Ручной работой можно заниматься по вашему выбору :)
Про гугл рассказывали, что они обычное домашнее железо себе берут с тройным резервированием и им это дешевле.

RE я вспомнил к «рассыпалось на дисках серий не Raid-ready». Raid-ready тоже сыпяться замечательно.
Блэки 7200. И парой они покупались с умыслом.

А всё-таки, после замены гринов на SAS на сколько реже сыпаться стало?
10-15% в год статистика по датацентрам :-) кстати современные efd(enterprise flash drive старшие братья ссдшек) имеют фэйл рейт 5-10% в год, правда стоят как штуцер для охоты на носорога.
А у гугла облако. В каждом сервере (сервера там из дерьма и палок за копейки) торчит по одному-два харда. Постоянная репликация данных между серваками. Не порядок с серваком — дергают весь сервак и втыкают новый, он по сетке загружается, цепляется к зукиперу и пашет дальше в кластере. Схема офигенная, но не все могут такое себе позволить. Ибо нужно цод хотябы на десяток стоек, а вообще похожие серваки не скажу кто не скажу у кого тыщ по пять в год закупает. :-) а отработанными печки наверно топит. :-)
Диски мрут. Это неизбежное зло. Я довольно долго думал, что оно почти не так, пока за неделю в разных местах, к которым я имею отношение, не сдохло 4 разных винта. Везде был RAID, и в общем пронесло, но.
Какой физический смысл операции с контактами, что поменялось?..
Как я понял — своеобразная защита от окисления контактов.
Вообще с винтами и их статистикой как-то странно… есть пара хороших знакомых, работавших в ремонтных центрах магазинов — так там принимали помершие своей смертью винты всех контор по гарантии, лидеров или аутсайдеров не было.
Работаю в сц, количество ноутов с умершими винтами примерно от 2х до 5 в неделю. Бывали курьёзы что заказывали партию из 10 винтов, 2 на следующий день обратно по гарантии сдавалось. Хотя года два назад такого количества умирающих винтов не было ещё.
Вот то до чего дотянулся не вставая с места. Если пройти до склада отправки брака, то за месяц там накапливается штук 20-40. Я не держал свечку, когда они все что-то делали так или не так, просто констатация факта.

image

Как видим, вендоры представлены практически все.
На сколько мне известно, НР не имеет своего производства ЖД, там только их наклейка.
Под HP обычно либо WD либо Seagate попадаются. Из шести винтов Seagate стоящих у меня в DL 180 G5 три были заменены.
Однако, все модели самые бюджетные, что можно найти у производителей. Ожидать что-то от них и делать выводы нельзя.
Упс, не заметил, что все диски 2.5".
Вендоров то после консолидации осталось всего 2 seagate и wd
В копилку наблюдений… У друга сдох 1 ТБ Samsung, поменяли на Seagate, работает нормально. Продавец при замене во всю говорил что seagate сдохнет быстрее, чем новый самсунг подороже. У самого такая же барракуда точь-в-точь, работает нормально тоже. А вот на 250 ГБ Seagate сдох через год, меняли… Как и 250 Maxtor у знакомых…
При этом Seagate на 80 Гб 2004 года (IDE) уже побывал после 4х лет в ПК в двух переносных корпусах, которые таскались много где, и как следствие тряска была и даже падения. Сейчас стоит под Pentium 4, бэдов нету и не было, тьфу-тьфу. Почему-то мало кто верит в это, пока не достану из системника, найду чек, датированный 2004 годом, показательно сверю серийники и предложу просканировать.
Вот уж и не знаю, каким повериям верить при таких опытах. А так конечно — сдохнуть может все, и это не радует…
А у меня год назад было наоборот: начал баловаться сегейт 2ТБ, 5400об., отнёс его через 3 недели после покупки, так мне его по гарантии заменили на samsung hd204ui.
(это уже когда сегейт купил пр-во дисков у самсунга)
UFO just landed and posted this here
Да там если не понос, то золотуха… Используем сигейты и вдшки в рейдах на базе адаптековских контроллеров. Вд-шки мрут чаще, но когда они умирают, то просто отваливаются от контроллера, система продолжает работать. А умерший сигейт вешает контроллер со всеми вытекающими перезагрузками и многочасовыми fsck. Вот и думай, что лучше…
У меня сорокогиговый спинпоинт есть 2002 года. Так во вполне рабочем состоянии — хочу отдать бабуле — она давно себе тачку для общения по скайпу просит. Вообще среди всех винтов опыт общения с самсунгом самый положительный — даже ССДшник возможно ихний куплю. щас тоже в домашней машине стоит 1.5 ТБ модель.
Вообще среди всех винтов опыт общения с самсунгом самый положительный — даже ССДшник возможно ихний куплю

В их новых SSD (840) смущает разве что тип используемой памяти и ресурс ячеек. 1.5к против обычных 3к.

Хотя в рабочем ноутбуке у меня Samsung 830ый (mSATA), нареканий за год работы нет.
Теоретически я мог бы выкладывать количество брака по вендорам, но безотносительно к объёму продаж эти цифры ни о чём. Самсунги есть, контакты лужёные, как с окислением — покажет время.
У нас как-то была пачка WD Green, купленные с разницей в полгода. Сдохли все. Порядка 6 хардов. У знакомого дома в файловой помойке винты тоже переодически умирали, и тоже именно WD. С тех пор зарёкся их покупать.
Еще WD отпугивает лично меня своим вторым брендом — MediaMax, под которым идут отремонтированные с завода HDD. С ними опыт настолько грустный, что даже не хочется вспоминать…
И что же-сеагейт теперь не брать? И что же брать?
Я беру. Просто, зная их слабые места, я могу минимизировать возможность возникновение неполадок. В своё время были распространены диски от IBM 40Гиг DTLA — серии(дятлы в простонародии). Дохли пачками. Это был первый массовый выпуск ЖД со стеклянными пластинами, если я правильно помню. IBM даже выпустил специальную утилиту для реинкарнации «дятлов». Экспериментируя с восстановленными ЖД мы заметили, что сбои возникают при просадках на выходе БП. С качественными блоками питания тогда было не очень чтоб хорошо и стали просто допаивать электролиты на молексы или на сами контроллеры ЖД. Больше ни один «дятел» у нас не сдох и не вернулись те, что мы дорабатывали.
Так и есть. Я для себя всегда выделяю 3 фактора влияющих на надежность HDD:
  • Вибрации
  • Питание
  • Температура
Воздух все же тоже важен — у меня за полгода из 4-х дисков, попавших в пожар (точнее, в дым от пожара) на пару минут, при том что железка была оперативно выключена, не успела перегреться и качественно прочищена перед запуском, три умерло. (Сразу после — все работали!)
Винты современные не герметичны, достаточно проникших пары частиц золы чтобы они со временем расцарапали всю поверхность диска. С куревом так не выходит, поскольку в сигаретном дыме золы мало там больше «липких» компонент в виде смол которые оседают на поверхностях и задерживаются фильтрами.
В барометрическом клапане, из-за которого гермоблок не такой уж и гермо, стоит довольно солидный фильтр. Но факт на лицо, что то убило диски после задымления.
Дым от пожара может содержать и твёрдые мелкие частицы — смотря что горит. С табачным не факт, что можно его сравнивать. Но курить у нас в серверной строго запрещаю.
потому что табак это преимущественно смолы, твердые частицы при курении только от бумаги, и те быстро вязнут в смолах.
Как раз собираюсь вытащить из шкафа и реанимировать для экспериментов старый комп. Там как раз тот самый IBM на 40 гиг. Комп верой и правдой служил с 2003 по 2008 (или 2009 — не помню). К винту никаких претензий никогда не было, хотя использовался очень активно. Что с ним не так?
По моим наблюдениям — хорошее питание. Вас что то не устраивает в добром здравии ЖД?
БП горел 2 раза. Все устраивает. Просто, посмотрев на долгую жизнь винта, проникся как-то доверием к винтам IBM. Вдруг вижу, что они пачками летели…
Однажды я понял, что спокойствие это важно. Накупил WD Green 2Tb, сделал RAID5, поверх накатил шифрование. Теперь если и выйдет какой-то диск из строя, я его спокойно сдам по гарантии (ибо с него уже ничего важного не получится прочитать) и вставлю новый. Правда, ребилд массива идёт 6.5 часов и за это время может ещё один диск накрыться, но вероятность этого мала.
Просмотрите на досуге.
habrahabr.ru/post/78311/
Для себя я возьму NAS c RAID-6 из недорогих ЖД и немного доработаю всё руками. Ни кого не агитирую следовать моему опыту, просто делюсь им.
Прочитал. Как-то непонятно, чем RAID-6 существенно лучше RAID-5. Нагрузка при ребилде такая же большая. Нетрудно посчитать, что вероятность выхода из строя двух дисков сразу в (N-1)/2 раз (N-количество живых дисков с данными) меньше по сравнению с вероятностью выхода из строя одного диска. Для N=4 это всего лишь разница в 1.5 раза. Даже если я воткну все 8 дисков, то получу разницу в (7-1)/2=3 раза.
Тут есть принципиальный момент. Во время ребилда 5-ка становится 0, а 6-ка лишь опускается до 5-го уровня. Сбой при многочасовом ребилде RAID-6 не приведёт к полному краху данных. Это то, как я понял эту статью.
Так и есть, RAID-6 это +1 уровень защиты. Я лишь посчитал вероятность полной потери данных в этих случаях, разница получались не очень существенной.
Если данные некритичные — нет проблем.
НО как уже отметили — пятый на время ребилда — это первый, причем первый под хорошим стрессом. Если все диски брались одной кучей и вылетел уже один, значит найдет второй который близок к этому. Законы мерфи и все такое. Работают правда только с критичными небэкапленными данными.
В общем из вариантов пятый плюс хотспара или шестой — однозначно шестой. Но на аппаратном контроллере и с батарейкой защиты кэша, а лучше ионистором и флэшкой.
И кстати. Шестерка на время ребилда меньше проседает по производительности чем пятерка.
И совсем кстати. Если уж приперло пятерки собираеть: от адаптеков, и не только от них, слышал пожелания. На сата дисках пятерки больше чем из 4-х не собирать. И обязательно диски горячей замены. А вот шестерки можно и по 14 в страйп (страйп всмысле единая «полоса» из 12 дисков данных и 2 четности).
Вероятность этого не так уж и мала, т.к. при ребилде оставшиеся винты работают с существенно возросшей нагрузкой, а их состояние и потенциальные внутренние дефекты неизвестны. Особенно если винты куплены вместе и из одной серии (т.е. у них может быть однотипный внутренний дефект).

Паниковать из за этого, понятное дело, не надо. Просто надо об этом помнить.

Когда я себе собирал RAID5 я купил 3 разных винта в разных местах. А теперь с некоторой периодичностью винты меняю. Заодно увеличиваю их размен. Достиг у одного винта Uptime в 2 года — профилактическая замена. Ещё через год — меняю ещё один. Ещё через год — ещё один, после этого делаю expand RADI-а, т.к. все три новых вставленных винта теперь большего размера.

Ну и т.д.

P.S. И про бакапы не забывать. RAID != backup.
Для RAID массивов я бы все же выбрал серии Black, SE или RE. Стоят конечно несколько дороже, но и гарантия 5 лет против 3 у Green, Blue, Red.
UFO just landed and posted this here
Как минимум, для диска в рабочей станции или сервере это правильное поведение.
UFO just landed and posted this here
Я считаю такое поведение правильным и для десктопа. Ибо юзер до упора будет сидеть на винте, который уже осыпается. А потом слезы-истерика, что всё пропало.
Вынужден не согласиться с Вами. Когда диск начинает сыпаться, пользователь замечает тормоза или пугается синих экранов. Приходя на такой вызов есть возможность вытащить что то нужное и важное не отходя от объекта ремонта. При жёстком локировании SMART трудностей с доступом к данным будет, как мне видится, поболее.
Трудностей побольше, тут вы правы. Но опять же, из моего опыта — многие считают «виндоус глючит» или «опять эти вирусы задолбали» и ничего не делает до последнего.

А такой «заблокированный» винчестер оживить можно для снятия данных? Опыта у меня нету, поэтому спрашиваю.
В принципе, мы сервера обслуживаем, но обращений пока не было. Так что присоединяюсь к вопросу о доступности данных на серверных HDD со SMART Status bad.
UFO just landed and posted this here
UFO just landed and posted this here
например Мерседес этим промышляет

Раз уж на то пошло — не могли бы назвать тех честных производителей, у которых все наоборот, и им можно доверять?
Эх, каждый день что-то новое.
Говорят Tesla не скупиться на вложения в качество. По крайней мере краш тесты это подтверждают.
UFO just landed and posted this here
(на водительском месте нет ни руля не педалей, например :)

O_o Джойстик?
UFO just landed and posted this here
Какой-то поток сознания без объяснений зачем и почему.
Помню самсунг никак не мог «завестись», стукнул молотком по крышке — заработал! Это конечно не панацея, но со счетов тоже не нужно сбрасывать.
В копилку курьёзов. Была какая то серия ЖД с новым механизмом блокировки головок в парковочной зоне. Это чтоб при ударе по неработающему ЖД головки не выехали на неподвижный диск. Этот механизм часто(помним что всё относительно) заедал, и диск, раскрутив блины, не мог вывести головки в рабочую зону. Пользователь прислушивался к звукам, издаваемым накопителем и, как только слышал щелчок соленоида распарковывающего головки, стукал по гермоблоку- флажок блокиратора падал и головки высвобождались.
У коллеги был ЖД, который вообще то работал, но от постоянного CRC-Error делал это крайне медленно и не охотно, хотя бэдами и не светил в SMARTе. Намучившись с тестами он вынул диск из корпуса бросил на стол. Тот звонко запрыгал как колченогий стул, что собственно и привлекло к нему повышенное внимание. Пристальный осмотр показал явную винтообразность гермоблока. После выравнивания на ровной поверхности до чёткого касания 4-х точек диск был снова запитан и выдал прекрасные показатели скорости загрузки. Вот так бывает.
В идеале, хочу найти метод «золочения» контактов в домашних условиях.

Из всех методов золочения лучшими результирующими характеристиками обладает гальваническое золочение, но это скорее не самые обычные «домашние условия».
Если бы контактная группа располагалась на краю платы то было бы проще. Но контакты в глубине PCB, а её в электролит не опустишь. Видится некий раствор, в который макаешь ватную палочку и водишь по контактам. Идёт некая реакция и выпадает золото. Как то так. Или капаешь капельку электролита на контакт, дотрагиваешся одним проводком до контакта а другой опускаешь в каплю жидкости и идёт реакция…
Можно, конечно, локально делать иммерсионное золочение, но опять же это не самые обычные «домашние условия». И в техпроцессе надо не напортачить, иначе не избежать «чёрных площадок».
Это почему же? сделать бортики вокруг контактов из клея, который можно будет потом отодрать. Получится такой себе стакан вокруг контактных площадок в который можно налить раствор/электролит. Есть же жидкость для химического лужения, должна быть и для золота. Вот только золочение не гарантирует окисления. Как насчет ответной части контактов? А их электродные потенциалы? Золочением ты можешь сделать только хуже — пара контактов плата-пружина может стать гальванической ячейкой и процесс окисления в месте контакта только ускорится. А еще хуже, когда на контактах слаботочной цепи появляется напряжение смещения из-за разности электродных потенциалов или из-за термоэлектрического эффекта в месте контакта. Тут надо хорошенько подумать.

Но правда, вазелин проще.
На хорошо обезжиренные контакты наносится обычная термопаста на силиконовой основе. Термопаста обладает двумя нужными мне свойствами,- не высыхает и неэлектропроводна.
Мне видится несколько нелогичным нанесение изолятора на то место, где должен быть хороший контакт. Почему не использовать обычную контактную проводящую пасту? Она как раз для этих целей предназначена — для установления и сохранения надёжного контакта. Конечно есть и минус — придётся наносить аккуратно, чтобы не замкнуть соседние контакты/дорожки.
Вы сами знаете ответ. А силикон механически очень не стойкий изолятор и совершенно не мешает электрическому контакту двух прижатых проводников.
Контакт с легкостью процарапает себе путь к ответному контакту, зато потом место контакта будет герметизировано.
А проводящая паста… если потечет получишь замыкание соседних контактов.
Контакт с легкостью процарапает себе путь к ответному контакту
Звучит устрашающе… «контакт зверски расцарапал изоляцию и ручьями хлынул ток» :)
Развивая идею — мажьте лаком и по свеженькому собирайте. Лак высохнет — будет надёжная изоляция и не будет налипать пыль.
Будет. Терморасширение никто не отменял. Из за регулярного нагрева и охлаждения PCB контактная группа и лаковое покрытие будут испытывать различное по величине термическое старение. Вязкий же силикон, удерживаемый твёрдыми частицами термопасты в непосредственной близости от контактной группы, будет постоянно покрывать обнажённый металл.
Хотелось бы добавить, что это в итоге вызовет трещины и отслаивания лака, что только ускорит корозию. Получится эффект как от заклеивания царапины на отечественном автомобиле наклейкой — год и дырка в метале. Голый контакт при кратковременном воздействии 100% влажности слегка намокнет, но быстро высохнет, а вот под лаком сохнуть будет вечность.
Силикон очень хороший изолятор, и даже совсем тонкая плёнка (которая в этом случае точно будет), должна ухудшить контакт.
Интересно, что эта заготовка статьи лежала в черновиках 1 год 8 месяцев. Её номер — 137211 (http://habrahabr.ru/post/137211/), когда современные номера — на уровне к 196200.
Крепость набирала… как хорошее вино.
Забавно, тип контактной площадки за 12 лет не поменялся. Хотя она — явный источник проблем.
Я ещё в 2002 чистил эти контактики на плате и подгибал контактики со стороны «железки».
Ну в те времена эти площадки были головной болью у IBM-овских дялтов и аверов (DTLA & AVER), только там косяк был с тем, что они были облужены с избытком и контактные иглы этот припой постепенно вдавливали до потери контакта. Кстати, у фуджей долгое время ( ещё в около-гигабайтные эпохи ) тупо был отдельный шлейф, идущий в гермозону, вместо этой хрени
Автору: я уже больше 3 лет лужу контакты на самой плате. как на меня лучше всяких смазок…
Внимание много фото!






Если брать серебро-содержащий припой, должно получаться достаточно эластичное покрытие. Вполне себе выход из положения. Но для многих пользователей он гораздо менее реализуем, чем мой. Будь моя воля, вообще бы свёл к минимуму количество холодных контактов.
Пишу из будущего. За 6 лет лучше не стало)

Есть ли смысл использовать не термопасту, а силиконовую смазку? Она тоже инертна, не сохнет и нет необходимости в точности посадки платы без сдвига

Черт, не прочитал выше. Удалите это)

как увидел в 2013 году статью, так и юзаю метод с термопастой (до этого пропаивал пятаки)

сколько дисков прошло через "приготовление" и не сосчитать

Заливаю силиконом. Тоже инертный, более ровно растекается. Спасибо автору за статью)

Sign up to leave a comment.

Articles