Советую ещё включить в биосе S.M.A.R.T. и поискать для Виндовска графические утилиты, которые позволяют просматривать его данные. Грубо говоря это монитор состояния винчестера, причем информация достаточно подробная. Ещё очень важно то, что смарт примерно может предсказать, сколько осталось жить винчестеру.
По поводу восстановления, то меня пару раз спасала кроссплатформенная утилита testdisk, для Виндовса я слышал существует гуй к ней, мне он не особо требовался, но думаю большинству не привычно прямо из консоли команды отдавать. С другой стороны при таком раскладе проще обьяснить человеку, что делать. Ибо выслать список команд куда проще, чем обьяснять какую кнопочку за какой нажимать.
Помимо прочего утилита может восстанавливать фотографии, просто ища их куски на жеском диске, игнорируя файловую систему. Помогает в самых запущеных случаях, когда полетела структура ФС.
Ещё, дабы не городить кучу дисков, можно воспользоваться консольной командой mountvol, или через администрирование системы смонтировать раздел жёсткого диска в папку.
Помню ещё рекомендовали файл подкачки вынести на отдельный диск, чтобы он не фрагментировался, но сейчас это не актуально
SMART — хорошая вещь, да вот в моем внешнем жестком диске не поддерживается. А вслепую писать не захотелось. Кстати, я хотел написать про утилиты с возможностью мониторинга состояния диска, щас добавлю пару строчек и пойду спать. :)
Новый, просто видимо как-то криво реализовали его (SMART). Я немного неверно написал просто. Поддерживается, но не работает. :(
Про диск можете почитать обзор. :)
Просто далеко не все утилиты умеют получать статистику с внешних USB/FireWire/eSATA дисков, там требуется какой-то особый подход. Это как раз обсуждалось ниже в комментах.
У меня подключение по eSATA, смотрел программами HD Tune Pro и EVEREST. Проблема со SMART во внешних дисках от WD наблюдается не только у меня, кто-то уже об этом писал в комментах…
Насчет дефрагментации — помниться была какая-то статейка что винда после дефрагментации начинает себя вести некузяво и дефрагментировать приходиться регулярно. Лично я стараюсь иметь процентов 15 свободных и проблем с фрагментацией файлов и свободного пространства нет.
угу, с NTFS лучше так и делать. Дефрагментация нужна всяким там FAT-16/32 потому что используются «цепочки» т.е. чтобы прочитать следующий блок данных нужно прочитать предыдущий (исключение — корневой, который отдельно хранится). В NTFS хранится инфа об «отрезках» — начале и величине блока. Это позволяет очень быстро и удобно ворочить даже большими файлами.
В примере с флешкой 90% производительности наверняка было из-за того, что на флешке FAT32 — в таком слчае много времени тратиться на разметку пространства для большого файла, да и пишется он с непостоянной скоростью.
угу.
хотя последний год предпочитаю просто архивировать 7 папок из корня и /home держать на отдельном разделе (на линуксе этого вполне хватает для рабочего бекапа) :D
Я много перепробовал программ для дефрагментации, восстановления данных, так что вот мой опыт:
Дефрагментатор: O&O Defrag или/и Raxco Perfect Disk, как обычный дефрагментатор первый самый лучший, но perfect disk действительно дефрагментировать MFT, файл подкачки и системные файлы до загрузки ОС, такая функция заявлена и у O&O Defrag, но не работает.
Проверка диска: эту утилиту надо запускать до загрузки системы — MHDD, лучшая из всех подобных и самая удобная.
Восстановление файлов: Для случайно только что удаленного доковского файла подойдет Recuva (от тех кто написал неплохой чистильщик CCleaner), но когда все серьезно используйте R-Studio
Важный момент в использовании программ для восстановления удаленных файлов — как только вы поняли что совершили ошибку, тут же прекратите любые файловые операции на этом диске, закройте пиринговые клиенты, менеджеры закачек, не копируйте и не удаляйте файлы, т.е. вообще на этом диске ничего не трогайте. Программа для восстановления если еще не была установлена на диске (а часто так и бывает), качайте и устанавливайте ее на другой диск. Если сделать именно так велика вероятность успешного восстановления.
работать с железом из винды себе дороже, неоднократно убеждался. Прошивка биоса, манипуляции с разделами и ремапы бэб-блоков — не те операции, во время которых я был бы рад обнаружить даже малейшее подвисание этой чудесной оси =)
эффективность ровно такая же, как и при использовании упомянутого тобой Свойства диска -> Сервис -> Выполнить дефрагментацию
Это «частичная» дефрагментация — только мелких файлов (
Было бы интересно прочитать про разбиение на разделы. Конкретно интересует можно ли отдать под раздел пластину целиком. Интуиция подсказывает, что от этого должен быть бонус, но знания матчасти не хватает.
Диск можно отдать под раздел целиком, а для того чтобы он имел максимально возможный размер, требуется выделить кластер на 64 кб при форматировании. Я надеюсь, я правильно понял ваш вопрос. :)
Нет, он имел ввиду следующее: если у жесткого диска три пластины, то как создать раздел располагающийся ровно на одной пластине, и будет ли от этого выигрыш, а если будет то почему.
провод нарезаный на куски всегда оказывается короче
из законов Мерфи/Паркинсона
это я к тому, что в какойто момент оказывается что на двух соседних разделах достаточно места для размещения чегото нужного прям немедленно, а частями разложить нельзя
хотя нарезать диск в зависимости от типов хранимых данных — очень даже правильно
а физически по пластинам порезать — тут уж смотря как диск интерпретирует поверхности — как последовательные или параллельные, да и про ремапинг секторов не забывать.
лучше померять диск на производительность и нарезать тогда уже по скорости доступа. критические по скорости данные разместить в более быстрой части диска. вот только сдается мне, что выигрыш будет довольно небольшим. размер блока даст больше.
кстати не только на жестком диске, но и на тойже флешке.
есть у меня 8Г корсар вояджер. при стандартном 4к блоке — писала обычно в районе 3М/с
хотя по пачпорту должна давать 9!
форматнул с блоком 64к — получил сходу 8
потому что дефрагментатор у винды мутный. Во время 9х дефрагментация всегда давала хороший прирост в силу фата, в случае с нтфс существует ряд моментов из-за которых результат дефрагментации часто неоднозначен. По моему наблюдению на рабочей машинке при постоянном наборе софта дефрагментация требуется раз в 1.5-2 года, на рассчетной (постоянное создание и удаление мелких файлов общим объемом в 100-200 Гб) — раз в 1-2 месяца, для среднедомашней — раз в год имхо вполне достаточно.
Для контроля состояния HDD хочу порекомендовать Hard Disk Sentinel.
Программа позволяет мониторить температуру, производительность и здоровье жестких дисков, контролировать состояние S.M.A.R.T.
Очень понравился гаджет для сайдбара, в реальном времени отображающий активность дисков.
HDS хороша, но толстовата и небесплатна (понимаю, что это немногих останавливает, но всё же).
Я для себя не так давно открыл CrystalDiskInfo как наиболее функциональный SMART монитор среди бесплатных (кроме того, он open source).
Если ещё компактнее — старенький DTemp до сих пор отлично справляется.
Не соглашусь про бесполезность. «Вы просто не умеете их готовить»… ;)
В большинстве случаев это помогает своевременно диагностировать аппаратные проблемы диска.
хммм… интересно пишите, но трудозатраты на указанные Вами действия ИМХО слишком велики!
и почему нет автоматического программного обеспечения (идеально зашитого в Виндовс) которое само будет дефрагментировать, выбирать для С диска нужный размер кластера, искать поврежденные сектора и помечать их…
ведь делать все это можно постепенно и пока меня нет рядом с компьютером, а таких ситуаций много: ушел в туалет или за чашечкой кофе… отвлекли телефоном или звонком в дверь, а может быть просто отшел от компа и забыл, что он включен — Ведь таких ситуаций у каждого много! и компьютер при этом простаивает 50% времени пока он включен!!!
дефраг от O&O так и делает — дефражит в простое. Но вот кнопку «сделать заипца» еще не придумали. Размер кластера это вообще непредсказуемая фигня, ось же не знает какого типа данные будут лежать на диске.
ну все же для журналируемых фс это не проблема, сомневаюсь что риск потерять данные выше чем при обычной работе системы, когда постоянно пишутся журналы, сбрасывается своп и т.п.
Такое «автоматическое программное обеспечение» есть, и называетcя Windows, поставлнная со значениями по умолчанию.
Если вы не будете себе парить мозг вылавливанием процентов прироста для определенных задач (и, возможно, проигрышем на других) и переживанием по поводу каких-то незначительных и никому, по-настоящему не важных проблем, про которых вы прочитали в свежей «компьютерной периодике», то да вам слово, значения по умолчанию в Windows не древнее XP вас вполне устроят.
Вы чего то не понимаете… когда человек активно ставит-удаляет софт на системном разделе, когда он постоянно качает игры/фильмы/музыку — фрагментация диска доходит до 50%, и в определенный момент получается так что свежескачанный BD диск раскидан по всему разделу кусками по паре мегабайт, я вам гарантирую что нормального просмотра его не будет. И таких людей большинство. И с такой фрагментацией справится только нормальный софт для этого предназначенный, а не бестолковая фигня встроенная в windows
То есть вы хотите сказать, что «бестолковая фигня встроенная в Windows» не может собрать в один последовательный кусок файл BD-рипа, разбросанный в результате закачки по диску?
И после этого вы утверждаете, что я «чего-то не понимаю»? ;)
Он ничуть не левый. Кстати, с чего вы взяли что мой друг им пользуется? :)
Это лично мое предпочтение, меня он никогда не подводил и надеюсь не подведет.
Дефрагментация, кстати, завершилась успешно. А уже после нее диск стал RAW.
Сегодня узнаю, чем все завершилось
Насчёт удаления файлов — в молодости часто грешил на «Корзину» — мол, нафиг надо, продвинутые удаляют сразу «через Шифт» и не парятся… Иногда это входит в привычку — и проблем от этого только прибавляется.
Поэтому совет для самоуверенных: Не стесняйтесь Корзины — она вам пару раз спасёт пару миллионов неврных клеток… :)
Я вот не очень успешно пытаюсь переучить себя с удаления помимо Корзины на просто удаление. Прямо беда какая-то — мышечная (пальцевая) память постоянно жмёт на шифт :(
Большинство редакторов разделов умеют, например Acronis Disk Director. Функция обычно называется «change cluster size».
Правда на life critical данных я бы не стал рисковать. Один раз так уже испортил несколько очень важных файлов на разделе (видимо, сказались непофиксенные логические ошибки в ФС).
Active@ UNDELETE — просто восстанавливает удалённые файлы
для восстановления данных с испорченных разделов есть Active@ Parition Recovery
+ есть серия утилит под маркой DiskInternals для восстановления удалённых файлов, испорченных файловых систем и разделов
Все сновные документы, музыка (немного слушаю ее) архивы и фото, несного портативных программ редко пользуемых — на внешнем винчестере,
все фильмы, которые готовятся на списание или неразобранная музыка — на втором винте,
ОС и программы на основном винте в компе. Также там то, с чем я конкретно сейчас работаю, но это обычно имеет бэкап на первом/втором винте…
Я имел ввиду разбиение папок с данными на подкаталоги, а именно по какому принципу.
Папку «Кино», например, можно разбить по жанрам, режиссерам, стране выпуска, разрешению (720/1080) и т.д.
Но все равно спасибо :)
аа… ясно. ну… по разрешению сортировать- как-то слишком сурово))
к примеру, музыку по исполнитель\альбом1\треки…
ну есть там еще папки для всего того, что имеется от певца в одном экземпляре, а также если 1 альбом, то он сразу идет.
кино не храню на компе, поэтому то, что храню — тупо по признаку незаписанности на диск)), есть еще видеозаписи спектаклей там и т.п. — то они лежат просто разбиты по признаку «где чего когда снял».
программы — естькаталог портативного софта, там папка-программа.
и есть каталог программ, разбитый по сфере применения. Типа там офисное и системное и т.п. хотя в последнее время еще появился каталог «легальный софт».
Работа с жестким диском