Комментарии 264
даже наличие бэкапа не освобождает вас от наличия бэкапа бэкапа.
Но, судя по скорости приростания комментариев на форумах — у сотен людей часто было на этом диске что-то в единственном экземпляре.
LTO прошлых поколений стоят сейчас недорого. Ленту в сейф — и спишь спокойно.
Библиотеку с роботом, MSL4048 какую-нибудь. Правда, еще FC HBA понадобится, с ноутбуком могут возникнуть сложности :)
А что больше нравится, оптика имхо прикольнее, но я не настаиваю.
MSL4048
А можно, пожалуйста, подробности? Гайд какой? Может ли нам как-то помочь, и сделать всё лучше/дешевле, в том числе в терминах затрат времени и tech debt?
Вводная:
* наша личная инфраструктура живёт в k3s кластере, состоящем из двух мастеров и двух слейвов.
* мастера: бесплатные VM от оракл клауда в разных стойках.
* и двух k3s слейвов: платной/дешёвой VM от OVH, домашнем «сервере» (на самом деле fanless x86_64 компьютер в microITX корпусе) — атом 4/4 с 8Gb RAM, 2xSata SSD, 4x2Tb SATA hdd in ZFS-raidz
* платном/дешёвом CloudSQL от гугла с опцией HA
* Minio через оператор с бэкэндом в AWS S3 — данные приложений итд, которые должны реплицироваться
* Бэкапы в AWS S3 (а надо бы в оракл клауд, чтобы не зависеть от возможных проблем с амазоном, т.к. данные уже в S3)
* архив в AWS glacier (предполагается, что не понадобиться никогда)
* балансер от Оракла + nginx как ingress (на обеих оракл VM)
В планах:
* дропнуть VM от OVH, и использовать самописный автоскейлер на AWS лямбде, чтобы автоматически заказывать спотовые инстансы, если домашний «сервер» будет недоступен (т.к. ресурсов для запуска всех подов на OVH VM не хватает, и не-приоритетные приложения сейчас просто недоступны пока не поднимется домашний «сервер»)
* LB не только для HTTP(ingress) но и для TCP/UDP от cloudflare (в первую очередь нужно для VPN домой и астериска)
Звучит как 100% зависимость от интернета. :)
Простите, я не поняла Ваш вопрос. У меня есть две идеи, о чём он был, пронумерую 1 и 2
1. Где лежат данные? А почему данные должны быть доступны без интернета? Мне кажется, в случае атомной войны последнее, что будет важно, это твои файлы. Мне кажется, довольно рациональным выбором, в случае выживания во время масштабных атомных ударов, если государство падёт, будет суицид, т.к. ничего хорошего меня дальше ждать не будет, вплоть до сексуального насилия, рабства, итд. А в остальных случаях, если государство не падёт, интернет будет всегда, наверное, нет? Скорее всего, и данные на S3 выживут — этот протокол Амазон разработал для случая выхода из строя серверов, и по CAP theorem он про high availability and partition tolerance. То, что данные физически находятся вне твоего дома, это даже преимущество, т.к. вероятность пожара и твоего выживания в нём, но сгорания всех твоих вещей выше, чем вероятность атомной войны. Соотвественно, те, кто хранят бэкапы дома, рискуют остаться без них из-за пожара. Если же речь о том, что облачный провайдер может дропнуть данные (по ошибке, хакерской атаке, или потому, что могут и редиски) — мне кажется, это решается тем, что данные и бэкапы нужно разделить на два разных облачных провайдера. Ну и конечно, их надо шифровать. Что-то в моей логике ошибочно?
Вообще как-то очень странно, что кто-то в 2021м году рассматривает сеть как что-то приходящее. ИМХО, Интернет уже давно расширенный фенотип хомо сапиенса (кто читал Докинза, понимает, что я имела ввиду).
2. Или Вы имеете ввиду, что у нас слишком гиковский сетап? Типа я слишком много сижу за компьютером, и выглядит он странно? На это я отвечу, что мне платят деньги за написание операторов для кубернетеса. Для меня это достаточно родная, понятная, комфортная платформа. Я же cloud engineer. У меня куча наработок с работы итд, для менеджмента этой системы я практически не трачу ресурсов своего времени, т.к. делаю ровно то, что я делала на этой и прошлой работе. Ну и плюс муж управляет SQL базой данных, у него там хранятся его данные для его скриптов/pet projects. Поэтому и мои боты для телеграма, дискорда используют этот же инстанс бд. Так же у гугла очень дешёвый HA для CloudSQL, потому, что они не используют бэкап инстанс, который всё время запущен, а синкают его диск в пределах зоны доступности, и запускают инстанс, если он упал. Ну и бэкапы тоже сделаны удобно, они автоматические, и доступны через API (и я их выдёргиваю от туда).
Так же, важнейший плюс того, как у меня всё сделано, это то, что можно довольно легко начать тестировать бэкапы — это же k3s, и там есть всё для этого, можно юзать тот же ArgoCD. Мы сейчас это не делаем, хотя для работодателя я часто писала интеграционные тесты для инфраструктурного кода, и CI/CD pipelines для тестрования бэкапов. Мне кажется, многие сталкивались с тем, что бэкапы оказались битыми. У меня такое было и на работе в прошлом, и даже с личными данными. У меня даже есть образ диска, и сам диск (HDD) умерший/посыпавшийся, на котором лежит(лежал) файл биткоин кошелька, где аж 0.5 BTC :(
Если BTC будет когда-нибудь стоить миллион, я уволюсь с работы, и попробую восстановить эти данные :)))
Предполагается, что по этому списку можно как то рекомендовать как все улучшить и оптимизировать? Сильный заход...
Для домашней фото-видео библиотеки для скриптов это очень разные подходы будут.
Когда то вот такой хренью пользовались, прикольно было: https://ru.wikipedia.org/wiki/АрВид
Если на прямки подключать к записывающей головку сколько на видео кассету влезет?
без сжатия - 2-3.2 Гб, для 90-х было вполне себе
Ищи очень дорогой магнитофон стандарта D-vns фирмы jvs .На касету стандарта супер внс позволяет записывать от 15 до 25 гб.На оригинальную двнс до 55 гб.Запись сразу цифровая,но требуеться соеденение firewire ,где их сейчас найдеш.
Извеняюсь -на оригинальную
D-vhs до 50 гб,самая большая емкость,Df_480 .Что с 2х скоростью дает 4 часа архивации.(оригинал не могу чата найти,какая именно модель магнитофона,якобы можно еще было сжатие включать,но при больших обьемах проц магнитофона перегревался и зависал)
Это интересная информация) Значит потенциально можно кучу старой техники пустить на реинкарнацию) Переосмыслить переработку) Думается с современными мощностями можно смоделировать процесс записи и подобрать более емкий способ записи)
Не думую что специалисты JVS не выжали практически максимум из стандарта,да ,есть еще усовершенственный стандарт но касался он звука,и те магнитофоны редкость .Так что не думаю что стоит изобретать вилосипед.Только учитывайте кассеты D-VHS стоят(ли) совершенно космические деньги,там другая технология изготовления применялась.
А S-VHS максимальная емкость 25 гб нужно записыыать на тоже дорогую и редкую Т-240 на понеженной скорости из за этого продолжительность записи около 6 часов...А скорость записи из за механики ограничена ( ну не расчитаны она на скоростную запись,опять же маленького диаметра ролики в кассете).
Арвид, да, я помню. Невероятно глючный был софт, спасибо Майклу Лаврентьеву. ?♂
Там 2 основных статьи расхода: хранение данных, платится помесячно и получение данных, платится когда припрёт. Остальное скорее всего будет в бесплатных квотах always free или стоить несколько центов.
Хм, у них написано что 75гб хранилища в месяц бесплатно. Звучит как-то слишком хорошо, пробовали, работает?
Я бы туда фотки загрузил для бэкапа
Я бы туда фотки загрузил для бэкапа
Мы используем Amazon prime, он даёт анлимный сторадж для фотографий. К сожалению, они выпилили поддержку всех сторонних клиентов, а под Wine ни Amazon Cloud Drive, ни Amazon Photos не работают. Вместо этого я использую Bliss Os (sort of Android for x86_64), запускаемый по крону на моём десктопе (libvirt/qemu+kvm) + монтирование NFS с домашней серверной инфры (описана выше) внутрь андроида + проприетарная программка, которая обновляет медиабиблиотеку. В этом сценарии мне не нравится то, что я не осилила обновлять библиотеку сама по скрипту, проприетарная программа иногрда отваливается, а так же то, что эта виртуальная машина живёт на моём PC, а не в домашней серверной инфре (а на ней нет ресурсов запускать такое — для кубернетеса есть кубевирт оператор, который позволяет использовать libvirt + qemu, но ресурсов на нашем домашнем «сервере», особенно CPU/RAM, не так много. Впрочем, их можно было бы временно перемещать в публичное облако, на спотовые инстансы амазона). Ну и я не получаю никакого фидбэка прошла синхронизация или нет, итд, чтобы добавить это в наш инстанс прома/графаны. У меня создаётся событие в календаре проверить раз в три месяца как там синкаются фотки, и обычно выясняется, что что-то сломалось/отвалилось.
Мне хочется написать pet project вокруг браузера и selenium — сделать докеризируемый клиент для amazon cloud disk, который будет парсить вебинтерфейс cloud drive, и оперировать с ним (для загрузки в амазон фоток, составляния их списка, итд). Но нет времени, + нет полной уверенности, что за такой клиент мне понаставят звёздочек на гитхабе, а так же что амазон не найдёт способ его забанить.
А не могли бы Вы поделиться опытом, чтобы человек, не знающий вообще ничего о хранилищах S3, мог составить общее впечатление?
* Как у них это в целом организовано, как это выглядит с точки зрения конечного пользователя, какой используется софт для заливки, скачивания и управления данными? В чём вообще суть объектного хранилища, что считается объектом и как это соотносится с заливаемыми файлами?
* Если верить сайту, выходит, что надо одновременно иметь некий объём классического стораджа и заливать через него. То есть если ориентироваться на бесплатный объём, то залили 75 бесплатных гигов, перебросили в Cold, залили следующие 75 гигов… Так? И как считаются эти 75 гигов — независимо или суммарно? Если я залью терабайты в холодное хранилище, у меня останутся 75 бесплатных гигов в классическом или уже всё, при каждой заливке будут капать доп. затраты на те минуты-часы, в течение которых данные временно лежат в классическом хранилище? (Правда, в FAQ упоминается, что есть прямой доступ в Cold Storage через API, но непонятно, реализован ли этот API в каких-то готовых инструментах.)
* Требуется ли держать у них дополнительно ещё какую-то (платную) инфраструктуру, без которой доступ к хранилищу окажется невозможным или крайне неудобным? Или это целиком самостоятельный независимый сервис?
* Насколько я вижу из таблицы цен, заливка полностью бесплатна, платно только скачивание (и перенос между дата-центрами), 10 евро/Тб. Правильно ли я понял, что это плюс оплата хранения и есть абсолютно все затраты, сверх которых нет никаких дополнительных начислений?
* Ну и в целом, возможно, найдутся какие-то рекомендации, очевидные опытному пользователю, но неизвестные новичку; был бы благодарен, если поделитесь.
По опыту амазоновского S3 могу ответить на часть вопросов, все остальные это полные клоны с 90%+совместимостью по АПИ:
В чём вообще суть объектного хранилища, что считается объектом и как это соотносится с заливаемыми файлами?
файл это и есть объект
как это выглядит с точки зрения конечного пользователя, какой используется софт для заливки, скачивания и управления данными
По сути-что-то типа фтп сервера, только свой АПИ. Заливка-через веб-морду, АПИ. АПИ поддерживает сейчас множество программ, есть CLI, есть либы под все популярные языки.
Требуется ли держать у них дополнительно ещё какую-то (платную) инфраструктуру, без которой доступ к хранилищу окажется невозможным или крайне неудобным
ненужно
Если пользоваться только object storage, всё вкуснее. Есть софтина rclone, умеет монтировать хранилище как виртуальный диск и шифровать на лету. Даже на винде. Есть версии под мобилы и утюги. OneDrive нафиг идёт. С неё рекомендую начать. Он может так же заливать в cold storage, но не умеет давать команду на изъятие.
Есть софт для бэкапа, умеющий пользоваться хранилищами напрямую. restic, borg-backup. первый быстр, второй сжимает хорошо. Оба шифруют перед загрузкой.
Если хочется наглядности, то под Linux есть Midnight Commander а под винду — плагины для Total Commander и Directory Opus, и платная версия FileZilla.
Ещё у scaleway есть примитивная веб морда, позволяющая загружать файлы до 2Гб и скачивать любые файлы, по одному.
Очень рекомендую не загружать в cold storage тучу мелких файлов: сожмите в архив. Иначе любая операция с этой папкой будет занимать часы и падать через раз. restic и borg это делают.
Если cold storage не нравится, рекомендую посмотреть Wasabi. У них прекрасный пакет 1Тб места плюс 1 Тб трафика в месяц 6 баксов.
Не те деньги, которые сильно влияют.
На стоимость системы больше влияет monthly storage, оно у glacier приемлимое.
Еще $90 за "Data Transfer OUT From Amazon S3 Glacier To Internet" сверху и что-то там на API
Трансфер-оут не применяется если вы восстанавливаете данные внутри облака.
Справедливо, я просто думал что в контексте треда мы про домашние NAS'ы говорим, а не облака :-)
Тут опять так важна стоимость хранения, а не возврата. Причем у Амазона в отличии от BlackBaze и прочих скачать его можно РЕАЛЬНО на скорости 1Гбит+, а не 1-10мбит.
У меня на NAS лежат оригинылы больших файлов (всякое 3D), которые я использую на компе, потому большую часть NAS таки надо бекапить в облако (в моем случае GCS вышел оптимальным по цене).
Бекап с домашнего NAS в облако вообще практически никогда не должен быть востребован(есть же еще сам девайс у вас).В контексте статьи звучит очень иронично.
В общем, низкие цены у них не просто так. Сейчас сижу на linode и за два года не было ни единой проблемы, все работает как часы.
Зато у Scaleway много оригинальных продуктов. Они первыми стали предлагать в аренду маленькие железные серверы на ARM. За 3$ в месяц было на старте. Сейчас они предлагают в аренду машины на Эппловском А1 — программистам отлаживаться. Они же первыми после Амазона предложили cold storage. Сейчас какую-то фишку к Кубернетам с помпой представили, только я не в теме…
А что в Glacier в ценах неврзумительного-то? Там всего 4 параметра. Есть примеры расчет у них на страничке.
Например из доки(по-моему самый типичный вариант):
Пример расчета TCO 1. Предположим, что вы загружаете 1 ПБ данных в Amazon S3 Glacier, средний размер архива составляет 1 ГБ, при этом вы никогда не извлекаете данные. При загрузке 1 петабайта данных впервые взимается плата за обработку запроса на загрузку в размере 1 048 576 ГБ x 0,05 USD / 1000 = 52,43 USD. Текущие затраты на хранение: 1 048 576 ГБ x 0,004 USD = 4194,30 в месяц или 50 331,65 в год.
Если данные только загружать, но не вытаскивать, у меня вышло 4,194.30 USD USD в месяц за хранение и 31.46 USD за UPLOAD запросы (https://calculator.aws/#/estimate?id=d25ad5e2ea48f5e4840d50d86275824f48f57a27)
Разовая выгрузка будет стоить 58,967.56 USD (https://calculator.aws/#/estimate?id=4d2be5758aa3f8f8cfde3a7e7651420470af3f15), т.е. примерно как за год хранения данных.
Подскажите, а 5 центов это что за цена?
Это текст из примера, видимо там неправильная/или устаревшая цена.
Но кстати про калькулятор я забыл-это отличный вариант всем у кого есть вопросы.
Разовая выгрузка будет стоить 58,967.56 USD (https://calculator.aws/#/estimate?id=4d2be5758aa3f8f8cfde3a7e7651420470af3f15), т.е. примерно как за год хранения данных.
Естсественно надо считать что подходит, каждый сам может посмотреть. Я говорил лишь про то что тарификация довольно простая.
Цена я считаю тоже отличная для холодного хранилища, например бэкапов, которые только пишешь по факту и они обычно супер редко нужны и честно хз где дешевле.
А что в Glacier в ценах неврзумительного-то? Там всего 4 параметра.Ну вот открыл я страницу цен, и там ох как не 4 параметра. Одних только вкладок 6 штук. Ок, на первой только цена за хранение. Вторая вкладка: цены за какие-то реквесты. Что это за реквесты? LIST — это что, за простое получение списка моих файлов оплата начисляется? Чем Standard от Bulk отличается? Почему GET-запрос находится в колонке, отдельной от Data Retrieval-запросов? Что такое тогда GET, и чем он отличается от запроса данных? Ах да, ни в коем случае не забываем ещё и про звёздочки:
** Objects that are archived to S3 Glacier and S3 Glacier Deep Archive have a minimum 90 days and 180 days of storage, respectively. Objects deleted before 90 days and 180 days incur a pro-rated charge equal to the storage charge for the remaining days. <…>
Следующая вкладка: Data Transfer. Мне как человеку незнакомому с устройством хранилищ Амазона остаётся совершенно непонятным, в каких ситуациях происходят все эти трасферы. Может, данные из холодного хранилища просто по своей природе должны быть скопированы на какое-то другое хранилище, и тогда мне придётся к стоимости пересылки данных из Амазона ко мне добавить ещё стоимость пересылки между хранилищами. А может и не придётся. Понятия не имею.
И так далее. Куча всевозможных непонятных пунктов, все со своими ценами, но неясно, какие из этих пунктов относятся к моим задачам, а какие нет. Какие являются неотъемлемой частью предоставляемого сервиса, а какие опциональны.
Ну вот открыл я страницу цен, и там ох как не 4 параметра
4:
-плата за хранение-просто цена за гигабайты
-плата за трафик(в гб)-входящий трафик бесплатный, исходящий-платный
-плата за запросы(АПИ-вызов). Платный только 1 запрос-upload, по факту — это цена за загрузку 1 файла
-плата за получение данных-т.к. это холодные данные их надо извлечь из архива и куда-то выгрузить для получения.
Для загрузки данных-вы грузите 2 архива по 1гб. Цена-2 апи запроса т.к входязий трафик бесплатный.
Хранение-цена за хранение за гб
Выгрузка. Цена-количество запросов(количество файлов по сути)+объем данных*цену передачи данных(чтобы скачать).
Пожалуй это все что нужно считать для холодного хранения данных.
Может, данные из холодного хранилища просто по своей природе должны быть скопированы на какое-то другое хранилище, и тогда мне придётся к стоимости пересылки данных из Амазона ко мне добавить ещё стоимость пересылки между хранилищами.
Да, там написано что данные выгружаются на EC2 и доступны в течении 24ч. Это и есть цена data retrieval.
Там же довольно подробный faq по каждой опции. Есть калькулятор амазоновский-можете просто вбить свои параметры и вам выдаст цену.
Google Archival Storage https://cloud.google.com/storage/archival не лучше? Хотя бы тем что достается все более менее сразу а не "заказ" как у Glacier
Подвох в том, что 90% пользователей не будет заливать данные терабайтами
Старее lto-5 они мелкие. Новее - слишком дорогие. До истерии с Chia HDD были проще, удобнее и дешевле. Только б/у lto-5 давала гигабайт дешевле, но при объемах от (примерно) полсотни террабайт. Т.е. до 100 террабайт смысла было немного, не настолько выгодно, насколько гемморойно.
С кассетами тоже не все понятно, разбег цен от 750р за LTO-5 3тб до 3000р и более.
Для инкрементальных бэкапов можно и LTO-4 и LTO-3. Терабайт 5 евро без учета привода.
Это именно для холодных бэкапов. Недостаток жесткого диска не в цене, а в том, что испортить его содержимое можно за доли секунды чисто программно. Чтобы так же запороть ленту, надо, чтобы привод ее зажевал.
Терабайт 5 евро без учета привода.
Терабайт в облаке уже 6 евро без напряга. Нафиг тогда это всё?
Я правильно понял, вы сравнили 5 евро единовременных вложений с 6 евро абонентки? ))
>испортить его содержимое можно за доли секунды чисто программно.
У некоторых жестких дисков в Ата секьюрити можно выставить режим только чтение.При введение пароля включаеться запись.
если хард через пару лет лежания на полке стукнул и послал тебя лесом — его, скорее всего, за разумный прайс вычитают тебе в конторе по восстановлению данных. если кранты ленте — маалеш…
Пользуюсь дома много лет. Начал после того, как в организации шифровальщик убил сервер с бекапами.
Если мониторить в течение полугода были варианты: LTO-5 за 15 тыс (лежал несколько недель) и 6 тыс (забрали в день публикации).
Кассеты LTO-5 прямо сейчас есть по 500р, LTO-4 — по 330р можно найти (в мае были по 300р)
На европейском eBay цены на LTO-3 от 50 евро, LTO-4 от 100, с везением можно ухватить LTO-5 за 100. SAS дороже, оптика дешевле. Если бэкапим пользовательский NAS для дома, то при аккуратной настройке бэкапа даже LTO-3 может быть достаточно (не на одну кассету, ну и что).
SAS дороже, оптика дешевле.
Интересно, почему так? FC адаптер на 4GB стоит от 500руб на авито. Этого приводу хватит с огромным запасом. Если пишем сжатое — то и 2GB хватит «за глаза»
На некоторых моделях от WD с двумя дисками можно включить зеркалирование. Вот тут-то точно 100% защита данных...
Так и есть. Бэкаплю свой бэкап в Дропбокс в шифрованном виде. Правда, у меня синолоджи.
P.S. Восстанавливать шифрованные файлы пробовал — всё ок. Но надеюсь, мне никогда не придется это делать, потому что нудная, долгая процедура — пока выкачаешь, пока расшифруешь. Бррр...
Какая там ФС была? R.saver пробовали?
Есть возможность показать специалистам по восстановлению данных непосредственно в офисе или по удалёнке? Очень уж интересно что там устройство при обновлении с пользовательскими данными делает. Если можно будет восстановить - сделаем бесплатно, за удовлетворение любопытства.
P.S. Оказывается нам такой уже собираются привезти на восстановление, посмотрим. Но предложение всё равно в силе, раз сделано.
Оказывается нам такой уже собираются привезти на восстановление, посмотрим
Отпишитесь пожалуйста (по возможности, разумеется), что там с файловой системой случилось?
Попробуйте EaseUs data recovery.в демке она показывает,что может восстановить после сканирования.после уже можно думать о покупке. Мне несколько раз в прошлом только она помогала
Скажите пожалуйста, откуда вы выловили фразу "с большинства"?
Ну, кроме желания собрать побольше плюсиков на кликбейте.
И добавьте, пожалуйста, ссылку на официальную реакцию, которой "нет": https://www.westerndigital.com/support/productsecurity/wdc-21008-recommended-security-measures-wd-mybooklive-wd-mybookliveduo
Не смотря на то что я был зареган на их сайте и в их облаке — никаких предупреждений мне не приходило.
«с большинства» — вся серия live и live DUO зааффекчена точно. Если их не выдернуть из инета — заафектятся все)
Я правильно понимаю, кто-то решил помайнить chia удаленно? По аналогии, как раньше взламывали и майнили на процах. )
У меня IP MyBook наружу не прокинут (хотя к wd my cloud я его подключал). Много коментариев что он за фаерволом и без подключения к myCloud.
<img src="http://mybooklive/api/1.0/rest/language_configuration...">
вполне эксплуатируется за фаерволом и вполне может быть, что на тех же форумах или прямо тут на хабре
вот поэтому для себя и тех на кого мне не насрать я делал файлопомойки сам, какой нибудь freenas или банальный debian сам не накатит никакую малварепрошивку на себя без твоего ведома
какой нибудь freenas или банальный debian сам не накатит никакую малварепрошивку на себя без твоего ведома
Думаю, в WD тоже были уверены в своём софте, и содержали целый штат безопасников, следящих в том числе и чтобы малвари не проникли на сервер обновлений :)
содержали целый штат безопасников, следящих в том числе и чтобы малвари не проникли на сервер обновлений
Бизнес любит резать косты, и гораздо меньше любит считать риски. Не факт, что там есть хоть 1 безопасник.
Вспомните все эти IP камеры, со вшитым рутовым паролем и открытым telnet/ssh.
разница в том что если я сломаю свою хранилку то я сам дурачёк и это мои проблемы
но вот так вот умершая сама по себе хранилка это уже за пределами добра и зла
Только независимость нескольких копий может обеспечить сохранность, а не эти «купи ХХХ, нет собери сам...»
Лучше перебдеть, как говорится.
А готовые решения — это быстро и просто в большинстве своём, дешевле (в том числе по времени сотрудников) на внедрение и сопровождение брать готовое, чем пилить своё и поддерживать, поддерживать… Если это не основной профиль работы компании конечно.
Мне апдейт прилетел час назад.
Апдейты автоматом ставятся?
Малинка хоть с одного диска на 100мб/сек читать в состоянии? Про сразу 5 потоков по 100 уж и не спрашиваю.
Ну с пяти дисков одновременно 100 МБ/сек точно не получить. Узковат USB 3.0 и гигабит. Но 100 МБ/сек с диска точно реально. Максимум, что сумел выжать — 120 МБ/сек на большом файле. Копирование с диска на диск в пределах сервера любым файловым менеджером — где-то 30-50 МБ/сек. Но это зависит от размеров файлов. Передача данных от клиента к серверу и обратно варьируется примерно 20-100 МБ/сек в зависимости от размера файлов.
Ага, нашел, через плату расширения к компьют модулю. Или вот так по хардкору https://mysku.ru/blog/china-stores/84533.html
вполне закономерный итог. Поставили у руля детей — получите-распишитесь.
По-хорошему, NAS это промежуточный уровень бэкапа, с которого ценные данные нужно раскладывать по нескольким удаленным хранилищам.
Это действительно хороший микс надёжности и удобства. Но если этот NAS слетит, то вся последующая цепочка накроется. А если он слетит без аварийных сообщений - то когда понадобится восстановиться, владелец может увидеть, что последний бэкап был сделан дни/недели/месяцы назад.
А такая древность как Western Digital My Book World Edition II 2Tb пострадала, есть сведения?
Дома много лет валяется без дела Western Digital My Book World Edition 500 GB (WDG1NC5000) — самый-самый первый.
Может мне стоит его включить и посмотреть на результаты? :)
А проверьте.
![image](https://habrastorage.org/webt/gq/nq/ss/gqnqssrgvzjlih_u_4byrid-jje.jpeg)
Девайс 2007 года — времена доисторические: софт был записан на сам диск, USB там
Заодно поднял старые форумы, вспомнил хорошо забытое старое: «со всех концов страны мы слышим стоны» (с) — данное изделие было весьма глючным и страшно медленным.
Но корпус, да, все еще отлично смотрится. Думаю выкинуть старую плату и заменить ее на что-то поновее, благо места внутри хватит (терабайт так на 8...10).
mybookworld.wikidot.com/rescue-procedure
Инструкция как раз для вашей модели (blue ring).
Альтернативно — файлы доступны здесь (и, вроде, содержат всё нужное): wd.hides.su/wd/MyBookWorld/Recovery2
Если верить старой вики — тут должны быть файлы (только для зарегистрированных пользователей):
Спасибо, это очень интересно.
Но вчера, окунувшись в воспоминания — я вспомнил, почему в свое время разобрал этот девайс и использовал его хард стандартным способом- там очень слабое «железо», система, даже для 2007 года, была тормозной.
Плюс мне просто интересно переделать его в что-то более современное, благо корпус и внутренний металлический каркас (крепление 3,5" харда внутри пластикового корпуса) — т.е. самое трудоемкое в изготовлении, уже есть.
к сбросу настроек до заводских, который, по всей видимости
Они не уверены в собственной функции?
"Ой, мы забыли её протестировать, когда делали 10 лет назад, видимо, она удаляет данные".
— deleted --
Привычка с тех пор, когда бэкап был вида «7 ежедневных флопиков + еженедельный + ежемесячный + полугодовой».
Проблемы будут в случае пожара, но это станет относительно небольшой проблемой. Плюс важная информация всё равно в облаках. Впрочем, всё собираюсь комплект полочников родичам в другой город отвезти. Похоже, пора.
Это настолько жёсткий косяк, что может обернуться банкротством. Репутационные потери невероятные
"Репутационные потери невероятные" - какие могут быть репутационные потери у монополиста? Может еще кто-то возьмется диски пилить. Небезизвестный южнокорейский гигант сделал подход, но понял и тихонько без грохота сбросил попытку.
Это не диски, а домашний NAS - система хранения/бекапа. Она сама по себе, даже пустая, как пара винтов стоит. Сейчас посмотрел в ближайшем ларьке - система на 2 диска 15к рублей.
И получается:
Всех имеющихся клиентов с этими моделями компания потеряет, плюс какие-то новые к ней не придут "по совету друзей".
Вероятно большое количество судебных исков, а это раздувание скандала и повод конкурентам вытеснить WD с рынка NAS. Им даже не надо будет хвалить себя.
Ну и по мелочи: Жёсткие диски тоже иногда просят кушать новую прошивку, а доверие к "бренду" в корпоративном сегменте упадёт. Переносные диски возможно просядут чутка. В рознице это больше на совести продавцов в магазинах.
Таким образом наш мульти-форматный шаверматорий превращается обратно в "лепёшки из тандыра".
Всех имеющихся клиентов с этими моделями компания потеряет, плюс какие-то новые к ней не придут «по совету друзей».
В эпоху 1,6 Гб винтов (AC31600, 1996) у WD была реально глобальная проблема (ключевое слово — «оверлей»).
И кто сейчас про нее помнит? :)
И здесь то же самое будет: через пару лет, по очередному подходящему случаю, вспомнят, что что-то вроде было, да вроде и пострадали те доли процента, у которых интернет работал в это время…
использование админской учётки для обычного сидения в соцсеточках.Это доли процента?
Надо же, куда грамотность компьютерная шагнула. Никогда бы не подумал.
А WD, получив проблему, во-первых не признают ее («это хакеры атакуют клиентов, мы не причем»), а во-вторых не торопятся исправлять (багованная прошивка продолжает раздаваться).
Репутационные потери невероятные
Производитель потыкает пальчиком в EOL на девайс и по «доброте душевной» выкатит прошивку, где именно эта дыра не будет работать, а заодно выкатит новую «суперустойчивую» линейку. Может даже «со скидками». Вот и все потери.
Так будет или нет — покажет время. Хорошо, если ошибаюсь.
Отказ от автоматическх обновлений - зло.
Решается это всё раздельным накатыванием обновлений. Накатили, подождали, следующей порции накатили и так далее. Эффект будет как от ручных обновлений - пострадавших в разы меньше.
Ну у меня Synology. В настройках "уведомлять об обновлении", "Уведомлять, загружать, НЕ устанавливать автоматически", "автоматически ставить обновления".
У меня стоит вариант 2. И постоянно, когда мне прилетает уведомление об обнове, я жму ссылочку "об обновлении" и читаю что там нового. И как обычно в дате обнов вижу, что обнова выкачена 10-15 дней назад, а получил уведомление о ней только сегодня. Вот и безопасное время, за которое обновы можно анулировать, за счёт тех, кто сразу их ставит.
А в чём вообще смысл накатывания обновлений на работающую систему?
Ну, если бы обновление исправляло уязвимость, позволяющую удаленно сбросить устройство к заводским настройкам, попутно удаляя данные - то, возможно, стоило бы :)
А то вот, говорят, Petya распространялся с использованием той же уже пропатченой уязвимости, что и появившийся несколько ранее WannaCry
Отказ от автоматическх обновлений — зло
Не согласен — ровно год назад мой HP Laserjet Pro 400 Color MFP M475dn (это 2013 г.в.) получил автоматом некое обновление, после чего хоть и не превратился в кирпич, но работать перестал совсем.
Мало того, что ремонт обошелся довольно дорого (замена форматера), так еще ко всему добавились и физические мучения, так как данный девайс не только много весит (29.5 кг), но и обладает неслабыми габаритами (420 x 483 x 500 мм, и подъезд у нас со ступеньками, до кучи).
Естественно, нынче путь получения автоматических обновлений для него закрыт.
Недавно купленный принтер отказывался что-то напечатать до тех пор, пока я не зарегистрировал аккаунт в HP!!! При том само это приложение HP Smart глючное и тормозное донельзя, такое ощущение что любой школьник сделает подобное лучше, чем огромная корпорация.
А через две недели оно решило что чернил в нем нет, и пришлось все переставлять заново.
HP это вообще отдельная тема. Более отвратительной принтерной техники еще поискать, по крайней мере для домашнего применения.
Не говорите — я вчера написал текст выше, а сегодня внезапно пришлось забирать из ремонта HP P3015dn (надо было, наверное, сплюнуть :)
Это совсем не домашний девайс, но в ремонт катается регулярно (на этот раз — датчики). Хорошо только одно — он весит всего 16 кг :)
На месте ждал сюрприз — принтер издавал странные звуки и не работал. Поскольку возвращать этот пуд в сервис желания не было — пришлось доставать бубен… оказалось, что лоток для бумаги был отрегулирован на чуть больший (пара миллиметров) размер, чем А4.
Этого оказалось достаточно для этого чуда техники.
Да, где-то там, в идеальном мире, вендоры тестят обновы в хвост и гриву на своей обширной тестовой сети и раскатывают их волнами, чутко и оперативно контролируя работоспособность. Но вот, этот мир от нашего как-то неблизко)
Если NAS подключен к инету, то лучше уж сразу в облаках хранить.
А все апдейты — руками, и желательно после первого-второго патча к апдейту (потому что если NAS не в инете, то критичного ничего не должно быть)
Если NAS подключен к инету, то лучше уж сразу в облаках хранить.
Чтобы сэкономить, вестимо.
Orange Pi 4 в качестве базы, к ней подключен жесткий диск, плата подключена к гигабитному роутеру кабелем и шарит диск по smb. Работаю дома на ноуте, вайфай 5 ГГц дает 200+ мегабит. С помощью macrium reflect бэкаплю системный и рабочий разделы два раза в день инкрементально, раз в неделю дифф, раз к месяц фул. Инкременты делаются 5-10 минут и не мешают работе. Периодически проверяю целостность бэкапов. На плате крутится скрипт который с помощью rclone выгружает созданные бэкапы на backblaze.
Итого у меня есть быстрый доступ к бэкапу если вдруг понадобится, а так же резерв в облаке.
Перед установкой любых обновлений винды или драйверов всегда делаю инкреметный бэкап, так спокойнее.
Не совсем понимаю, зачем тогда NAS? Для меня NAS это личное облако. Я не хочу отдавать свои файлы Яндексу/Гуглу/Амазону/..../, и постоянно изучать их лицензионные соглашения, ждать/гадать когда там и по каким причинам меня заблочат или урежут место, или... У меня есть Synology, у меня есть доступ к моим файлам всегда, ну за исключением двух раз, когда однажды провайдер упал, а в другой раз сменил статик ip. Зачем мне NAS не подключенный к интернету я не понимаю, тогда уж диск лучше подключать по USB.
1. на отдельной от рабочих данных машине
2. территориально отдельно, в другом офисе/городе/стране
3. на машине с иной операционкой (на случай окирпичивания операционки где данные)
4. на машинах с разными операционками, разных производителей
5. на машине с иным процессором иной архитектуры (во избежание Спектрум-подобных атак)
что еще не указал?
удобно было складывать фотки со всех телефонов. теперь все фотки тютю.
очень обидно, если еще восстанвоить не удастся…
В чем разница между копировать бекапы на домашний NAS и копировать бекапы на подключенную флешку/внешний HDD?
NAS и DAS: первое — это сетевое устройство, т.е. возможен доступ с более чем с одного хоста; второе — та самая пресловутая флешка или внешний hdd, прямое подключение к хосту и отсюда монопольное использование.
Нo NAS стоит ощутимо дороже дисков, входящих в него, кроме тогоНет, NAS на один диск как правило стоит дешевле диска, который в нем стоит.
Here’s the weird part: those external drives are sometimes less expensive than the bare version of the same drive. That means if you keep your eye on sales, you can easily score a batch of hard drives for 50% off the retail price if you’re willing to get your hands dirty and shuck those drives out of their enclosures.
Даже сайты для мониторинга их цен уже сделали (сейчас не актуально из-за chia): shucks.top
Если система на основном компе полетит целиком — NAS останется жить (все же прошивку NAS обновляют реже и левого софта там — меньше.
Для NAS иметь файловой системой ZFS / BTRFS — это более менее нормально, а у них есть такие штуки как периодическое сканирование данных на предмет bit rot и восстановление.На основном компе так тоже можно. Если он под Linux.
NAS в принципе не обязан подключатся как сетевой диск если ПО бекапа умеет работать как то еще.
На NAS (нормальном) много чего еще есть.
Иногда — преимущества внешних HDD — просто теряются. Пример — на macOS можно делать загрузочный клон диска (если что — с него грузимся и клонируем назад). Можно БЫЛО. На маках с M1 еще вопрос — получится ли с внешнего устройства в принципе загрузится (тут например важно — это TB3 устройство или USB3), при этом если внутренний накопитель в принципе поврежден — с внешнего загрузится не выйдет. А файлы копировать можно и на NAS (особенно если он умеет Time Machine прикидываться), все равно придется ставить систему (возможно через Internet Recovery) а потом с Migration Assistant'ом развлекатся.
Можно конечно. И это еще и дешевле будет чем аналогичная по мощности Synology.
А еще можно много ECC-памяти воткнуть и иметь ZFS со всеми прибамбасами включая и дедубликацию.
Во вторых, а чему удивляться? Любое устройство с кучей сервисов и помогалок для хомяков, которое работает на основе онлайн-сервисов производителя — это потенциальный риск. Да, удобно. Но без пруда не вытащишь и рыбки из пруда. Это касается не только WD — завтра кто-нибудь по умным домам какой-нибудь Салями полазает, одним дом затопит, другие в порыве изготовления очередного члена семьи процесс своего увлекательного крафта в ютубе обнаружат. Это вполне себе допустимо в случае с публичными сервисами с централизованным управлением.
Хорошо, что на моем стареньком wd my cloud давно стоит clean debian, и камерой всегда снимал в full-hd.
есть какие нибудь новости? как, чем данные лучше восстановить?
и можно ли устройство дальше использовать? или опять wipe будет?
программа восстановления закрылась 31 июля, да и диск отправлять куда то не хочется.
что настраивалось уже не помню, лет 7 назад было. к диску был доступ извне через офиц моб приложение. проброса портов в роутере точно не было, поэтому доступ видимо обеспечивался через сервера WD. хотя они пишут что хакеры сканировали порты и искали жертв...
а с win PC можно восстановить? без линукса. Или из виртуалки?
Western Digital стер данные с большинства пользовательских NAS