All streams
Search
Write a publication
Pull to refresh
19
0
Send message
А уж как было выгодно покупать в августе-сентябре 2018, когда Медиамаркт «красиво уходил» с российского рынка — я несколько коробочек с ключами подписки Office 365 купил… таких скидок в нашей жизни уже не будет — некому так красиво уходить с рынка…
Коллеги, дополню мысль насчет Synology Cloud Station и у Synology Drive:

1) наши Synology «близко к начальному уровню»[прим. 1] (у автора статьи — двухдисковая DS214, у меня однодисковые DS115 и DS116) прекрасно справляются с ролью "клиент облачного сервиса" (Яндекс.Диска, Google.Диска и прочих) — ведь для выполнения операций дву- или односторонней синхронизации не очень важны процессорные мощности и объем ОЗУ собственно NAS, — гораздо важнее а) производительность самого облачного сервиса (выше я писал про OneDrive, который гораздо медленнее других); б) скорость интернет-соединения. Само собой, что уровень текущей (в конкретный момент) производительности NAS в этой роли не зависит от объема данных (условно, при первоначальной синхронизации, 2 TB будут синхронизироваться в 2 раза дольше, чем 1 ТВ, — 20 суток вместо 10) и даже если в этой роли использовать гораздо более мощный NAS, то картина сильно не поменяется;

2) совсем другая история, если мы попытаемся немощный (избегаю слова маломощный) NAS использовать в роли "сервер для синхронизации нескольких устройств в локальной сети (для группы сотрудников, малого офиса, подразделения....)". Тут задач на стороне NAS побольше — и, возможно, слабых процессоров и ОЗУ 0,5 — 1 (2?) GB недостаточно. В моем случае DS116 в роли сервера (средствами Synology Drive) в локальной сети отлично синхронизирует одну папку на 3 устройства (которые далеко не всегда работают одновременно), объем папки 10 GB (при этом, само собой, эта папка по расписанию HyperBackup-ится на внешний USB-диск, эта операция тоже никак не напрягает машинку DS116; ну предположительно, все будет хорошо и с 5 устройствами, и с объемом… допустим до 100 GB).
А вот если объем примерно полтерабайта — судя по всему, если нужна роль сервера, придется использовать более мощную NAS (кстати у Synology отличный модельный ряд — можно выбирать по нескольким направлениям — многодисковые не очень мощные, малодисковые мощные, многодисковые мощные....) — при этом нужно понимать, что мощность подразумевает под собой больший расход электроэнергии, большую шумность, и т.п.

Я нисколько не расстроен тем, что моя экспериментальная попытка получить роль сервера не удалась — мои Synology отлично справляются с ролью полностью автоматических:
— клиентов-синхронизаторов (из облаков и в облака нескольких провайдеров);
— бэкаперов (многоверсионные архивы, с поддержкой дедупликации; с возможностью проверок по расписанию — отдельно индексов, отдельно — и индексов и архива).

При этом мои Synology:
— отлично засыпают в течение дня — после нескольких напряженных недель первоначальных синхронизаций и полных бэкапов — особой нагрузки нет;
— работают еле слышно (а благодаря низкому энергопотреблению начинки (без учета жесткого диска) режим работы вентилятора выставлен в самый минимальный режим, предполагающий возможность остановки вентилятора, если температура системы приемлемая — то есть машинка (и диск) работают, а вентилятор отдыхает);

На всякий случай подчеркну, что мощности этих NAS вполне достаточно для просмотра видео на DLNA-совместимых получателях, ну и так далее.

[примечание 1]
NAS совсем начального уровня у Synology имеют индекс J в обозначении модели. это странноватые конфигурации — начинка гораздо слабее, есть ограничения в функционале, при этом цена лишь на несколько тысяч российских рублей меньше, чем близкие модели без индекса J.

На всякий случай — вдруг будет полезно:
— У OneDrive есть ряд преимуществ — в 1-ую очередь стоимость (за примерно 4 тыс руб. в год вы получаете по 1 ТБ на 6 (уже на 6, а не 5) пользователей, — к сожалению «дробно» — 6 «фрагментов» под каждую отдельную учетку, а не все 6 ТБ в одну учетку); еще полезность — например в OneDrive в браузере отображаются суммарные объемы папок, подпапок, а не только файлов — это весьма удобно (у Яндекс.Диска и Google такого функционала пока нет; а вот как в Dropbox? — не знаю).
— 2-3 года назад, когда я занимался выбором облачного диска, OneDrive был в 20-80 раз медленнее чем Яндекс.Диска и Google — я проверил достаточно дотошно, на примерно одном наборе файлов, из разных интернетов); с тех пор Яндекс.Диск по ощущениям (без измерений) стал немного (но не значимо) медленнее, Google — не могу сказать; но вот OneDrive если и стал побыстрее, то на проценты, а не в разы.
Добрый день! Интересно, спасибо.
Synology — лучшие для семейно-бытового и мелко-офисного использования (у меня однодисковые DS115 и DS116, синхронизируются через Яндекс.Диск, находятся в разных домохозяйствах; объем семейных файлов сопоставим).

я несколько раз пробовал пересесть с Dropbox на Synology Cloud Station, но там всегда были проблемы с синхронизацией, всегда какие-то ошибки, или не все синхронизировал.


— есть такая проблема, что у Synology Cloud Station что у Synology Drive. И вот что интересно — эти инструменты нормально справляются с ролью «сервер синхронизации внутри локальной сети» предположительно при объемах синхронизируемых файлов в сумме до 50 GB, а если больше — начинаются тормоза и косяки. У нас школьные материалы через папку Synology Drive прекрасно синхронизируются между тремя компьютерами — чтобы что-то можно было сделать на любом, независимо от доступности (занятости) родственников; объем менее 10 GB; Была попытка использовать как такой же сервер синхронизации для всего фото-видео архива (600+ GB) — на третий день тихого шуршания вентилятором синхронизировалось процентов 8 и стало понятно, что лучше дальше машинку не мучить).

Поделитесь пожалуйста — 2 жестких диска сконфигурированы в RAID 1? Какие жесткие диски используете и сколько лет?

Про Hyperbackup
и даже клиенты для windows и mac os.

— читателям возможно будет интересно, что клиенты под настольные операционки могут оказаться спасителями в ситуации, когда NAS (или установленные диски) сбойнула, но (многоверсионный) архив Hyperbackup доступен либо в облаке Synology C2 либо на внешнем USB-диске, на который бэкапилась NAS — с помощью клиентов можно просмотреть версии файлов, начать восстановление на комп.

Ну и кстати вопрос — из статьи вроде следует, что не используется локальный многоверсионный бэкап Hyperbackup на внешний USB-диск, подключенный к NAS. Считаете достаточным (надежным и избыточным) облачные синхронизации и архивирования? А вот как быть с риском «отключат интернет»? (понятно, что локальные файлы на NAS и компах тут ни причем однако накопленный многоверсионный архив тоже представляет собой «долгосрочную» ценность — для спокойствия души). Задаю вопрос потому что: а) периодически переоцениваю методологии и технологии синхронизаций и архивирований с точки зрения повышения защищенности от самых разных проблем (аварии оборудования (носителей), ошибки пользователей, ошибки разработчиков софта (невозможность восстановиться из архива), ситуации «отключат всё»....); б) судя по всему, затраты на облачные подписки у вас не маленькие и однократные затраты на один внешний диск тут значения не имеют (а софт не нужен — он уже есть — Synology-пакет Hyperbackup).

Спасибо!
Понятненько...., итак:

1) Ленты для домашнего архивирования неприменимы — т.к. даже за значительно бОльшую стоимость мы не получаем дополнительную (к уже применяемым технологиям и инструментам) гарантию аварийного восстановления в перспективе 10-20 лет (из-за возможной несовместимости, сложности поиска оборудования взамен вышедшего из строя и т.п.);

2) Применение Blue-Ray (в дополнение к используемым технологиям и инструментам) так же представляется сомнительным по следующим причинам:
2.1. С самого начала применения этой технологии нужно использовать 2 разных физических привода, разных производителей — для поочередной записи и перепроверки записанных данных — нужно (тотально?) проверять записанные данные на другом приводе, а не на том, на котором данные были записаны; если так не делать, то не выполняется принцип «никому не верить» (никому — производителям оборудования разных типов, разработчикам софта для архивирования и т.п.) — т.к. в данном случае получалось бы, что мы доверяем производителю единственного задействованного BD-RE привода;
2.2. На запись и полную проверку будет уходить очень много времени — судя по всему на диск BD-R 100 ГБ на запись и проверку требуется не менее 4-х часов; проблема не только собственно во времени, а просто жалко компы и ноуты, которые будут просто заниматься малонагруженной работой; кроме этого, при использовании нескольких дистанционных точек хранения наборов BD-R дисков затраты времени увеличиваются кратно кол-ву точек хранения; ну и заодно — если в течение нескольких лет один из двух приводов выйдет из строя (кстати см. еще уточнение ниже про ASUS) мне для поддержания концепции «двуприводность для перепроверки» придется приобрести еще один привод — кстати примерно по цене одного внешнего диска 2,5 дюйма на 1-2 ТБ);
(по Blue-Ray это основные проблемы; считаем что (пока?) еще можно купить BD-R диски приличного качества — Verbatim, TDK...??)

3) Несмотря на отрицательное заключение по перспективам задействования Blue-Ray, для справки, слимовые внешние приводы BD-RE относительно доступны:

www.regard.ru/catalog/filter/?id=MTUwMjc7NDYxLDE3NzA7NDYyLDE3Nzg=

www.dns-shop.ru/catalog/7b3312cd65a14e77/vneshnie-opticheskie-privody/?order=1&groupBy=none&stock=2&f[nb]=2ho

www.citilink.ru/catalog/computers_and_notebooks/parts/odds/1102565

это ссылки на страницы «правильных» ритейлеров — если товар указан с ценой, значит доступен для заказа.
Слимовые других вендоров и неслимовые так же можно найти. Из личного опыта отмечу, что ASUSовский слимовый (с квадратным отверстием в корпусе для установки на комплектную «дизайнерскую» подставку) у меня намертво вышел из строя после записи 2-3 BD дисков и нескольких DVD (намертво означает что перестал определяться на всех компах, независимо от подключения обычным USB или с двойным хвостиком, или плюс с подачей доп. питания — там был разъем под 5 В; это было несколько лет назад, модели и начинка могли и измениться; или мне уж попался такой экземпляр.
— Спасибо за дискуссию!
Насчет лент я и так думал в весьма абстрактно-философском плане, а насчет BD-R по результатам дискуссии прояснилась критичная необходимость использования двух разных приводов, что явно несколько избыточно.
Да, Вы совершенно правы:

— насчет лезущих родственников — дело не только в уронить, а могут и выбросить не разобравшись что ящике/чемоданчике — диски или ленты (хотя диски им на глаза иногда попадались и могут предположить что это что-то полезное; а про ленту — не очевидно); в том числе и поэтому я использую множество устройств в разных точках хранения (кстати, в некоторых точках кроме меня никто годами не бывает), массовый «субботник» с утилизацией хранимого без моего участия маловероятен;

— насчет выборочных проверок — недостаток избирательности очевиден, именно поэтому я использую редкие полные проверки (и тут возможен бессмысленный спор о том, что полезнее — частые тотальные проверки, которые если не снижают ресурс пластин, то ресурс привода головок (незначительно) и ресурс электромотора (заметнее) — уж точно снижают, при этом, я просто чаще (допустим, 1 раз в месяц) получаю подтверждение, что все в порядке, но при этом ожидаемый срок службы диска снижается, допустим, до 7 лет; или относительно редкие проверки, которые подтверждают что все в порядке 1 раз в год, при этом ожидаемый ресурс службы диска окажется, например, 12 лет);

— насчет распаянного контроллера… — согласен, поводов для «гибели» дисков (что внутренних, что внешних) немало — от электрических, аппаратных, программных, человеко-уронительных… — поэтому я и использую большое количество копий на разных физических устройствах — синхронизируемых более 10, архивируемых около 10. Само собой стараюсь защититься и от перечисленных проблем — электропитание бесперебойное, оборудование стараюсь использовать правильное, на этом не экономлю (ну или не нацеливаюсь на финансово-проблематичное).

Насчет ленты Вы правы в том смысле, что «гибель» устройства (для записи-чтения лет) не означает гибель носителей (самих кассет с лентами) — в отличие от диска, где если есть физические проблемы, то лучше и не пытаться — если есть другие копии, то умерший диск нужно тупо регламентно уничтожить и про него забыть.
Но ленты — это ж охренеть как дорого… — я так понимаю что не менее 30 тыс. руб. за устройство (или я ошибаюсь?), (и еще нужно разобраться с настройками, и т.п.), + по 1 тыс. руб за картриджи — причем дело не только в объеме — мне же нужно несколько штук для независимой ротации.
И в продолжение вопроса совместимости — вот у меня два внешних 3,5 дюйма диска начала века, которые уже давно не находятся даже в умеренной эксплуатации, хранятся как сентиментальный раритет, хранимое на них уже стократно продублировано на других носителях. Перед написанием этого комментария я специально смахнул пыль с чемодана, подключил поочередно диски — старые фотки и файлы прекрасно пооткрывались, несколько rar-архивов я протестировал внутренним тестом (отмечу — полную проверку не делал).
Все что мне потребовалось для работы с устройствами 2002-го и 2003-го годов — это USB-провод и блоки питания (отмечу — блоки питания старые, многопиновые — тогда использовались напряжения 5 и 12 вольт; сейчас такие нельзя назвать стандартными, но такие есть и наверное будут, да и с моими блоками вряд ли что случится в процессе недвижимого хранения) — в общем, 0 финансовых затрат. А вот допустим через 10 лет выйдет из строя устройство для работы с лентами? Куда бежать? Понятно, что ленты — это «промышленные» долгоиграющие стандарты и скорее всего совместимые устройства наверное можно найти — но сколько это будет стоить? А вдруг все-таки возникнут проблемы совместимости?
Страдаю я.
Опять посмотреть что ли в сторону Blue-Ray (в т.ч. в жутко дорогом варианте M-Disc?). Так же как и с лентой — гибель привода не означает гибель носителей… Приводы дешевле, предположительно сохранят работоспособность в течение пары десятилетий… Но тут есть новый пласт проблем — нужно же будет проверять целостность данных не только на приводе, на котором данные записаны, но и перепроверять читаемость на других приводах, обязательно другого производителя. Сколько времени на это будет уходить, особенно если применять тотальные проверки?
Да, про старые винты Вы правильно пишите. Я вот как-то не дошел до этой мысли и лет 5 назад, по мере распространения винтов c USB 3.0, попристроил старых винтов терабайтов на 6. И напрасно — лежали бы сейчас затаившись в дальней точке хранения, хранили бы совсем старые бэкапы для душевного спокойствия.
И еще в этом Вашем комментарии — полезная концентрированная мысль про RAID. Буду цитировать когда меня просят помочь с домашним резервированием (или в совсем маленьких офисах — малонагруженные среды с малым количеством пользователей) — перебой в работе простенькой СХД на пару дней несмертелен, а тратить несколько десятков тыс. руб. за собственно RAIDность (как свойство СХД) и за еще, как минимум, один внутренний диск — не совсем оправдано. Гораздо полезнее (для надежности) несколько меньшую сумму потратить на внешний диск, на который по расписанию резервировать данные из однодисковой СХД.
Без какой-либо иронии — всего 2 строки комментария — а какой плаcт вопросов обозначен! Дело в том, что вопросы гарантированного(?) сохранения больших объемов данных достаточно сложны и комплексны…

1) Насчет «уронить» — и вообще про обращение с ротируемыми дисками, на которых хранятся синхронизированные (не архивные!) копии.
1.1. Непосредственно про «уронить» — в 99% ситуаций все манипуляции с диском, извлеченным из защитного футляра, должны производиться над столом, на высоте 10-20 см. от поверхности, в выключенном состоянии. Во включенном состоянии к дискам лучше не прикасаться — диск просто лежит на столе непосредственно рядом с мастер-устройством.
1.2. Обеспечение сохранности при недалекой транспортировке и в дистанционной точке хранения — сам внешний диск плотно завернут в небольшой пакет, пакет c диском — в полужесткий противоударный футляр, футляр — еще в один пакет (само собой эти манипуляции должны проводиться над столом). Пакеты целесообразны для минимизации вероятности коррозии контактов USB 3.0 (хотя во всех точках хранения у меня все в порядке с влажностью и температурой, но я рассчитываю на очень длительный срок эксплуатации этих дисков — 10-20 лет, так как а) скорости USB 3.0 достаточно; б) семьей решили, что будем по возможности сопротивляться появлению видео в формате 4-8 К и фото по 100-мегапикселей (не нужно все это); в) расчет емкости показывает, что на них свободного места должно хватить, гм, до конца пенсии); футляр в пакете — в металлический (жестяной) ящичек-чемоданчик (ну типа от новогодних конфет для детей) — это нужно на тот всякий случай, если в условиях нынешней напряженной обстановки супостат применит нелетальное массовое оружие — например с мощным электромагнитным импульсом — предполагаю, что металлическая оболочка, пусть и тонкая, повысит вероятность выживания харда (особенно в точке хранения ниже уровня грунта) — но это гипотеза;
1.3. Выборочные проверки — для отдельных под-под-папок — изредка побайтово проверяю средствами Total Commander; это позволяет выяснить, что некоторая (очень малая) часть файлов в порядке, а так же подтвердить, что хард в целом жив;
1.4. Тотальные проверки — не чаще 1 раза в 2 года — в другом (не там где исходный ноутбук) домохозяйстве подключаю 2 полностью синхронизированных внешних харда к другому ноуту и средствами Total Commander провожу тотальную побайтовую проверку всего массива, сразу на двух хардах. Занимает 14-16 часов, гарантирует целостность файлов (кросс-проверка ведомых копий является досточно достоверным доказательством того, что и с мастер-копией все в порядке), укрепляет веру в харды (это максимальная редкая нагрузка на харды, в целом получается что каждый из них работает не более 50 часов в год).

2) Про ленту. Внешние жесткие диски являются достаточно самостоятельными устройствами — 2,5 дюйма завязаны только на стандарт USB (ну, да, и оговорка — на достаточность питания по порту — контроговорка — легко решается USB-кабелем с двумя хвостиками «в ПК» или USB-хабом с внешним питанием); 3,5 дюйма завязаны на такой же проводок и на внешнее питание — которое, к счастью, уже все более стандартизируется — в частности, целый ряд моделей внешних хардов WD и Seagate имеют блоки питания одинаковые по электрическим параметрам и геометрии разъемов.
Диск с синхронизированной (или быстро досинхронизируемой) копией я могу в любой момент взять с собой — чтобы скопировать что-то объемное знакомым и т.п.
А вот для ленты мне потребуется еще одно дополнительное мастер-устройство, скорее всего, из стоимостных соображений, — в единственном экземпляре, который будет подвержен напастям поломок, пожаров, заливов (а вот кражам? — непонятно, сообразят ли воришки, что таковое устройство не просто продать-пристроить?). Если устройство для работы с лентами выйдет из строя, то весь массив данных на лентах и процесс резервирования на них станет недоступным — до устранения поломки ( и не дай бог — до замены самого устройства).
Если же закашляет один (из нескольких!) внешний диск, то перепроверив, что проблема физическая (а не сбой файловой системы), я даже париться не буду — регламентно уничтожу его, почитаю обзоры и куплю на замену новый — единственные потери — это небольшие деньги и 10+ часов на первичную синхронизацию из мастер-копии (оговорка — в нынешнее время тотальной глобализации все сложнее соблюдать регламент «приобретать для одной цели изделия разных производителей» — чтобы минимизировать зависимость от брака, допущенного одним производителем; производителей самих дисков осталось всего 3).

3) Про срез на какую-то дату. Распределенные синхронизированные копии — на N разных физических устройств (допустим, одного типа — внешние диски) — это оперативная и нересурсоемкая защита от одной группы проблем, преимущественно технического и аварийного характера. Бэкапные (архивные) копии, в которых сохраняются многие (или почти все) версии файлов и т.п. — это защита от другой группы проблем — преимущественно — от проблем ошибок пользователей. Очевидно, что регламенты, методологии, технологии и инструменты для процессов синхронизации и для процессов архивирования в значительной степени отличаются и совместить их достаточно сложно. Например, оперативная (и при небольших размерах изменяемых файлов — быстрая) он-лайновая синхронизация (в надежное хранилище) никак не защитит от ошибок пользователей — затирание файла «неправильной» версией или ошибочное удаление будет он-лайново синхронизировано в хранилище). В то же время, архивирование с высокой частотой может оказаться и весьма ресурсоемким (при изменениях файлов средних и больших объемов) и не очень осмысленным — все-таки пользователи совершают ошибки не каждую минуту и не каждый час — нужна некоторая дискретность. Нужно как-то разграничивать — и для архивирования я использую ряд других инструментов — Backup4All, Acronis… — FreeFileSync для архивирования не очень подходит.
FreeFileSync — очень помогает дискретный (в очередной сеанс синхронизации) механизм проверки (не отслеживания!) перемещений файлов (ну и переименований папок) в мастер-копиях данных. Благодаря этому сильно сокращается время синхронизации, если файлы ранее уже были синхронизированы в ведомую копию, но были перемещены в мастер-копии.
Такой же функционал есть и в GoodSync.
С другой стороны — только ротируемые внешние диски обеспечивают возможность хранения синхронизированных копий в нескольких дистанционно разнесенных точках хранения. Простой ненапряжный регламент — сходил к родителям — обменял пару дисков, сходил в подвал — еще обменял… Все копии подконтрольны, доступны на случай отключения интернета. Дистанционно разнесенные физические устройства повышают вероятность сохранности данных при пожарах, наводнениях, кражах мастер-устройств. Само собой, желательно использовать диски от разных производителей, каковых осталось всего три.
Спасибо за статью! Многое из описанного используем тем или иным образом, на некоторые аспекты взглянем по новому.
Про VBA

> • Индексы массива начинаются с нуля, но индексы коллекции — с единицы.
Вообще не критично. Из соображений унификации можно указать OPTION BASE 1

>• У классов нет конструкторов, которые могут принять аргументы.
>• Невозможно перегрузить методы.
>• Нет наследования.

VBA — это Visual Basic for Application
Изначально предназначен для работы в средах приложений, перенасыщенных объектами — Excel, AutoCAD… С объектами и их свойствами можно делать многое, наворачивать еще и свой объектный слой — достаточно сложно и не нужно. Мне вполне хватает процедурных возможностей. Классы конечно создаю, особенно «наблюдатели»… with Events — но это не более 5% кода.
И в дополнение про отсутствие какого-либо наследования — если делать акцент на таких аспектах, то тогда и отсутствие множественного наследования является признаком «отстойности» многих языков.

>• Поддерживает GoTo.
Да, это рудимент. Не требуется никаких усилий, чтобы не использовать подобные рудименты. Предлагаю не считать наличие рудиментарных конструкций, без которых можно очень легко обходиться, признаками «отстойности» того или иного языка программирования.

> • `OnError Resume Next` — Yeah… Происходит именно то, что вы читаете. Обнаружена ошибка? Нет проблемы! Просто продолжайте упираться и продвигаться вперёд в следующей строке.

Именно так! — Продвиньтесь к следующей строке, в которой легко и просто разберитесь с типом возникшей ошибки. Как я указал выше, в среде приложений мы работаем с невероятным количеством объектов, каждый из которых имеет множество свойств. Т.к. в средах этих же приложений, как ни странно, кроме наших программ работают еще и пользователи, то фактическое (в конкретный момент времени) состояние объектов может резко отличаться от требуемого — нет нужной рабочей книги, или она есть, но почему-то защищена, или вместо ожидаемого активного Worksheet активным является какой-то другой Sheet… и еще масса нюансов. И что плохого если я могу поэтапно анализировать состояние среды, регламентно реагируя на ошибки сразу в этих же фрагментах кода, не перескакивая в обработчики ошибок? За OnError Resume Next разработчикам нужно нобелевскую премию выписать!

>• Свойства по умолчанию.

1) Насколько я понимаю, слегка упрощает механизм автоматизированной записи действий пользователя и написание коротких простых макросов;
2) Не используйте свойства по умолчанию в VBA-программах более 15 строк;
3) На выработку этого устойчивого навыка мне потребовалось 120 секунд, 25 лет назад — в чем проблема?

>Приведённые ниже две строки означают не одно и то же.
Dim myRange As Variant
myRange = Range(«A1»)
Set myRange = Range(«A1»)

Не используйте тип Variant там, где тип объекта очевиден — а это 99,6% кода. Знайте, что осмысленное использование Variant экономит десятки строк кода — например, Activesheet может быть как Worksheet так и какой-то другой Sheet — изначальное присвоение переменной типа Variant затем позволяет одной строкой выяснить тип активного листа Excel и понять, можно ли двигаться дальше или нужно обработать ошибку.

Нужно бы дождаться «расширенных» новостей об изменениях объемов продаж не только в штуках (тут понятно — уменьшение), но и в емкостях HDD. Ведь если верны разные прогнозы про темпы роста объемов хранимых и обрабатываемых данных — то все эти новые триллиардо-байты должны где-то храниться — и бОльшая часть — явно не на SSD / лентах / оптике.
Спасибо за статью!
Сложил в копилку — буду применять при необходимости и возможности.
Коллеги, вы не поверите… Во время моей работы в одной ну очень известной компании (ее точно знают все хабровчане) мне приходилось заполнять абсолютно (от слова ВАЩЕ) бестолковые отчеты — ну типа маркетинг, информация о заказчиках (полезных данных — менее одного процента, т.к. шаблон отчета был полностью оторван от реального мира). На одного заказчика нужно было ответить на 1000+ (это не шутка — ОДНА ТЫСЯЧА с небольшим) вопросов. Большинство вопросов предполагали выбор варианта ответов — 2-4 радиобаттона, кое-где — несколько чекбоксов (к счастью — независимых друг от друга), ну и совсем мало — заполняемых полей. Заказчиков было несколько десятков. Делать это нужно было ежеквартально. Итого получаем не менее 50 000 щелчков мышью (если по 1 щелчку в секунду — то получаем в квартал 14 часов сверхсоредоточенной точной работы). 2 года это делалось в 1 обычной html-странице — одна длинная страница-опросник на одного заказчика. Программами записи действий клавиатуры и мыши (некоторые описаны вот здесь ichip.ru/avtomatiziruem-rutinnie-deistviya.html, я попробовал несколько разных ) я сделал несколько макросов, предусматривающих разные наборы вариантов ответов — чтобы ответы для разных заказчиков в один и тот же период несколько отличались. После открытия пустой страницы под очередного заказчика, я нажимал одну из нескольких клавишных комбинаций для вызова конкретного макроса. Все макросы начинались с клавишной комбинации Alt+что-то — чтобы в Internet Explorer спозиционироваться в меню, потом Ctrl+F и ввод однозначной строки, чтобы спозиционироваться на 1-ом вопросе, дальше — перемещение сколько нужно раз Tab и нажатия Space на радиобаттонах и чекбоксах. В целом можно было спокойно наблюдать за промоткой страницы, заполняемой примерно за 20 секунд. Очень редко возникали ошибки, но к счастью внизу html-странички устанавливалась отметка — что есть пропущенные вопросы и можно было проскролить и поправить.

Счастье длилось недолго.

На очередной год страничку испортили — разукрасили какими-то вебовскими примочками и позиционирование по Tab стало почти невозможным — перемещение оказалось непредсказуемым (любые другие способы попадать на нужный элемент тоже работали очень нестабильно — я постарался проверить).

Взгрустнулось.

К счастью, не испортили одну полезную особенность этой страницы — все радиобаттоны и чекбоксы — сами кликабельные элементы располагались строго друг под другом (насчет кликабельности оказалось важным, т.к. в ряде случаев щелчок в текст элемента не работал).

Пришлось выкручиваться вручную следующим образом:
— подключил две мыши;
— правая мышь с с левой кнопкой под правую руку — с «тяжелым», очень точным, колесом — для того, чтобы получить «длинный» и слегка случайный скролл;
— левая мышь — правая кнопка настроена под левую руку — под одиночный щелчок;
— увеличиваем в браузере масштаб страницы — 140%; с одной стороны это увеличивает длину скролла, с другой стороны — увеличивает «полезную» площадь, в которую нужно попасть, чтобы включить радиобаттон или чекбокс;
— колесом правой мыши подматываю страницу;
— левую мышь стараюсь ни в коем случае не двигать, только щелкаю — и в 90% случаев уверенно попадаю — включаю какой-нибудь радиобаттон или чек-бокс ответа в очередном подкрученном вопросе.
Смысл в том, чтобы не переносить палец с кнопки на колесо и вообще не тратить время на перемещения мыши.
Проверка пропущенных вопросов внизу страницы была.
Управлялся меньше чем за 6 часов.
А еще через год, как это бывает со многими случайно-надуманными отчетами, этот отчет отменили и забыли.
Цифровизация…
Спасибо за рекомендацию, посмотрю поподробнее… Если не сложно — подскажите — на один и тот же файл или на одну и ту же реальную папку с файлами можно указать ссылки из нескольких виртуальных папок — то есть одно и то же содержимое можно классифицировать в разные иерархии виртуальных папок? Спасибо!
Можно уточнить — «При этом каждая фотография может находиться сразу в нескольких иерархических каталогах.» или «при этом на каждую фотографию может быть несколько ссылок из разных иерархических каталогов»?
Спасибо.
Спасибо за подробную статью — некоторые идеи можно попробовать применить.
Несколько вопросов к автору по процессу:
1) Вы единственное «лицо, принимающее решение» по отбраковке фото, по раскладыванию в регламентные локации? (поясню — у меня «логическим» администратором массива является жена; а я — системный администратор; ее задачи и методы непостижимы, мои — убоги и очевидны — все зарезервировать с удовлетворительной дискретностью, все синхронизировать в распределенных точках хранения);
2) Вы, ваша фототехника и смартфон — единственные источники поступления фото? (не присылают коллеги, знакомые — и присылаемое тоже нужно регламентно распределить по папкам? вопрос важен с той точки зрения, что поступления из других (не контролируемых) источников могут происходит с большой задержкой, и доупорядочивать массив фото/видео по конкретным событиям придется через полгода-год, что является дополнительной задачей само по себе, а так же ведет и к следующему вопросу);
3) Возможно пропустил в статье или не понял — есть ли у вас ежегодное «томирование» массивов файлов (фиксация по годам, или, возможно, периодам иной продолжительности)? То есть есть ли четкая дата «отсечки» — например, в 2018 году ясно что массив за 2016 год уже не будет меняться, и если задача синхронизации по прежнему актуальна, то архивные копии уже не требуется обновлять, а нужно только хранить? (ну и так далее — в 2019 зафиксируем массив за 2017 ....).

Российский «компьютерный» бизнес — бессмысленный и беспощадный…
Вот что Хабр животворящий делает! Спасибо автору и комментаторам! Было в планах посмотреть этот сервис — подписаться, а там как пойдет. Отложу на годик-другой. На смартфоне слухаю Deezer, Premium-подписка (качество меня полностью устраивает). Deezer как-то очень понравился подбором рекомендаций, достаточностью коллекции и темпами ее пополнения — слушаю «ламповый» (чтобы поменьше индастриала и электронщины) тупо-скоростной death; без умного подбора рекомендаций о половине групп никогда бы не узнал. А так подсказывает весьма удачно, несмотря на то что у этого стиля поклонников и слушателей раз два и обчелся.

Information

Rating
Does not participate
Registered
Activity