Вы показываете пример расчета потраченного времени в хорошо отлаженной инфраструктуре, где как минимум есть алгоритм расчета свободного времени. Вероятно, в датацентре, где список рядовых задач довольно типичный, а регламенты работ довольно прилизаны, это можно проще посчитать. Но в типичной компании, где ИТ отдел как вспомогательный, посчитать свободное/занятое время довольно тяжело.
А еще есть более реальный пример, где руководитель такой же человек. И его в принципе не сильно волнует, тратит там админ треть времени на безделье или нет. Главное что все работает. Подход спорный, но он имеет место быть.
В итоге я просто плохо представляю, что в компании, в которой уже все просчитано, может появиться ситуация, что не внедрена, например, система управления конфигурациями, где она действительно бы помогла. Не верю я в существование таких откровенных организационных дыр там, где умеют считать эффективность затраченного времени.
Идеально, если можно каким-то образом рассчитать эффективность в цифрах. Я думаю, любой руководитель с радостью поделится сэкономленными деньгами с сотрудником, который их сэкономил. Однако в реальности «админ внедрил систему управления конфигурациями» это админ потратил десятки и сотни часов рабочего времени на разбирательство с тем, что возможно не принесло бы пользы. То, что, абсолютно точно вызывает недовольство какой-то части сотрудников, которые привыкли жить как раньше. На то, что вначале может работать нестабильно и создавать обратный эффект. И как в результате посчитать эффективность?
Если так смотреть, то турниров по танкам тоже полно, что не делает эту игру качественным киберспортом. А quake live имеет меньше популярности, но более заточен под соревнования. Так что очно не в этом дело.
У меня было проще. Беру баллончик, который детям можно, там процентов 5, выхожу на улицу и эти поганцы начинают жрать почти сразу.
Беру с содержанием 20%, терпимо, час точно не жрут.
Но то было в лесу, там какие-то злые комары и, судя по всему, голодные.
А что на счет эффективности, неужели они все получились одинаковые? Замечал, что если использовать спрей с низким содержанием ДЭТА, то комары все равно кусают.
В общем да. Воспроизводится проблема довольно легко. Проблема возникает на любых клиентских ОС. Однако заметил, что на win7 надо дольше ковыряться по папкам. Создается ощущение, что чем больше объектов в папке, тем больше шансов на падение. Например, если в папке всего 2-3 файла, то ничего не падает.
На win7 заметил, что открываются папки вообще любого размера. Но если начинаешь быстро входить и выходить из такой папки, то синий экран все равно приходит. Единственное что win7 сидел на вафле. Как вариант что-то может быть связано со скорость коммуникации. Другой ноут на вафле и win 8.1, например, успевает прочитать где-то 80 файлов.
http://doublecmd.sourceforge.net/forum/viewtopic.php?f=6&t=3598 вот тут с аналогичной проблемой встретились, но под другим файловым менеджером.
Самое стремное, что синему экрану не нужны какие-либо повышенные права, только доступ по rdp.
Проблема то не кислая такая…
Вы упорно игнорируете очень важную технологию, которая позволяет восстанавливать данные «на лету». А именно, теневые копии.
raid не относится к бэкапу, он относится к защите данных.
Для важных данных слои должны быть следующие, что касается только сохранности данных:
1 Защита от изменений, откат версий, защита от случайного повреждения
2 Защита от отказа или уничтожения носителя
3 Защита от отказа или уничтожения компьютера/сервера
4 Защита от уничтожения помещения вместе с данными
Каждый из слоев должен быть рассчитан в зависимости от того, какую часть работы допустимо потерять в случае катастрофы.
В моем понимании прекрасно справляются с этим следующие технологии, если речь идет о типичных средне-важных данных:
1. shadow
2. raid
3. Ежедневная копия на другой компьютер или хранилище рядом
4. Периодическая копия на компьютер в другом здании или в облаке. И вот тут я предлагаю Glacier. Не для сброса ежедневной работы, а для защиты от катастрофы. Не панацея, конечно, каждый использует то что ему удобно, но, мне кажется, это решение имеет место быть.
Ну как сложно, вполне работоспособно. Вконтактик, музычка, скайп, все работает. И людей, до сих пор работающих на northwood процессорах чрезмерно много. А они и не хотят ничего нового покупать, работает же.
А зачем еще бэкап нужен? Копия документов, которые закинул и не обращаешься к ним пока не произойдет какая-то катастрофа. Стоимость аплоада, кстати не на столько дорого выходит. Там относительно дорого выходит их скачивание из старых копий.
Это не отменяет raid, заметим. И теневые копии для восстановления мелких косяков в течение работы.
Цены там не маленькие только на трафик. Хранение будет дешевле всех аналогов.
А по поводу халявного даунлоада, то все халявные имеют либо крайне паршивую скорость либо ограничивают объем бесплатного трафика.
Ну я так понимаю, речь о катастрофоустойчивости за минимальные деньги, а не регулярном восстановлении. Для частого восстановления косяков прекрасно подходит использование теневых копий.
Сегодня вполне можно работать на компьютере 2005 года. В принципе до недавнего времени я более-менее комфортно использовал комп 2001 года, а многие и продолжают его использовать. В то время как в 2005 году использование компа 1995 года было, мягко говоря, не комфортным. А это, стоит сказать, что-то вроде Pentium 166
Тем не менее, я так понимаю, что задачи, под которые строятся суперкомпьютеры все-таки достаточно ограничены, вы их и описали. По идее ведь можно оптимизировать процессоры только под определенные математические формулы, отойдя от использования процессоров для общего назначения. Собственно, а почему бы и нет? Хотя может быть, конечно, все значительно сложнее, чем кажется мне, обывателю)
А еще есть более реальный пример, где руководитель такой же человек. И его в принципе не сильно волнует, тратит там админ треть времени на безделье или нет. Главное что все работает. Подход спорный, но он имеет место быть.
В итоге я просто плохо представляю, что в компании, в которой уже все просчитано, может появиться ситуация, что не внедрена, например, система управления конфигурациями, где она действительно бы помогла. Не верю я в существование таких откровенных организационных дыр там, где умеют считать эффективность затраченного времени.
Беру с содержанием 20%, терпимо, час точно не жрут.
Но то было в лесу, там какие-то злые комары и, судя по всему, голодные.
На win7 заметил, что открываются папки вообще любого размера. Но если начинаешь быстро входить и выходить из такой папки, то синий экран все равно приходит. Единственное что win7 сидел на вафле. Как вариант что-то может быть связано со скорость коммуникации. Другой ноут на вафле и win 8.1, например, успевает прочитать где-то 80 файлов.
http://doublecmd.sourceforge.net/forum/viewtopic.php?f=6&t=3598 вот тут с аналогичной проблемой встретились, но под другим файловым менеджером.
Самое стремное, что синему экрану не нужны какие-либо повышенные права, только доступ по rdp.
Проблема то не кислая такая…
raid не относится к бэкапу, он относится к защите данных.
Для важных данных слои должны быть следующие, что касается только сохранности данных:
1 Защита от изменений, откат версий, защита от случайного повреждения
2 Защита от отказа или уничтожения носителя
3 Защита от отказа или уничтожения компьютера/сервера
4 Защита от уничтожения помещения вместе с данными
Каждый из слоев должен быть рассчитан в зависимости от того, какую часть работы допустимо потерять в случае катастрофы.
В моем понимании прекрасно справляются с этим следующие технологии, если речь идет о типичных средне-важных данных:
1. shadow
2. raid
3. Ежедневная копия на другой компьютер или хранилище рядом
4. Периодическая копия на компьютер в другом здании или в облаке. И вот тут я предлагаю Glacier. Не для сброса ежедневной работы, а для защиты от катастрофы. Не панацея, конечно, каждый использует то что ему удобно, но, мне кажется, это решение имеет место быть.
Это не отменяет raid, заметим. И теневые копии для восстановления мелких косяков в течение работы.
А по поводу халявного даунлоада, то все халявные имеют либо крайне паршивую скорость либо ограничивают объем бесплатного трафика.