• Сборка недорогой домашней NAS-системы на Linux
    0

    Смотря как аккумуляторы меняли, та же APC рассчитывает время работы аккумулятора от его "возраста" и текущего потребления. Например показывает, что аккум продержится 1 минуту при потере внешнего питания, меняешь физически аккум на новый в UPS. Проверяешь, а ничего не изменилось. Будет показывать, что новый продержится тоже всего минуту. Надо заходить через родной PowerShut и в интерфейсе говорить UPS, что ему поставили новую батарею (что собственно мало кто делает). И о чудо, после этого UPS показывает, что батарея будет держать полчаса. Причем реальное состояние аккума UPS не видит, как я понимаю. Ему главное, что бы аккум еженедельный self-test проходил за определенное по дефолту время. В тесте идет частичный разряд батареи и после замеряется время до полного заряда. При этом расчетное время работы от батареи, которым оперирует UPS, напрямую будет влиять на то, как быстро UPS даст команду серверу выключится, если внешнее питание так и не вернулось.
    По крайней мере на Backup-UPS CS это именно так.

  • Хранение данных. Или что такое NAS, SAN и прочие умные сокращения простыми словами
    0

    Ну и отлично, у тех кто в этой теме давно, глаз уже подзамыливается. Сложно адекватно такие статьи оценить :).

  • Хранение данных. Или что такое NAS, SAN и прочие умные сокращения простыми словами
    0

    В целом неплохой краткий обзор для "начинающих" :), несмотря на предупреждения TL;DR.
    Хотя интересно было бы узнать мнение человека действительно первый раз читающего про хранение данных.

  • Делаем Linux терминал красивым и удобным
    +4

    Вот ровно по этому проще привыкать к тому, что стандартно почти везде по умолчанию. А все эти украшательства просто баловство от нечем заняться. Разве что дома на линуксе сидишь или имеешь PET проект, с которым постоянно ковыряешься. Таскать это по всем поддерживаемым серверам или тем серверам куда тебе пришлось по каким то причинам залогиниться, все равно не будешь.

  • Что такое Docker: краткий экскурс в историю и основные абстракции
    0

    Логика к сожалению не моя, а общепринятая в отрасли. Продукты VMware — это лишь как наглядный пример. Можете почитать англоязычные ресурсы и описание определений Bare Metal Hypervisor и Hosted Hypervisor.


    Но с другой стороны вам не кто не мешает изобрести и использовать собственные логические построения :) и жить с ними.

  • Что такое Docker: краткий экскурс в историю и основные абстракции
    0

    По факту Bare Metal Hypervisor это и есть OS :). Если хотите пойти в частности, то обычно это обрезанная до функционала работы с виртуальным машинами OS. Большинство "лишних" вещей дающих дополнительный оверхед по управлению и производительности вырезаны, в отличии от полноценной OS и установленного в нее Hosted Hypervisor.

  • Что такое Docker: краткий экскурс в историю и основные абстракции
    0

    Если это не шутка :), то на пальцах:
    Hosted Hypervisor устанавливается в операционную систему. Н-р: VMware Workstation установленный в OS Windows. И уже в нем запускаются виртуальные машины.
    Bare Metal Hypervisor устанавливается на "голое железо". Н-р: VMware ESXi установленный на сервер.

  • Памятка «Улучшение качества связи Wi-Fi»
    +3

    Вот по мне так тоже памятку лучше было статьей оформить. А не ссылку на pdf в короткой статье давать :).

  • Почему у монетизаторов нет души, а токсичные члены команды — самые эффективные
    0

    Тут вроде как описана возможность и на инстаграм в том числе стримить, хоть и не совсем нативно https://support.restream.io/en/articles/841983-how-to-go-live-on-instagram.

  • Dell EMC PowerStore: коротко о нашей новейшей СХД корпоративного класса
    0
    без необходимости в дополнительной инфраструктуре

    Утверждение выше говорит об обратном. Ну и потеря самого бэкап сервера, внезапно, усложняет восстановление из бэкапа, если уж на то пошло.

  • Почему у монетизаторов нет души, а токсичные члены команды — самые эффективные
    0

    А не пробовали смотреть в сторону чего то такого https://support.restream.io/en/articles/872029-list-of-all-restream-supported-services?

  • Dell EMC PowerStore: коротко о нашей новейшей СХД корпоративного класса
    +1

    PowerMAX же :).

  • Dell EMC PowerStore: коротко о нашей новейшей СХД корпоративного класса
    0
    В этом случае вы можете купить одну единственную систему PowerStore которая закроет все задачи, т.к. само приложение и сервер резервного копирования можно развернуть в рамках узла PowerStore без необходимости в дополнительной инфраструктуре.

    "Отличный пример", т.е. в случае чего мы сразу теряем и первичный данные и их бэкапы? :).

  • Вечные виртуальные серверы
    0

    Они влияют только на неокрепшие умы :) и на жадность Valve, которая больше заморачивается со скинами, чем с античитом и читерами.

  • Вечные виртуальные серверы
    0

    Про CS вы это зря. Давно напридумывали скинов и продают только в путь. Еще и рынок продажи/покупки между пользователями, где с каждой продажи Valve себе процент берет :). И все младое поколение млеет от этих картинок не влияющих не игровой баланс.
    Сюда например загляните :) https://steamcommunity.com/market/search?q=#p6_popular_desc

  • Самые надежные HDD по версии Backblaze Q1 2020
    0

    Ясно. Просто ваш комментарий выглядел как будто ресет диска это некая "суперфича". Меня это задело за больную мозоль. :)
    Простите если что :).

  • Самые надежные HDD по версии Backblaze Q1 2020
    0

    Это не только у HP, но так делать плохая идея. Диск выводиться из конфигурации по мере накопления ошибок ввода/вывода (при превышении заданного порога). После вытащил/вставил, если СХД оперирует слотами (номерами слотов), а не дисками (серийниками дисков), получаем ситуацию у нас "новый" диск и счетчик ошибок обнулился. Вроде бы "отлично", но дальше идет накопление ошибок на диске по новой. А так как диск проблемный, то накопление ошибок будет только ускоряться. И вот в следующий раз когда диск умрет или система его отщелкнет по превышению порога ошибок у вас может еще один диск подойти к тому же состоянию. И получаете вы duble (Raid5) или triple (Raid6) paity error и машете ручкой потерянным по своей глупости данным. Хорошо если не сильно старые бэкапы есть и место куда восстановиться.


    Так что если система гарантийная, то такие диски обязательно нужно менять а не ресетить. Если не гарантийная, то искать пути замены проблемных дисков все равно.

  • Как делается российское железо для СХД Аэродиск Восток на Эльбрусах
    0

    если мерять количество дисков на 1U, то есть и такое:
    image

  • Wi-Fi или витая пара — что лучше?
    0
    — достаточной мобильности рабочих мест при их перемещении ( любят разного рода кабинетные менеджеры двигать рабочие места )

    Не соглашусь с этим плюсом, беспроводную передачу электропитания еще не придумали. Так что все равно электро розетки ставить. Почему бы и слаботочку не протянуть в таком случае? Но если будут в будущем много двигать, то и розеток и тех и тех много нужно будет для обеспечения "мобильности" рабочих мест в пределах офиса.

  • Почему OceanStor Dorado V6 самая быстрая и надёжная СХД
    0

    На слайдах масштабирование по контроллерам 2-16 и 2-32, а в тексте речь только про 8. Где подвох?

  • Зачем нужна гиперконвергенция? Обзор и тесты Cisco HyperFlex
    0

    Да я в общем-то согласен :). Потому и написал, что тут вопрос цены. Ну и не плохо когда вся цепочка продаж и сам заказчик понимает в чем разница между сырой емкостью и полезной.

  • Зачем нужна гиперконвергенция? Обзор и тесты Cisco HyperFlex
    0

    C 2 часовым таймаутом вопрос с логикой, которой пользуется система при возвращении потерянной ноды обратно в онлайн менее чем за время таймаута. Если записанные на нее "третьи" копии данных просто продолжат использоваться, то возможно таймаут как раз предусмотрен для того, что бы решить проблему с нодой, если она не требует много времени, и вернуть ее в работу. При этом избежать ребилда всего, что на потерянную ноду было записано. Все же для продуктивного кластера ребилд не лучшее времяпрепровождение.


    А с RF3 все равно остается вопрос стоимости в переводе на реальную полезную емкость такого решения. Насколько помню, у HyperFlex 8% дисковой емкости блокируется под хранение метаданных (а кто может обойтись без них?). В таком случае из условных 100TB сырой емкости нам остается 92TB. Рекомендованный RF3 оставляет нам около 30.7 TB. А далее рекомендованная Cisco "cluster storage utilisation" не более 70% от этих оставшихся 30.7TB. В итоге на выходе из условных 100TB "сырых" получаем примерно 21,5TB под полезные данные + снэпшоты. Понятно, что в теории использование дедупа и сжатия может компенсировать нам часть этих потерь. Но есть сомнения, что на реальных первичных данных коэффициент будет хотя бы 3:1.

  • Резервное копирование: где, как и зачем?
    +5

    Статья сплошное бла-бла-бла и никакой конкретики. Бэкап в облако это одно, а вот быстрое восстановление из облака это другое.


    Два абзаца, которые полностью противоречат друг другу:


    Совмещение периферийного и мультиоблачного хранения – также непростая задача. Чтобы эти системы эффективно работали вместе, нужно знать объемы и типы данных, где и как эти данные будут собираться, передаваться и сохраняться. Для планирования процесса потребуется также знать, как долго должны храниться данные каждого типа, где, когда и сколько данных нужно будет передавать между различными системами и облачными платформами, как осуществляется их резервное копирование и защита.

    И сразу же забыв, что написано выше:


    Все это поможет администраторам свести к минимуму сложности, связанные с объединением периферийного и мультиоблачного хранения.
  • Превращение Synology NAS в игровой сервер
    +2

    Вроде на NAS-ах таких процы относительно слабы и памяти немного.
    Хотя CS 1.6 сервер когда-то и на пне втором запускался с 48 mb памяти. Держал максимум 4 игроков, при заходе 5 того все начинало дико лагать, т.к. CPU сервера уходил в планку на 100% загрузки :).
    А вот с более современными играми, что то мне кажется не потянет их Synology.

  • NVMe over Fibre Channel. Что это и где нужно?
    0

    Много слов, минимум конкретики = ожидание, что в вебинаре будет 80-90% маркетингового булшита. Жалко на это тратить время. Как-то так.

  • Обзор и тестирование Huawei Dorado 5000V6
    0

    Да на самом деле есть у них более подробное описание. Inline используется дедупликация с постоянным размером блока. Она менее требовательна к ресурсам, но и коэффициент дедупа меньший получается. SFP используются в постпроцессной дедупликации с блоком данных переменной длинны. Она выполняется соответственно в фоне в моменты наименьшей нагрузки, но требует дополнительного места под хранение недедуплицированных данных. Тип дедупликации назначается конкретному disk domain-у и может быть изменен на лету. Но в конкретный момент времени к конкретному disk domain-у применяется только один из алгоритмов дедупа. По умолчанию используется Inline дедуп с постоянным блоком. Дополнительно к уже дедуплицированным данным применяются еще и алгоритмы сжатия. Причем, что касается постпроцессной дедупликации с переменным блоком, там перед сохранением данных на диски выполняется предварительное Inline сжатие входящих данных, затем в фоне их постпроцессная дедупликация, после которой уже дедуплицированные данные дополнительно еще проходят через алгоритм постпроцессного сжатия. При Inline сжатии комбинируют LZ и Huffman entropy encoding. При постпроцессном сжатии дедуплицированных данных используются какие-то свои проприетарные deep compression algorithm.

  • Обзор и тестирование Huawei Dorado 5000V6
    0

    В общепринятом понимании так и должно быть. Но всегда интересна конкретная реализация конкретного производителя, так как из нее могут вытекать как плюсы, так и минусы конкретного решения. А в данном случае не совсем понятно, что имелось в виду и как на самом деле работает, если приведенная схема из официальной документации, да еще и описана не корректно.


    Хотя я все равно придерживаюсь мнения, что дедуп на первичных данных — это попытка натянуть "сову на глобус" и продать идею, что "так all-flash обойдется вам дешевле". Дедуп реально эффективен на бэкапах, на первичных данных при определенного рода авариях от него больше вреда, чем пользы.

  • Обзор и тестирование Huawei Dorado 5000V6
    0

    ну либо схему китайцы неправильно нарисовали :)

  • Обзор и тестирование Huawei Dorado 5000V6
    0

    Смотря что вы имеете в виду под записью на СХД. Запись в память контроллера или запись на диски. Судя по приведенной выше схеме запись на диски происходит после вычисления SFP. Постпроцесс это все же уже работа с данными записанными на диски.

  • Обзор и тестирование Huawei Dorado 5000V6
    0

    Ну из этой схемы этого не видно. Возможно в тексте описано словами :).

  • Обзор и тестирование Huawei Dorado 5000V6
    +1
    Глобальный кеш: позволяет, чтобы LUN не имели владельцев. Каждый контроллер обрабатывает полученные запросы на чтение и запись, обеспечивая балансировку нагрузки между контроллерами.

    Тут если зарыться в документацию тоже не все так просто. Внезапно, как раз из-за отсутствия Shared Frontend и FIMs модулей режим active-active для контроллеров СХД будет корректно работать только при установленном на хосте UltraPath (MPIO) от Huawei. Так как он начинает вместо FIMs модулей определять в какой порт на front-е отправить I/O, что бы не пришлось выполнять его перенаправление внутри контролера СХД в другую VNode на другой CPU или даже на другой контроллер для обработки.
    А с точки зрения владения луном, на этих массивах все происходит несколько ниже уровнем. Если упростить, то по факту различными кусочками одного луна в конкретный момент времени владеют разные CPU обоих контроллеров. Т.е. если I/O случайно прилетит не к тому CPU (не к той VNode), то что бы не менять владельца, все равно придется его перенаправить в правильный VNode, что больше похоже на режим ALUA и может выливаться в дополнительные задержки ввода/вывода. По факту получается, что лучше не использовать нативный MPIO в OS, а всегда ставить вендорский UltraPath.

  • Обзор и тестирование Huawei Dorado 5000V6
    0

    Тут или ошибка или неточность:


    Если встроенная дедупликация не может быть выполнена с высокой вероятностью, система вычисляет «аналогичный» отпечаток (SFP) данных и вставляет его в таблицу «возможностей». Затем система сжимает пользовательские данные, записывает сжатые данные в пул хранения и возвращает сообщение об успешной записи.

    Т.е. хост все это время ждет? Или имеется ввиду, что возвращает сообщение контроллерам СХД? Вроде как обычно ack возвращается хосту после записи данных в кэш контроллера СХД. Или я что то не так понял или эта СХД работает по другому?

  • Некоторые тенденции в сфере хранения данных, на которые стоит обратить внимание
    +3

    Много обещающее название, а в статье какая-то лабуда. Что в итоге то хотели сказать? Покупайте наши СХД? Тогда как-то не убедительно вышло. И причем тогда?


    тенденции в сфере хранения данных
  • FAST VP в СХД Unity: как это работает
    0

    Спасибо за статью! Наконец-то в этом корпоративном блоге что-то полезное. А не про очередной "новый и конечно же самый крутой ноутбук". Не то что бы технология новая и все то же самое уже давно и стабильно работало на поколении EMC VNX2 :). Но молодцы, что корректно перенесли функционал при смене поколений СХД и смене базовой OS на контроллерах.


    Жалко, что вы рассказали только про то, что и так можно найти в документации по продукту. Интересно было бы понимать хотя бы в общих чертах как рассчитывается температура слайсов, как и где выделяется пространство на тирах при создании новых лунов и росте тонких лунов на пуле. Как решается вопрос при нехватке места на быстром тире под все горячие данные. Что происходит, когда в одном тире есть RG с различным количеством дисков (что не рекомендовано, но у заказчиков случается :) ). Совсем не осветили вопрос про минимально необходимое свободное место на тирах, которое нужно что-бы тиринг в принципе работал. Не то что бы все это жизненно необходимо :), но для общего понимания внутренних механизмов работы пула было бы неплохо знать.

  • Технический обзор архитектуры СХД Infinidat
    0

    Ну тут вам решать конечно, но и у того же HPE в блэйдах можно было ставить по две mezzanine карты, насколько помню. В том числе IB в последних поколениях.

  • Технический обзор архитектуры СХД Infinidat
    0

    Коллеги вас правильно поправили про Isilon. Может стоит лучше в сторону нормальных вычислителей копать? Чем искать нестандартный сторадж с IB наружу? По крайне мере из того что мне попадалось из A брендов по 1U серверам, у всех через райзер как минимум две PCI-E карты дополнительных поддерживалось. Одна с полноразмерной планкой, вторая с короткой.

  • Технический обзор архитектуры СХД Infinidat
    0

    Это шутка? Если нет, то расскажите какую систему с IB наружу (и зачем?) и большей дисковой плотностью на юнит вы имели в виду. Прямо интересно.

  • Хабрарейтинг 2019: статистика и рейтинг авторов за 2019 год
    +1
    Там же в основном переводы и новости.

    Для меня основная проблема, что большей частью эти переводы и новости суть мусорные. И такой контент по личным ощущениям последнее время занимает как минимум 70-80% Хабра. Особенно доставила последняя истерия с NGNIX, когда 3 из 4 новых статей тут были про эту ситуацию и по сути не несли какой либо полезной информации.

  • Microsoft SQL Server 2019 и флэш-массивы Dell EMC Unity XT
    +4

    Статья, к сожалению, сплошной маркетинг и вода. Из реально полезного разве что ссылки после статьи.
    Отдельная песня это картинка с первым поколением Unity. Ваши маркетологи же сделали вот такое:
    image


    На худой конец вот такое (могли бы и доработать и подставить 380/380F и виртальный аплайнс для чего обычного paint-а достаточно):


    image


    Зачем в статье про Unity XT это? :)
    image

  • Техподдержка и саппорт. Большое исследование рынка вакансий и зарплат. Что изменилось за 2 года?
    0

    Абсолютно все. Подписи пространны и без едениц измерения. В чем измеряются значения на графиках? В штуках, в попугаях, в долларах, в рублях? Из контекста можно только догадываться. Но полной уверенности нет.