Мы продолжаем публикацию статей в стиле how-to касательно использования систем хранения данных (СХД) Qsan в различных типовых задачах. На сей раз рассмотрим первичную настройку серверов на базе операционных систем (ОС) семейства Linux при подключении блочных томов со стороны СХД.
![](http://habrastorage.org/getpro/habr/hub/1f7/b70/aa2/1f7b70aa274875ad783ef0584b3b3016.png)
SAN *
Сеть хранения данных
Новости
Обзор нового поколения блочных СХД Qsan XCubeSAN. Укрепляем свои позиции на рынке
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/24a/d58/f20/24ad58f20084a2effc585b9e5a8c97ef.png)
Прошло уже немало времени с момента нашей публикации обзора СХД Qsan серии XCubeSAN. Некоторое время назад QSAN обновил эту линейку, и на текущий момент эти системы хранения данных являются самыми востребованными среди наших заказчиков. Поэтому мы хотим, пусть и с некоторым опозданием, поделиться своим мнением относительно данного продукта.
Тестирование блочных стораджей: нюансы и особенности практики
![](https://habrastorage.org/r/w780/getpro/habr/upload_files/392/012/0db/3920120dbe186038ce04697570e33c00.jpg)
Привет, Хабр! Меня зовут Сергей Качкин. Вместе с командой я занимаюсь тестированием производительности систем хранения данных: много тестов делаем сами, видим результаты наших коллег и заказчиков, так у нас накопилось некоторое количество опыта, которым хочется поделиться.
В этой статье я расскажу про тестирование блочных стораджей. Начнем с теории — поговорим о выборе цели теста, отличиях синтетики от реальных нагрузок, выборе инструмента для генерации нагрузки. Затем перейдём к практике — тестированию случайного и последовательного доступа, измерению масштабируемости СХД.
Как ДОМ.РФ работает с системами хранения данных российского производства
![](https://habrastorage.org/r/w780/getpro/habr/upload_files/136/0b9/f46/1360b9f46aa7514d77463defcaf7d278.jpg)
В постоянно меняющемся мире сфера IT как одна из самых молодых пытается держаться на переднем крае. И мы, системные инженеры, должны учитывать все факторы окружающей среды, чтобы оставаться на плаву в этом неспокойном море.
Истории
Тестовый запуск системы видеонаблюдения Synology на 8 камер
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9cd/927/51a/9cd92751a0d0a8a287b3b5771b3c7793.png)
Речь пойдёт о системе записи с IP-камер Surveillance Station от Synology. Я сам уже много лет использую Synology, причём впервые познакомился с ней ещё до покупки оригинального железного сервера, установив через Xpenology фирменную операционную систему на обычный компьютер.
Xpenology является загрузчиком операционной системы от Synology, которая называется DSM (DiskStation Manager) и используется на фирменных NAS Synology. DSM работает на пользовательской версии Linux, разработанной Synology.
Веб-приложение Surveillance Station - это система NVR (сетевой видеозаписи) для обеспечения безопасности с помощью мониторинга IP-камер. Это приложение кажется довольно удобной, хотя и проприетарной системой видеонаблюдения, которая работает прямо из коробки. По умолчанию возможно бесплатное подключение только двух камер.
Однако бразилец Фабио Белавенуто в июле 2022 выложил на гитхабе проект загрузчика Automated RedPill Loader (ARPL), который позволяет практически без использования командной строки создать загрузочную флешку и протестировать запуск Synology DSM 7.1 и Surveillance Station 9.0.1-7673 на 8 камер без какой либо дополнительной оплаты на обычном компьютере при эмуляции сетевого хранилища DVA1622.
Cisco UCS C220 (Fabric Interconnection 6842) + Dell EMC VNX 5300
![image](https://habrastorage.org/webt/ca/ep/5p/caep5pcnxa4jxi11afrtqri_lpk.jpeg)
Началось с того, что у меня развалилась FS — подробнее тут. Бэкапов, конечно же, нет.
Как определил? Потребовалось прокинуть новый VLAN, а он прокидывается только Cisco UCS Manager далее (CUM). Перезагрузил Fabric B, она в варнинге (warning), подключился консольником и увидел ошибку, спустя 7 месяцев раздобыл ресурсы для того, чтобы все виртуалки перенести на другие сервера. Перенёс VM, перезагрузил Fabric A, и ВСЁ!!! Больше ничего не загрузилось.
Для меня этот зверь был необуздан, поэтому много искал и читал…
Для начала требуется скачать с оф. сайта прошивку. Несмотря на то, что у меня Interconnection 6248, прошивку скачивал для 6100 Series. Распаковал bin файл через 7zip и достал:
- ucs-6100-k9-kickstart.5.2.3.N2.2.23e.bin;
- ucs-6100-k9-system.5.2.3.N2.2.23e.bin;
- ucs-manager-k9.2.2.3e.bin.
Поставил ноут, загрузился с Ubuntu, нажав при загрузке «Попробовать сейчас» (Try now), скачал и запустил SSH demon, потом установил статичный ip, подключился в первую фабрику.
Построение Disaster Recovery в среде VMware с помощью СХД QSAN
![](https://habrastorage.org/r/w780/getpro/habr/upload_files/a4d/d09/d1e/a4dd09d1e9913009f56e527f180b8ac2.jpg)
Наш мир устроен так, что ничто не вечно под Луной. Другими словами, абсолютно все может прийти в негодность. Ну или, применительно к IT отрасли, может дать сбой. IT индустрия буквально пропитана идеей резервирования всего и вся ради обеспечения непрерывности работы и доступности сервисов. Начинаем с дублирования компонентов в рамках отдельной «железки», далее выполняем дублирование самих серверов, строим кластеры, резервируем каналы связи, осуществляем территориальное распределение и так далее. Все это напоминает спираль, где каждый новый виток означает очередное дублирование уже имеющейся IT инфраструктуры на более высоком уровне. Вопрос лишь в том, когда происходит остановка. Ведь давно уже не секрет, что очередная девятка после запятой в числовом значении доступности сервиса означает увеличение стоимости решения на порядок (то есть в 10 раз!).
Защита резервных копий от шифровальщиков с помощью WORM
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e1e/60a/ded/e1e60aded4c58a613f80425c0cae90c2.png)
Количество атак Ransomware, также известных как вирусы-шифровальщики, постоянно растет. Что, впрочем, нисколько не удивляет: ведь это весьма прибыльный теневой бизнес. Абсолютное большинство публичных компаний, которые были успешно атакованы, предпочитают не выносить сор из избы, чтобы не афишировать свои промахи в сфере кибербезопасности, все же заплатили выкуп вымогателям. Те же, кто отказался платить мзду, навсегда потеряли часть своих данных.
В Сети очень много информации о том, как максимально защитить свою инфраструктуру от подобных атак. Но все в конечном итоге сводится к последнему рубежу обороны – резервным копиям. Если первоначально целью шифровальщиков были пользовательские данные на локальном устройстве и в сетевых папках, то сейчас помимо них злоумышленников интересуют также и хранилища с бэкапами. Ведь именно зашифровав точки восстановления можно буквально поставить жертву на колени. Поэтому сохранность резервных копий – это, пожалуй, одна из главных задач по противодействию вымогателям. Разумеется, бэкапы важны еще и по многим другим причинам, но сегодня мы поговорим именно о защите от Ransomware.
Оптимальный выбор SSD для СХД Qsan
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/504/343/9e1/5043439e1c93280cacc5bc8ee80d5e11.png)
Ни для кого не секрет, что большинство вендоров СХД привязывают своих пользователей к накопителям собственной торговой марки. Так что типичный подбор, например, SSD подразумевает определение парт-номера накопителя в соответствии с характером нагрузки (read, mixed, write) и его емкостью. В целом, данный подход призван облегчить жизнь IT отделу, но при этом создать повышенную нагрузку на бюджет компании. А бюджеты, как известно, не резиновые. Поэтому всегда существовали и будут существовать вендоры, производящие решения из области хранения данных, которые позволяют использовать накопители сторонних производителей. В этом случае у пользователей имеется гораздо больше возможностей по выбору тех или иных накопителей, поскольку листы совместимости СХД содержат в себе большое количество позиций.
All Flash NVMe от QSAN с поддержкой NVMe SSD сторонних производителей
![](https://habrastorage.org/r/w780/getpro/habr/upload_files/176/cea/6ef/176cea6ef216e3120b420a5037ff713a.jpg)
Еще, казалось бы, недавно для всех нас деревья были выше, трава зеленее, а в качестве накопителей в серверах и СХД применялись только жесткие диски. Однако сейчас уже привычные SATA/SAS SSD считаются вполне заурядными компонентами систем хранения данных. Более того, все чаще начинают применяться NVMe SSD. Они используются не только для задач кэширования, но и для хранения оперативных данных. Поэтому на рынке растет число предлагаемых All Flash NVMe решений.
Управление кластерным хранилищем с помощью LINSTOR
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b8c/3d3/bdd/b8c3d3bdd0edaa370e058598dedb8828.png)
Электронное хранилище
LINSTOR - это инструмент для автоматизированного управления кластерами, который позволяет упростить управление DRBD и предлагает широкий спектр функций, включая резервирование и моментальные снимки.
LINSTOR - это программное обеспечение с открытым исходным кодом, предназначенное для управления блочными устройствами хранения в больших кластерах Linux серверов. Оно упрощает развертывание хранилища высокой доступности с помощью распределенного реплицированного блочного устройства версии 9 (DRBD 9), динамически резервирует хранилище и упрощает управление посредством интеграции с Kubernetes, Docker, OpenStack, OpenNebula, OpenShift и т.д. Кроме того, LINSTOR может обеспечивать высокую доступность с помощью DRBD. В этой статье я рассмотрю настройку и работу этого инструмента.
На первый взгляд, автоматизация хранения данных не кажется сложной задачей: уже давно создания, расширения и удаления томов хранилища не ограничиваются объемом отдельных устройств хранения или объемом и положением слоев или разделов, созданных на устройствах хранения. Такие технологии, как диспетчер логических томов (LVM) или файловая система Zetabyte (ZFS), уже давно позволяют управлять пулами хранения, в которых можно легко создавать или удалять практически неограниченное количество томов хранилища любых размеров.
Что трудного в том, чтобы автоматизировать такие рутинные задачи с помощью нескольких скриптов? Но дело в том, что при автоматизации необходимо уделять внимание мельчайшим деталям, поскольку этот процесс содержит много потенциальных ловушек для администратора. Какие-то мелкие моменты, которые могут быть не заметны при ручном администрировании, легко могут привести к проблемам в автоматизации – например, когда файлы устройств еще не существуют в файловой системе /dev, хотя соответствующая команда для создания тома уже сообщила о завершении, или если вы хотите удалить не смонтированные тома, которые используются подсистемой udev. Если дополнительно требуется централизованное управление целым кластером, а не только одной системой, становится ясно, что несколько готовых скриптов не справляются с этой задачей.
Можно ли сэкономить на СХД?
![](https://habrastorage.org/r/w780/getpro/habr/upload_files/be0/569/cb5/be0569cb595f455e837c5d9fc906e5cb.jpg)
Мы решили выяснить насколько эффективны новые решения VMware vSAN 7 и можно ли с их помощью снизить издержки на содержание СХД, в том числе за счет увеличения количества гиперконвергентных структур в одном кластере. Я собрал стенд с четырьмя серверами различных конфигураций для тестирования vSAN 7.0. Результаты получились весьма обнадеживающими, подробности — под катом.
Как я (не)попробовал поиграться с SAS свитчами
У меня стоят нотификации ebay на некоторое количество старого серверного железа, которое уже никому не нужно, но в обычной ситуации продолжает стоить неприлично. Для домашней лабы и желания поиграться - цена неоправданна совсем, но периодически всплывают очень интересные варианты. В этих-же email-ах есть "похожее". И в какой-то момент я увидел в этом "похожем" предложение на SAS switch (LSISAS6160). У продавца было 3 штуки, каждая по $80. Главной потенциальной проблемой было то, что они были без БП, а он там внешний (12А 75W), думаю - разобраться и найти аналог не проблема. Понимая, что один - это мало, так как будут эксперименты, и зная нашу таможню - я предложил у него купить сразу все три оставшихся, но по $65. Он согласился. Ехало это всё примерно месяц.
tl;dr Как сжечь старое серверное железо без фирменного блока питания
Ближайшие события
![](https://habrastorage.org/getpro/habr/upload_files/e79/be2/5d7/e79be25d70f058ee1741a36d6fea41f1.png)
![](https://habrastorage.org/getpro/habr/upload_files/fd0/255/4d3/fd02554d346912bf8fc4bc81f9406174.png)
Инжиниринг производительности систем хранения данных
![image](https://habrastorage.org/webt/iz/e9/ci/ize9cipowpxhskzxyynojwfbie8.jpeg)
Производительность — одна из ключевых характеристик качественного программного обеспечения: прочие характеристики систем хранения данных не будут оценены по достоинству, если она работает медленно или нестабильно. Сегодня мы беседуем с Сергеем Качкиным kachini — руководителем отдела технической экспертизы департамента прикладных исследований и технической экспертизы компании YADRO.
У его профессии несколько названий: аналитик производительности, performance engineer, performance tester. И все они достаточно мало распространены в России. Между тем инжиниринг производительности помогает создавать эффективные компьютерные системы, которые работают быстро и надежно. Его задача — изучить, почему система функционирует не так, как хотелось бы, разобраться в причинах медленной или не соответствующей целевым параметрам работы, выявлять и находить проблемные места, помогать их устранять.
Сергей Качкин рассказал о поиске узких мест в программном стеке и оптимизации производительности СХД, о том, чем занимается его команда.
Мониторинг СХД при помощи Zabbix, Python и протоколов CIM/WBEM
В последних версиях Zabbix компания стала уделять шаблонам гораздо больше внимания — стали появляться шаблоны для мониторинга сервисов, СУБД, Servers hardware (IMM/iBMC) через IPMI. Мониторинг СХД пока остаётся вне шаблонов из коробки, поэтому для интеграции в Zabbix информации о статусе и производительности компонентов СХД нужно использовать кастомные шаблоны. Один из таких шаблонов я предлагаю вашему вниманию.
Хранение данных. Или что такое NAS, SAN и прочие умные сокращения простыми словами
TL;DR: Вводная статья с описанием разных вариантов хранения данных. Будут рассмотрены принципы, описаны преимущества и недостатки, а также предпочтительные варианты использования.
СХД Qsan в системах видеонаблюдения
Окружающий мир определенно не такой, каким он был десяток лет назад. В то время никто бы не поверил, что за нами будет пристально следить 24 часа в сутки огромное количество видеокамер. Если раньше видеонаблюдение было развернуто лишь в наиболее уязвимых, с точки зрения безопасности, местах, то сейчас редко можно встретить даже мелкий магазинчик без собственных видеокамер. В крупных мегаполисах применяется масштабное наблюдение за улицами, дворами домов и прочими общественными местами. Можно по-разному относиться к постоянному наблюдению за людьми и объектами (кто-то видит в этом безопасность, а кто-то – признаки тотального контроля), но решать технические вопросы в данной сфере все равно необходимо.
![](https://habrastorage.org/webt/jp/e1/5f/jpe15ffqhngpxjbsdixjzsvp0_k.jpeg)
Подключение СХД Qsan к серверам в среде Windows Server и Hyper-V
Мы продолжаем цикл публикаций из серии How To для пользователей СХД Qsan. В данной статье пойдет речь о подключении СХД к серверам на базе Windows Server, в том числе при использовании функционала виртуализации Hyper-V.
Подключение СХД Qsan к гипервизору VMware ESXi
Эксплуатация технически сложного оборудования, типа систем хранения данных, подразумевает наличие у администратора определенных навыков. Однако высокие технологии шагают в массы. И, соответственно, растет число пользователей, впервые столкнувшиеся с ними. Уверены, что статьи в стиле How To являются отличным способом пополнить багаж знаний как для новичков, так и узнать нюансы и особенности для опытных пользователей.
В данной статье мы рассмотрим порядок подключения СХД Qsan к гипервизору VMware ESXi, а также по возможности дадим практические советы по тюнингу настроек для достижения максимальной эффективности использования оборудования.
Использование компонентов сторонних производителей в СХД на примере Qsan
Информационным поводом для написания данной статьи стала официальная поддержка со стороны Qsan подключения к СХД полок расширения сторонних производителей. Этот факт заметно выделяет Qsan среди прочих вендоров и даже в некоторой степени ломает привычное положение на рынке СХД. Однако просто написать о связке СХД Qsan + «чужой» JBOD нам показалось не так интересно, нежели затронуть отчасти холиварную тему использования компонентов сторонних производителей.
![](https://habrastorage.org/webt/gl/h4/dz/glh4dzpni7rnqkwlnydifsxs2ws.jpeg)