Пик развития многопоточности пришелся на начало 2010-х годов, когда у IBM еще было собственно производство серверов для бизнеса.
Вот спецификации IBM Power S822LC — последнего сервера от IBM этой линейки на собственном процессоре IBM POWER8 Core 2014 года выпуска
Не понял насчёт IBM, если ничего не путаю, они ушли только с рынка x86 серверов, но вполне себе производят сервера на POWER9. Именно S922LC на сайте IBM не нашёл, зато есть упоминания о нём здесь и здесь
У POWER9 и POWER10 — тоже SMT8.
С другой стороны интересно, учитывая долго сохранявшуюся разницу в подходах производителей: что выгоднее, одно ядро SMT8 (POWER, SPARC) или четыре SMT2 (x86_64)?
Никогда не имел дела с мейнфреймами, Hercules в своё время не осилил. Самое большое, на что меня хватило, поиграться на эмуляторе VAX с OpenVMS.
Интересно было бы узнать из первых рук, куда уходят с мейнфреймов (предположу, что тут всё достаточно банально: всякие СУБД вроде Oracle и ERP системы вроде SAP? хотя, может и на что-то более новое, вроде облаков?) и, особенно, кто и зачем может сейчас переходить на мейнфреймы?
С новыми клиентами тоже есть пара предположений:
Пользователи различных клонов S/360 и далее, возможно, использовавшие до недавнего времени Hercules
Пользователи младших линеек IBM (та же System i), «доросшие» до мейнфреймов
Ещё одна потенциальная категория новых пользователей — миграции с аналогичных решений конкурентов, вроде OpenVMS, у которой ещё недавно всё было совсем плохо, вплоть до перспективы полного прекращения поддержки, после чего права на неё передали VSI и даже началось портирование на x86.
Ещё вопрос, какие технологии с точки зрения IBM и пользователей подобных систем считаются основными конкурентами мейнфреймов?
И, может, кто-нибудь в курсе, как там сейчас поживает вышеупомянутая OpenVMS?
На тему катастрофоустойчивости, есть такой рекламный ролик от HP
Зачем смеяться? У всех свои потребности) Стойка заполненная оборудованием нужна далеко не всем.
У меня два 4U и один 2U, два коммутатора, роутер и ИБП, всё это уютно расположилось в нижней части 42U стойки, верхняя используется как стеллаж. В Tower исполнении разместить всё это было бы сложнее, а обслуживать не так удобно.
Стойка удобна, если серверов и прочего сетевого оборудования много.
У Supermicro есть Tower корпуса с возможностью установки в стойку. Кроме того, существуют 4U корпуса без HotSwap корзин, такие корпуса обеспечивают достаточный поток воздуха, при достаточно низких оборотах вентиляторов (1000-1300), а высоты в 4U достаточно, чтобы установить на процессор тихую башню со 120мм вентиляторами.
Из личного опыта, в моей домашней серверной, в 4U сервере без HotSwap обороты вентиляторов не превышают 1300, в 4U с 24 HotSwap (из них заняты 15) - обороты корпусных вентиляторов держатся на уровне 2800-3400, но такие обороты по факту связаны требованиями к охлаждению дисков. Также надо учитывать, что в домашних условиях, может потребоваться обеспечить дополнительное охлаждение самых горячих компонентов, таких как SAS RAID/HBA или сетевые карты, как в случае с Tower, так и в случае с попытками соорудить тихий 4U.
При этом обслуживать серверы в стойке, на мой взгляд, гораздо удобнее, чем кучку Tower, присыпанных сверху коммутаторами.
Практически все потребительские 2,5" диски — SMR, CMR в этом форм-факторе — почти исключительно Enterprise серии, стоят они совсем негуманно.
В случае использования ZFS или RAID-массивов, с SMR дисками будут проблемы.
Продувка в моём случае больше для профилактики, как раз, чтобы толстого слоя пыли не образовывалось, не хочется доводить ситуацию до толстого слоя пыли, скрывающего плату. Кроме того, я живу на нижних этажах, где пыли всегда больше.
Десктоп у меня набирает пыли сопоставимо с сервером, если не больше.
Насчёт использования серверных материнских плат в десктопных корпусах, думаю, роль играет ещё и тот факт, что серверная плата рассчитана на продув вдоль платы, в то время, как в десктопном корпусе направление воздушных потоков весьма специфическое. Моё мнение, если устанавливать дома серверное железо, то только в корпусах, для него предназначенных и уже для них решать проблему с шумом. Иначе придётся разбираться и с охлаждением и с шумом.
По крайней мере, я в своё время выбрал именно такой вариант.
У LSI вообще есть весьма неудачные радиаторы на некоторых контроллерах, в частности, попадалась информация о высоких температурах и перегреве 9361 в серверах, установленных в серверной.
По тепловыделению, сложно сказать что-то определённое, думаю, что это зависит в первую очередь от применяемого железа. В целом, получается сопоставимо с аналогичным десктопным железом, только радиаторы другие.
По опыту, серверный контроллер прекрасно себя чувствует в десктопном корпусе, если повесить на него дополнительный вентилятор.
При использовании дома стоечных корпусов, достаточно отрегулировать обороты вентиляторов до приемлемого уровня шума, а перегревающиеся компоненты снабдить дополнительными вентиляторами, чтобы обеспечить нормальное охлаждение в самых горячих местах.
4U сервер без Hotswap, но с LSI 9300, встроенной сетевой картой Intel X540 и десятью жёсткими дисками, не перегревается при оборотах корпусных вентиляторов порядка 1000 об/мин и двух дополнительных Noctua: на радиатор сетевой карты и на HBA.
Из всего «серверного» железа, действительно стоит избегать только 40мм вентиляторов, они действительно очень шумные, хотя даже для них (кроме блока питания, тут лучше смотреть корпуса с ATX блоками питания) можно отрегулировать обороты до приемлемого уровня шума.
Пыль прекрасно накапливается и в десктопе. По опыту своих домашних серверов, достаточно раз-два в месяц снимать верхнюю крышку с сервера и продувать его сжатым воздухом. И раз в полгода-год выключать его и тщательно прочищать от пыли, что, в общем-то мало отличается от обслуживания обычного десктопного корпуса. Кроме того, некоторые корпуса спереди имеют фильтр для пыли.
Все мои домашние сервера собраны на платах от Supermicro в китайских стоечных корпусах, за почти 4 года использования, с обслуживанием проблем не было.
Глубины стойки в 40 см, скорее всего будет недостаточно.
Обычный серверный корпус глубиной сантиметров 70, плюс нужно место сзади для кабелей и нормального отвода воздуха.
Неглубокие шкафы всё-таки предназначены в первую очередь для коммутаторв и прочей мелочи, а не для серверов.
Возможно, роль играет конструкция корпуса и корзин, что выше я писал про корпус типа «дисковая полка 4U на 24 диска с материнской платой внутри», на фото всё-таки совсем иной корпус. Или у Supermicro лучше продумано охлаждение корзин. Есть ещё вариант, что мои диски просто были горячее сами по себе и поэтому требуют большего обдува.
В целом, в корпусе без HotSwap в любом случае будет меньше препятствий для циркуляции воздуха.
В японском тоже хватает омонимов и диалектов.
Своя логика в японской письменности есть, причём, она очень хорошо соответствует логике самого языка. Понимая эту логику, можно приблизительно ориентироваться в тексте на японском, даже не понимая большую часть иероглифов и не зная их правильного чтения. При записи латиницей эта внутренняя логика теряется.
Есть три алфавита — кандзи (заимствованные китайские иероглифы) и две слоговых азбуки — хирагана и катакана, последняя обычно используется для записи заимствованных слов.
Корни слов записываются кандзи, суффиксы — хираганой, заимствованные слова — катаканой. Чтение кандзи может варьироваться, у большинства есть «китайское чтение» онъёми и японское «кунъёми». Для редких или нестандартных чтений над или справа от кандзи, может быть подписано его чтение каной, такая подпись называется фуригана.
Для домашних серверов выделил место под 42U стойку, в незадействованные юниты поставил полки и использую в качестве стеллажа.
Из опыта применения стоечных корпусов дома, могу сказать, что если нет отдельного помещения под «серверную», по возможности стоит избегать корпусов с hot swap корзинами для дисков (как у Supermicro в статье), если же такой корпус всё-таки используется, по возможности стоит чередовать диски с пустыми корзинами. Иначе, в домашних условиях, либо сервер будет слишком шумным, либо диски слишком горячими.
Также могу сказать, что 4U сервер без HotSwap корзин, с активным охлаждением процессора и ATX блоком питания получается достаточно тихим (обороты вентиляторов в пределах 1000, для сравнения, в аналогичных условиях в 4U корпусе на 24 HotSwap корзины с 15 дисками — 3000-3200 при тех же условиях), хотя и крупногабаритным. Также, при попытках адаптировать сервер к домашним условиям, может потребоваться дополнительно организовать охлаждение для наиболее горячих компонентов, например HBA/RAID контроллеров.
Если позволяют габариты процессорного радиатора, 2U и 3U корпуса также могут быть весьма тихими. А вот 1U, определённо не для дома.
Чтобы точно понять, кто с кого позаимствовал модель прав, надо очень хорошо знать все три системы, и VMS, и NetWare, и NT, остальное скорее предположения, основанные на крайне небогатом опыте знакомства с VMS.
Насколько я в курсе, Microsoft заимствовала у Digital архитектора, разрабатывавшего VMS, соответственно, в плане внутренней архитектуры Windows NT очень похожа на VMS.
Живую OpenVMS видел только в эмуляторе, поэтому знаю о ней не так уж много, но аналогии вполне прослеживаются, даже то, что местный аналог root в NT называется SYSTEM.
С работой с файлами в NetWare не знаком, возможно, тоже есть сходство. В VMS, кроме UIC-based прав, похожих на права в Unix, есть ещё ACL, которые позволяют задавать полномочия отдельным пользователям или группам пользователей, как раз они похожи на права в NTFS. Про то, как работать с ACL в VMS, можно немного почитать здесь . Документ с описанием принципов, сразу, увы, не нашёлся
В плане организации ФС не увидел кардинальных различий, всё та же древовидная структура каталогов, начинающаяся от диска, разве что «буквы» дисков длиннее (правда в виде DUB0: MUA4: RLA1: и т. д.), правда, поддерживается версионность файлов (хотя глубоко не копал, возможно, теневое копирование в NTFS работает по аналогичному принципу) и используется очень непривычная и неудобная форма записи пути, но это уже претензия к CLI Digital Command Language. Надо признать, что при всей продвинутости DCL, SET DEFAULT с прописыванием полного пути, вместо нормального CD — это очень жестоко по отношению к пользователям.
Но что действительно очень понравилось в DCL — это HELP, man после этого сильно расстраивает.
В целом про NT, сложилось впечатление, что в систему было заложено очень много полезных и нужных вещей, но реализованы они были весьма криво.
P. S. Если изучаете VMS, можно предположить, что ожидается материал по VAX/Alpha/Itanium?
Все весьма гибко — именно с Netware брали пример разработчики Windows NT, создавая систему управления правами доступа к файлам.
Вопрос, разве концепцию работы с файлами Windows NT заимствовала не из VMS, с которой у неё очень много общего?
По крайней мере, ACL на файлы и каталоги в VMS были, хотя работа с каталогами в DCL реализована очень специфично.
Добавлю, что одной из первых компаний, использовавших стандартные телекоммуникационные стойки для установки компьютера была Digital, она же DEC.
Только из-за больших габаритов компьютеров в то время компьютер занимал одну или несколько телекоммуникационных стоек, к которым на салазках крепились модули компьютера и его периферия.
Несколько ссылок на то, как выглядели ранние стоечные компьютеры:
Если говорить о привычной парадигме клиент-сервер, то начало было положено еще в эпоху мейнфреймов. Тогда не было привычных нам персональных ПК, обработка данных выполнялась на мощных ЭВМ, которые называли мейнфреймами. У операторов были лишь терминалы, которые позволяли получить доступ к данным. Как правило, терминал представлял собой простой алфавитно-цифровой дисплей и клавиатуру, которые и подключилась к мейнфрейму.
Термин сервер в большей степени связан с сетями и взаимодействием между компьютерами. Одно из первых упоминаний термина server-host встречается в RFC 5. В RFC 4 использовался термин serving host. Полагаю, это одни из первых упоминаний термина «Сервер» применительно к компьютерам.
В случае терминалов, термины клиент сервер стали использоваться когда вместо физических терминалов для подключения к компьютеру стало использоваться подключение по сети.
Чтобы посмотреть на живую OpenVMS, актуальный образ под Alpha с инструкцией можно найти по этой ссылке
Лицензию, аналогичную hobbyist license можно получить здесь.
Но это уже под Alpha или Itanium, по второй ссылке всё уже предустановлено и даже.
Для VAX, похоже, легальных вариантов не осталось, насколько я понимаю, связано это с передачей прав на OpenVMS от HP к VMS Software Inc.
RFID считывается встроенным в стример считывателем. Сама метка находится в передней части картриджа, с противоположной стороны от переключателя защиты от записи.
Если используется LTFS, посмотреть состояние картриджа можно прямо в проводнике Windows, в свойствах «диска» есть соответствующая вкладка.
Также можно посмотреть в Library & Tape Tools, можно создать Support Ticket, в нём будет подробная информация о стримере и последних 5 картриджах.
Кроме того, в ней же есть диагностические утилиты, позволяющие оценить состояние картриджа.
Возможно, есть и другие способы, но они мне неизвестны. Когда в следующий раз буду записывать данные, если не забуду попробую поковыряться в L&TT, может быть, найду ещё что-нибудь интересное.
Точной информации, что и как лежит на RFID у меня нет, только предположения исходя из информации, которую стример может получить о картридже.
Как минимум, судя по L&TT, о картридже известно:
Штрихкод на наклейке, серийный номер, информация о разделах и что-то вроде смарта на HDD, количество ошибок разных видов, максимальная зафиксированная температура картриджа (хотя кто её измеряет — не понял), объём записанной/прочитанной информации, количество перемоток, общий пробег ленты (на всякий случай, длина ленты у LTO-5 860м, картридж записывается полностью за 80 проходов).
И если информация о последней сессии записи, вполне может хранится в стримере, то такие вещи как суммарный пробег, серийные номера, данные о разделах и т. д., явно хранятся в картридже.
Стоит или не стоит, это всё-таки индивидуально, техника немного специфическая, к этому нужно быть готовым.
Из личного опыта, пользуюсь и tar и LTFS:
tar для периодического архивирования недельных бэкапов,
LTFS для выгрузки отдельных архивов, которые удалять жалко, но в ближайшем будущем они вряд ли потребуются.
Стараюсь дублировать записанное на две ленты сразу (ленты тоже могут выходить из строя, вообще, думаю, к любому носителю информации стоит относиться как к потенциально ненадёжному), если данные предполагается относительно часто читать, лучше продублировать их на жёсткий диск (в том числе и внешний) и использовать его для чтения, а ленты как резервную копию этих данных.
С проблемами, когда стример не видит записанное другим стримером сталкиваться не доводилось. Умершие кассеты попадались, правда обнаруживалось при проверке свежекупленных б/у.
Также желательно обзавестись чистящей кассетой. Просто так её использовать не стоит (она рассчитана на 15 использований, RFID внутри картриджа не даст обмануть это ограничение), только если загорелся соответствующий индикатор на стримере, или если есть проблемы с чтением записью.
Кстати, чистящие кассеты универсальны и с некоторыми оговорками подходят для любого LTO.
При выборе стримера советую запрашивать у продавца Support Ticket с информацией о состоянии стримера (если он согласится его предоставить, конечно), для его просмотра может понадобиться Library & Tape Tools, доступный бесплатно (возможно, потребуется регистрация), для работы с LTFS есть утилиты LTFS Cartridge Browser (просмотр списка файлов на лентах) и это относится к HP. У Tandberg и Quantum, если не путаю, те же утилиты (вроде даже взаимозаменяемые), с IBM дела не имел, возможно, всё то же самое, не в курсе.
Ленты можно найти на вторичном рынке. Если поискать, встречаются даже вполне живые за вполне разумные деньги (купил в своё время большую партию лент с 87% остаточного ресурса, согласно L&TT).
У LTO достаточно продвинутая система самодиагностики, в том числе сразу после записи выполняется проверка записанных данных, если в блоке есть ошибки, он пишется повторно. Из-за этого и из-за аппаратного сжатия ёмкость ленты может ощутимо плавать.
Пользуюсь LTO-5.
Из под Linux/FreeBSD можно писать обычным tar прямо на ленту и перематывать её командой mt.
tar, кстати, поддерживает многотомность (в FreeBSD — по умолчанию, не поддерживает, но там есть gtar, который умеет), за счёт чего можно сразу выгрузить на ленты хоть целый raid-массив.
Из минусов такого решения, нужно помнить, что записано на картридже, чтобы не перетереть случайно данные.
Пробовал и LTFS, драйвера для неё есть как для Linux, так и для Windows. Кучу мелких файлов всё-таки писать не стоит, постоянный старт/стоп для стримера не особенно полезен, да и просто очень долго получается. Кроме того, при чтении с LTFS желательно читать файлы в том порядке как они были записаны (можно смотреть по ID в LTFS Cartridge Brwser), иначе больше времени уйдёт на перемотку (до 90 секунд, если мотать от начала до конца ленты), чем на собственно чтение.
Поэтому, на мой взгляд, всё-таки предпочтительнее писать большими файлами, даже используя LTFS.
Ещё при записи мелких файлов, жёсткий диск может банально не поспевать за лентой, чтобы немного сгладить этот эффект использую mbuffer.
К SATA-контроллеру материнской платы стример подключить не получится, к SAS RAID контроллерам — может не заработать (зависит от наличия поддержки режима JBOD и размера блока, поддерживаемого RAID-контроллером), так что лучше сразу смотреть на SAS HBA вроде LSI 9200 или LSI 9300 и их аналогов.
Кроме того, желательно обеспечить стримеру нормальное охлаждение, во время работы он ощутимо греется, что тоже не полезно для него.
Ещё у лент есть аппаратное сжатие, позволяющее уместить немного больше, чем реальный объём ленты (для LTO-5 — 1.5 ТБ), реальная степень сжатия зависит от типа записываемых данных.
В целом лентой доволен, но пользуюсь ей скорее как архивным носителем, а не для ежедневных бэкапов.
Если же нужен быстрый доступ к мелким файлам — только жёсткий диск на полке (что, впрочем, не мешает хранить копию этого диска на ленте).
Не понял насчёт IBM, если ничего не путаю, они ушли только с рынка x86 серверов, но вполне себе производят сервера на POWER9. Именно S922LC на сайте IBM не нашёл, зато есть упоминания о нём здесь и здесь
У POWER9 и POWER10 — тоже SMT8.
С другой стороны интересно, учитывая долго сохранявшуюся разницу в подходах производителей: что выгоднее, одно ядро SMT8 (POWER, SPARC) или четыре SMT2 (x86_64)?
Интересно было бы узнать из первых рук, куда уходят с мейнфреймов (предположу, что тут всё достаточно банально: всякие СУБД вроде Oracle и ERP системы вроде SAP? хотя, может и на что-то более новое, вроде облаков?) и, особенно, кто и зачем может сейчас переходить на мейнфреймы?
С новыми клиентами тоже есть пара предположений:
Ещё вопрос, какие технологии с точки зрения IBM и пользователей подобных систем считаются основными конкурентами мейнфреймов?
И, может, кто-нибудь в курсе, как там сейчас поживает вышеупомянутая OpenVMS?
Зачем смеяться? У всех свои потребности) Стойка заполненная оборудованием нужна далеко не всем.
У меня два 4U и один 2U, два коммутатора, роутер и ИБП, всё это уютно расположилось в нижней части 42U стойки, верхняя используется как стеллаж. В Tower исполнении разместить всё это было бы сложнее, а обслуживать не так удобно.
Стойка удобна, если серверов и прочего сетевого оборудования много.
У Supermicro есть Tower корпуса с возможностью установки в стойку. Кроме того, существуют 4U корпуса без HotSwap корзин, такие корпуса обеспечивают достаточный поток воздуха, при достаточно низких оборотах вентиляторов (1000-1300), а высоты в 4U достаточно, чтобы установить на процессор тихую башню со 120мм вентиляторами.
Из личного опыта, в моей домашней серверной, в 4U сервере без HotSwap обороты вентиляторов не превышают 1300, в 4U с 24 HotSwap (из них заняты 15) - обороты корпусных вентиляторов держатся на уровне 2800-3400, но такие обороты по факту связаны требованиями к охлаждению дисков. Также надо учитывать, что в домашних условиях, может потребоваться обеспечить дополнительное охлаждение самых горячих компонентов, таких как SAS RAID/HBA или сетевые карты, как в случае с Tower, так и в случае с попытками соорудить тихий 4U.
При этом обслуживать серверы в стойке, на мой взгляд, гораздо удобнее, чем кучку Tower, присыпанных сверху коммутаторами.
В случае использования ZFS или RAID-массивов, с SMR дисками будут проблемы.
Десктоп у меня набирает пыли сопоставимо с сервером, если не больше.
Насчёт использования серверных материнских плат в десктопных корпусах, думаю, роль играет ещё и тот факт, что серверная плата рассчитана на продув вдоль платы, в то время, как в десктопном корпусе направление воздушных потоков весьма специфическое. Моё мнение, если устанавливать дома серверное железо, то только в корпусах, для него предназначенных и уже для них решать проблему с шумом. Иначе придётся разбираться и с охлаждением и с шумом.
По крайней мере, я в своё время выбрал именно такой вариант.
У LSI вообще есть весьма неудачные радиаторы на некоторых контроллерах, в частности, попадалась информация о высоких температурах и перегреве 9361 в серверах, установленных в серверной.
По тепловыделению, сложно сказать что-то определённое, думаю, что это зависит в первую очередь от применяемого железа. В целом, получается сопоставимо с аналогичным десктопным железом, только радиаторы другие.
При использовании дома стоечных корпусов, достаточно отрегулировать обороты вентиляторов до приемлемого уровня шума, а перегревающиеся компоненты снабдить дополнительными вентиляторами, чтобы обеспечить нормальное охлаждение в самых горячих местах.
4U сервер без Hotswap, но с LSI 9300, встроенной сетевой картой Intel X540 и десятью жёсткими дисками, не перегревается при оборотах корпусных вентиляторов порядка 1000 об/мин и двух дополнительных Noctua: на радиатор сетевой карты и на HBA.
Из всего «серверного» железа, действительно стоит избегать только 40мм вентиляторов, они действительно очень шумные, хотя даже для них (кроме блока питания, тут лучше смотреть корпуса с ATX блоками питания) можно отрегулировать обороты до приемлемого уровня шума.
Пыль прекрасно накапливается и в десктопе. По опыту своих домашних серверов, достаточно раз-два в месяц снимать верхнюю крышку с сервера и продувать его сжатым воздухом. И раз в полгода-год выключать его и тщательно прочищать от пыли, что, в общем-то мало отличается от обслуживания обычного десктопного корпуса. Кроме того, некоторые корпуса спереди имеют фильтр для пыли.
Все мои домашние сервера собраны на платах от Supermicro в китайских стоечных корпусах, за почти 4 года использования, с обслуживанием проблем не было.
Обычный серверный корпус глубиной сантиметров 70, плюс нужно место сзади для кабелей и нормального отвода воздуха.
Неглубокие шкафы всё-таки предназначены в первую очередь для коммутаторв и прочей мелочи, а не для серверов.
В целом, в корпусе без HotSwap в любом случае будет меньше препятствий для циркуляции воздуха.
Своя логика в японской письменности есть, причём, она очень хорошо соответствует логике самого языка. Понимая эту логику, можно приблизительно ориентироваться в тексте на японском, даже не понимая большую часть иероглифов и не зная их правильного чтения. При записи латиницей эта внутренняя логика теряется.
Есть три алфавита — кандзи (заимствованные китайские иероглифы) и две слоговых азбуки — хирагана и катакана, последняя обычно используется для записи заимствованных слов.
Корни слов записываются кандзи, суффиксы — хираганой, заимствованные слова — катаканой. Чтение кандзи может варьироваться, у большинства есть «китайское чтение» онъёми и японское «кунъёми». Для редких или нестандартных чтений над или справа от кандзи, может быть подписано его чтение каной, такая подпись называется фуригана.
Из опыта применения стоечных корпусов дома, могу сказать, что если нет отдельного помещения под «серверную», по возможности стоит избегать корпусов с hot swap корзинами для дисков (как у Supermicro в статье), если же такой корпус всё-таки используется, по возможности стоит чередовать диски с пустыми корзинами. Иначе, в домашних условиях, либо сервер будет слишком шумным, либо диски слишком горячими.
Также могу сказать, что 4U сервер без HotSwap корзин, с активным охлаждением процессора и ATX блоком питания получается достаточно тихим (обороты вентиляторов в пределах 1000, для сравнения, в аналогичных условиях в 4U корпусе на 24 HotSwap корзины с 15 дисками — 3000-3200 при тех же условиях), хотя и крупногабаритным. Также, при попытках адаптировать сервер к домашним условиям, может потребоваться дополнительно организовать охлаждение для наиболее горячих компонентов, например HBA/RAID контроллеров.
Если позволяют габариты процессорного радиатора, 2U и 3U корпуса также могут быть весьма тихими. А вот 1U, определённо не для дома.
Насколько я в курсе, Microsoft заимствовала у Digital архитектора, разрабатывавшего VMS, соответственно, в плане внутренней архитектуры Windows NT очень похожа на VMS.
Живую OpenVMS видел только в эмуляторе, поэтому знаю о ней не так уж много, но аналогии вполне прослеживаются, даже то, что местный аналог root в NT называется SYSTEM.
С работой с файлами в NetWare не знаком, возможно, тоже есть сходство. В VMS, кроме UIC-based прав, похожих на права в Unix, есть ещё ACL, которые позволяют задавать полномочия отдельным пользователям или группам пользователей, как раз они похожи на права в NTFS. Про то, как работать с ACL в VMS, можно немного почитать здесь . Документ с описанием принципов, сразу, увы, не нашёлся
Вообще, насчёт сходства ФС, нашлась таблица со сравнением в Википедии (понимаю. что аргумент так себе, но что есть)
В плане организации ФС не увидел кардинальных различий, всё та же древовидная структура каталогов, начинающаяся от диска, разве что «буквы» дисков длиннее (правда в виде DUB0: MUA4: RLA1: и т. д.), правда, поддерживается версионность файлов (хотя глубоко не копал, возможно, теневое копирование в NTFS работает по аналогичному принципу) и используется очень непривычная и неудобная форма записи пути, но это уже претензия к CLI Digital Command Language. Надо признать, что при всей продвинутости DCL, SET DEFAULT с прописыванием полного пути, вместо нормального CD — это очень жестоко по отношению к пользователям.
Но что действительно очень понравилось в DCL — это HELP, man после этого сильно расстраивает.
В целом про NT, сложилось впечатление, что в систему было заложено очень много полезных и нужных вещей, но реализованы они были весьма криво.
P. S. Если изучаете VMS, можно предположить, что ожидается материал по VAX/Alpha/Itanium?
Вопрос, разве концепцию работы с файлами Windows NT заимствовала не из VMS, с которой у неё очень много общего?
По крайней мере, ACL на файлы и каталоги в VMS были, хотя работа с каталогами в DCL реализована очень специфично.
Только из-за больших габаритов компьютеров в то время компьютер занимал одну или несколько телекоммуникационных стоек, к которым на салазках крепились модули компьютера и его периферия.
И стоечный жёсткий диск
.
PDP-11/70
PDP-11/34
Термин сервер в большей степени связан с сетями и взаимодействием между компьютерами. Одно из первых упоминаний термина server-host встречается в RFC 5. В RFC 4 использовался термин serving host. Полагаю, это одни из первых упоминаний термина «Сервер» применительно к компьютерам.
В случае терминалов, термины клиент сервер стали использоваться когда вместо физических терминалов для подключения к компьютеру стало использоваться подключение по сети.
Лицензию, аналогичную hobbyist license можно получить здесь.
Но это уже под Alpha или Itanium, по второй ссылке всё уже предустановлено и даже.
Для VAX, похоже, легальных вариантов не осталось, насколько я понимаю, связано это с передачей прав на OpenVMS от HP к VMS Software Inc.
Если используется LTFS, посмотреть состояние картриджа можно прямо в проводнике Windows, в свойствах «диска» есть соответствующая вкладка.
Также можно посмотреть в Library & Tape Tools, можно создать Support Ticket, в нём будет подробная информация о стримере и последних 5 картриджах.
Кроме того, в ней же есть диагностические утилиты, позволяющие оценить состояние картриджа.
Возможно, есть и другие способы, но они мне неизвестны. Когда в следующий раз буду записывать данные, если не забуду попробую поковыряться в L&TT, может быть, найду ещё что-нибудь интересное.
Точной информации, что и как лежит на RFID у меня нет, только предположения исходя из информации, которую стример может получить о картридже.
Как минимум, судя по L&TT, о картридже известно:
Штрихкод на наклейке, серийный номер, информация о разделах и что-то вроде смарта на HDD, количество ошибок разных видов, максимальная зафиксированная температура картриджа (хотя кто её измеряет — не понял), объём записанной/прочитанной информации, количество перемоток, общий пробег ленты (на всякий случай, длина ленты у LTO-5 860м, картридж записывается полностью за 80 проходов).
И если информация о последней сессии записи, вполне может хранится в стримере, то такие вещи как суммарный пробег, серийные номера, данные о разделах и т. д., явно хранятся в картридже.
Поэтому написал про SAS HBA.
А так да, можно и по FC подключить, если у стримера соответствующий интерфейс
Из личного опыта, пользуюсь и tar и LTFS:
tar для периодического архивирования недельных бэкапов,
LTFS для выгрузки отдельных архивов, которые удалять жалко, но в ближайшем будущем они вряд ли потребуются.
Стараюсь дублировать записанное на две ленты сразу (ленты тоже могут выходить из строя, вообще, думаю, к любому носителю информации стоит относиться как к потенциально ненадёжному), если данные предполагается относительно часто читать, лучше продублировать их на жёсткий диск (в том числе и внешний) и использовать его для чтения, а ленты как резервную копию этих данных.
С проблемами, когда стример не видит записанное другим стримером сталкиваться не доводилось. Умершие кассеты попадались, правда обнаруживалось при проверке свежекупленных б/у.
Также желательно обзавестись чистящей кассетой. Просто так её использовать не стоит (она рассчитана на 15 использований, RFID внутри картриджа не даст обмануть это ограничение), только если загорелся соответствующий индикатор на стримере, или если есть проблемы с чтением записью.
Кстати, чистящие кассеты универсальны и с некоторыми оговорками подходят для любого LTO.
При выборе стримера советую запрашивать у продавца Support Ticket с информацией о состоянии стримера (если он согласится его предоставить, конечно), для его просмотра может понадобиться Library & Tape Tools, доступный бесплатно (возможно, потребуется регистрация), для работы с LTFS есть утилиты LTFS Cartridge Browser (просмотр списка файлов на лентах) и это относится к HP. У Tandberg и Quantum, если не путаю, те же утилиты (вроде даже взаимозаменяемые), с IBM дела не имел, возможно, всё то же самое, не в курсе.
Ленты можно найти на вторичном рынке. Если поискать, встречаются даже вполне живые за вполне разумные деньги (купил в своё время большую партию лент с 87% остаточного ресурса, согласно L&TT).
У LTO достаточно продвинутая система самодиагностики, в том числе сразу после записи выполняется проверка записанных данных, если в блоке есть ошибки, он пишется повторно. Из-за этого и из-за аппаратного сжатия ёмкость ленты может ощутимо плавать.
Из под Linux/FreeBSD можно писать обычным tar прямо на ленту и перематывать её командой mt.
tar, кстати, поддерживает многотомность (в FreeBSD — по умолчанию, не поддерживает, но там есть gtar, который умеет), за счёт чего можно сразу выгрузить на ленты хоть целый raid-массив.
Из минусов такого решения, нужно помнить, что записано на картридже, чтобы не перетереть случайно данные.
Пробовал и LTFS, драйвера для неё есть как для Linux, так и для Windows. Кучу мелких файлов всё-таки писать не стоит, постоянный старт/стоп для стримера не особенно полезен, да и просто очень долго получается. Кроме того, при чтении с LTFS желательно читать файлы в том порядке как они были записаны (можно смотреть по ID в LTFS Cartridge Brwser), иначе больше времени уйдёт на перемотку (до 90 секунд, если мотать от начала до конца ленты), чем на собственно чтение.
Поэтому, на мой взгляд, всё-таки предпочтительнее писать большими файлами, даже используя LTFS.
Ещё при записи мелких файлов, жёсткий диск может банально не поспевать за лентой, чтобы немного сгладить этот эффект использую mbuffer.
К SATA-контроллеру материнской платы стример подключить не получится, к SAS RAID контроллерам — может не заработать (зависит от наличия поддержки режима JBOD и размера блока, поддерживаемого RAID-контроллером), так что лучше сразу смотреть на SAS HBA вроде LSI 9200 или LSI 9300 и их аналогов.
Кроме того, желательно обеспечить стримеру нормальное охлаждение, во время работы он ощутимо греется, что тоже не полезно для него.
Ещё у лент есть аппаратное сжатие, позволяющее уместить немного больше, чем реальный объём ленты (для LTO-5 — 1.5 ТБ), реальная степень сжатия зависит от типа записываемых данных.
В целом лентой доволен, но пользуюсь ей скорее как архивным носителем, а не для ежедневных бэкапов.
Если же нужен быстрый доступ к мелким файлам — только жёсткий диск на полке (что, впрочем, не мешает хранить копию этого диска на ленте).