Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
за стоимость сервера 128 гигами можно смело собрать пяток чуть менее пижонистых серверов и сделать из них то, что нужно.
я где-то на хабре новости видел про то что планки уже по 32Г выпускаются.
а когда вся БД помещается в памяти, то только тут начинаются юзаться ресурсы CPU, а до этого постоянный своппинг не дает еще использовать весь ресурс CPU :)
(хлопая глазками) А у нас нет. И как бы потребности не испытываем. Убунта на ноутбуках полностью покрывает все возможные сценарии работы.
А платное ПО означает:
Если уж быть совсем принципиальным — режим Core полноценно поддерживает павершелл, которым можно при желании рулить виртуалками прямо с хоста. Об удобстве речь конечно не идет.
Лучше не жмотиться и сразу поставить столько памяти, сколько нужно с запасом.
Вообще есть негласное правило виртуализации, «если средняя нагрузка составляет более 50% — виртуализация бессмыслена и вредна.»
производительную графическую систему, достаточно мощный процессор и как минимум нормальную пропускную способность сети в пределах 1 Гигабита
А что есть «полноценная работа»? Никто в здравом уме не собирается смотреть HD-фильмы, или там рендерить в 3DSMax на тонких клиентах.
Конечно, 256 цветов достаточно, если смотреть на такой экран 5-10 минут в день. А вы пробовали так работать?
обхожусь соляркой и изредка линуксом.
а вообще это конечно перевод гигабайт и гигагерц — зачем поднимать 5 машин в hyper-v которые крутят одинаковый NT-ячий кернель, если он действительно везде одинаковый?
зачем на каждый сервер класть на 90% одинаковую 10-гиговую C:\Windows? хорошо если это дешевый терабайтник. а если это пром. SSD или два SAS в зеркале, уже 20-30 евро на сетап каждого domu (или как они там называются у мелкомягких) просто выкинули на одну сраную папку.
полюбуйтесь какие затыки по лоаду будут на паре-тройке голов, в то время как действительно, остальные будут тупо гонять NOPы
ну это удел совковых контор. когда винда была бесплатной, строили на ней инфраструктуры а теперь или выкупили или ныкаются.
почты стало больше, voip гоняется, базы данных везде всё больше и больше, нагрузка на базы тоже увеличивается.
не допилят.
Прекратите копипастить тексты маркетологов.
Про тонкие клиенты каждое второе утверждение совершенно не соответствует реальной действительности. не все так красиво как в брошюрках вендоров.
Про виртуализацию. Где Xen\KVM\OpenVZ?
Почему рассмотрена вируализация только продуктов MS? Они меньше всего интересны в плане виртуализации.
вы получаете масштабнейший геморрой с администрированием уже xen'овских серверов (не дай бог сервера различаются по степпингу процессоров), вероятность, что засранец не только хакнет машину, но и вылезет в гипервизор (и уже есть примеры).
Виртуализация — это СЛОЖНО.
Это требует тщательной балансировки (да, когда мы ставим ОДИН сервер на одно железо, то он имеет 10-кратный запас по производительности для пиков, если же мы на это железо пихаем гипервизор и пачку виртуалок, то малейший взбрык на одном сервере начинает страшно мешать соседям.).
Я пока даже не говорю про растущую опасность ошибки, потому что одно неверное движение с бриджем/биндингом интерфейсов, и машины смотрят не туда или не то делают.
До сих пор нет ни одного адекватного метода управления нагрузкой на диски. Я на спор положу любой хост для сервера без NAS'а из-под рута с виртуальной машины.
Во-первых, зачем-то удалённый доступ засунули в «виртуализацию представления»
Во-вторых совершенно нереальные цифры для терминальных служб. Как по трафику, так и по производительности.
В третьих чушь насчёт вирусов на флешах. Малейшая ошибка сисадмина, и «вирус на флеше» размножается уже на сервере.
Насчёт «бежать и нажимать резет» реально смешно. Все сервера, даже 5-7 летней давности имеют impi, который позволяет и включить, и выключить и сделать кучу других вещей.
Я сегодня уж второй день как е#$%сь с xen cloud, и я хочу сказать, что если бы это не было моей основной работой, то послал бы я нафиг все эти заморочки.
вы получаете масштабнейший геморрой с администрированием уже xen'овских серверов (не дай бог сервера различаются по степпингу процессоров)
вероятность, что засранец не только хакнет машину, но и вылезет в гипервизор
Про прелесть возни с hyper-v вообще говорить нечего, на этом фоне даже «шуточки» с xenconsole кажутся детским лепетом.
Виртуализация — это СЛОЖНО.
До сих пор нет ни одного адекватного метода управления нагрузкой на диски. Ни у MS, ни у VMWare, ни у parallels, ни у quest, ни у citrix/xen, ни у прочих вендоров.
Пять сотен рандомных операций чтения/записи малых блоков в секунду — и даже сказёвые рейды идут на йюх, включая соседей по виртуализации
Я пока даже не говорю про растущую опасность ошибки, потому что одно неверное движение с бриджем/биндингом интерфейсов, и машины смотрят не туда или не то делают.
Чем больше критических для бизнеса сервисов в организации (а гипервизор для всех серверов — это явно не дёшево)
тем больше денег надо платить сисадмину, и тем сложнее ему найти замену (и аутсорс не поможет, потому что там ТОЖЕ умеют считать деньги за работу).
балансировку нагрузки на диски хорошо бы так же видет и гипервизору. потому что если он свалит на один стор слишком много прожорливых машин — плохо станет всем. store vmotion они уже большинство умеет, осталось привязать измерялку и переносить диски вируталок между сторами в зависимости от статистики.
для недорогих полок 500 иопсов могут быть заметной нагрузкой. недавно приводились цифры от разработчиков СХД — 100 иопсов на винт saта, 150 sas.
Боюсь, что пятьюстами иопсами можно положить только совсем уж недорогие полки.
А приведенные цифры от разработчиков — это сферический конь в вакууме. Очень многое зависит от интерфейса (iscsi/sas/fc), от контроллеров полки, да и от самих хардов — контроллеры на них бывают разные, оборотистость разная.
Еще очень многое зависит от типа операций (рандом, последовательно, запись, чтение) и разумеется — от типа массива.
не рассмотрены юридические ограничения на виртуализацию!
Зачем же нужна виртуализация?