Comments 36
Спасибо за статью! Очень интересно и полезно.
Я тоже задумывался как можно (и возможно ли) полноценно виртуализировать графические станции, и разумного экономичного решения видеть не приходилось. Но если говорить о резервном копировании и снапшетах приходят на ум массив на виртуалках на подключенный к полноценной станции по iscsi. Простите за банальность.
А есть данные по vSphere 6.0? Хотелось бы подобной таблички, сравнение с физической рабочей станцией.
p.s.: Недавно тоже задумался о полноценной виртуализации графических станций, хотел провести подобное тестирование RemoteFX, а тут вы, благодарю!
p.s.: Недавно тоже задумался о полноценной виртуализации графических станций, хотел провести подобное тестирование RemoteFX, а тут вы, благодарю!
Да, VMWare с последними обновлениями и добавлением поддержки vGPU выглядит тоже привлекательно, особенно если уже вся серверная инфраструктура в компании на этом гипервизоре.
Интересно кто-нибудь сталкивался с лицензированием MS для VDI. Можно ли вместо нужного количества копий Windows 7 использовать Windows Server 2008 Datacenter Edition? Помнится мне когда-то проскакивала новость что для DaaS вроде как разрешалось… (могу ошибаться)
Интересно кто-нибудь сталкивался с лицензированием MS для VDI. Можно ли вместо нужного количества копий Windows 7 использовать Windows Server 2008 Datacenter Edition? Помнится мне когда-то проскакивала новость что для DaaS вроде как разрешалось… (могу ошибаться)
Недавно тестировали vGPU на vSphere 6.0 + View 6.1 + NVIDIA GRID K2 с гостевыми ОС Windows 7. Все работает весьма шустро, поддерживается DirectX 11, OpenGL 4.0.
Также заметил, что в некоторых тестах vGPU профили с меньшим объемом видеопамяти (K260Q) могут демонстрировать лучшую производительность. Использование пофилей K280Q вообще не очень целесообразно, т.к. можно отдать ядро видеоадаптер напрямую (режим vDGA), единственный плюс vGPU в этом случае — чуть более простая настройка аппаратного ускорения внутри гостевой ОС.
Бенчмарк SPECviewPerf, по-сути, единственный широко применяемый тест, но его результаты сильно зависят от частоты процессора, поэтому не стоит удивляться ситуации, когда на какой-нибудь средненькой рабочей станции Core i5 с 4-я ядрами, результаты будут заметно лучше, чем на сервере с 16-ядерными Xeon с меньшей частотой.
Что касается Windows Server, то их можно использовать в качестве гостевых ОС в VDI вместо Windows 7, но нужно обращать внимание на то, какие функции VDI не поддерживаются в Windows Server.
Также заметил, что в некоторых тестах vGPU профили с меньшим объемом видеопамяти (K260Q) могут демонстрировать лучшую производительность. Использование пофилей K280Q вообще не очень целесообразно, т.к. можно отдать ядро видеоадаптер напрямую (режим vDGA), единственный плюс vGPU в этом случае — чуть более простая настройка аппаратного ускорения внутри гостевой ОС.
Бенчмарк SPECviewPerf, по-сути, единственный широко применяемый тест, но его результаты сильно зависят от частоты процессора, поэтому не стоит удивляться ситуации, когда на какой-нибудь средненькой рабочей станции Core i5 с 4-я ядрами, результаты будут заметно лучше, чем на сервере с 16-ядерными Xeon с меньшей частотой.
Что касается Windows Server, то их можно использовать в качестве гостевых ОС в VDI вместо Windows 7, но нужно обращать внимание на то, какие функции VDI не поддерживаются в Windows Server.
Что касается Windows Server, то их можно использовать в качестве гостевых ОС в VDI вместо Windows 7, но нужно обращать внимание на то, какие функции VDI не поддерживаются в Windows Server.
Так получается что можно использовать возможность иметь неограниченное количество виртуальных ОС для WS2k8 DC для двухпроцессорного сервера, чтобы не покупать лицензии на Win7. А вот и официальная инструкция.
Хочу поделиться своим личным опытом по затронутым вопросам.
Это казалось хорошей идеей, до тех пор пока не было реализовано. В 2012r2 hyper-v научился делать экспорт работающих ВМ, однако на действительно работающей вм это будет весьма проблематично. Чекпоинты для этих целей не подходят. МС открытым текстом не рекомендует использовать их в продакшине, по причине падения производительности дисковой системы ВМ. А на форумах еще добавят, что снапшоты имеют свойство ломаться.
В любом случае это крайне не эффективно с точки зрения ресурсов. У вас будет огромный перерасход дисковой подсистемы, и в объеме и в производительности. Лучше продумайте способы хранения данных пользователей. Использование перемещаемых профилей и dfs даст куда больше.
Учитывая стоимость cad систем, тоже очень хотелось запускать их на сервере. В теории красиво, на практике сложно. Я не решал задачу проброса видеоадаптера в вм. Я использовал выделенные серверы. Мои инженеры сидели за огромными мониторами и очень требовательно относились как к качеству картинки, так и к точности управления. RDP протокол категорически их не устроил. И по моему убеждению, проблема доставки изображения с сервера до клиента гораздо сложнее проброса видео в вм.
реализация возможности резервного копирования и быстрого восстановления данных (или рабочих мест целиком).
Это казалось хорошей идеей, до тех пор пока не было реализовано. В 2012r2 hyper-v научился делать экспорт работающих ВМ, однако на действительно работающей вм это будет весьма проблематично. Чекпоинты для этих целей не подходят. МС открытым текстом не рекомендует использовать их в продакшине, по причине падения производительности дисковой системы ВМ. А на форумах еще добавят, что снапшоты имеют свойство ломаться.
В любом случае это крайне не эффективно с точки зрения ресурсов. У вас будет огромный перерасход дисковой подсистемы, и в объеме и в производительности. Лучше продумайте способы хранения данных пользователей. Использование перемещаемых профилей и dfs даст куда больше.
Учитывая стоимость cad систем, тоже очень хотелось запускать их на сервере. В теории красиво, на практике сложно. Я не решал задачу проброса видеоадаптера в вм. Я использовал выделенные серверы. Мои инженеры сидели за огромными мониторами и очень требовательно относились как к качеству картинки, так и к точности управления. RDP протокол категорически их не устроил. И по моему убеждению, проблема доставки изображения с сервера до клиента гораздо сложнее проброса видео в вм.
В любом случае это крайне не эффективно с точки зрения ресурсов. У вас будет огромный перерасход дисковой подсистемы, и в объеме и в производительности. Лучше продумайте способы хранения данных пользователей. Использование перемещаемых профилей и dfs даст куда больше.
Используйте сторонний софт, например Alike DR, он ужимает данные, которые бэкапит. Перерасход дисковой подсистемы можно потерпеть, а вот упавших UNIX-сервер вряд-ли спасут способы хранения данных пользователей. Ведь, чтобы развернуть какую-нибудь сложную штуку, как например прокси (FreeBSD+apache+mysql+squid_ntlm+sams+havp+rejik+frox) — это, знаете-ли, не 5 минут. Я в статье говорил про возможность резервного копирования не только виртуальных рабочих станций и терминальных серверов (у последних действительно есть инструментарий для того, чтобы хранить папки профилей пользователей на архивном сервере), а также про возможность восстановления из резервных копий различных серверов со сложной конфигурацией, чьё падение причинит очень много неприятностей отделу ИТ.
В статье речь про терминальные серверы, причем для весьма специфичных приложений. Поддерживать актуальность данных в резервных копиях на приемлимом уровне делая полную копию обойдходится очень дорого. Если вы успеваете сделать за ночь копии всех вм, сжать, а по хорошему и переместить на другое физическое хранилище, это значит лишь то что у вас слишком много неиспользуемых ресурсов. И даже в этом случае ваши сотрудники теряют день работы.
Перемещаемые профили и распределенное хранение данных на порядок эффективнее по всем параметрам. Для восстановления системы вам всего лишь нужны шаблоны вм с предустановленным ПО. Пользователи даже разницы не заметят если ночью их рабочий сервер сгорит в буквальном смысле.
Про юникс системы не соглашусь еще больше. Копия конфигов + экспорт бд и синхронизация файлов рсинком упрощает процесс. При условии, что вы об этом подумали до того как все упало.
Копирование вм работает только на очень маленьких объемах. Чем сложнее и больще сервер, тем менее пригоден этот метод. Чтобы сделать копию вм активно работающую с бд под линукс вам потребуется изрядная доля везения. Live backup не гарантирует консистентность данных.
Перемещаемые профили и распределенное хранение данных на порядок эффективнее по всем параметрам. Для восстановления системы вам всего лишь нужны шаблоны вм с предустановленным ПО. Пользователи даже разницы не заметят если ночью их рабочий сервер сгорит в буквальном смысле.
Про юникс системы не соглашусь еще больше. Копия конфигов + экспорт бд и синхронизация файлов рсинком упрощает процесс. При условии, что вы об этом подумали до того как все упало.
Копирование вм работает только на очень маленьких объемах. Чем сложнее и больще сервер, тем менее пригоден этот метод. Чтобы сделать копию вм активно работающую с бд под линукс вам потребуется изрядная доля везения. Live backup не гарантирует консистентность данных.
Кстати, сударь. Вы говорите про дисковую подсистему сервера на котором развернут Hyper-V? Просто если о ней, то не понимаю Вашего беспокойства. У нас, к примеру, есть архивный сервер с созданными шарами, а гипервизор Hyper-V посредством скрипта, написанного на PowerShell и обычного планировщика льет экспортируемые машины на удаленную шару. Этот скрипт и способ в целом уже выручал нас.
Я делился своим опытом. Если 5 пользователей имеют данных на 50 гб, а системаспо занимает еще 50. Делая бэкап вм мне нужно
1. Скопировать их на сервере hyper-v
2. Сжать на сервере hyper-v
3. Переместить по сети
Вы вероятно успеваете это делать ночью. И вероятно можете себе позволить грузить систему ночью т.к. сервисы у вас не 24х7. Это не критика, просто описываю разные условия.
У меня не было такой роскоши. При этом у меня был практически риалтайм бэкап пользовательских данных(а не вчерашний), версионная история за пару месяцев(можно восстановить любой в тч удаленный файл по состаянию на любой день с шагом в 12 часов). Восстановление системы = копированию шаблона вм + время на актуализацию шаблонов. Но при типовых конфигурациях оно окупается.
Но это все оффтоп. Мне очень интересно появилось ли решение по рдп. Для меня это было тупиком. xenapp вроде бы все мог, но очень уж много всего за собой тянул.
1. Скопировать их на сервере hyper-v
2. Сжать на сервере hyper-v
3. Переместить по сети
Вы вероятно успеваете это делать ночью. И вероятно можете себе позволить грузить систему ночью т.к. сервисы у вас не 24х7. Это не критика, просто описываю разные условия.
У меня не было такой роскоши. При этом у меня был практически риалтайм бэкап пользовательских данных(а не вчерашний), версионная история за пару месяцев(можно восстановить любой в тч удаленный файл по состаянию на любой день с шагом в 12 часов). Восстановление системы = копированию шаблона вм + время на актуализацию шаблонов. Но при типовых конфигурациях оно окупается.
Но это все оффтоп. Мне очень интересно появилось ли решение по рдп. Для меня это было тупиком. xenapp вроде бы все мог, но очень уж много всего за собой тянул.
Я не знаю что за опыт у Вас был, но…
Это из ряда того, когда люди не знают как делать бэкапы. Ничего не нужно копировать на локальный сервер, ничего на нем не нужно сжимать, а следовательно и перерасхода дисковой подсистемы или какого-то запредельного запаса не требуется. Даже встроенными воозможностями PowerShell машина сразу экспортируется на удаленную шару. Возможно применение стороннего софта. Я его упоминал выше. Alike DR, бэкапит куда угодно, сразу сжимая и имеет возможность выделять под это дело отдельный сетевой адаптер, дабы не просадить сеть на гипервизоре. На «горячую» машина отлично бэкапится и отлично восстанавливается, проверено даже с UNIX. Копировать БД и настройки, как Вы предлагаете. Ну не знаю. Если Вы умудритесь поднять сервер на вроде того, что я упоминал выше, а потом поднять его из бэкапов конфигов и БД без костылей (особенно учитывая то, что Вам еще сначала нужно поднять то, что будет автоматом бэкапить конфиги и БД), то обязательно поделитесь со мной опытом. Мне даже интересно послушать будет, может это я один не знаю, как так хитро бэкапить BSD, чтобы все потом работало, учитывая что версии пакетов, которые вы можете из портов поставить могут отличаться кардинально, а следовательно и их конфигурационные файлы. Вы будете переподнимать это заново, в лучшем случае опираясь на свои старые конфиги, если сервер проработал 1,5-2 года. Я успеваю делать это ночью, да, тут Вы правы. Однако, я успевал это делать и в рабочее время незаметно для пользователей и, надо отметить, все превосходно возвращается в рабочее состояние. И да, восстановить любую версию данных за два месяца с шагом 12 часов мы не можем, но нам не придется поднимать новую операционку и устанавливать софт, чтобы подсунуть туда пользовательские данные (если мы конечно говорим об одном и том же). Дело в том, что пользователи, в не зависимости от подразделения и вне зависимости от того, работают ли они на виртуальной или физической машине, хранят все важные данные на сетевых дисках серверов, которые постоянно создают архивные копии, почта хранится на почтовых серверах, которые крутятся на BSD в качестве виртуальных и бэкапятся на «горячую», а профили пользователей мы не делаем переносными именно потому, что, в связи со всем вышеизложенным, они не настолько важны, а во-вторых эти профили «крутятся» на терминальниках, которые также успешно бэкапятся на «горячую» и, уж поверьте, отлично работают после восстановления из бэкапов. Это оффтоп, Вы правы. Однако, предлагая решение по бэкапу конфигов и БД с их дальнейшей синхронизацией, Вы предлагаете решение максимум одинаково надежное и уж точно более сложное. ИМХО
1. Скопировать их на сервере hyper-v
2. Сжать на сервере hyper-v
3. Переместить по сети
Это из ряда того, когда люди не знают как делать бэкапы. Ничего не нужно копировать на локальный сервер, ничего на нем не нужно сжимать, а следовательно и перерасхода дисковой подсистемы или какого-то запредельного запаса не требуется. Даже встроенными воозможностями PowerShell машина сразу экспортируется на удаленную шару. Возможно применение стороннего софта. Я его упоминал выше. Alike DR, бэкапит куда угодно, сразу сжимая и имеет возможность выделять под это дело отдельный сетевой адаптер, дабы не просадить сеть на гипервизоре. На «горячую» машина отлично бэкапится и отлично восстанавливается, проверено даже с UNIX. Копировать БД и настройки, как Вы предлагаете. Ну не знаю. Если Вы умудритесь поднять сервер на вроде того, что я упоминал выше, а потом поднять его из бэкапов конфигов и БД без костылей (особенно учитывая то, что Вам еще сначала нужно поднять то, что будет автоматом бэкапить конфиги и БД), то обязательно поделитесь со мной опытом. Мне даже интересно послушать будет, может это я один не знаю, как так хитро бэкапить BSD, чтобы все потом работало, учитывая что версии пакетов, которые вы можете из портов поставить могут отличаться кардинально, а следовательно и их конфигурационные файлы. Вы будете переподнимать это заново, в лучшем случае опираясь на свои старые конфиги, если сервер проработал 1,5-2 года. Я успеваю делать это ночью, да, тут Вы правы. Однако, я успевал это делать и в рабочее время незаметно для пользователей и, надо отметить, все превосходно возвращается в рабочее состояние. И да, восстановить любую версию данных за два месяца с шагом 12 часов мы не можем, но нам не придется поднимать новую операционку и устанавливать софт, чтобы подсунуть туда пользовательские данные (если мы конечно говорим об одном и том же). Дело в том, что пользователи, в не зависимости от подразделения и вне зависимости от того, работают ли они на виртуальной или физической машине, хранят все важные данные на сетевых дисках серверов, которые постоянно создают архивные копии, почта хранится на почтовых серверах, которые крутятся на BSD в качестве виртуальных и бэкапятся на «горячую», а профили пользователей мы не делаем переносными именно потому, что, в связи со всем вышеизложенным, они не настолько важны, а во-вторых эти профили «крутятся» на терминальниках, которые также успешно бэкапятся на «горячую» и, уж поверьте, отлично работают после восстановления из бэкапов. Это оффтоп, Вы правы. Однако, предлагая решение по бэкапу конфигов и БД с их дальнейшей синхронизацией, Вы предлагаете решение максимум одинаково надежное и уж точно более сложное. ИМХО
Отличная статья!
Не знаю наткнулся автор на нюанс или нет, но в статье нет информации о том, что в последнем Windows Server 2012 R2 c Hyper-V при включении RemoteFX нельзя задать количество видеопамяти памяти выделяемой гостевой системе. Как следствие по умолчанию выделяется 20% от памяти видеоадаптера, что может быть недостаточно при использовании «не профессиональных» решений.
В следующей версии сервера данную настройку обещают сделать, но в Server Technical Preview полгода назад такой возможности не было.
Не знаю наткнулся автор на нюанс или нет, но в статье нет информации о том, что в последнем Windows Server 2012 R2 c Hyper-V при включении RemoteFX нельзя задать количество видеопамяти памяти выделяемой гостевой системе. Как следствие по умолчанию выделяется 20% от памяти видеоадаптера, что может быть недостаточно при использовании «не профессиональных» решений.
В следующей версии сервера данную настройку обещают сделать, но в Server Technical Preview полгода назад такой возможности не было.
Как не наткнулся? Наткнулся конечно. Вообще в Hyper-V есть подобие выбора профиля конфигурации трёхмерного адаптера. Однако, это подобие ограничивается только выбором разрешения и количеством мониторов для удаленного рабочего стола. В следующей обещают и аппаратное OpenGL, но пока это всего лишь обещания.
Не могли бы вы подсказать мне один нюанс относительно RemoteFX. RemoteFX это технология только для виртуализации или она может применяться для ускорения и на обычном терминальном сервере, который стоит поверх реального железа? На сколько я знаю RemoteFX помимо всего прочего включает в себя еще и кодек для передачи изображения в RDP сессии.
Вопрос этот возник по следующей причине. Взяли мы несколько тонких клиентов у отечественного производителя. Настроили терминалку на Win2008R2SP1. В политиках включили RemoteFX. При подключении с тонкого без использования RemoteFX графика начинает подтормаживать у пользователя (при просмотре веб-браузера или pdf документа изображение обновляется сегментами). При включении RemoteFX на тонком клиенте графика идет влет, но появляются проблемы с клавиатурой (в терминальном клиенте win7 при использовании RemoteFX таких проблем нет). Тех. поддержка производителя тонких клиентов сказала что RemoteFX это технология только для виртуализации, но однако разница есть и большая.
Вопрос этот возник по следующей причине. Взяли мы несколько тонких клиентов у отечественного производителя. Настроили терминалку на Win2008R2SP1. В политиках включили RemoteFX. При подключении с тонкого без использования RemoteFX графика начинает подтормаживать у пользователя (при просмотре веб-браузера или pdf документа изображение обновляется сегментами). При включении RemoteFX на тонком клиенте графика идет влет, но появляются проблемы с клавиатурой (в терминальном клиенте win7 при использовании RemoteFX таких проблем нет). Тех. поддержка производителя тонких клиентов сказала что RemoteFX это технология только для виртуализации, но однако разница есть и большая.
По поводу притормаживания графики нюанс в том, что RDP отрисовывает клиент, а RemoteFX — сервер. То есть, насколько я понимаю технологию, в RDP к вам на клиент приходят объекты GDI, а в RemoteFX — потоковое видео. Чем слабее клиент, тем заметнее преимущества RemoteFX.
Вероятно в вашем тонком клиенте не «родной» Microsoft RDP/RemoteFX клиент, который и работает «не очень»?
По поводу только технологии виртуализации, это не совсем правда, есть официальное руководство по развертыванию RemoteFX на терминальных серерах:
Deploying Microsoft RemoteFX on a Remote Desktop Session Host Server Step-by-Step Guide
www.microsoft.com/en-us/download/details.aspx?id=6006
Вероятно в вашем тонком клиенте не «родной» Microsoft RDP/RemoteFX клиент, который и работает «не очень»?
По поводу только технологии виртуализации, это не совсем правда, есть официальное руководство по развертыванию RemoteFX на терминальных серерах:
Deploying Microsoft RemoteFX on a Remote Desktop Session Host Server Step-by-Step Guide
www.microsoft.com/en-us/download/details.aspx?id=6006
И еще один вопрос. Имеет ли смысл ставить видео карту в сервер терминальных клиентов (сервер стоит поверх железа, НЕ в виртуалке) для таких приложений как:
— Веб браузер
— MS Office, Libre/OpenOffice
— всякие смотрелки pdf/djvu
— Видео плееры (например VLC)
Планируем использовать OS для сервера не ниже Win2008R2.
Если есть смысл ставить, то как какую? geforce, quadro, firepro?
— Веб браузер
— MS Office, Libre/OpenOffice
— всякие смотрелки pdf/djvu
— Видео плееры (например VLC)
Планируем использовать OS для сервера не ниже Win2008R2.
Если есть смысл ставить, то как какую? geforce, quadro, firepro?
Не имеет смысла. Проверено. Терминальники и без видео-карт нормально функционируют. Если Вы ограничитесь теми программами, что перечислили, то стандартного адаптера достаточно. Видео по RDP будет конечно не таким, как на физической машине с подключенным к ней монитором, но вполне терпимо.
я устанавливал в сервер видеокарту quadro k600, и увидел только ускорения воспроизведения видео.
для офисных задач установка видеокарты не даст заметного результата.
в случаи с quadro k600 при увеличении количества пользователей, производительность быстро падала.
без аппаратной видеокарты, если использовать windows media player и клиента c os win7, декодирование выполняется на стороне клиента и нагрузка на сервер будет минимальной, я так смотрел без проблем 1080p видео.
для офисных задач установка видеокарты не даст заметного результата.
в случаи с quadro k600 при увеличении количества пользователей, производительность быстро падала.
без аппаратной видеокарты, если использовать windows media player и клиента c os win7, декодирование выполняется на стороне клиента и нагрузка на сервер будет минимальной, я так смотрел без проблем 1080p видео.
Более детально вопрос RemoteFX на терминальных раскрыт вот тут blogs.technet.com/b/vm/archive/2010/08/17/remotefx-3-remote-desktop-session-host-rdsh-terminal-services.aspx
RemoteFX на терминальном дает вам лучшее сжатие, а плюшки в виде 3D ускорения работать не будут, оно работает только с Hyper-V.
RemoteFX на терминальном дает вам лучшее сжатие, а плюшки в виде 3D ускорения работать не будут, оно работает только с Hyper-V.
Машина с Nvidia GeForce GTX 650 физическая или виртуальная? Кажется, ВМ и ФМ перепутаны в таблице.
мне кажется или автор не пробовал использовать GPU pass-through?
но в этом случаи 3D в связке с RemoteFX работать не будет, если я все правильно понимаю, и придется использовать протоколы удаленного доступа от VMware или Citrix.
Как построить VDI для сложной графики
3D ускорение VDI на практике
на презентациях NVIDIA GRID выглядит очень не плохо…
но в этом случаи 3D в связке с RemoteFX работать не будет, если я все правильно понимаю, и придется использовать протоколы удаленного доступа от VMware или Citrix.
Как построить VDI для сложной графики
3D ускорение VDI на практике
на презентациях NVIDIA GRID выглядит очень не плохо…
Эммм… Я пробовал использовать GPU pass-through, хоть и тестов не проводил. Однако, статья про технологию NVIDIA GRID VGPU, а проброс всей платы, во-первых, не имеет никакого отношения к этой технологии, а во-вторых, носит характер использования сравнимого с сюжетом басни «Мартышка и очки». И если кому-то придет в голову пробрасывать всю плату, которая стоит очень недешево и которая предназначена для совсем иных задач в виду концепции на которую опиралась её разработка, то это человеку нечем заняться. Вы уж извините. И ещё. Может я чего и не понимаю, но причём тут вообще RemoteFX? Протокол удаленного доступа это не RemoteFX, а RDP, который в своей 8 версии поддерживает технологию RemoteFX. Причем в RDP клиенте Windows, даже в самом новом, нет никакого упоминания про RemoteFX, а вместо этого Вы можете галочками разрешить некоторые возможности вроде визуальных эффектов, сглаживания шрифтов, стилей оформления. И в случае использования любого из виртуальных профилей VGPU и даже GPU pass-through, у Вас не будет никакого RemoteFX. Вы видимо как-то по другому поняли эту тему.
В случаи VMware, vDGA(pass-through) это один из сценариев использования ускорителей ;-).
Плата NVIDIA GRID K1 состоит из 4 чипов, а плата GRID K2 состоит из 2х чипов.
Каждый отдельный чип можно привязать к отдельным VM, и если цель получить максимальную производительность это наиболее интересный вариант.
Думаю что не стоит путать убогие возможности RDP и RemoteFX.
RemoteFX использует кодек отличный от классического RDP, и появился он только с выходом SP1 для ws2008R2.
Поддержку RemoteFX нужно включать как на клиенте так и на сервере.
Всё управление настройками спрятано в групповые политики, настройки скорости обновления кадров и качества картинки очень сильно меняю результат, я так понял вы не устанавливали максимальное качество картинки и частоту смены кадров?
Плата NVIDIA GRID K1 состоит из 4 чипов, а плата GRID K2 состоит из 2х чипов.
Каждый отдельный чип можно привязать к отдельным VM, и если цель получить максимальную производительность это наиболее интересный вариант.
Думаю что не стоит путать убогие возможности RDP и RemoteFX.
RemoteFX использует кодек отличный от классического RDP, и появился он только с выходом SP1 для ws2008R2.
Поддержку RemoteFX нужно включать как на клиенте так и на сервере.
Всё управление настройками спрятано в групповые политики, настройки скорости обновления кадров и качества картинки очень сильно меняю результат, я так понял вы не устанавливали максимальное качество картинки и частоту смены кадров?
Уважаемый, Вам стоит почитать о технологии RemoteFX более подробно. Её действительно не стоит путать с RDP, её вообще не стоит сравнивать с RDP, ведь RemoteFX-это не замена RDP, а технология расширения возможностей протокола удаленных рабочих столов. Ещё раз повторюсь, статья написана о технологии NVIDIA GRID VGPU, пожалуйста услышьте меня. В описании технологии нигде не сказано, что pass-through имеет отношение к возможностям этой технологии. В описании технологии сказано, что она имеет 4 виртуальных профиля (виртуальных!!!). При чём здесь pass-through? Вы как будто говорите со мной о совершенно разных вещах. Просто прочтите, что такое технология NVIDIA GRID VGPU и технология RemoteFX и Вам станет ясно, что они не имеют ничего общего. Ничего, понимаете? Технология RemoteFX — это технология создания эмулированного трехмерного графического адаптера RemoteFX, который выборочно передает физической плате графику на обработку. Технология RemoteFX не работает без трехмерного графического адаптера RemoteFX, который Вы можете увидеть в диспетчере устройств виртуальной машины, если успешно развернете эту технологию на гипервизоре Hyper-V. Тут я рассказываю Вам о технологии создания виртуальной графической платы, а не эмулированной программно. На сайте Microsoft вот здесь прочтите о том, что представляет из себя технология RemoteFX. Я видел Вашу публикацию, где Вы сравниваете RemoteFX с RDP будто это два разных протокола, но нет… Читайте, что пишет разработчик.
Это не я придумал. Это разработчик так говорит. До тех пор, пока Вы не поймете, что концепция технологии NVIDIA GRID VGPU не имеет ничего общего с GPU pass-through, а также то, что RemoteFX — это не замена протоколу RDP, мы, к моему сожалению, не сможем вести с вами качественную дискуссию на эту тему. До тех пор пока вы не поймете, что нельзя, как Вы выражаетесь, «включить» RemoteFX на сервере без трехмерного графического адаптера RemoteFX, речь о котором идет в начале статьи, вот до этих пор мы с Вами будем говорить о разных вещах.
Итак, что же скрывается за названием RemoteFX? Два года назад Microsoft купила компанию Calista Technologies, разрабатывающую решения для передачи по сети видео и прочих данных. Доработанная версия RemoteFX позволяет пользователю комфортно работать по протоколу Удалённого рабочего стола (Remote Desktop Protocol, RDP) с видео высокой чёткости и прочей сложной графикой в любых форматах — включая Silverlight, Direct3D 9.0c, трёхмерные модели и, конечно, Windows Aero.
Это не я придумал. Это разработчик так говорит. До тех пор, пока Вы не поймете, что концепция технологии NVIDIA GRID VGPU не имеет ничего общего с GPU pass-through, а также то, что RemoteFX — это не замена протоколу RDP, мы, к моему сожалению, не сможем вести с вами качественную дискуссию на эту тему. До тех пор пока вы не поймете, что нельзя, как Вы выражаетесь, «включить» RemoteFX на сервере без трехмерного графического адаптера RemoteFX, речь о котором идет в начале статьи, вот до этих пор мы с Вами будем говорить о разных вещах.
думаю можно сказать что услышал 8-)
вопросы по существу:
1 — какое количество пользователей будут работать с 3D?
2 — почему К2 а не более дешевый вариант к1?
3 — сейчас у вас в инфраструктуре только один адаптер grid?
вопросы по существу:
1 — какое количество пользователей будут работать с 3D?
2 — почему К2 а не более дешевый вариант к1?
3 — сейчас у вас в инфраструктуре только один адаптер grid?
- Количество пользователей, которые будут работать с 3D посредством удаленных рабочих столов ещё не известно.
- K2 нам нравится больше исходя из показателей его производительности, приведенных на сайте производителя.
- Да, у нас пока один адаптер GRID. Мы только начали идти по этому пути, но уже знаем, что путь верный, решение рабочее.
Могу сказать с уверенность, что с каждым новым пользователем мы будем отслеживать сколько ресурсов израсходовано и благодаря отличной масштабируемости, которую обеспечивает внедрение технологии NVIDIA GRID VGPU совместно с общими положениями концепции виртуализации рабочих мест, будем либо добавлять графические адаптеры GRID, либо гипервизоры с такими адаптерами на борту. Возможно потом напишу статью о том, сколько виртуальных рабочих мест было создано благодаря одному вышеупомянутому адаптеру и с какими программами работают пользователи, чтобы читатели оценили возможности самой технологии на нашем примере.
Что-то я так ничего и не понял…
Я понял в виртуальной машине пользователя появляется один из физических чипов (или его какая-то часть?) и это ускоряет графику внутри виртуальной машины — правильно?
Ну а к удаленным клиентам то как эта графика попадает? Все тем же RDP? То есть сервер отрендеренную платой картинку считывает из памяти видеоплаты и как-то кодирует в RDP протокол и отправляет по сети? И это быстро работает?
Я понял в виртуальной машине пользователя появляется один из физических чипов (или его какая-то часть?) и это ускоряет графику внутри виртуальной машины — правильно?
Ну а к удаленным клиентам то как эта графика попадает? Все тем же RDP? То есть сервер отрендеренную платой картинку считывает из памяти видеоплаты и как-то кодирует в RDP протокол и отправляет по сети? И это быстро работает?
Сейчас объясню. Вы совершенно правы. Технология NVIDIA GRID VGPU никак не претендует на технологию, которая ускоряет отрисовку картинки на удаленных рабочих столах, она не в состоянии разогнать протокол RDP. Речь идет о обработке графики, о работе аппаратного 3D ускорения.
GRID VGPU FOR CITRIX XENSERVER
GRID VGPU FOR VMWARE VSPHERE
Quadro & NVS Professional Drivers for Windows
если использовать pass-through:
1 — да, у вас появится физическое устройство внутри VM.
2 — для того чтобы увидеть плоды работы 3д ускорения нужно использовать VMware View или CITRIX Desktop.
3 — hyper-v виртуальные машины не умеют работать с pass-through, NVIDIA пишет только про конкурентов MS.
почему я зациклился pass-through.
в зависимости от задач, pass-through позволит использовать более дешевые адаптере чем GRID k1/k2.
за стоимость одного адаптера к2 можно купить 9 штук quadro к2000.
грустный пример из практики:
— на одном предприятии которые занимаются «черчением» купили кучу графических станций HP.
обслуживающий персонал начал ставить графические станции бухгалтерам и сотрудником которым 3д и не снилось, далее адаптеры quadro из этих ПК исчезали.
— Какой ущерб нанесли я не вникал, но размещение видеокарт в «дата центре» может исключить подобные случаи.
GRID VGPU FOR VMWARE VSPHERE
Quadro & NVS Professional Drivers for Windows
если использовать pass-through:
1 — да, у вас появится физическое устройство внутри VM.
2 — для того чтобы увидеть плоды работы 3д ускорения нужно использовать VMware View или CITRIX Desktop.
3 — hyper-v виртуальные машины не умеют работать с pass-through, NVIDIA пишет только про конкурентов MS.
почему я зациклился pass-through.
в зависимости от задач, pass-through позволит использовать более дешевые адаптере чем GRID k1/k2.
за стоимость одного адаптера к2 можно купить 9 штук quadro к2000.
грустный пример из практики:
— на одном предприятии которые занимаются «черчением» купили кучу графических станций HP.
обслуживающий персонал начал ставить графические станции бухгалтерам и сотрудником которым 3д и не снилось, далее адаптеры quadro из этих ПК исчезали.
— Какой ущерб нанесли я не вникал, но размещение видеокарт в «дата центре» может исключить подобные случаи.
pass-through есть в XenServer 6.5 по-умолчанию, это абсолютно бесплатная опция. Вы можете поставить сервер XenServer 6.5 и активировав его бесплатной лицензией, пробрасывать графические карты в вм абсолютно бесплатно. Но это оффтоп чистой воды. Вы задаете вопрос, почему я не описывал pass-through в статье, а я Вам ещё раз говорю, что статья не про возможности XenServer пробрасывать графические адаптеры в вм, а про технологию NVIDIA GRID VGPU, поэтому я не счел нужным тестировать в статье опцию проброса целиком.
И еще, Вы пишите:
за стоимость одного адаптера к2 можно купить 9 штук quadro к2000А вот теперь задумайтесь. У Вас есть гипервизор, допустим на базе недешевого DELL PowerEdge R720, куда Вы будете пихать там 9 физических видеокарт? Речь идет об оптимизации. Вы будете плодить гипервизоры или покупать огромные и дорогущие платформы, пытаясь съэкономить на стоимости GRID? Эту карту для того и придумали, это же ясно как божий день. Эта карта и технология, которую она продвигает сделана для того, чтобы не пихать в сервер 100500 видеокарт, а затем пробрасывать их в вм, а чтобы поставить 1-4 видеокарты, которые посредством драйвера позволят выделять из аппаратной платформы виртуальные профили, которые работают ничем не хуже физических видеокарт, проброшенных в вм. Концепция такая, понимаете? И не преувеличивайте пожалуйста. Только что ознакомился с ценами на яндекс маркете, и 9ти K2000 Вы не купите по цене одной GRID K2, а с учетом того, что Вам придется распихивать эти Ваши 9 видеокарт по, как минимум, пяти серверам (в случае если в наличии Вы будете иметь такую-же серверную платформу, которая имелась у нас), то ничего Вы не съэкономите, а наоборот вгрохаете бюджет очень бездарно. Вы почитайте про опыт компаний, внедряющих NVIDIA GRID в инфраструктуру виртуальных машин. Например, вот тут. Сама технология рассчитана на то, чтобы сделать инфраструктуру виртуализации более компактной и дешевой, чем использование физических машин с графическими адаптерами, чем проброс целиком одного графического адаптера одной виртуальной машине. Вы приводите какие-то очень странные примеры. Ей богу. Железо расходовалось не по назначению, видеокарты пропадали… И что? Вам не кажется, что это не проблема, которую должен решать отдел ИТ? Вам не кажется, что это проблема менеджмента на предприятии и службы безопасности? Почему Вы пытаетесь решить проблему перерасхода средств, перерасходом средств? Если честно, то уже до смеха.
Jedi-Knight со всем уважением к вашему труду…
когда на местах тырят то что было куплено за мои налоги или мне не повысили зп, лично мне это не нравится, и это не проблема менеджмента это проблема у людей в голове!
когда на местах тырят то что было куплено за мои налоги или мне не повысили зп, лично мне это не нравится, и это не проблема менеджмента это проблема у людей в голове!
Со всем уважением относясь к Вашему чувству гражданской ответственности и Вашему чувству обиды за то, что Вам не поднимают зарплату и тырят то, что куплено на «Ваши» налоги, я не хочу участвовать в этой полемике, ибо она уже давно вышла из рамок темы, которая изначально поднималась мной в статье. И с каждым Вашим комментарием, мы все больше отдаляемся от первоначальной темы.
Sign up to leave a comment.
Почему не RemoteFX, а также подробнее о технологиии NVIDIA GRID VGPU