ну политики называются по-русски, а документация в большинстве своем на английском. И ошибки, в логах могут выглядить немного коряво на русском - и в поисковиках на русском отсекается очень много информации с англоязычных сайтов.
у нас реализована более простая схема, на RDS серверах ничего не храним, а к учетке пользователя подключается сетевой диск - dfs - где есть папки по подразделениям - каждый пользователь работает в папке своего подразделения - всё лежит на файловом сервере, конечно, создаются бекапы (и версионность тоже включена). Если мы начнем использовать перемещаемые профили, что получим? - пользователь будет подключаться с любого компьютера или терминала и видеть свой рабочий стол и файлы, но тогда у них будет возможность насохранять в свой профиль кучу всего... Если перемещаемый профиль будет памиться как сетевой диск, то ничего плохого, в принципе, не будет, если же все файлы будут тянуться каждый раз по сети то нагрузка на сеть будет огромна.. Но если я правильно понял к перемещаемым профилям добавились еще папки перенаправления, которые немного упрощают эту схему, но все же можно попасть в ситуацию, когда придется разгребать неполадки перемещаемых профилей. А с другой стороны наш подход выглядит доисторическим и хотелось бы понять что народ использует и какие плюсы и минусы подходов.
был опыт с перемещаемыми профилями, правда, очень давно, тогда была проблема с сетью из-за них. Можно использовать перемещаемые профили только для фермы, если в фильтрах политики поставить учетки терминальных серверов из фермы... но нужно ли... в чем преимущество перемещаемых профилей?
Еще одна большущая проблема, опять же на мой взгляд, - это переезд кафедр (переезд в другой корпус или другие аудитории) - переезжает кафедра и переезжают ее компьютерные классы - и, если на новом месте нет ЛВС - то надо все тянуть, а это не одна и не две розетки. и причем в старой аудитории остается ЛВС и она может не использоваться, если там не будет компьютерного класса. А если есть блок компьютерных классов, закрепленных за it-отделом - то при переезде кафедры, класс никуда не переезжает, ЛВС заново проводить не надо, стоить ЛВС становится проще и понятней.
Опять же, в примерах, которые я видел ППС этим и не занимется. Есть специально обученные люди, которым надо позвонить/написать служебную записку и пускай они там хоть обремонтируются.
такой подход практически везде, но рождается сразу куча вопросов:
во-первых, вопрос кто должен написать служебку либо заявку... естественно - это должен быть человек, который смотрит за компьютерным классом (лаборант либо МОЛ).
второй вопрос: как он смотрит за компьютерным классом??? если человек далек от компьютерной техники либо он всегда ждет, что ему скажут что где не работает... это еще та история - в результате часто класс стоит в удручающем состоянии - или половина компов не работает, либо разобрат по частям...
А если есть конкретный хозяин класса - например, какой-нибудь it-одел, работа которого направлена на обеспечение работоспособности класса - то ответственность не размазана на кучу людей, собственно, есть с кого спросить,
третий вопрос - это бюроктратия - написать служебку - собрать подписи - всем по десять раз объяснить... - и может, когда квест будет пройден, то заявку придет выполнять специалист... а если он что-то не доделает, то колесо барабана бюрократии крутим заново. я, конечно, утрирую... но согласитесь доля правды то есть...
Про права администратора, да конечно есть такие примеры, но давайте копнем немного глубже - и поговорим об компьютерном факультете - разве не должен компьютерный факультет иметь свою серверную и хорошо настроенные классы со всеми правами доступа и т.д. - я думаю, хорошо настроенные компьютерные классы - это честь и показатель компьютерного факультета . Здесь it-отдел не причем, они могут лишь подсказать что как настроить..
It-отдел может взять на себя создание компьютерных классов для всех остальных направлений - экономисты (1с), социологи (программки для соц. исследований), строители (грандсмета, компас, автокад), пищевики (прогаммы для ресторанов) - это принесет очень много экономии - техники станет меньше, она будет под полным присмотром и будет работать, а не простаивать.
Но, конечно, там где идет подключение лабораторного оборудования к компьютерам - некие лаборатории - они должны быть за кафедрами
я правильно понимаю - multiseat - это технология, когда один системный блок имеет несколько видеовыходов, на нем крутятся виртуальные машины, каждая запускается в полноэкранном режиме на отдельном мониторе... мини терминальный сервер.. но сложней в настройке.
да ориентируемся, но увы, не все можно запустить с помощью ПО из росреестра... даже больше: не все ПО из росреестра работает на ПО из росреестра - извиняюсь за каламбур... да и лицензии мелкософта куплены давно их что выкидывать... я думаю двигаться конечно в сторону росреестра нужно, но только размеренными шагами, выбирая проверенные решения, иначе придется перестраивать всю инфраструктуру и ни один раз. Я желаю быстрейшего развития российским it-компаниям и может скоро мы будем наблюдать проработанные инфраструктурные решения полностью на российском ПО, а сейчас пока, что получается 50 на 50 в лучшем случаем.
да, это так, но так как нет централизованного управления компьютерными классами, то it-отдел бывает даже не в курсе появления компьютерного класса у какой-нибудь кафедры, они обнаруживают себя только когда им нужно подключиться к Интернету... другие не списывают старую технику годами... не так... десятилетиями... и потом приходят со словами у нас есть компьютерный класс но он не работает... поэтому главная проблема это не то что закупается, может быть не то, что надо, а то что нет единого управления всем этим делом. Даже если купили слабые компы, из них легко сделать тонкие клиенты и запускать все в терминальном режиме. бывает наоборот покупают мощные компы туда, где это 100 лет не надо. Но, например, под CAD-вские приложения надо прорабатывать закупку чуть больше - все зависит от задачи. еще проблема в том что один компьютерный класс включает 10 компов, другой 15, третий 30.... все настолько неоднородно, нужна унификация и централизация... нужно только представить что вуз это коммерческая, а не бюджетная организация, цель которой заработать - и сразу станет ясно как правильно распределять ресурсы. Но описанный пример применим, конечно, только для крупных вузов, у мелких и так все супер унифицировано - 1-2 компьютерных класса на всё заведение. Еще проблема переезда кафедр из одних аудиторий в другие - и зачастую приходится монтировать сеть с нуля. проблем предостаточно и в большем случае чисто организационные - поэтому нужна централизация.
Уважаемые читатели, я никого не призываю покупать ИКС, но я искренне поддерживаю их, просто почитайте про них, посмотрите их список доработок - они действительно развивают продукт. Я их фанат и фанат многих таких же компаний, кто старается развиваться. Но я и не говорю что их продукт самый лучший, он такой какой есть, и знаю, что много бюджетных организаций его используют. Я искренне хочу помочь системным администраторам в бюджете помочь разобраться в этом вопросе, потому как нашим ВУЗам … увы далеко до квантовых скачков… хотя с радостью почитал бы про про опыт других… Я призываю делиться в комментариях информацией, а не какими-то детскими высказываниями. Есть задача - предоставление доступа в Интернет пользователям в госорганизации - не больше не меньше - давайте ее разбирать и пытаться решать. Пишите что Вы используете и почему Вы это используете. Какие проблемы возникают и как решаете. Если Вы думаете, что статью надо доработать - пишите подправлю. Давайте обмениваться опытом, а не кидаться помидорами. Мои статьи это мой опыт, которым я хочу поделиться, и если кому-то он будет полезен я буду очень рад.
Уважаемые читатели, я никого не призываю покупать ИКС, но я искренне поддерживаю их, просто почитайте про них, посмотрите их список доработок - они действительно развивают продукт. Я их фанат и фанат многих таких же компаний, кто старается развиваться. Но я и не говорю что их продукт самый лучший, он такой какой есть, и знаю, что много бюджетных организаций его используют. Я искренне хочу помочь системным администраторам в бюджете помочь разобраться в этом вопросе, потому как нашим ВУЗам … увы далеко до квантовых скачков… хотя с радостью почитал бы про про опыт других… Я призываю делиться в комментариях информацией, а не какими-то детскими высказываниями. Есть задача - предоставление доступа в Интернет пользователям в госорганизации - не больше не меньше - давайте ее разбирать и пытаться решать. Пишите что Вы используете и почему Вы это используете. Какие проблемы возникают и как решаете. Если Вы думаете, что статью надо доработать - пишите подправлю. Давайте обмениваться опытом, а не кидаться помидорами. Мои статьи это мой опыт, которым я хочу поделиться, и если кому-то он будет полезен я буду очень рад.
Во время выбора лицензии в панели управления Nvidia есть два параметра:
1) Quadro Virtual Data Center Workstation — при его выборе активируются поля основной сервер лицензий и номер порта
2) Grid Virtual Apps — при выборе этих лицензий выше перечесленные поля остаются неактивными, то есть не требуется указывать сервер лицензий — но это так в серверной ОС
У нас есть 8 виртуальных машин с профилем M60-1A — вот в них в панели управления Nvidia указывается сервер лизензий, а на сервере лицензий отображается что они берут лицензии Grid Virtual Apps. Почему такое отличие между серверной и desctop-ной ос не знаю — еще не разобрался.
Вообщем, почему желательнее использовать самосборы:
1) они стоят всего на 10 т р дороже, но он намного мощней чем тонкий клиент
2) некоторые приложения можно установить на бесплатный линукс, например, минт или убунту
3) если есть приложение которые необходимы под виндой, то либо вайн либо терминальный сервер.
4) адекватный браузер
В результате получаете более гибкое решение нежели тонкий клиент — хотите используйте как тонкий клиент, хотите как полноценную рабочую станцию.
Сетевая загрузка хорошая и интересная штука, но если у вас тысячи компьютеров начнут загружать ОС по локальной сети могут возникнуть проблемы и не все корректно работает, и еще необходимо туда — в ос для pxe, интегрировать драйвера — в зоопарке техники невыполнимая задача, но бездисковый есть бездисковый — намного меньше ломается. тонкие клиенты по сравнению со самосборами тоже меньше ломаются, хотя в наше время это все лотерея.
Вопросы Arxitektor-а:
1) Autocad версии 2017
2) Использовали в данном эксперименте) тонкие клиенты HP T620
3) не знаю что такое китайские мини пк — пришлите ссылку
4) Чертежи простые — преподаватель раздал каждому листочки, на которых изображена 3д модель — грубо говоря куб с отверстиями и вырезами, но также некоторые ребята открывали свои 3д модели — они были немного посложней — макет небольшого двухэтажного домика.
У нас на работе сделано так: На комп транслируеться с подключенного к интернету сервера отдельно приложение google crome. На самих пк интернета нет ).
Что значит транслируется — RemoteAPP от Microsofta?
У вас сервер для браузера? Какой конфигурации? На сколько человек? Как ограничиваете количество вкладок? Не троит ли видео и звук в браузере через rdp?
Пробовали ли транслировать само приложение AutoCAD?
Чисто Autocad транслировать пробовал только не через rdp, а через ICA — на этом же сервере у нас есть еще 8 виртуальных машин с win10, но с них посредством CitrixXenDesctop транслируется Autocad (8 vms на одну видеокарту, профиль M60-1A) работает хорошо.
Поясню еще раз для всех наши цели и как можно использовать сервер
Терминальный сервер исключительно для обучения, если вы хотите использовать его для рабочего проектирования то максимум 4-5 человек на сервер, и то такой сервер может использоваться либо в качестве безопасности — все в одном месте, либо для удобства — вечно странствующий проектировщик из любой точки мира подключается к своему проекту — не возя с собой что-то громоздкое и тяжелое, а только тонкий сверхлегкий ноутбук, который используется для подключения к серверу.
Также в обучении удобно использовать такой терминальный сервер, когда чертежники переехали из одной аудитории в другую, либо в какой-то аудитории срочно для какой-то дисциплины, например, в проектировании печенья, нужно создать модельку самого печенья.
VMWare давно пробовали, но без видеокарты… выбрали Citrix, если честно точно не помню уже почему, но вроде бы он дешевле, чем вмваре. Но вмваре очень хороший гипервизор, чем-то похож на цитрикс и работа с видеокартами там очень похожая.
Вообще на цитриксе и вмваре виртуалки работают немного быстрее, по крайней мере мне так показалось, особенно в нагруженном состоянии — ведать гипервизор от вмваре или цистриква лучше распределяет ресурсы — особенно ресурсы дисковой подсистемы.
Пишите больше комментариев, чем больше информации по теме тем лучше))
и да может, кто знает есть ли у цитрикса VDA агент для серверных ОС — VDAforHDX 3dPro???
вот статья про Citrix кому интересно
И да, при расчёте стоимости вы забыли про Windows Server RDS CAL за ок. 6 000 руб. на одного пользователя
для образовательного учреждения терминальный кол + сервер кол — 1700 примерно. В статье я это назвал терминальная лицензия…
И Да — может будет дешевле использовать windows server standart, но надо предварительно посчитать…
по поводу экспорта по сети — провел эксперимент — подсоединил напрямую гигабитным патчкордом к хосту hyper-v сетевое хранилище — подключил iscsi-диск — копирование 112 Мбайт\сек, экспорт виртуальной машины 150 Мбит/сек… ведать дело все-таки в hyper-v. и наверное будет правильнее и быстрее экспортировать сначала на локальный диск, а потом копировать на сетевое хранилище.
немного поясню конфигурацию, описанную в статье.
во-первых, есть две сети физически разделенные — сеть предприятия и сеть control. кластер построен на основе шасси fujitsu bx900s2 с блейдами bx924s3-s4, в нем же (в шасси) стоят 2 свитча — 10G свитч и 1G свитч. 10g свитч подсоеинен к сети предприятия через 10 гигабитную циску, а 1g свитч воткнут в сеть control в 1гигабитный hp свитч. то есть не нужны никакие виланы. все разделено отдельным оборудованием — это дороже, это проще, и это надежней. таким образом у блейдов активны 2 сетевые карты, на основе которых сделано 2 hyper-v коммутатора, 10g используется только виртуальными машинами, 1g только хостами. также в сети control есть сервер бекапов hyper-v reserv — на него с помощью скрипта экспортируются виртуальные машины, и если виртуальная машина на кластере сдохла можно либо скопировать с hyper-v rezerv, либо восстановить на нем по месту если необходимо срочно.
во-вторых, ваши расчеты верны на счет скорости копирования, но насчет экспорта у меня выходит намного медленней, если я копирую по сети — то да почти весь гигабитный канал задействован, но ежели экспортирую виртуалку по сети то 40-60 гиг в час.
По гигабиту должно копироваться около 400 Гб в час (120 МБ/с * 60 * 60 / 1024), т.е. в 10 раз быстрее, чем у вас.
копировать можно с такой скоростью, а экспортировать виртуальную машину нет — выходит намного медленнее: эскпорт происходит по сети в расшаренную папку. Даже интересно можно ли ускорить этот процесс?
ну политики называются по-русски, а документация в большинстве своем на английском. И ошибки, в логах могут выглядить немного коряво на русском - и в поисковиках на русском отсекается очень много информации с англоязычных сайтов.
у нас реализована более простая схема, на RDS серверах ничего не храним, а к учетке пользователя подключается сетевой диск - dfs - где есть папки по подразделениям - каждый пользователь работает в папке своего подразделения - всё лежит на файловом сервере, конечно, создаются бекапы (и версионность тоже включена). Если мы начнем использовать перемещаемые профили, что получим? - пользователь будет подключаться с любого компьютера или терминала и видеть свой рабочий стол и файлы, но тогда у них будет возможность насохранять в свой профиль кучу всего... Если перемещаемый профиль будет памиться как сетевой диск, то ничего плохого, в принципе, не будет, если же все файлы будут тянуться каждый раз по сети то нагрузка на сеть будет огромна.. Но если я правильно понял к перемещаемым профилям добавились еще папки перенаправления, которые немного упрощают эту схему, но все же можно попасть в ситуацию, когда придется разгребать неполадки перемещаемых профилей. А с другой стороны наш подход выглядит доисторическим и хотелось бы понять что народ использует и какие плюсы и минусы подходов.
да, русскую версию используем, пока не критично, но соглашусь с Вами - лучше не использовать локализованные версии...
был опыт с перемещаемыми профилями, правда, очень давно, тогда была проблема с сетью из-за них. Можно использовать перемещаемые профили только для фермы, если в фильтрах политики поставить учетки терминальных серверов из фермы... но нужно ли... в чем преимущество перемещаемых профилей?
Еще одна большущая проблема, опять же на мой взгляд, - это переезд кафедр (переезд в другой корпус или другие аудитории) - переезжает кафедра и переезжают ее компьютерные классы - и, если на новом месте нет ЛВС - то надо все тянуть, а это не одна и не две розетки. и причем в старой аудитории остается ЛВС и она может не использоваться, если там не будет компьютерного класса. А если есть блок компьютерных классов, закрепленных за it-отделом - то при переезде кафедры, класс никуда не переезжает, ЛВС заново проводить не надо, стоить ЛВС становится проще и понятней.
такой подход практически везде, но рождается сразу куча вопросов:
во-первых, вопрос кто должен написать служебку либо заявку... естественно - это должен быть человек, который смотрит за компьютерным классом (лаборант либо МОЛ).
второй вопрос: как он смотрит за компьютерным классом??? если человек далек от компьютерной техники либо он всегда ждет, что ему скажут что где не работает... это еще та история - в результате часто класс стоит в удручающем состоянии - или половина компов не работает, либо разобрат по частям...
А если есть конкретный хозяин класса - например, какой-нибудь it-одел, работа которого направлена на обеспечение работоспособности класса - то ответственность не размазана на кучу людей, собственно, есть с кого спросить,
третий вопрос - это бюроктратия - написать служебку - собрать подписи - всем по десять раз объяснить... - и может, когда квест будет пройден, то заявку придет выполнять специалист... а если он что-то не доделает, то колесо барабана бюрократии крутим заново. я, конечно, утрирую... но согласитесь доля правды то есть...
Про права администратора, да конечно есть такие примеры, но давайте копнем немного глубже - и поговорим об компьютерном факультете - разве не должен компьютерный факультет иметь свою серверную и хорошо настроенные классы со всеми правами доступа и т.д. - я думаю, хорошо настроенные компьютерные классы - это честь и показатель компьютерного факультета . Здесь it-отдел не причем, они могут лишь подсказать что как настроить..
It-отдел может взять на себя создание компьютерных классов для всех остальных направлений - экономисты (1с), социологи (программки для соц. исследований), строители (грандсмета, компас, автокад), пищевики (прогаммы для ресторанов) - это принесет очень много экономии - техники станет меньше, она будет под полным присмотром и будет работать, а не простаивать.
Но, конечно, там где идет подключение лабораторного оборудования к компьютерам - некие лаборатории - они должны быть за кафедрами
я правильно понимаю - multiseat - это технология, когда один системный блок имеет несколько видеовыходов, на нем крутятся виртуальные машины, каждая запускается в полноэкранном режиме на отдельном мониторе... мини терминальный сервер.. но сложней в настройке.
да ориентируемся, но увы, не все можно запустить с помощью ПО из росреестра... даже больше: не все ПО из росреестра работает на ПО из росреестра - извиняюсь за каламбур... да и лицензии мелкософта куплены давно их что выкидывать... я думаю двигаться конечно в сторону росреестра нужно, но только размеренными шагами, выбирая проверенные решения, иначе придется перестраивать всю инфраструктуру и ни один раз. Я желаю быстрейшего развития российским it-компаниям и может скоро мы будем наблюдать проработанные инфраструктурные решения полностью на российском ПО, а сейчас пока, что получается 50 на 50 в лучшем случаем.
да, это так, но так как нет централизованного управления компьютерными классами, то it-отдел бывает даже не в курсе появления компьютерного класса у какой-нибудь кафедры, они обнаруживают себя только когда им нужно подключиться к Интернету... другие не списывают старую технику годами... не так... десятилетиями... и потом приходят со словами у нас есть компьютерный класс но он не работает... поэтому главная проблема это не то что закупается, может быть не то, что надо, а то что нет единого управления всем этим делом. Даже если купили слабые компы, из них легко сделать тонкие клиенты и запускать все в терминальном режиме. бывает наоборот покупают мощные компы туда, где это 100 лет не надо. Но, например, под CAD-вские приложения надо прорабатывать закупку чуть больше - все зависит от задачи. еще проблема в том что один компьютерный класс включает 10 компов, другой 15, третий 30.... все настолько неоднородно, нужна унификация и централизация... нужно только представить что вуз это коммерческая, а не бюджетная организация, цель которой заработать - и сразу станет ясно как правильно распределять ресурсы. Но описанный пример применим, конечно, только для крупных вузов, у мелких и так все супер унифицировано - 1-2 компьютерных класса на всё заведение. Еще проблема переезда кафедр из одних аудиторий в другие - и зачастую приходится монтировать сеть с нуля. проблем предостаточно и в большем случае чисто организационные - поэтому нужна централизация.
Уважаемые читатели, я никого не призываю покупать ИКС, но я искренне поддерживаю их, просто почитайте про них, посмотрите их список доработок - они действительно развивают продукт. Я их фанат и фанат многих таких же компаний, кто старается развиваться. Но я и не говорю что их продукт самый лучший, он такой какой есть, и знаю, что много бюджетных организаций его используют. Я искренне хочу помочь системным администраторам в бюджете помочь разобраться в этом вопросе, потому как нашим ВУЗам … увы далеко до квантовых скачков… хотя с радостью почитал бы про про опыт других… Я призываю делиться в комментариях информацией, а не какими-то детскими высказываниями. Есть задача - предоставление доступа в Интернет пользователям в госорганизации - не больше не меньше - давайте ее разбирать и пытаться решать. Пишите что Вы используете и почему Вы это используете. Какие проблемы возникают и как решаете. Если Вы думаете, что статью надо доработать - пишите подправлю. Давайте обмениваться опытом, а не кидаться помидорами. Мои статьи это мой опыт, которым я хочу поделиться, и если кому-то он будет полезен я буду очень рад.
Уважаемые читатели, я никого не призываю покупать ИКС, но я искренне поддерживаю их, просто почитайте про них, посмотрите их список доработок - они действительно развивают продукт. Я их фанат и фанат многих таких же компаний, кто старается развиваться. Но я и не говорю что их продукт самый лучший, он такой какой есть, и знаю, что много бюджетных организаций его используют. Я искренне хочу помочь системным администраторам в бюджете помочь разобраться в этом вопросе, потому как нашим ВУЗам … увы далеко до квантовых скачков… хотя с радостью почитал бы про про опыт других… Я призываю делиться в комментариях информацией, а не какими-то детскими высказываниями. Есть задача - предоставление доступа в Интернет пользователям в госорганизации - не больше не меньше - давайте ее разбирать и пытаться решать. Пишите что Вы используете и почему Вы это используете. Какие проблемы возникают и как решаете. Если Вы думаете, что статью надо доработать - пишите подправлю. Давайте обмениваться опытом, а не кидаться помидорами. Мои статьи это мой опыт, которым я хочу поделиться, и если кому-то он будет полезен я буду очень рад.
1) Quadro Virtual Data Center Workstation — при его выборе активируются поля основной сервер лицензий и номер порта
2) Grid Virtual Apps — при выборе этих лицензий выше перечесленные поля остаются неактивными, то есть не требуется указывать сервер лицензий — но это так в серверной ОС
У нас есть 8 виртуальных машин с профилем M60-1A — вот в них в панели управления Nvidia указывается сервер лизензий, а на сервере лицензий отображается что они берут лицензии Grid Virtual Apps. Почему такое отличие между серверной и desctop-ной ос не знаю — еще не разобрался.
1) они стоят всего на 10 т р дороже, но он намного мощней чем тонкий клиент
2) некоторые приложения можно установить на бесплатный линукс, например, минт или убунту
3) если есть приложение которые необходимы под виндой, то либо вайн либо терминальный сервер.
4) адекватный браузер
В результате получаете более гибкое решение нежели тонкий клиент — хотите используйте как тонкий клиент, хотите как полноценную рабочую станцию.
Сетевая загрузка хорошая и интересная штука, но если у вас тысячи компьютеров начнут загружать ОС по локальной сети могут возникнуть проблемы и не все корректно работает, и еще необходимо туда — в ос для pxe, интегрировать драйвера — в зоопарке техники невыполнимая задача, но бездисковый есть бездисковый — намного меньше ломается. тонкие клиенты по сравнению со самосборами тоже меньше ломаются, хотя в наше время это все лотерея.
https://docs.citrix.com/en-us/xenapp-and-xendesktop/7-15-ltsr/graphics/hdx-3d-pro/gpu-acceleration-desktop.html
1) Autocad версии 2017
2) Использовали в данном эксперименте) тонкие клиенты HP T620
3) не знаю что такое китайские мини пк — пришлите ссылку
4) Чертежи простые — преподаватель раздал каждому листочки, на которых изображена 3д модель — грубо говоря куб с отверстиями и вырезами, но также некоторые ребята открывали свои 3д модели — они были немного посложней — макет небольшого двухэтажного домика.
Что значит транслируется — RemoteAPP от Microsofta?
У вас сервер для браузера? Какой конфигурации? На сколько человек? Как ограничиваете количество вкладок? Не троит ли видео и звук в браузере через rdp?
Чисто Autocad транслировать пробовал только не через rdp, а через ICA — на этом же сервере у нас есть еще 8 виртуальных машин с win10, но с них посредством CitrixXenDesctop транслируется Autocad (8 vms на одну видеокарту, профиль M60-1A) работает хорошо.
Поясню еще раз для всех наши цели и как можно использовать сервер
Терминальный сервер исключительно для обучения, если вы хотите использовать его для рабочего проектирования то максимум 4-5 человек на сервер, и то такой сервер может использоваться либо в качестве безопасности — все в одном месте, либо для удобства — вечно странствующий проектировщик из любой точки мира подключается к своему проекту — не возя с собой что-то громоздкое и тяжелое, а только тонкий сверхлегкий ноутбук, который используется для подключения к серверу.
Также в обучении удобно использовать такой терминальный сервер, когда чертежники переехали из одной аудитории в другую, либо в какой-то аудитории срочно для какой-то дисциплины, например, в проектировании печенья, нужно создать модельку самого печенья.
VMWare давно пробовали, но без видеокарты… выбрали Citrix, если честно точно не помню уже почему, но вроде бы он дешевле, чем вмваре. Но вмваре очень хороший гипервизор, чем-то похож на цитрикс и работа с видеокартами там очень похожая.
Вообще на цитриксе и вмваре виртуалки работают немного быстрее, по крайней мере мне так показалось, особенно в нагруженном состоянии — ведать гипервизор от вмваре или цистриква лучше распределяет ресурсы — особенно ресурсы дисковой подсистемы.
Пишите больше комментариев, чем больше информации по теме тем лучше))
и да может, кто знает есть ли у цитрикса VDA агент для серверных ОС — VDAforHDX 3dPro???
вот статья про Citrix кому интересно
для образовательного учреждения терминальный кол + сервер кол — 1700 примерно. В статье я это назвал терминальная лицензия…
И Да — может будет дешевле использовать windows server standart, но надо предварительно посчитать…
во-первых, есть две сети физически разделенные — сеть предприятия и сеть control. кластер построен на основе шасси fujitsu bx900s2 с блейдами bx924s3-s4, в нем же (в шасси) стоят 2 свитча — 10G свитч и 1G свитч. 10g свитч подсоеинен к сети предприятия через 10 гигабитную циску, а 1g свитч воткнут в сеть control в 1гигабитный hp свитч. то есть не нужны никакие виланы. все разделено отдельным оборудованием — это дороже, это проще, и это надежней. таким образом у блейдов активны 2 сетевые карты, на основе которых сделано 2 hyper-v коммутатора, 10g используется только виртуальными машинами, 1g только хостами. также в сети control есть сервер бекапов hyper-v reserv — на него с помощью скрипта экспортируются виртуальные машины, и если виртуальная машина на кластере сдохла можно либо скопировать с hyper-v rezerv, либо восстановить на нем по месту если необходимо срочно.
во-вторых, ваши расчеты верны на счет скорости копирования, но насчет экспорта у меня выходит намного медленней, если я копирую по сети — то да почти весь гигабитный канал задействован, но ежели экспортирую виртуалку по сети то 40-60 гиг в час.
копировать можно с такой скоростью, а экспортировать виртуальную машину нет — выходит намного медленнее: эскпорт происходит по сети в расшаренную папку. Даже интересно можно ли ускорить этот процесс?