решение для обеспечения непрерывности бизнеса и аварийного восстановления, предназначенное для планирования, тестирования и восстановления ВМ
про failback забыл еще
о чем статья-то? продукту уже более 5 лет
у каждого из способов свои преимущества и ограничения:
array replication:
+ репликация может быть синхронной — считай это одно главное преимущество
— SRA адаптеры создаются для СХД среднего уровня и выше, для начальных как правило нет
— завязка на одного вендора СХД, нельзя с EMC реплицировать на HP и т.д.
— лицензия на репликацию СХД нужна и она порой не дешевая
— репликация целиком LUN/Share, что повышает трафик репликации, если на данных разделах лежат машины, которые не защищаем SRM
vsphere replication:
+ встроенный функционал и не требует дополнительных денег, если куплена лицензия на гипервизор
+ нет привязки к СХД, можно миксовать вендоров и использовать в том числе и локальные диски
+ репликация отдельных ВМ, а не LUN/Share, что может минимизировать трафик репликации
— только асинхронная репликация
Правильно в облаке настроить удаленные рабочие места и там работать, а телефонию и Skype лучше установить локально на устройство, с которого подключаетесь в облако — так будут меньше задержки при передаче голоса и видео
поигрался с симуляцией
почему-то странная ситуация бывает — куча дроидов и один дункан маклауд джедай побеждает прям не то что пачку, а целый ряд прям дроидов
это нормальное поведение?
нарисовал большой круг/дугу, в нем поменьше дроидов, внутри еще меньше круг/дугу джедаев
Приглашали на собеседование.
Вот вакансия https://www.linkedin.com/jobs2/view/175003086
Все договорились, нужно было пообщаться по скайпу с человеком из штатов в 11 вечера. Бросил все дела — поехал с дачи домой, где есть интернет и компьютер. Ни в 11, ни в 12 человек так и не объявился.
Да и кадровики пропали без объяснения причины и извинений за неудобство.
Какая серьезная компания так поступает?
Причина, по которой мы вышли конкурировать с «монстрами» рынка в том, что мы можем предложить решение, в котором есть все возможности как VDI, так и удаленного доступа к приложениям, и возможность построить DaaS. При этом стоимость нашего продукта намного ниже. Это также касается и мобильного доступа, который становится все более популярным и важным для пользователей. Именно поэтому сегодня мы растем намного быстрее конкурентов.
Так и пишите — пытаемся конкурировать с Citrix. И вся наша маркетинговая активность в интернете — мы лучше Citrix из-за цены.
Вопрос связан с данной схемой текущей работы коннектора
Чтобы залить ВМ в облако провайдера — нужен интернет на этапе взаимодействия vCC Node на стороне провайдера и vCloud API, так как API облака доступно только по интернету. Использовать имеющийся интернет на территории заказчика смысла нет — трафик пойдет обратно на площадку заказчика. Иметь например 10 Гб выделенный канал между заказчиком и ЦОД провайдера и арендовать параллельно 10 Гб канал интернета в ЦОДе для целей переливки ВМ не всем интересно. Если брать меньший интернет канал у провайдера (если вообще его брать), то он становится узким местом в схеме переливки ВМ.
В связи с этим и вопрос, быть может есть новости — сможет ли когда-то в ближайшее время коннектор заливать не по интернету или быть может API сможет стать доступно заказчиком приватно через их выделенную сеть или механизмы гипервизора?
На уровне виртуальной машины это не настраивается.
вроде настраивается в расширенных свойствах ВМ в разделе CPUID Mask
CPU identification (CPU ID) masks control the CPU features visible to the virtual machine's guest operating system. Masking or hiding CPU features can make a virtual machine widely available to ESX/ESXi hosts for migration. vCenter Server compares the CPU features available to a virtual machine with the CPU features of the destination host to determine whether to allow or disallow migration with vMotion.
For example, masking the AMD No eXecute (NX) and the Intel eXecute Disable (XD) bits prevents the virtual machine from using these features, but provides compatibility that allows you to migrate virtual machines to ESX/ESXi hosts that do not include this capability. When the NX/XD bit is visible to the guest operating system, the virtual machine can use this feature, but you can migrate the virtual machine only to hosts on which the feature is enabled.
вот как это дело выглядит
выбор объем памяти — это почти vGPU-память чипа дробится на мелкие профили
очень интересный вариант, но работающий только с OpenGL — External Render от NICE DCV
KVM: GPU pass-through and External Rendering Server
Xenserver: GPU pass-through, vGPU and External Rendering Server
ESX: GPU pass-through and External Rendering Server
Вариант позволяет больше пользователей сажать на сервер с картой, если правильно перевел документацию, то дополнительный их продукт EnginFrame позволяет раскидывать пользователей между такими серверами, что дополнительно повышает и отказоустойчивость и масштабируемость
Citrix давно поддерживает NVIDIA Quadro в том числе для XenApp
https://www.citrix.com/blogs/2013/02/22/how-many-users-can-share-a-gpu/
VMware стала Quadro поддерживать относительно недавно причем MS RDS как компонент View корректно не работает с любой картой NVIDIA
в чем бенефит использовать догоняющую и заведомо более дорогую технологию, особенно в облаке, что сказывается на конечной цене для заказчика?
Так же стоит добавить, что View не даст выставить использование hardware 3d, если установлена серверная ОС, а клиентскую по SPLA нельзя сдавать. Обманывать ВМ и говорить, что это win7 в ее свойствах — на сколько это удобно и поддерживаемо вендором?
развертывал эту штуку — не особо понял как публиковать сервисы наружу
для публикации предлагается готовый контейнер с haproxy,
вот развернул я сервис с любым веб приложением, смасштабировал 100 контейнеров, дальше как мне к нему достучаться?
вариант со скринов — это локально и по порту, а через интернет и без добавление портов, тем более они динамические?
вроде как этот haproxy должен как раз при создании контейнера создавать динамические правила для публикации и привязке портов к самим хостам для контейнеров, однако у меня не заработал…
учтите, что от 12 до 16GB RAM займет у вас в памяти Nutanix CVM
если использовать post dedup HDD может потребоваться и все 24 Гб )
что делать, есть мое приложение, работающее с SQL не поддерживает AlwaysOn, тем более не известна поддержка его всеми гипервизорами www.derekseaman.com/2014/09/vcenter-5-5-u2-supports-sql-alwayson-ags.html
или под мою задачу мне требуется традиционный «общий» сторадж для кластера?
раньше это делалось созданием Vdisk и презентованием его как iscsi устройства — теперь это говорят стало не поддерживаемым Nutanix
«the support for iSCSI to ESXi has been revoked some time ago»
управление SAN фабрикой и зонами, это с какими-то определенными коммутаторами или всеми и напрямую или требует еще какую-то прослойку по управлению от вендора коммутатора?
про failback забыл еще
о чем статья-то? продукту уже более 5 лет
у каждого из способов свои преимущества и ограничения:
array replication:
+ репликация может быть синхронной — считай это одно главное преимущество
— SRA адаптеры создаются для СХД среднего уровня и выше, для начальных как правило нет
— завязка на одного вендора СХД, нельзя с EMC реплицировать на HP и т.д.
— лицензия на репликацию СХД нужна и она порой не дешевая
— репликация целиком LUN/Share, что повышает трафик репликации, если на данных разделах лежат машины, которые не защищаем SRM
vsphere replication:
+ встроенный функционал и не требует дополнительных денег, если куплена лицензия на гипервизор
+ нет привязки к СХД, можно миксовать вендоров и использовать в том числе и локальные диски
+ репликация отдельных ВМ, а не LUN/Share, что может минимизировать трафик репликации
— только асинхронная репликация
1. Multipoint Server не VDI
2. Для интеграции с телефонией созданы специальные плагины, чтобы трафик шел напрямую, а не через ВМ
Пример
https://technet.microsoft.com/en-us/library/jj204683
почему-то странная ситуация бывает — куча дроидов и один дункан маклауд джедай побеждает прям не то что пачку, а целый ряд прям дроидов
это нормальное поведение?
нарисовал большой круг/дугу, в нем поменьше дроидов, внутри еще меньше круг/дугу джедаев
Вот вакансия https://www.linkedin.com/jobs2/view/175003086
Все договорились, нужно было пообщаться по скайпу с человеком из штатов в 11 вечера. Бросил все дела — поехал с дачи домой, где есть интернет и компьютер. Ни в 11, ни в 12 человек так и не объявился.
Да и кадровики пропали без объяснения причины и извинений за неудобство.
Какая серьезная компания так поступает?
Так и пишите — пытаемся конкурировать с Citrix. И вся наша маркетинговая активность в интернете — мы лучше Citrix из-за цены.
Примеры
http://blog.parallels.com/2015/07/29/citrix-xenapp-receiver/
http://blog.parallels.com/2015/08/07/case-study-martins-properties-picks-parallels-ras-over-citrix/
http://blog.parallels.com/2016/08/03/citrix-access-gateway/
http://blog.parallels.com/2016/06/24/citrix-receiver/
Чтобы залить ВМ в облако провайдера — нужен интернет на этапе взаимодействия vCC Node на стороне провайдера и vCloud API, так как API облака доступно только по интернету. Использовать имеющийся интернет на территории заказчика смысла нет — трафик пойдет обратно на площадку заказчика. Иметь например 10 Гб выделенный канал между заказчиком и ЦОД провайдера и арендовать параллельно 10 Гб канал интернета в ЦОДе для целей переливки ВМ не всем интересно. Если брать меньший интернет канал у провайдера (если вообще его брать), то он становится узким местом в схеме переливки ВМ.
В связи с этим и вопрос, быть может есть новости — сможет ли когда-то в ближайшее время коннектор заливать не по интернету или быть может API сможет стать доступно заказчиком приватно через их выделенную сеть или механизмы гипервизора?
вроде настраивается в расширенных свойствах ВМ в разделе CPUID Mask
CPU identification (CPU ID) masks control the CPU features visible to the virtual machine's guest operating system. Masking or hiding CPU features can make a virtual machine widely available to ESX/ESXi hosts for migration. vCenter Server compares the CPU features available to a virtual machine with the CPU features of the destination host to determine whether to allow or disallow migration with vMotion.
For example, masking the AMD No eXecute (NX) and the Intel eXecute Disable (XD) bits prevents the virtual machine from using these features, but provides compatibility that allows you to migrate virtual machines to ESX/ESXi hosts that do not include this capability. When the NX/XD bit is visible to the guest operating system, the virtual machine can use this feature, but you can migrate the virtual machine only to hosts on which the feature is enabled.
вот как это дело выглядит
очень интересный вариант, но работающий только с OpenGL — External Render от NICE DCV
KVM: GPU pass-through and External Rendering Server
Xenserver: GPU pass-through, vGPU and External Rendering Server
ESX: GPU pass-through and External Rendering Server
Вариант позволяет больше пользователей сажать на сервер с картой, если правильно перевел документацию, то дополнительный их продукт EnginFrame позволяет раскидывать пользователей между такими серверами, что дополнительно повышает и отказоустойчивость и масштабируемость
https://www.citrix.com/blogs/2013/02/22/how-many-users-can-share-a-gpu/
VMware стала Quadro поддерживать относительно недавно причем MS RDS как компонент View корректно не работает с любой картой NVIDIA
в чем бенефит использовать догоняющую и заведомо более дорогую технологию, особенно в облаке, что сказывается на конечной цене для заказчика?
Так же стоит добавить, что View не даст выставить использование hardware 3d, если установлена серверная ОС, а клиентскую по SPLA нельзя сдавать. Обманывать ВМ и говорить, что это win7 в ее свойствах — на сколько это удобно и поддерживаемо вендором?
https://itblog.sandisk.com/fast-data-lower-costs-sds-infiniflash-system-ibm-gpfs/
Цитрикс продал уже CloudStack…
https://www.citrix.com/blogs/2016/01/11/a-new-home-accelerite-to-acquire-cloudplatform/
для публикации предлагается готовый контейнер с haproxy,
вот развернул я сервис с любым веб приложением, смасштабировал 100 контейнеров, дальше как мне к нему достучаться?
вариант со скринов — это локально и по порту, а через интернет и без добавление портов, тем более они динамические?
вроде как этот haproxy должен как раз при создании контейнера создавать динамические правила для публикации и привязке портов к самим хостам для контейнеров, однако у меня не заработал…
если использовать post dedup HDD может потребоваться и все 24 Гб )
что делать, есть мое приложение, работающее с SQL не поддерживает AlwaysOn, тем более не известна поддержка его всеми гипервизорами
www.derekseaman.com/2014/09/vcenter-5-5-u2-supports-sql-alwayson-ags.html
или под мою задачу мне требуется традиционный «общий» сторадж для кластера?
раньше это делалось созданием Vdisk и презентованием его как iscsi устройства — теперь это говорят стало не поддерживаемым Nutanix
«the support for iSCSI to ESXi has been revoked some time ago»