Tips de Diseño – VADC y oficinas remotas con Horizon view 5.3

Que tal gente el día de hoy vamos a revisar algunos tips o puntos para considerar cuando diseñamos una solución distribuida de Horizon View (branch offices). Estos puntos fueron comentados en una lista de distribución interna en VMware y me parece que es importante compartirla con ustedes.

Para conocer mas sobre VADC (View Agent Direct Connect), les sugiero los siguientes artículos:

Básicamente VADC nos permite tener una conexión de PCoIP directa desde un cliente de Horizon View hacia un agente de Horizon View en un escritorio virtual, esto sin necesidad de tener un Connection Server de pormedio.Aquí lo interesante es que debemos tener en consideración cuando estemos integrando VADC en nuestros diseños distribuidos de Horizon View, vamos a echarle un ojo a los puntos importantes que debemos tener en mente:

  • VADC no es un remplazo para un servidor de Conexión, este “plugin” del agente esta pensado para ambientes multi tenant (DaaS) y donde debemos de asegurar la operación de los escritorios aún cuando se tenga un problema en la conexión entre sitios y oficinas remotas (WAN).
  • Siempre debemos de intentar colocar un servidor de Conexión para poder realizar las tareas de aprovisionamiento y manejo de sesiones.
  • La limitante de separar Servidores de Conexión (standard y sus replicas) a través de WAN continua, esto debido a la base de datos de ADAM local.
  • A partir de la versión 5.2 de Horizon View se soportaba la separación geográfica de agentes y clientes a través de WAN, lo interesante aquí es que con la disponibilidad de VADC ahora podemos combinar ambientes distribuidos con gestión de Connection Servers, es decir, podemos instalar el “plugin” de VADC en el agente de los escritorios que estarán sirviendo a oficinas remotas y que estos sean entregados y gestionados a través de View Manager. En el caso de una falla en el enlace de el Servidor de conexión y los escritorios los clientes locales de las oficinas remotas continuarán teniendo acceso a su escritorio debido a VADC.

Como pueden ver son puntos bastante sencillos pero que vale la pena tener en mente cuando comencemos un diseño distribuido de Horizon View incluyendo VADC.

¿Que hay de nuevo en Horizon View 5.3?

Que tal gente, el día de hoy vamos a hablar sobre lo nuevo que se agrega con este release de Horizon View 5.3, en su principio la versión internamente estaba considerada como 5.2.1, pero es claro que la cantidad de capacidades e impacto de las mismas modificó esto y se entregó como una versión diferente.

¿Que tenemos de nuevo?

  • Soporte para VSAN – esto esta bastante interesante ya que podemos tener escritorios virtuales completos o de linked clones residiendo en un datastore presentado por VSAN, recordemos que VSAN en este momento se encuentra como beta por lo que Horizon View 5.3 entrega esta capacidad como “tech preview”. VSAN tiene muchas ventajas, si alguna vez tuvieron el tiempo de leer un whitepaper de VMware sobre stateless desktops donde se empleaba almacenamiento local y SSDs para las replicas podían darse cuenta de lo práctico que es esa arquitectura, esto debido a que no requerimos de almacenamiento centralizado.Con VSAN tenemos almacenamiento en cluster y distribuido por lo que gozamos de todas las capacidades de cluster que VMware ofrece y además conforme se requiera podemos ir agregando nodos (hosts ESXi con SATA/SAS y SSDs) y así ir creciendo este almacenamiento distribuido. Si quieren leer mas sobre VSAN les recomiendo mi articulo de Deepdive: VSAN deepdive.
    Es importante saber que en esta versión no se soporta SPBM (Storage Policy-Based Management) entre Horizon View y VSAN, solo se puede utilizar el datastore para almacenar las VMs con la política de VSAN por default para todos los objetos (vmdk, vmx, vswp…)

Screen Shot 2013-10-27 at 8.26.44 PM

  • Soporte para escritorios basados en Microsoft Windows 2008 R2 – Desde mi perspectiva esto es “GRANDE” ¿Porque? porque ya podemos comenzar a hablar de DaaS a un precio razonable, si quieren conocer como afecta el licenciamiento de sistemas operativos de Microsoft para usuario final en un ambiente DaaS les recomiendo buscar en google SPLA y VDA pra enterense como es mas caro tener una estrategía de escritorios virtuales como servicio basados en Windows7/8  que ofrecer escritorios virtuales basados en sistemas operativos de servidor (suena ilógico, pero así son nuestros buenos amigos de Microsoft). Con esto ya tenemos la opción de entregar escritorios basados en Windows 2008 R2 (SE REQUIERE SP1) y cumplir SPLA (Service Provider License Agreeement), existen algunas modificaciones manuales que tenemos que realizar para poder instalar el agente y poder mostrar los escritorios en horizon view manager, primero tenemos que modificar la base de ADAM local de Horizon View Manager y encontrar el siguiente objeto “Object: CN=Common,OU=Global,OU=Properties”, en sus propiedades podemos encontrar “Set pae-EnableWindowsServerMachines”, esto tendrá que ser modificado para poder considerar Windows 2008 R2 como un sistema soportado en Horizon View… Por último, la instalación del agente debe de realizarse con el siguiente parámetro /V”VDM_FORCE_DESKTOP_AGENT=1”.
  • Soporte completo para vDGA – vDGA o “Virtual Dedicated Graphics Acceleration” nos permite asignar un GPU de una tarjeta física hacía una VM, esta VM utiliza dicho dispositivo como hardware directo esto habilita el uso de gráficas aceleradas por hardware en una VM. Esta funcionalidad hace uso de Intel VTd para redireccionar a través de un passthrough el GPU en específico hacia una VM, por lo que cada VM habilitada con vDGA estará utilizando un GPU dedicado gestionado por el driver de gráficos NVIDIA.

vDGA

  • Soporte completo para VCAI – VAAI para NFS así de simple, antes de esta versión, VCAI o “View Composer Array Integration” era soportado únicamente como tech preview con la llegada de Horizon View 5.3 da soporte completo e incluso ya existe un partner de storage 100% certificado con VCAI.

VCAI

  • Soporte para Windows 8.1 Se agrega Windows 8.1 como gOS soportado para los escritorios virtuales.
  • View Direct Connect Agent –  También conocido como VADC, este addon de Horizon View agent ya existía desde versiones anteriores solo que era entregado únicamente a partners que proveían y proveen escritorios como servicio (DaaS), un ejemplo de esto sería Desktone (Ahora parte de VMware), donde la conexión hacía los escritorios virtuales sucedía directamente al agente y no a través de un broker (Horizon View Connection Server). VADC
    Existen múltiples casos de uso para este addon, como ya lo dijmos uno sería DaaS, otro podría ser branch offices para no depender de una WAN, cuando la cantidad de escritorios no justifique tener un servicio de brokering completo y muchos mas. En mi articulo “PCoIP y Modem de Telmex” pueden ver como accedo a mi ambiente de laboratorio utilizando VADC, bastante práctico y un rendimiento excelente por PCoIP.
  • Soporte para ThinApp 5.0 – Se agrega soporte para la última versión de ThinApp.
  • Soporte para Horizon Mirage – Esto también lo considero como “GRANDE” ya que el soporte de Horizon Mirage en ambientes de escritorios ha sido esperado desde hace mucho tiempo, ya podemos gozar de lo mejor de los dos productos con las versiones Horizon View 5.3 y Horizon Mirage 4.3. Estense atentos para la semana del 12 de noviembre, donde podré compartir con ustedes datos mas técnicos😀.
  • Mejoras en el protocolo Blast – se agregan capacidades interesantes al protocolo basado en HTML5, donde ya contamos con reproducción de audio, portapapeles (una implementación especial a través de un recuadro donde pegamos el texto), full screen y mejoras a nivel del despliegue.
  • Soporte para RTAV en Linux  se agrega soporte para clientes basados en Linux para RTAV o “Real Time Audio & Video”, si quieren conocer que es RTAV aquí les dejo mi articulo sobre el feature pack 2 de Horizon View 5.2 donde fue agregada esta capacidad “Novedades de Horizon View 5.2 Feature pack 2″.
  • Mejoras en View persona Management
  • Soporte para MMR en Windows – MMR permite el redireccionamiento de video para que este sea procesado por el endpoint (dispositivo donde nos conectamos), con esto logramos reducir consumos de ancho de banda debido a que el contenido original de multimedia (video, específicamente MPEG-4/H.264) es enviado al endpoint para su procesamiento, debido a esto se requiere que el endpoint sea windows7 u 8. Aparte de reducir consumos en ancho de banda también logramos una reducción en el consumo de los recursos en nuestros servidores ESXi ya que el procesamiento ya no sucede en la VM y es enviado a través de PCoIP. Es importante saber que MMR solo envia el video y no el audio, debido a que el video será procesado por el cliente este deberá contar con una GPU compatible con DXVGA (DirectX Video Acceleration).
    MMRPool5.3

Intense School, buena fuente de información y entrenamiento

Que tal gente, solo una pequeña noticia/anuncio, comencé a escribir para un sitio llamado Intense School, donde pueden encontrar recursos de entrenamiento en distintos productos de manera gratuita. Intense School provee entrenamiento personalizado y en sitio para profesionales de TI, les recomiendo dar un vistazo a todos los articulos gratuitos que tienen de distintas tecnologías.

Pueden encontrar todo este material en la siguiente liga:

resources.intenseschool.com

Aquí podrán encontrar los distintos artículos que estaré escribiendo, cabe destacar que esta en ingles. Mi primer articulo lo encuentran en esta liga:

Espero puedan tomarse el tiempo para leer mis artículos, donde trato de no  ser 100% técnico como usualmente escribo sino revisar algunos otros tipos de consideraciones.

Nuevo fling – vSphere Replication Capacity Planning Appliance

Que tal gente, el día de hoy vamos a hablar rápidamente de un nuevo fling que nos entrega VMware Labs… vSphere Replication Capacity Planning Appliance (¿Nombre largo? :D). Recordemos que estos “flings” son herramientas o “previews” de tecnología que no tienen soporte por parte de VMware (aunque muchas veces estas tecnologías son agregadas a productos existentes).

¿Que es vSphere Replication Capacity Planning Appliance?

Este appliance virtual esta pensado para poder darnos una idea de la cantidad de información que estaremos replicando a través de vSphere Replication (replicación por medio de el hipervisor IP). Nos permite conocer el tráfico que estaría sucediendo a través de nuestros enlaces para replicar una VM en especifico, esto es muy útil ya que para poder dimensionar correctamente el ancho de banda y los RPOs para las VMs necesitamos conocer que tan “rápido” cambia la VM o esta teniendo cambios a nivel de los distintos bloques que constituyen su almacenamiento virtual, tratando de hacer esto de manera manual significa poder conocer el ritmo al cual cambia la VM, después tener esto a la mano debemos calcular lo que tomaría enviar estos cambios o “deltas” a través de nuestro enlace (sin considerar la replicación inicial de la VM donde se envía toda la VM), la formula se vería de la siguiente manera sin haber modificado ningún parámetro avanzado de buffers:

Size of changed data (bits) / Transfer speed (bps)= Transfer Time (seconds)

(esta fórmula la pueden encontrar en el articulo de Kene Wernebug, Sr. Technical Marketing Architect de  BC/DR en VMware)

Pero este cálculo manual tiende a poder fallar, a tomar mucho tiempo y no ser tan preciso, es por eso que parte del equipo de desarrolladores de vSphere Replication se dieron a la tarea de crear este fling sencillo de utilizar para podernos apoyar en el dimensionamiento de nuestras replicaciones a través de vSphere.

Básicamente este appliance simula la replicación de una VM en específico que nosotros seleccionemos, en base a esto nos muestra la cantidad de ancho de banda utilizado y el “delta” (cambios en la VM) o información que sería enviada a la ubicación de DR a través de el enlace.

¿Como utilizo este appliance?

Uno de los puntos que me gusto bastante es la simplicidad para configurar este appliance, simplemente importamos el appliance a vCenter a partir de un .OVF, configuramos su IP y ¡Voila! esta listo para utilizarse:

VRapplianceUna vez que tenemos arriba el appliance virtual a través de SSH debemos ejecutar un comando para poder definir que VM estará siendo analizada:

./bin/configureReplication –vc IPDEVM –vcuser USUARIODEVCENTER –vcpass PASSWORD –lwd IPDEAPPLIANCE –vmname NOMBREDEVMASERANALIZADA

Con este comando estaremos dictando que vCenter es el que aloja la VM que necesitamos analizar, el appliance de vSphere Replication Capacity Planning y las credenciales necesarias para poder acceder a vCenter, una vez ejecutado el comando podemos ver que se comienza con la simulación:

replicacioncomandoA partir de 10 a 15 minutos podemos abrir un navegador y apuntar a la IP de nuestro appliance para poder observar la información que esta recolectando, esta información es mostrada en intervalos de horas, días, semanas y meses considerando 2 valores, LWD traffic que sería el ancho de banda utilizado y Delta Size que se trata de la información enviada (que ha cambiado de la VM) con esto (tomando en cuenta que monitoreamos todo el ciclo de producción de la VM) podemos dimensionar vSphere Replication y definir los RPOs que seremos capaces de cumplir:

infosizingiis7hispavirt

¿Donde encuentro este Fling?

Recordemos que este y muchos mas flings son publicados en el sitio web de VMware labs:

labs.vmware.com

Los invito a darle un vistazo a todos los flings que están disponibles, existen bastantes que son muy útiles.

vSphere App HA deepdive

Que tal gente, el día de hoy vamos a hablar sobre una tecnología que a mis ojos parece tener bastante potencial, claramente estaremos hablando de una versión 1.0 del producto por lo que debemos comprender que muchas cosas iran siendo agregadas conforme el tiempo pase. Esta vez voy a hablarles de vSphere App High Availability, tecnología de VMware que fue liberada a con vSphere 5.5, como lo podemos notar en su nombre es alta disponibilidad para nuestras aplicaciones vamos a darle un vistazo:

¿Que es vSphere App HA?

Todos conocemos (¿O eso creo?) vSphere HA, que nos permite brindar alta disponibilidad a nivel de VM protegiéndola contra caídas de infraestructura… a grandes rasgos realiza un reinicio de las VMs fallidas en un servidor que se haya caído o tenga problemas. ¿Pero que pasa con las aplicaciones?, digamos que tenemos un servidor ESXi funcional, la VM con el servicio esta siendo ejecutada sin ningún problema, pero dentro de esta vm en el sistema operativo guest la aplicación/servicio esta caído, en este caso HA nunca reiniciaría la VM debido a que esto no forma parte de su “responsabilidad” aquí es donde entra vSphere App HA, que en conjunto con Hyperic nos brinda la capacidad monitorear los servicios que están dentro de una VM para poder definir políticas que nos permitan ejecutar acciones correctivas para mantener la disponibilidad del servicio o aplicación que tenga dicha VM.

El poder de este producto es brindado por hyperic, para poder tener monitoreo dentro de nuestras VMs necesitamos instalar el agente de Hyperic en cada VM que tenga servicios soportados que queramos protejer con App HA. En el laboratorio de Hispavirt podemos ver como tengo el appliance virtual de Hyperic para este fin:

HypericOVA En este servidor de Hyperic iremos agregando todos los agentes para que se puedan monitorear los servicios que existen en dichas VMs.

App HA interactua con vSphere y Hyperic a través de un plugin de NGC (Next Generation Client) o el vSphere Web Client, que nos permite apuntar a un servidor de hyperic para registrar el servicio (existen algunos pasos que debemos de realizar en hyperic para tener las alarmas de vCenter funcionando esto lo pueden encontrar aquí) este plugin lo brinda el appliance virtual de App HA:

hypericconfvcenter

Una vez lista la configuración podemos comenzar a crear políticas para proteger los servicios que son descubiertos por el agente de Hyperic en nuestras VMs, para esta versión se tiene una lista definida de servicios soportados donde podemos encontrar los siguientes:

  • Apache Tomcat 6 y 7
  • IIS 6, 7 y 8
  • MS SQL 2005, 2008, 2008 R2 y 2012
  • Sharepoint 2007 y 2010
  • SpringSource tc Runtime 6 y 7

En el laboratorio me di a la tarea de crear una VM con Windows 2008R2 y IIS7, donde instale y configuré el agente de Hyperic para que esta fuera registrada en el inventario:

instalacionhypericUna vez instalado debemos verificar que es presentado en el “auto discovery” de hyperic y lo agregamos a nuestros recursos:

autodiscoveryiishypericCuando ya tenemos lista la VM dentro de Hyperic podemos comenzar con la creación de políticas, para que estas sean asignadas a dichas VM y así proteger el servicio o aplicación que este ejecutándose dentro de ella, para motivos de la demostración seleccione las siguientes opciones para un servicio de IIS7:

RemediacionAppHA Que son las opciones de “remediación” ofrecidas en el caso que el servicio de la VM se encuentre abajo. Podemos notar que tenemos la principal función que es “reiniciar” el servicio, donde definimos cuanto tiempo le toma iniciar a este servicio, en este caso puse 2 minutos aunque claro que esto debe de ir de la mano de lo que se tarde en su ambiente, después seleccione la opción de “Restart the VM in the event that the service is unstable” que nos permite dictarle a App HA que si no es capaz de levantar el servicio en repetidas ocasiones durante una ventana de tiempo definida (en este caso 2 veces en 10 minutos) que proceda a reiniciar la VM ya que puede ser un problema mas complicado a nivel del sistema operativo y un reinicio ayude a resolverlo.

Aquí pueden ver que mi política quedo creada y lista para ser asignada a la VM que tiene IIS7:

politicadefinidaAppHADespués debemos asignar esta política a la VM que será protegida con AppHA, para esto vamos a nuestro vSphere Web Client y seleccionamos nuestro vCenter Server, donde veremos una pestaña llamada “Monitor” y dentro de esta pestaña tendremos una nueva sección agregada por App HA “Application Availability” donde podremos agregar nuestra política:

políticaAppHAaplicada

Una vez aplicada la política si tenemos una caída del servicio App HA nos dará un aviso en el “status” y tomará cartas en el asunto para poder levantarlo, también podemos notar que se envía una alarma de vCenter Server:

iis7abajoAppHaComo podemos ver la configuración, creación de políticas y el como trabaja App HA es bastante amigable, en mi caso no me tarde mas de 15 minutos en dejar lista la configuración de vCenter y Hyperic (de hecho me tarde mas tiempo en descargar los appliances de App HA y Hyperic). En esta versión tenemos la capacidad de proteger servicios con un mecanismo sencillo, claramente como lo dice su nombre se trata de “alta disponibilidad” a diferencia de una tolerancia a fallos que nos podría dar un servicio de cluster a nivel de la aplicación, pero para muchos casos de uso esta alta disponibilidad funciona cubre las necesidades o los SLAs definidos.

¿Que necesito para poder tener App HA?

Como han visto a lo largo del articulo necesitamos de algunos componentes “extra” de lo que viene siendo vSphere (ESXi y vCenter) que son:

  • Hyperic
  • App HA (appliance virtual)

En el caso de Hyperic podemos optar por el appliance virtual que ya incluye el servidor y la base de datos como parte de un vApp, para poder cubrir el máximo de agentes que están soportados por App HA que son 400,necesitaríamos una configuración “medium” para el servidor de Hyperic (4vCPUs y 8GB de RAM) mientras que para la base de datos necesitaríamos una configuración “medium” (4vCPUs y 6GB RAM), como podemos ver para Hyperic estaríamos hablando de una cantidad de recursos de alrededor de 14GB en RAM y 8vCPUs, esto sin considerar que tengamos mas de 500 agentes a monitorear lo cual no podría ser cubierto por un “conjunto” de vCenter + Hyperic + App HA (la relación es 1:1:1).

En el caso del appliance de App HA los requerimientos son bastante bajos, 2 vCPUs, 4GB RAM, 20GB en disco y 1Gbps en red. Con respecto a la plataforma que estará monitoreando vSphere App HA trabaja con Hyperic 5.7+, ESXi 5.5 y vCenter 5.5.

Una duda que he encontrado (que yo mismo tuve en su momento) fue el hecho de el licenciamiento de Hyperic, si consideramos que estaremos monitoreando varias instancias de sistema operativo podríamos pensar que necesitaríamos una licencia para cada uno de estos en lo que a Hyperic se refiere, pero esto no es correcto, con el simple hecho de importar el appliance virtual de Hyperic y contar con vSphere Ent+ tenemos todo cubierto, si… sin necesidad de licenciamiento de Hyperic.

 

 

 

vCloud Director 5.5 – ¿Que hay de nuevo?

Que tal gente, el día de hoy vamos a hablar de lo nuevo que nos ofrece vCD 5.5, hemos estado revisando lo nuevo que nos ofrecerá vSphere 5.5 en el momento que sea liberado al publico (GA), pero todavía no tocamos otros productos que también fueron mejorados entre los cuales se encuentra vCD.

Mejoras a nivel de vApp

Aquí estaremos revisando las mejoras que impactan directamente a nuestras VMs o servicios:

  • Soporte para vm compatibility o harware virtual versión 10 –  permitiéndonos  utilizar adaptadores SATA para los discos de las VMs y CD/DVD.
  • Multi–core vCPUs – Esto nos permite definir múltiples cores en cada socket de vCPU, generalmente esto nos beneficia en temas de licenciamiento. Recordemos que la manera de realizar la asignación de pCPUs vs vCPUs a nivel del host ESXi es exactamente igual, un core virtual o un vCPU uni core son asignado de la misma manera por el scheduler de el vmkernel.

multicorevcd

  • Uso de dispositivos USB desde el cliente de VMRC en versiones anteriores podíamos redireccionar dispositivos como CDs y floppys, ahora se agrega la capacidad de poder redireccionar dispositivos USB.

dispositivosvmrc

  • Modificación de hardware en “caliente” – esto puede resultar bastante interesante, tenemos la posibilidad de modificar el hardware virtual de una VM dentro de un vApp. Podemos agregar, quitar y crecer en “caliente” discos duros, de igual manera podemos agregar tarjetas de red (vNICs) en caliente, removerlas, conectarlas y desconectarlas (esto no es posible solo a nivel de la vNIC principal). Por último podemos agregar vCPUs multicore en caliente.
  • Personalización de templates de vApp – Tenemos la posibilidad de modificar el hardware virtual de un template de vApp antes de agregarlo a nuestra “nube”, esto nos permite modificar la o las VMs que pertenezcan a este vApp a nivel de vCPU, RAM, y discos duros. Debemos de tener las siguientes consideraciones, solo se soporta hw virtual 8 en adelante, no podemos modificar la cantidad de cores, no podemos re dimensionar discos con snapshots y/o que sean fast provisioned y en el caso que agreguemos espacio a un disco a nivel del gOS necesitamos configurar el OS para utilizar dicho espacio.

modificacionhwvcd55

  • Importar y exportar OVFs – se nos permite en esta versión importar vApps directamente desde templates y de igual manera exportar un vApp como OVF. Algo bastante interesante es la capacidad de poder “resumir” conexiones interrumpidas, por lo que si tenemos un problema al importar un OVF de varios GB podemos resumir la transferencia. También se nos permite la descarga desde el catálogo de distintos archivos, como ISOs, vApps, etc. (estaremos hablando un poco sobre la capacidad de los catálogos mas adelante)

descargavcd55ovf

  • Operaciones a nivel de vApp con estado de memoria activo (encendida) – Se nos brinda la capacidad de poder clonar la memoria activa de un vApp que puede estar en funcionamiento o suspendida. Esto nos permite 3 tipos de operaciones, clonar un vApp encendida/suspendida, capturar al catálogo un vApp encendida/suspendida y exportar un vApp suspendido a OVF. Esto es posible a través de snapshots que suceden a nivel de vCenter, es importante notar que si exportamos un vApp con estado de memoria OVF y lo deseamos importar en otra instancia de vCenter la memoria será descartada.
  • Personalización de Guests las capacidades que se tienen a nivel de vCenter para personalizar y modificar los gOS al momento de realizar la entrega a partir de templates ya es exactamente la misma que tenemos a nivel de vCD, también se agrega la capacidad de poder importar especificaciones a través de xml.
  • Shadow VMs – el mecanismo de “shadow vm” existe desde la versión 1.5 de vCD, esto fue pensado para aquellas vApps que utilizan Fast Provision, básicamente al realizar la entrega de un vApp que este basado en Fast Provisioning este dependerá de la imagen base (muy parecido a lo que tenemos a nivel de Horizon View con linked clones), el problema surgía en el momento de tener entrega de vApps a través de distintos datastores que puedan incluso estar en distintos vCenters, para esto se realiza una copia de la imagen base en el datastore destino a partir de la cual los clones estarían accediendo. En la versión 5.5 tenemos la opción de realizar un “eagerly provision” que básicamente estará creando estos shadow VMs en el background, toma en cuenta un concepto de “hubs” que para nosotros serían resource pools (pVDC) y storage profiles presentados a dicho pVDC o “hub”, en el momento que se detecta que un datastore con un consumo alto (alerta amarilla) se creará en otro datastore que pertenezca a dicho storage profile el shadow vm para no tener impacto a nivel del aprovisionamiento de nuevos vApps (básicamente espera para la creación de los shadow VMs). Esto no esta habilitado por defecto tenemos que habilitarlo a través del archivo global.properties

Catálogos

En esta sección tenemos capacidades que vienen a cubrir distintas peticiones por los usuarios de vCD, podemos ver casos de uso distribuidos, tiering etc. Vamos a conocer las nuevas capacidades:

  • Soporte para distintos perfiles de almacenamiento En versiones anteriores de vCD el catálogo de una organización era colocado en el perfil de almacenamiento que era asignado a el pVDC a partir del cual se proveian recursos a la misma, esto generalmente impactaba de manera negativa teniendo información con un requerimiento de almacenamiento distinto a las vApps de producción. En la versión 5.5 podemos asignar un perfil de almacenamiento en específico para que el catálogo sea almacenado (ej. Tier3 / SATA).

catalogoperfilstorage

  • Publicación, suscripción y almacenamiento remoto – En el momento de la creación de un catálogo podemos definir si este tendrá la capacidad de ser publicado de tal manera que otros catálogos puedan sincronizarse con el, es decir, poder copiar la información (vApps, ISOs, etc) que viven en el. Todo cambio que es realizado en el content catalog origen será reflejado en aquellos catálogos que estan suscritos al mismo, esto suscripcióncatalogose maneja a través de versiones de el catálogo, aquí podemos pensar en distintos casos de uso, por ejemplo, publicación de un catálogo a distintas organizaciones, ambientes distribuidos geograficamente, distintas instancias de vCD, etc. El catálogo a ser suscrito deberá presentar una password y el link para suscribirse, una vez que este esta suscrito a través de un protocolo llamado vCSP (VMWare Content Suscription Protocol) se realizarán las deciciones si se necesita actualizar cierto archivo que tenga una nueva versión o que sea nuevo en el catálogo, todo esto sucede siempre a través de un “pull”, es decir, el catálogo suscrito descargará la información del catálogo origen, nunca se tendrá un “Push” de información.  Algo interesante es que los suscriptores pueden seleccionar un modelo “on–demand” que unicamente descarga el metadata de dicho catalogo y no la información en su totalidad, el listado de objetos mostrará todo el contenido y en el caso de requerir un objeto (ej. ISO) se realiza una sincronización manual con un click derecho y “syncrhonize”.
    Se permite que el “publicador” (al cual los catálogos se sincronizan) no sea un catálogo existente sino almacenamiento que pueda trabajar con JSON (Java Script Object Notation) para publicar y sincronizar los archivos que puedan ser almacenados en este mismo… (¿OpenStack Swift?)….
    Por último es interesante saber que el catálogo ya puede almacenar todo tipo de objetos, no solo ISOs, templates, etc..

Acceso y configuración

  • Soporte para CentOS 6.x como gOS donde instalar vCD.
  • Preparación de Hosts para vCD 5.5  en versiones anteriores se requeria de manera forzosa preparar los Hosts ESXi que serían utilizados por vCD, esto entre otras tareas instalaba el agente de vCD o vslad. En la versión 5.5 a menos que se requiera de VCNI (vCloud Network Isolation) se tendrá que instalar el agente, si no es necesario y los hosts son versión 5.5 de vSphere no se requerirá el agente de vCD.
  • Storage Profiles – vCD 5.5 puede trabajar con Profile Driven Storage y  Storage Policy Based Management (SPBM) que esta disponible en la versión 5.5, ambos los presenta como storage profiles… Para conocer mas sobre SPBM les sugiero leer el siguiente articulo de la oficina del CTO de VMware “Storage Directions for the software defined datacenter”
  • HTML5 – para los clientes basados en OSX (Firefox y Chrome) se ofrece acceso a la consola de la VM a través de HTML5 sin necesidad de un plugin. No se trata de un sustituto para el VMRC, ya que este no soporta dispositivos USB, CDs, etc, no realiza un “grab” o capturado del cursor, no toma las combinaciones de teclas, etc.. es muy parecido a VNC.

Extensibilidad

vCD 5.5 tiene la capacidad de registrar dos extensiones para interactuar con ellas, vFabric Data Director y Cloud Foundry. Esto permite a los administradores presentar a las organizaciones servicios de DBaaS (Database As A Service) y SaaS (Software As A Service).