Nuevo fling – vSphere Replication Capacity Planning Appliance

Que tal gente, el día de hoy vamos a hablar rápidamente de un nuevo fling que nos entrega VMware Labs… vSphere Replication Capacity Planning Appliance (¿Nombre largo? :D). Recordemos que estos “flings” son herramientas o “previews” de tecnología que no tienen soporte por parte de VMware (aunque muchas veces estas tecnologías son agregadas a productos existentes).

¿Que es vSphere Replication Capacity Planning Appliance?

Este appliance virtual esta pensado para poder darnos una idea de la cantidad de información que estaremos replicando a través de vSphere Replication (replicación por medio de el hipervisor IP). Nos permite conocer el tráfico que estaría sucediendo a través de nuestros enlaces para replicar una VM en especifico, esto es muy útil ya que para poder dimensionar correctamente el ancho de banda y los RPOs para las VMs necesitamos conocer que tan “rápido” cambia la VM o esta teniendo cambios a nivel de los distintos bloques que constituyen su almacenamiento virtual, tratando de hacer esto de manera manual significa poder conocer el ritmo al cual cambia la VM, después tener esto a la mano debemos calcular lo que tomaría enviar estos cambios o “deltas” a través de nuestro enlace (sin considerar la replicación inicial de la VM donde se envía toda la VM), la formula se vería de la siguiente manera sin haber modificado ningún parámetro avanzado de buffers:

Size of changed data (bits) / Transfer speed (bps)= Transfer Time (seconds)

(esta fórmula la pueden encontrar en el articulo de Kene Wernebug, Sr. Technical Marketing Architect de  BC/DR en VMware)

Pero este cálculo manual tiende a poder fallar, a tomar mucho tiempo y no ser tan preciso, es por eso que parte del equipo de desarrolladores de vSphere Replication se dieron a la tarea de crear este fling sencillo de utilizar para podernos apoyar en el dimensionamiento de nuestras replicaciones a través de vSphere.

Básicamente este appliance simula la replicación de una VM en específico que nosotros seleccionemos, en base a esto nos muestra la cantidad de ancho de banda utilizado y el “delta” (cambios en la VM) o información que sería enviada a la ubicación de DR a través de el enlace.

¿Como utilizo este appliance?

Uno de los puntos que me gusto bastante es la simplicidad para configurar este appliance, simplemente importamos el appliance a vCenter a partir de un .OVF, configuramos su IP y ¡Voila! esta listo para utilizarse:

VRapplianceUna vez que tenemos arriba el appliance virtual a través de SSH debemos ejecutar un comando para poder definir que VM estará siendo analizada:

./bin/configureReplication –vc IPDEVM –vcuser USUARIODEVCENTER –vcpass PASSWORD –lwd IPDEAPPLIANCE –vmname NOMBREDEVMASERANALIZADA

Con este comando estaremos dictando que vCenter es el que aloja la VM que necesitamos analizar, el appliance de vSphere Replication Capacity Planning y las credenciales necesarias para poder acceder a vCenter, una vez ejecutado el comando podemos ver que se comienza con la simulación:

replicacioncomandoA partir de 10 a 15 minutos podemos abrir un navegador y apuntar a la IP de nuestro appliance para poder observar la información que esta recolectando, esta información es mostrada en intervalos de horas, días, semanas y meses considerando 2 valores, LWD traffic que sería el ancho de banda utilizado y Delta Size que se trata de la información enviada (que ha cambiado de la VM) con esto (tomando en cuenta que monitoreamos todo el ciclo de producción de la VM) podemos dimensionar vSphere Replication y definir los RPOs que seremos capaces de cumplir:

infosizingiis7hispavirt

¿Donde encuentro este Fling?

Recordemos que este y muchos mas flings son publicados en el sitio web de VMware labs:

labs.vmware.com

Los invito a darle un vistazo a todos los flings que están disponibles, existen bastantes que son muy útiles.

Advertisements

Actualizando almacenamiento en homelab – LenovoEMC PX6-300D

Que tal gente, el día de hoy les quiero compartir los resultados a nivel de almacenamiento que tuve al actualizar mi infraestructura de networking y almacenamiento. Para mi laboratorio tengo un rendimiento bastante satisfactorio, se agregaron 2 nuevos componentes, Switch de capa 3 Cisco SG200-26 y nuevos discos para mi antiguo y siempre confiable PX6-300D.

En el switch se activó jumbo frames (MTU 9000) para la comunicación de iSCSI por lo que el payload de cada paquete es mucho mayor, pudiendo asi optimizar la transmisión de información.

LenovoEMC LifeLine 4.0

Con la actualización de mi almacenamiento a la última versión de su sistema operativo (LifeLine) se agregaron capacidades bastante interesantes, en este caso estaremos enfocándonos al cache de SSD, es importante notar que no se trata de soporte o capacidad de conectar discos duros de SSD al almacenamiento y utilizarlos como espacio para presentarlo a los clientes.

Screen Shot 2013-08-20 at 12.35.20 PM

SSD caching básicamente nos permite crear pooles de discos de estado solido para acelerar las escrituras y lecturas a los volúmenes que estamos presentando, en este caso estaría realizando cache de toda la información que es accedida de manera intensa en los discos de estado solido para que sean servidos desde esta capa con un acceso mucho mas rápido que el de los discos duros tradicionales.Screen Shot 2013-08-20 at 1.05.09 PM Como podemos ver en la imagen tengo creado un pool de SSD caching con 100GB (disco de 120GB) de espacio, este es utilizado para almacenar todos aquellos archivos/info que son accedidos con mayor frecuencia. Como pueden ver tengo un Arreglo con nivel de RAID5 constituido por 5 discos SATA 3 con cache de 64MB, el problema esta en que este arreglo solo soporta operación a SATA2, debido al RAID5 me quedo con una cantidad de 7.2 TB utilizables.

Números, impacto de SSD caching

En el momento que me enteré que la nueva versión de LifeLine ofrecía SSD caching quize comparar el rendimiento que estaba presentando mi almacenamiento y el que presentaría con los nuevos discos, un RAID5 y SSD caching.

  • Layout de almacenamiento previa a la actualización:
  • 6 Discos SATA2 (16MB de cache) 250GB c/u, RAID0.
  • Layout de almacenamiento post actualización:
  • 5 Discos SATA3 (64MB de cache) 2TB c/u,RAID5, SSD Kingston Hyperx SATA3 120GB (SSD cache)

 

Para poder determinar el rendimiento que presentaba mi almacenamiento y el que presentaría después de actualizarlo decidí utilizar el fling de VMware llamado I/O Analyzer, aplicando dos distintos perfiles de iometer (claramente no son perfiles de cargas reales de trabajo) Max_IOPS y Max_Write_Throughput. Recordemos que previamente tenia RAID0 por lo que no se tenia ninguna penalidad de RAID y después de la actualización se tiene un RAID5 con penalidad de 4 IOPs por cada escritura.

  • Rendimiento Previo, 17044 IOPS máximo y una velocidad de escritura máxima de 111MBPS:

Screen Shot 2013-08-20 at 1.39.18 PMMax IOPS

Screen Shot 2013-08-20 at 1.39.04 PMMax write throughput

  • Rendimiento Actual 19573 IOPS máximo y una velocidad de escritura máxima de 112 MBPS:

Screen Shot 2013-08-20 at 1.42.31 PMScreen Shot 2013-08-20 at 1.47.33 PM

Como podemos notar aún considerando la penalidad del RAID5 (para mas información de RAID hacer click aquí) y teniendo un disco duro menos al agregar el pool de SSD para cache pude mejorar el rendimiento de mi almacenamiento “modesto” para mi laboratorio casero, creo que casí 20k de IOPS es algo bastante bueno para correr mis VMs y demos.

Lo que sigue es poder agregar un segundo puerto para mi comunicación de iSCSI y determinar que mejora en rendimiento podría representar agregar un LACP entre mi PX6300D y mis ESXi.

 

Soporte para MAC addresses arbitrarias porfin en vSphere 5

Que tal gente, hace tiempo ya que escribí mi ultimo post, este día regreso para dejarles algo interesante que en muchos casos nos va a librar de dolores de cabeza. En versiones anteriores de VMware vSphere/VI no se podía configurar una mac address que saliera del rango permitido por VMware, se nos mostraba algo como esto:

Esta capacidad era algo que se buscaba estuviera disponible desde los tiempos de ESX 2x, cosa que hasta vSphere 5 se nos entregó, en la siguiente imagen podemos ver como al editar una VM con una MAC Address que esta fuera del rango esta no presenta problemas:

Como podemos ver esta mac address “00:34:0f:09:02:0b” esta fuera del rango permitido por VMware (00:50:56), incluso de aquellos rangos adquiridos por VMware ante la IANA:

Y es aun más interesante que esta mac address es automáticamente reconocida y utilizada en el sistema operativo:

Esta capacidad nos da una mayor flexibilidad en el momento de realizar conversiones P2V ya que podemos mantener la MAC address del sistema físico.

 

 

Nested ESXi – Capacidad para guests de 64-bits

Que tal gente, como podemos saber VMware requiere de las extensiones  de procesador como Intel VT-x y AMD-V las cuales no eran virtualizadas en vSphere 4 o VI3 por lo cual solo podíamos ejecutar hosts de 32 bits en servidores ESXi o ESX virtualizados sobre otro host ESX/ESXi (nested), en vSphere 5 ya se tiene la posibilidad de presentar estas instrucciones a los guests que son ejecutados sobre un host ESXi, por lo cual podemos tener VMs de 64-bits sobre los servidores ESXi virtualizados.

¿Como presento las instrucciones de VT-X o AMD-V a mis guests?

Es cuestión de modificar el archivo /etc/vmware/config de nuestros Hosts FÍSICOS en donde estaremos virtualizando hosts ESXi o Hyper-v, agregamos la siguiente línea:

vhv.allow = “TRUE”

Una vez agregada esta línea no requerimos de nada más en el caso que estemos trabajando con VMs con hardware virtual versión 8.

Para crear un host ESXi 5.0 virtual solo es cuestión de crear una VM Red Hat 5 o 6 64-bits y una vez creada modificar el sistema operativo a ESXi 5.0:

Con esto tendremos una VM en la cual podremos instalar ESXi 5.0 y virtualizar dentro de dicho servidor ESXi virtual VMs de 64-bits.

Actualización manual de servidores ESXi 5.0

Que tal gente, voy a platicarles rápidamente como se realiza una actualización de servidores ESXi 5.0, anteriormente utilizábamos esxupdate para poder actualizar desde un offline bundle, en esta versión, esxupdate ya no puede ser utilizado directamente ahora tenemos que utilizar esxcli.

El día de hoy recordé que los hosts de mi lab tenían un build algo viejo 381646, siendo que esta disponible el build 469512:

Por lo cual me di a la tarea de actualizar mis hosts, ya contaba con el bundle offline “VMware-ESXi-5.0.0-469512-depot.zip”, lo subí a través de scp a un datastore de dicho host y muy confiado ejecute:

esxupdate -b VMware-ESXi-5.0.0-469512-depot.zip update

Solo para recibir el siguiente mensaje:

Básicamente esxupdate está pensado solo por VMware Update Manager y ya no está disponible para uso directo, por lo cual ya tenemos que utilizar esxcli (VMware esta concentrando toda la administración de nuestros hosts en esxcli).

Para actualizar con esxcli debemos utilizar el comando:

 esxcli  software vib install –depot=/ruta/a/offline.zip

Con esto podremos actualizar nuestros hosts manualmente, aquí podemos ver una imagen de la operación completada (se enlistan todos los paquetes que se actualizaron/instalaron):

Y mi host ya está en la última versión:

Cannot open dndlog.conf – workaround

Que tal gente, el día de hoy realizando algunas pruebas con mi VMware workstation 7 , me encontré con un error que anteriormente no había visto

Cannot open file “C:\ProgramData\VMware\dndlogs\dndlog.conf”: The system cannot find the path specified.

 

Al parecer VMware está trabajando en un una nueva característica para workstation y fusion con la cual podremos configurar y controlar aspectos del Drag n Drop, en este momento se encuentra en un estado experimental.

Es un error que podemos ignorar sin ningún problema debido a que no nos perjudica, pero si ustedes como yo no quieren estar viendo este error cada vez que inician una VM, simplemente necesitamos crear una carpeta llamada “dndlogs” en la ruta C:\ProgramData\VMware\

Y dentro de esta carpeta debemos crear un archivo vacio llamado “dndlog.conf”.  Una vez hecho esto nos libramos del problema.

 

Paso-a-paso – Dropbox & vSphere vMA

Que tal gente, hace un tiempo que no podía postear debido a que me encontraba fuera del país dictando un curso y que también estuve bastante ocupado estas ultimas semanas… pero estoy de vuelta , y esta vez les voy a dar el paso a paso de como integrar Dropbox a su vMA. Generalmente para los ambientes de VMware que administro utilizo la vSphere Management Assistant (vMA) para facilitarme tareas entre todos los hosts. Muchas veces me encuentro con el problema que solo tengo acceso a traves del vsphere client a la infraestructura remotamente por lo cual es un verdadero problema estar subiendo archivos.

Vamos a revisar los pasos para poder instalar Dropbox en nuestra vMA:

Paso 1-. Instalamos Dropbox en nuestra vMA

descargamos el source para 64 bits

wget -O dropbox.tar.gz "http://www.dropbox.com/download/?plat=lnx.x86_64"

extraemos el tar

tar -xvzf dropbox.tar.gz

y ejecutamos el daemon de dropbox

~/.dropbox-dist/dropboxd

Paso 2-. Una vez ejecutado el daemon de dropbox se nos mostrará un mensaje como el siguiente donde se nos da un link para registrar este cliente con una cuenta de dropbox ya creada:

Una vez registrado el cliente tenemos la capacidad de poder sicronizar carpetas locales con dicho cliente, aquí tengo un ejemplo de windows y mi cliente (vMA):

OPCIONAL

Si nosotros queremos que dropbox se ejecute cada vez que nuestra vMA se inicia, debemos seguir los siguientes pasos:

copiamos el contenido del script de initd que podemos encontrar en este link  FedoraStartup vamos a nuestra vMA y editamos un archivo llamado dropbox en la ruta /etc/init.d con vi y copiamos el contenido:

Editamos el archivo /etc/sysconfig/dropbox para agregar el usuario o usuarios que necesitamos que ejecuten dropbox:

Damos permisos a los archivos:

chmod 0755 /etc/init.d/dropbox
chmod 0644 /etc/sysconfig/dropbox
ls -l /etc/init.d/dropbox /etc/sysconfig/dropbox

Activamos el servicio de dropbox para los runlevels 3 y 5:

chkconfig dropbox on

Verificamos que efectivamente esta activado en dichos run levels:

chkconfig --list | egrep '3:on|5:on' | less