VMware DRS con DPM en el HomeLAB.

Hoy llegue a casa para encontrar el área del HomeLAB demasiado caliente, en estos momentos en mi HomeLAB creo que existen demasiados dispositivos. (no!!!! Nunca!) En fin, mi ambiente de VMware consta de 3 ESXi los cuales están encendidos la mayoría del tiempo, la habitación donde están el HomeLAB por naturaleza es caliente ya que el Sol muere en sus paredes a eso agréguenle equipos generando calor. Hace tiempo atrás intente usar DPM para conseguir lo mismo que he conseguido esta vez, que DRS & DPM se encarguen de encender los ESXi cuando vSphere los necesite sin intervención manual.

Lo primero es que ninguno de mis equipos tiene iLO/IPMI u otra variante que ayude a DPM a realizar su tarea así que he recurrido al viejo y no tan confiable WoL (Wake-on-LAN). Uno de los inconvenientes conocidos con DPM es que no puede enviar la señal de levantar el ESXi si este no cuenta con un IP de manejo en un vSwitch, normalmente no uso vSwitch y siempre despliego vDSwitch para ahorrarme cosas y simplificar la conectividad de mis ESXi, por suerte esta vez contaba con una NIC que no la agregue a los vDSwitch y solo tuve que crearle otro vmk para manejo.

Los pasos son los siguientes:

Asegurarnos de que nuestra tarjeta soporta la funcionalidad.

Habilitar DPM en el Cluster y especificar Manual en las opciones de DPM dentro de DRS.

Seleccionamos un Host para hacer la prueba antes de permitirle a DPM que tome el control y lo enviamos a Standby de forma manual.

Una vez el host este en modo Standby intetamos traerlo devuelta usando la opción de PowerOn.

Si el ESXi vuelve del modo Standby quiere decir que estamos listos para dejar que DPM tome el control, en mi caso solo quería enviar a Standby un equipo el cual agregue hace unos días y que solo cuenta con 8GB de RAM (si, necesita mas memoria.) y que será solo para correr vESXi. Para solo enviar este equipo a Standby dirigimos nuestro mouse a Cluster -> Manage -> Host Options, editamos las opciones para el ESXi en específico, yo decidí dejar la configuración principal en Manual y editar los Host asignando Disable, Manual y Automatic respectivamente a mis ESXi. Aquí una imagen de como quedo la configuración.

 

Instalando VMware Horizon View (Composer).

Composer es un componente de VMware Horizon View y se basa en el uso de la tecnología de Linked-clone la cual posiblemente ya se conoce desde hace un tiempo.

Pre-requisitos:

View Composer solo soporta ser instalado en una versión de Windows 64bit. Puede ser instalado en la misma maquina donde tenemos nuestro vCenter o podemos instalarlo de manera “stand-alone”.

Los requerimientos exactos de Composer se pueden encontrar en este link: http://pubs.vmware.com/view-52/index.jsp#com.vmware.view.installation.doc/GUID-AF050FEA-5382-4D4A-BB83-24A087FD644B.html#GUID-AF050FEA-5382-4D4A-BB83-24A087FD644B

Lo primero que debemos hacer es decidir si nos conviene instalar Composer en la misma maquina o stand-alone, la siguiente instalación es stand-alone porque ya tengo en mi vCenter el software de manejo de PernixData FVP y no quería cargar más la maquina con el servicio de vCenter.

Con relación a la Base de Datos para Composer, este soporta MSSQL & Oracle, la siguiente instalación es realizada con una DB de MSSQL que en mi caso es el mismo SQL Server que uso para vCloud Director y otras aplicaciones en aaNetworks. La forma implementada en Composer para conectar a la DB es mediante DSN (System DSN) el cual debemos crear en el servidor donde queremos instalar el servicio. Una vez que tenemos nuestra DB y usuarios creados en el SQL procedemos a crear el System DNS.

Una vez creado nuestro ODBC podemos lanzar la instalación de Composer.

Listo, ya está instalado. En mi ambiente de LAB ya tenía instalado un Connection Manager conectado al vCenter, me toca editar esa conexión para ahora decirle que existe un Composer.

A estas alturas solo faltaría crear una VM con Windows7/8 para designarla como “Parent VM” y luego crear un pool en donde usaremos esta VM y crear los linked-clones necesarios en nuestro ambiente de VMware Horizon View.

aaNetworks HomeLAB Actualizaciones!! – Storage II.

Interesante nombre para un post…

Esto es porque ya había escrito uno con exactamente el mismo nombre y que mejor forma de seguir con la saga de nunca terminar con relación a los HomeLabs, el Storage.

En la ocasión anterior describí como el almacenamiento de mi LAB era proporcionado por unos pobres y lentos Iomega IX4-200D (en su momento fueron lo máximo!) y que necesitaba una solución para remediar la lentitud de estos.

Sucede que ambas soluciones en las cuales había pensado fueron posibles, ahora tengo licencia NFR de PernixData FVP y tuve la oportunidad de cambiar los IX4-200D por un equipo más potente, con más utilidad y funcionalidad.

PernixData no necesita introducción, pueden leer la entrada sobre su instalación aquí, he vuelto a reinstalar el management server, no fue upgrade o algo parecido. Aproveche que estaba instalando vCenter 5.5 en Windows 2K8R2 ya que anteriormente lo tenía en modo appliance con VCSA. Ahora vCenter y FVP Manager comparten la misma VM. Algo gracioso fue que anteriormente tenía la versión 1.5-BETA y ahora acababa de instalar la versión 1.5.0.4 pero cometí el error de no actualizar los componentes de los ESXi, para mi sorpresa FVP no estaba acelerando ninguna VM y siguió así hasta que no reinstale la versión correcta.

El reemplazo de los IX4-200D no es nada más que un HP Microserver N36L. Este pequeño amiguito está corriendo una versión CUSTOM de DiskStation Manager, si, el potente sistema que viene dentro de esos asombrosos NAS que todos queremos tener. Synology para mi entender es el preferido cuando hablamos de Almacenamiento para un HomeLab. Lamentablemente el precio de un Synology con 2xGigE LAN – 5+ HDD está por encima de los $700 dólares (diskless) y es un precio que no puedo pagar.

Cuando se trata de usar el DiskStation no hay diferencia si es un verdadero Synology o un XPEnology como le han llamado las personas involucradas en crear este CUSTOM de DSM.

La configuración para iSCSI es una maravilla y ya sé porque Synology tiene a tantos entusiastas de los HomeLab emocionados. Esta cosa soporta VAAI!.

Si te interesa montar un XPEnology este es el foro (http://xpenology.com/forum/) con la información.

PernixData FVP – Un mes después.

Bueno, no es exactamente 1 mes. Si cuento desde el momento de la instalación han pasado 53 días y los resultados son buenos. Cuando digo han sido buenos tengo que aclarar que la carga de IOPs de mi LAB no es nada comparable ni siquiera con una implementación SMB ya que estas VM son pasivas y pocas veces consumen IOPs como para que se caiga el NAS que proporciona iSCSI.

La implementación de FVP en el LAB fue con mira a crear una experiencia en el uso de SSD + FVP para acelerar workloads críticos, en mi LAB el único workload critico es el PLEX.

Cuando accedemos a nuestro Cluster de FVP la primera pestana que veremos es Summary, allí tenemos varios recuadros que nos muestran el estado del Cluster FVP que hallamos seleccionado.

Para FVP los recursos son Host ESXi, SSD o PCI Flash.

Status – Siempre querremos ver el estado de nuestro Cluster FVP en verde.

Como decía en el post donde realizaba la instalación de FVP, el área de Performance podría ser el primer lugar donde miremos en busca de información de cómo va trabajando el Cluster de FVP.

Si miramos en la pestaña de Monitor, conseguiremos información de que tanto espacio de la SSD están usando las VMs, el host donde corre la VM, consumo de SSD vía red, la política que hemos asignado (Write Back o Write Through) y por último la política que se está usando. La política que se está aplicando a la VM puede cambiar si tenemos problemas den el Cluster, por ejemplo en mi LAB si uno de los host está apagado inmediatamente todas las políticas que seleccione como Write Back pasan a Write Through.

Hacemos click en View Performance y llegaremos a la pestaña en Monitor -> Performance  -> Virtual Machines con la información referente al desempeño de la VM llamada Plex.

Esto es solo un poco de las estadísticas que FVP puede presentar, más adelante tratare de tener un mejor análisis de como FVP acelera una VM, intentare hacer pruebas con un SQL y reportare los detalles.

Publicada la lista de vExpert 2014 – Estoy en ella!

Si eres del mundo de la virtualización con VMware es seguro que sabes de qué trata el programa de vExpert. Si no lo sabes, se trata de lo siguiente:

vExpert en términos simple, es un miembro activo de la comunidad de VMware quien comparte sus conocimientos con otros. El programa vExpert es una manera de reconocer personas que están participando en esta comunidad constantemente.

http://blogs.vmware.com/vmtn/2014/04/vexpert-2014-announcement.html

https://communities.vmware.com/vexpert.jspa

El día de ayer se anunció el grupo de personas que forman la lista para el 2014 y con mucha sorpresa encontré que mi nombre ha sido agregado en ella.

El programa vExpert tiene varios años y desde sus inicios varias de las personas que componen esa lista son EXPERTOS en la materia. Los primeros vExperts fueron 300 en el año 2009 (https://blogs.vmware.com/vmtn/2009/02/vmware-vexpert-awards.html ). Después de un tiempo decidí aplicar en la nominación gracias a un post (http://www.pkguild.com/2012/12/the-non-definitive-guide-to-the-vmware-vexpert-program-tips-tricks-how-to-become-a-vexpert/)  de Christopher Kusek (@cxi) y varios DM en Twitter.

Gracias a Corey Romero, Jhon Troyer y VMware Social Media & Community Team.

A mantenerlo!!