Storage Analitycs – Datastore Contention.

Storage Analitycs.

Es el nombre de un DECK predeterminado en CloudPhysics y como su nombre lo implica, este DECK contiene 6 Cards dedicadas a decirnos que está pasando en nuestro almacenamiento conectado a vSphere y en el cual viven nuestras preciadas máquinas virtuales.

Una de las “cartas” en este DECK es Datastore Contention.

La finalidad de esta “carta” es detectar quienes causan contención en nuestro almacenamiento. Y lo hace muy bien.

 

Si contamos con varios Observer reportando vCenters diferentes (por cada vCenter necesitamos un Observer Appliance!!) podemos usar la opción de filtrado, con esta opción especificaremos cual vCenter queremos, cual datacenter, en cual cluster si tenemos varios y un datastore especifico. Usando el filtro y sus opciones tendremos la información exacta de que está aconteciendo en nuestro almacenamiento por cada Datastore que estemos presentando al vCenter.

Aja! Ya podemos ver que tenemos Datastore con contención, SynoVMwareVolume1, SynoVMwareVolume2 y Data6090G-SATA-Local.

Para fines de demostración estoy seleccionando el Datastore con más maquinas afectadas debido al alto consumo que vc5 está generando en el Datastore con el nombre SynoVMwareVolume1. En realidad esta imagen la tome varias horas después de la anterior y es la razón de que eran 11 y ahora solo 3.

Tenemos el culpable y las victimas, la pregunta ahora es como resolverlo?

En realidad eso depende (la respuesta típica!) de cada ambiente y en el mío que es mi HomeLab la forma de resolver esto es moviendo vC5 a otro Datastore con mejor rendimiento ya que además de tener vCenter esa VM también tiene instalado SQL y el software de manejo de PernixData FVP.

Esto es solo un poco de todo el potencial proporcionado por CloudPhysics y la analítica que nos brinda luego de registrar el Observer con nuestro vCenter.

Configurando la Base de Datos para Eventos en View 5.3

Como a otros, no me gusta tener servicios a ciegas, me refiero a no saber que pasa dentro del aplicativo y sus componentes, VMware View tiene la opción de conectar el Connection Server a una DB, en este caso lo estaré conectando a MSSQL para salvar esos eventos y poder analizarlos en caso de problemas en el servicio de View. Si hacemos click en Monitoring > Events tendremos la siguiente pantalla donde podemos ver un mensaje que nos indica que aún no hemos configurado la DB para los eventos.  Procederemos a realizar esta configuración, ya había creado la DB para estos fines, así que solo falta decirle al Manager cual es el servidor, las credenciales y el prefijo. Realizada la configuración podemos ver que la opción de eventos nos muestra que mi usuario realizo una configuración. View Connection Server también nos brinda enviar logs a un log server el cual más adelante también configurare.

VMware DRS con DPM en el HomeLAB.

Hoy llegue a casa para encontrar el área del HomeLAB demasiado caliente, en estos momentos en mi HomeLAB creo que existen demasiados dispositivos. (no!!!! Nunca!) En fin, mi ambiente de VMware consta de 3 ESXi los cuales están encendidos la mayoría del tiempo, la habitación donde están el HomeLAB por naturaleza es caliente ya que el Sol muere en sus paredes a eso agréguenle equipos generando calor. Hace tiempo atrás intente usar DPM para conseguir lo mismo que he conseguido esta vez, que DRS & DPM se encarguen de encender los ESXi cuando vSphere los necesite sin intervención manual.

Lo primero es que ninguno de mis equipos tiene iLO/IPMI u otra variante que ayude a DPM a realizar su tarea así que he recurrido al viejo y no tan confiable WoL (Wake-on-LAN). Uno de los inconvenientes conocidos con DPM es que no puede enviar la señal de levantar el ESXi si este no cuenta con un IP de manejo en un vSwitch, normalmente no uso vSwitch y siempre despliego vDSwitch para ahorrarme cosas y simplificar la conectividad de mis ESXi, por suerte esta vez contaba con una NIC que no la agregue a los vDSwitch y solo tuve que crearle otro vmk para manejo.

Los pasos son los siguientes:

Asegurarnos de que nuestra tarjeta soporta la funcionalidad.

Habilitar DPM en el Cluster y especificar Manual en las opciones de DPM dentro de DRS.

Seleccionamos un Host para hacer la prueba antes de permitirle a DPM que tome el control y lo enviamos a Standby de forma manual.

Una vez el host este en modo Standby intetamos traerlo devuelta usando la opción de PowerOn.

Si el ESXi vuelve del modo Standby quiere decir que estamos listos para dejar que DPM tome el control, en mi caso solo quería enviar a Standby un equipo el cual agregue hace unos días y que solo cuenta con 8GB de RAM (si, necesita mas memoria.) y que será solo para correr vESXi. Para solo enviar este equipo a Standby dirigimos nuestro mouse a Cluster -> Manage -> Host Options, editamos las opciones para el ESXi en específico, yo decidí dejar la configuración principal en Manual y editar los Host asignando Disable, Manual y Automatic respectivamente a mis ESXi. Aquí una imagen de como quedo la configuración.

 

Instalando VMware Horizon View (Composer).

Composer es un componente de VMware Horizon View y se basa en el uso de la tecnología de Linked-clone la cual posiblemente ya se conoce desde hace un tiempo.

Pre-requisitos:

View Composer solo soporta ser instalado en una versión de Windows 64bit. Puede ser instalado en la misma maquina donde tenemos nuestro vCenter o podemos instalarlo de manera “stand-alone”.

Los requerimientos exactos de Composer se pueden encontrar en este link: http://pubs.vmware.com/view-52/index.jsp#com.vmware.view.installation.doc/GUID-AF050FEA-5382-4D4A-BB83-24A087FD644B.html#GUID-AF050FEA-5382-4D4A-BB83-24A087FD644B

Lo primero que debemos hacer es decidir si nos conviene instalar Composer en la misma maquina o stand-alone, la siguiente instalación es stand-alone porque ya tengo en mi vCenter el software de manejo de PernixData FVP y no quería cargar más la maquina con el servicio de vCenter.

Con relación a la Base de Datos para Composer, este soporta MSSQL & Oracle, la siguiente instalación es realizada con una DB de MSSQL que en mi caso es el mismo SQL Server que uso para vCloud Director y otras aplicaciones en aaNetworks. La forma implementada en Composer para conectar a la DB es mediante DSN (System DSN) el cual debemos crear en el servidor donde queremos instalar el servicio. Una vez que tenemos nuestra DB y usuarios creados en el SQL procedemos a crear el System DNS.

Una vez creado nuestro ODBC podemos lanzar la instalación de Composer.

Listo, ya está instalado. En mi ambiente de LAB ya tenía instalado un Connection Manager conectado al vCenter, me toca editar esa conexión para ahora decirle que existe un Composer.

A estas alturas solo faltaría crear una VM con Windows7/8 para designarla como “Parent VM” y luego crear un pool en donde usaremos esta VM y crear los linked-clones necesarios en nuestro ambiente de VMware Horizon View.

aaNetworks HomeLAB Actualizaciones!! – Storage II.

Interesante nombre para un post…

Esto es porque ya había escrito uno con exactamente el mismo nombre y que mejor forma de seguir con la saga de nunca terminar con relación a los HomeLabs, el Storage.

En la ocasión anterior describí como el almacenamiento de mi LAB era proporcionado por unos pobres y lentos Iomega IX4-200D (en su momento fueron lo máximo!) y que necesitaba una solución para remediar la lentitud de estos.

Sucede que ambas soluciones en las cuales había pensado fueron posibles, ahora tengo licencia NFR de PernixData FVP y tuve la oportunidad de cambiar los IX4-200D por un equipo más potente, con más utilidad y funcionalidad.

PernixData no necesita introducción, pueden leer la entrada sobre su instalación aquí, he vuelto a reinstalar el management server, no fue upgrade o algo parecido. Aproveche que estaba instalando vCenter 5.5 en Windows 2K8R2 ya que anteriormente lo tenía en modo appliance con VCSA. Ahora vCenter y FVP Manager comparten la misma VM. Algo gracioso fue que anteriormente tenía la versión 1.5-BETA y ahora acababa de instalar la versión 1.5.0.4 pero cometí el error de no actualizar los componentes de los ESXi, para mi sorpresa FVP no estaba acelerando ninguna VM y siguió así hasta que no reinstale la versión correcta.

El reemplazo de los IX4-200D no es nada más que un HP Microserver N36L. Este pequeño amiguito está corriendo una versión CUSTOM de DiskStation Manager, si, el potente sistema que viene dentro de esos asombrosos NAS que todos queremos tener. Synology para mi entender es el preferido cuando hablamos de Almacenamiento para un HomeLab. Lamentablemente el precio de un Synology con 2xGigE LAN – 5+ HDD está por encima de los $700 dólares (diskless) y es un precio que no puedo pagar.

Cuando se trata de usar el DiskStation no hay diferencia si es un verdadero Synology o un XPEnology como le han llamado las personas involucradas en crear este CUSTOM de DSM.

La configuración para iSCSI es una maravilla y ya sé porque Synology tiene a tantos entusiastas de los HomeLab emocionados. Esta cosa soporta VAAI!.

Si te interesa montar un XPEnology este es el foro (http://xpenology.com/forum/) con la información.