0

Actualizando Pernixdata FVP de 1.5 a 2.0

Hace varios días que está disponible para la descarga la nueva versión de PernixData FVP, no tenemos que ser magos para saber que inmediatamente queremos actualizar a esa versión para jugar con las nuevas funcionalidades.

El primer paso es mover todas las VM que están en modo Write Back a Write Through, una vez que todas esas VM están en este modo (lo podemos ver en Status) podremos actualizar el software de manejo (FVP Management Server) el cual es sorpréndete lo fácil que lo podemos actualizar contando con las avanzadas operaciones que FVP puede lograr en un ambiente de vSphere.

Cuando ejecutamos el instalador, automáticamente nos informara que estamos realizando una actualización de un servidor de manejo y procederemos haciendo click en Yes.

 

Aceptamos el EULA y hacemos click en Next para ver una ventana donde nos indica que esta hacienda un resumen de la instalación y no podemos volver atrás ya que el botón está deshabilitado.

Ya instalado el software de manejo, el próximo paso es actualizar el componente que se instala en los host de ESXi, la versión actual en mis equipos es la 1.5 y lo podemos revisar usando un comando en el mismo ESXi.

Para ser exacto, tienen instalada la versión 1.5.0.4-28301.

En el caso de los ESXi, el módulo de FVP debe ser desinstalado para luego instalar la versión nueva. La instalación anterior debe crear el script de desinstalación y solo lo debemos copiar a /tmp para luego ejecutarlo. Otro requerimiento es que los hosts deben ser puestos en modo mantenimiento para realizar estas operaciones.

Instalamos la nueva versión del módulo.

Debemos respaldar la configuración del ESXi ejecutando el auto-backup.sh que está en /sbin.

Por último, debemos sacar el host de mantenimiento, no creo que necesite un screenshot para esto!!

Este procedimiento se realiza por cada host ESXi que forma parte del cluster de FVP. Repeat!!

0

Pernixdata FVP – no detecta un SSD recién instalado.

Como parte del esperado upgrade de 1.5 a 2.0 de FVP, hoy he agregado un SSD a el tercer host de ESXi que tengo en casa, como estoy haciendo cambios, lo primero que hice fue crear un cluster nuevo de FVP asignando el cluster de vSphere donde solo esta BLACK (luego agregare a Green a ese cluster) me dice que el host no tiene ningún dispositivo en el cluster de flash (Flash cluster), esto es normal si estamos creando todo desde cero, que es mi caso.

El siguiente paso es simplemente seleccionar el dispositivo que usaremos para acelerar las VM, aún estoy en versión 1.5 así que solo puedo seleccionar SSD o PCIe Flash. En Manage tenemos la opción de agregar dispositivos que están siendo aportados por los hosts ESXi que forman parte del cluster. Al seleccionar esta opción la ventana que aparece simplemente esta en blanco y se tiene que seleccionar Show all devices para ver los dispositivos en cada host que actualmente no cumplen con el estado necesario y por eso no aparecen.

Aquí la misma ventana con la opción seleccionada.

Ahora podemos ver por qué el dispositivo no era detectado inmediatamente, tiene una partición MBR, este SSD lo acabo de instalar y nunca lo había usado, ni idea de que puede contener. La solución a esto es borrar esa partición MBR. Para esto usaremos PartedUtil desde el mismo ESXi.

El único inconveniente es que tenemos que reiniciar el host con ESXi para que se refleje el cambio. Ya con el host devuelta realizamos los pasos para agregar un dispositivo y podremos notar que no tenemos que seleccionar la opción anterior y el SSD está disponible para ser agregado a FVP.

Al final tenemos que poder ver el dispositivo y el host en Summary -> Resources

El próximo paso es mover a GREEN de cluster, como ya mencione, estoy reorganizando el ambiente de vSphere.

 

 

0

Storage Analitycs – Datastore Space.

Storage Analitycs.

Es el nombre de un DECK predeterminado en CloudPhysics y como su nombre lo implica, este DECK contiene 6 Cards dedicadas a decirnos que está pasando en nuestro almacenamiento conectado a vSphere y en el cual viven nuestras preciadas máquinas virtuales.

Una de las “cartas” en este DECK es Datastore Space.

La finalidad de esta “carta” es detectar como asignamos y usamos el espacio en los datastore que están conectados a nuestros ESXi ya sean directos, NFS, FC o iSCSI.

Una de las cualidades de esta carta es que desde el mismo DECK ya podemos saber si tenemos algún problema en nuestros datastore, en mi caso existen 2 alertas.

Una vez dentro de Datastore Space lo primero que vemos es la organización de todo nuestro ambiente de vSphere, esto puede llevarnos a confundir o tener que invertir tiempo en la búsqueda de la información que necesitamos. Lo mejor es usar la opción de Filter.

El filtro usado en este ejemplo es directamente al cluster de ESXi ubicado en mi HomeLAB. Podemos seguir filtrando con la opción de Show datastores with que la tenemos más abajo.

 

Mucha información, que hacemos con ella?

Después de aplicar los filtros tenemos menos información que interpretar y esto muchas veces es bueno porque nos libra de posibles errores al consumir la información.

En la imagen anterior vemos el resultado de los filtros aplicados, este resultado está compuesto por diferentes valores de los cuales conocemos algunos que siempre están presentes en nuestro vCliente o Web Cliente. El valor que me llama la atención es el Over-Commitment, esto es por el uso abusivo de Thin Provisioning en el HomeLAB.

Reclaimable Space nos brinda más información y esta vez concerniente a Snapshots, Thin Provisioning y el espacio usado por máquinas virtuales que posiblemente no son necesarias nunca más.

Datastores at High Risk nos muestra los datastore que están en peligro de quedar sin espacio, lo interesante es la predicción que se muestra, creo que esto es en base al historial de cómo se va consumiendo el espacio en estos datastore.

Como en la entrada anterior, toda esta información nos ayudaría a evitar un problema causado por un Datastore que se quedó sin espacio. Desde esta misma carta podemos ver una lista de las VMs que residen allí, el espacio ya siendo utilizado por la VM así como el espacio que fue aprovisionado para esta al momento de crear el o los discos virtuales.

 

Nota: Si aún no tienes cuenta en CloudPhysics, puedes generar una. Es completamente gratis y podrás usar las opciones avanzadas por 30 días.

1

Storage Analitycs – Datastore Contention.

Storage Analitycs.

Es el nombre de un DECK predeterminado en CloudPhysics y como su nombre lo implica, este DECK contiene 6 Cards dedicadas a decirnos que está pasando en nuestro almacenamiento conectado a vSphere y en el cual viven nuestras preciadas máquinas virtuales.

Una de las “cartas” en este DECK es Datastore Contention.

La finalidad de esta “carta” es detectar quienes causan contención en nuestro almacenamiento. Y lo hace muy bien.

 

Si contamos con varios Observer reportando vCenters diferentes (por cada vCenter necesitamos un Observer Appliance!!) podemos usar la opción de filtrado, con esta opción especificaremos cual vCenter queremos, cual datacenter, en cual cluster si tenemos varios y un datastore especifico. Usando el filtro y sus opciones tendremos la información exacta de que está aconteciendo en nuestro almacenamiento por cada Datastore que estemos presentando al vCenter.

Aja! Ya podemos ver que tenemos Datastore con contención, SynoVMwareVolume1, SynoVMwareVolume2 y Data6090G-SATA-Local.

Para fines de demostración estoy seleccionando el Datastore con más maquinas afectadas debido al alto consumo que vc5 está generando en el Datastore con el nombre SynoVMwareVolume1. En realidad esta imagen la tome varias horas después de la anterior y es la razón de que eran 11 y ahora solo 3.

Tenemos el culpable y las victimas, la pregunta ahora es como resolverlo?

En realidad eso depende (la respuesta típica!) de cada ambiente y en el mío que es mi HomeLab la forma de resolver esto es moviendo vC5 a otro Datastore con mejor rendimiento ya que además de tener vCenter esa VM también tiene instalado SQL y el software de manejo de PernixData FVP.

Esto es solo un poco de todo el potencial proporcionado por CloudPhysics y la analítica que nos brinda luego de registrar el Observer con nuestro vCenter.

0

aaNetworks HomeLAB Actualizaciones!! – Storage II.

Interesante nombre para un post…

Esto es porque ya había escrito uno con exactamente el mismo nombre y que mejor forma de seguir con la saga de nunca terminar con relación a los HomeLabs, el Storage.

En la ocasión anterior describí como el almacenamiento de mi LAB era proporcionado por unos pobres y lentos Iomega IX4-200D (en su momento fueron lo máximo!) y que necesitaba una solución para remediar la lentitud de estos.

Sucede que ambas soluciones en las cuales había pensado fueron posibles, ahora tengo licencia NFR de PernixData FVP y tuve la oportunidad de cambiar los IX4-200D por un equipo más potente, con más utilidad y funcionalidad.

PernixData no necesita introducción, pueden leer la entrada sobre su instalación aquí, he vuelto a reinstalar el management server, no fue upgrade o algo parecido. Aproveche que estaba instalando vCenter 5.5 en Windows 2K8R2 ya que anteriormente lo tenía en modo appliance con VCSA. Ahora vCenter y FVP Manager comparten la misma VM. Algo gracioso fue que anteriormente tenía la versión 1.5-BETA y ahora acababa de instalar la versión 1.5.0.4 pero cometí el error de no actualizar los componentes de los ESXi, para mi sorpresa FVP no estaba acelerando ninguna VM y siguió así hasta que no reinstale la versión correcta.

El reemplazo de los IX4-200D no es nada más que un HP Microserver N36L. Este pequeño amiguito está corriendo una versión CUSTOM de DiskStation Manager, si, el potente sistema que viene dentro de esos asombrosos NAS que todos queremos tener. Synology para mi entender es el preferido cuando hablamos de Almacenamiento para un HomeLab. Lamentablemente el precio de un Synology con 2xGigE LAN – 5+ HDD está por encima de los $700 dólares (diskless) y es un precio que no puedo pagar.

Cuando se trata de usar el DiskStation no hay diferencia si es un verdadero Synology o un XPEnology como le han llamado las personas involucradas en crear este CUSTOM de DSM.

La configuración para iSCSI es una maravilla y ya sé porque Synology tiene a tantos entusiastas de los HomeLab emocionados. Esta cosa soporta VAAI!.

Si te interesa montar un XPEnology este es el foro (http://xpenology.com/forum/) con la información.