NSX Controller en estado DEPLOYING permanente!

La razón del porque el despliegue del primer controlador de NSX fallara en mi LAB fue debido a que el disco en mi R710 se llenó. No creo que esto pase a menudo en producción.

En fin, después de levantar todo el AutoLab y que arrancaran las VM dentro de los Nested ESXi, veo que el estado del controller-1 es deploying y nunca paso de ahí. La gran idea fue detener el Manager, detener el controller-1 (la VM) y borrarla del inventario/disco. En vano, ya que cuando inicie el Manager este seguía con el objeto registrado y en el mismo estado.

Un poco de Google-fu me mostro que otros pasaron por lo mismo y que la solución propuesta es hacer un DELETE usando el API REST de NSX.

Ummmm API, con que se come eso?

Luego de intentar hacer el DELETE desde el navegador de forma normal, entendí que tenía que leer la documentación para saber cuál era la manera en que esto de REST funcionaba. La forma más efectiva para una persona del área de administración es instalando un add-on de Mozilla Firefox (en mi caso Firefox, si usas Chrome también existe un app).

Un documento importante para leer es el NSX API Guide (https://pubs.vmware.com/NSX-6/topic/com.vmware.ICbase/PDF/nsx_604_api.pdf), el cual en la página 25 tiene el siguiente texto:

 

Realizando una llamada API podríamos configurar todo un ambiente de conectividad basado en NSX pero lo que me extraña es que no exista la opción de un borrado forzoso desde Web Client en la sección de NSX.

No pude capturar imágenes realizando los pasos desde el RESTclient que instale en Firefox, si realizamos una búsqueda en Google uno de los enlaces que me llevaron a la solución fue https://communities.vmware.com/thread/522857?start=0&tstart=0 y la única diferencia es que este es el segundo controller desplegado.

Otro enlace con más información es http://blog.jgriffiths.org/?p=1198 en el cual tenemos imágenes usando el RESTclient.

AutoLab 2.6 – anda por las nubes.

Hace varios días fue liberado el “kit” que últimamente he estado usando cuando quiere hacer pruebas en VMware vSphere. En ocasiones anteriores ejecutaba AutoLab en VMware Wokstation pero esta vez he decidido que le sacaría más provecho si lo monto en mi HomeLab.

Lo bueno de esta versión es el soporte agregado para la reciente versión de vSphere 6 y les digo que funciona de maravillas, además si no tienes donde probar y necesitas acceso lo puedes hacer usando RavelloSystem ya que esta versión esta optimizada para esa plataforma.

Descargalo YA!

http://www.labguides.com/2015/04/30/autolab-with-vsphere-6-now-with-extra-cloud/

Aplicaciones para vExpert 2015 abiertas – Suerte!

Ya es noticia vieja que está abierto el formulario para vExpert 2015, y me emociona claro, pero al igual que el año pasado cuando también leía sobre la llegada del periodo donde se seleccionan los vExpert y no sabía que decir, que describir o que era valioso de “mis contribuciones”, lo mismo me pasa este año. Como comentaba en el VMworld 2014 donde tuve la oportunidad de hablar en un TechTalk (junto a otros vExperts de habla Hispana), sinceramente no sé cómo mantener la posición de vExpert.

Así que ahí vamos otra vez a llenar el formulario, lo único diferente esta vez es que usare el Fast Track. Suerte a todos!

http://blogs.vmware.com/vmtn/2014/11/vexpert-2015-applications-open.html

Actualizando Pernixdata FVP de 1.5 a 2.0

Hace varios días que está disponible para la descarga la nueva versión de PernixData FVP, no tenemos que ser magos para saber que inmediatamente queremos actualizar a esa versión para jugar con las nuevas funcionalidades.

El primer paso es mover todas las VM que están en modo Write Back a Write Through, una vez que todas esas VM están en este modo (lo podemos ver en Status) podremos actualizar el software de manejo (FVP Management Server) el cual es sorpréndete lo fácil que lo podemos actualizar contando con las avanzadas operaciones que FVP puede lograr en un ambiente de vSphere.

Cuando ejecutamos el instalador, automáticamente nos informara que estamos realizando una actualización de un servidor de manejo y procederemos haciendo click en Yes.

 

Aceptamos el EULA y hacemos click en Next para ver una ventana donde nos indica que esta hacienda un resumen de la instalación y no podemos volver atrás ya que el botón está deshabilitado.

Ya instalado el software de manejo, el próximo paso es actualizar el componente que se instala en los host de ESXi, la versión actual en mis equipos es la 1.5 y lo podemos revisar usando un comando en el mismo ESXi.

Para ser exacto, tienen instalada la versión 1.5.0.4-28301.

En el caso de los ESXi, el módulo de FVP debe ser desinstalado para luego instalar la versión nueva. La instalación anterior debe crear el script de desinstalación y solo lo debemos copiar a /tmp para luego ejecutarlo. Otro requerimiento es que los hosts deben ser puestos en modo mantenimiento para realizar estas operaciones.

Instalamos la nueva versión del módulo.

Debemos respaldar la configuración del ESXi ejecutando el auto-backup.sh que está en /sbin.

Por último, debemos sacar el host de mantenimiento, no creo que necesite un screenshot para esto!!

Este procedimiento se realiza por cada host ESXi que forma parte del cluster de FVP. Repeat!!

Pernixdata FVP – no detecta un SSD recién instalado.

Como parte del esperado upgrade de 1.5 a 2.0 de FVP, hoy he agregado un SSD a el tercer host de ESXi que tengo en casa, como estoy haciendo cambios, lo primero que hice fue crear un cluster nuevo de FVP asignando el cluster de vSphere donde solo esta BLACK (luego agregare a Green a ese cluster) me dice que el host no tiene ningún dispositivo en el cluster de flash (Flash cluster), esto es normal si estamos creando todo desde cero, que es mi caso.

El siguiente paso es simplemente seleccionar el dispositivo que usaremos para acelerar las VM, aún estoy en versión 1.5 así que solo puedo seleccionar SSD o PCIe Flash. En Manage tenemos la opción de agregar dispositivos que están siendo aportados por los hosts ESXi que forman parte del cluster. Al seleccionar esta opción la ventana que aparece simplemente esta en blanco y se tiene que seleccionar Show all devices para ver los dispositivos en cada host que actualmente no cumplen con el estado necesario y por eso no aparecen.

Aquí la misma ventana con la opción seleccionada.

Ahora podemos ver por qué el dispositivo no era detectado inmediatamente, tiene una partición MBR, este SSD lo acabo de instalar y nunca lo había usado, ni idea de que puede contener. La solución a esto es borrar esa partición MBR. Para esto usaremos PartedUtil desde el mismo ESXi.

El único inconveniente es que tenemos que reiniciar el host con ESXi para que se refleje el cambio. Ya con el host devuelta realizamos los pasos para agregar un dispositivo y podremos notar que no tenemos que seleccionar la opción anterior y el SSD está disponible para ser agregado a FVP.

Al final tenemos que poder ver el dispositivo y el host en Summary -> Resources

El próximo paso es mover a GREEN de cluster, como ya mencione, estoy reorganizando el ambiente de vSphere.