PernixData FVP – Un mes después.

Bueno, no es exactamente 1 mes. Si cuento desde el momento de la instalación han pasado 53 días y los resultados son buenos. Cuando digo han sido buenos tengo que aclarar que la carga de IOPs de mi LAB no es nada comparable ni siquiera con una implementación SMB ya que estas VM son pasivas y pocas veces consumen IOPs como para que se caiga el NAS que proporciona iSCSI.

La implementación de FVP en el LAB fue con mira a crear una experiencia en el uso de SSD + FVP para acelerar workloads críticos, en mi LAB el único workload critico es el PLEX.

Cuando accedemos a nuestro Cluster de FVP la primera pestana que veremos es Summary, allí tenemos varios recuadros que nos muestran el estado del Cluster FVP que hallamos seleccionado.

Para FVP los recursos son Host ESXi, SSD o PCI Flash.

Status – Siempre querremos ver el estado de nuestro Cluster FVP en verde.

Como decía en el post donde realizaba la instalación de FVP, el área de Performance podría ser el primer lugar donde miremos en busca de información de cómo va trabajando el Cluster de FVP.

Si miramos en la pestaña de Monitor, conseguiremos información de que tanto espacio de la SSD están usando las VMs, el host donde corre la VM, consumo de SSD vía red, la política que hemos asignado (Write Back o Write Through) y por último la política que se está usando. La política que se está aplicando a la VM puede cambiar si tenemos problemas den el Cluster, por ejemplo en mi LAB si uno de los host está apagado inmediatamente todas las políticas que seleccione como Write Back pasan a Write Through.

Hacemos click en View Performance y llegaremos a la pestaña en Monitor -> Performance  -> Virtual Machines con la información referente al desempeño de la VM llamada Plex.

Esto es solo un poco de las estadísticas que FVP puede presentar, más adelante tratare de tener un mejor análisis de como FVP acelera una VM, intentare hacer pruebas con un SQL y reportare los detalles.

Publicada la lista de vExpert 2014 – Estoy en ella!

Si eres del mundo de la virtualización con VMware es seguro que sabes de qué trata el programa de vExpert. Si no lo sabes, se trata de lo siguiente:

vExpert en términos simple, es un miembro activo de la comunidad de VMware quien comparte sus conocimientos con otros. El programa vExpert es una manera de reconocer personas que están participando en esta comunidad constantemente.

http://blogs.vmware.com/vmtn/2014/04/vexpert-2014-announcement.html

https://communities.vmware.com/vexpert.jspa

El día de ayer se anunció el grupo de personas que forman la lista para el 2014 y con mucha sorpresa encontré que mi nombre ha sido agregado en ella.

El programa vExpert tiene varios años y desde sus inicios varias de las personas que componen esa lista son EXPERTOS en la materia. Los primeros vExperts fueron 300 en el año 2009 (https://blogs.vmware.com/vmtn/2009/02/vmware-vexpert-awards.html ). Después de un tiempo decidí aplicar en la nominación gracias a un post (http://www.pkguild.com/2012/12/the-non-definitive-guide-to-the-vmware-vexpert-program-tips-tricks-how-to-become-a-vexpert/)  de Christopher Kusek (@cxi) y varios DM en Twitter.

Gracias a Corey Romero, Jhon Troyer y VMware Social Media & Community Team.

A mantenerlo!!

AutoLab 1.5 liberado – vSphere 5.5 Ready!

Mucha ha sido la espera pero ya se ha liberado la versión 1.5 de AutoLab que a su vez ha sido soportada por Infinio, gracias a este nuevo sponsor Alastair ha conseguido más tiempo para dedicar al proyecto, AutoLab 1.5 está disponible para todos, a descargar!

Características principales?

Soporte para VSAN!
Soporte para View 5.2 & 5.3
 

Una diferencia a tomar en cuenta con respecto a versiones anteriores es el incremento en la RAM requerida por los vESX, ahora estos necesitan 4G (6G mientras iniciamos VSAN) y son 3 vESX debido a VSAN, podremos disminuir esto a 2G luego de haber desplegado AutoLab.

Enlace para la descarga – http://www.labguides.com/autolab/

AutoLab tiene logo!

VMware Virtual SAN – Proof of Concept Guide

Si está en el proceso de crear un PoC de VSAN, VMware tiene publicado una step-by-step de cómo crear uno y no fallar en el intento. Haciendo uso de este recurso y de los Lab de HOL se aseguraría una implementación de VSAN.

http://www.vmware.com/files/pdf/products/vsan/VMware_Virtual_SAN_POC_Guide.pdf

http://labs.hol.vmware.com/HOL/#lab/562

aaNetworks HomeLAB Actualizaciones!! – Storage.

Hace tiempo que no escribo nada sobre el homelab, muchos cambios le han ocurrido al entorno que uso para pruebas de Virtualización & Redes.

El homelab tuvo su relanzamiento hace más o menos 2 años y hace unos meses ha tenido cambios significativos que han mejorado su rendimiento. Vamos a comenzar por el Almacenamiento.

Desde que tengo homelab el almacenamiento siempre ha sido proporcionado por custom-build, inicialmente era FreeNAS, luego OpenFiler, en un momento Nexenta y de vuelta a OpenFiler, esto simplemente porque no podía hacerme de un Iomega IX o de un Synology, pero ya que el Iomega ha bajado tanto el precio he adquirido 2, uno por ebay y otro ha sido un regalo, el problema de estos era que estaban bricked y volverlos a la vida fue bastante fácil.

Cuento con 2 Whitebox ESXi 5.5 a los cuales les doy conectividad (mediante iSCSI) a 1 iomega IX4-200d con 2x2TB (RAID 1) para un total de 1.8TB de espacio para las VM que necesito, el único inconveniente con esta actualización es que para un equipo de casi 5 años no es fácil lidiar con la carga de IOPS que demandan mis ESXi y más al momento de iniciar varias VMs al mismo tiempo.

Esta configuración está funcionando desde principios de Enero con resultados aceptables, excepto cuando tengo corte de luz y ambos ESXi pierden energía (welcome to DR), al momento de restaurar la energía, todas las VM son arrancadas al mismo tiempo y es ahí cuando tengo ganas de cambiar el IX4-200d.

Voy a llevar versiones del homelab y haciendo cuenta esta es la versión 3.0, la versión 1.0 fue basada en motherboard adquiridos en eBay de la marca Tyan, estos eran bastante grandes y con solo 8G de RAM. En esta versión 3.0, ha cambiado la forma en que administro el homelab ya que ahora cuento con ESXi que están ubicados en verdaderos datacenters y están disponibles 24×7 con buen ancho de banda, por esto decidí que todo lo relacionado a manejo (VCSA, vCloud, vShield, vMA y otros acrónimos que comienzan con “v”) serán desplegados en uno de esos ESXi. Así que ahora en la versión 3.0 los equipos en casa son para recursos de vCloud Director (en proceso).

Desempeño del Almacenamiento actual.

Los IX4-200d en su momento fueron todo un boom en Internet/comunidad VMware, por su precio y porque proporciona iSCSI & NFS (aunque solo NFS está certificado para trabajar con VMware), pero para esta época no son tan geniales. Como decía, son 2, uno con 1.8Tb y otro con 1Tb (ambos en RAID1) y para almacenar las VM son perfectos.

PernixData FVP + SSD to the rescue!

Ya con alrededor de 2 meses usando el homelab v3 había notado la lentitud del almacenamiento cuando realizaba backups con Veeam (lo mejor que usado hasta el momento para respaldar VM) ya que siempre reportaba que el cuello de botella era la Fuente (los IX4-200d), el destino de estos backup es un Mini-ITX con unRAID (tema de otra entrada) y cuenta con un Atom a 1.8, 2Gb de RAM y 4Tb de espacio.

Buscando una solución que no sea adquirir otro almacenamiento o montar otra PC con OpenFiler decidid probar local cache son SSD, no me decidía a hacer esto ya que suponía un costo y no estaba seguro que funcionaria, luego presto atención a PernixData y decido inscribirme en el beta, compro los SSD y manos a la obra.

Saben que, FVP es una maravilla, ahora no siento la necesidad de cambiar los viejos IX4-200d ya que el cache con FVP está rindiendo frutos! Lástima que la licencia sea solo por 60 días, he aplicado para una versión NFR así que ha esperar. Si no consigo la licencia estoy pensando en mover el almacenamiento a VSAN, el único inconveniente es que necesitaría otro ESXi para poder estar en el mínimo requerido. Ha esperar!

OpenWRT en aaNetworks – BGP, Anycast DNS & OpenDNS.

OpenWRT puede ser que no necesite introducción pero aquí va, OpenWRT es un pequeño Linux que se instala en muchos dispositivos embeded. Después de muchos años siendo usuario de m0n0wall luego pfSense y por ultimo Vyatta, decidí usar este pequeño amiguito por el hardware que tengo disponible en este momento, tengo 2 Soekris, uno es 4801 y otro es 4501, ambos productos son bastante viejos.

La instalación en x86 (plataforma de Soekris) fue muy sencilla, estos son los pasos:

  1. descargar http://downloads.openwrt.org/attitude_adjustment/12.09/x86/generic/openwrt-x86-generic-combined-ext4.img.gz
  2. Usando 7-Zip extraer el archivo .img
  3. Usando dd en Linux o WinImage en Windows enviamos la imagen a nuestro CF.
  4. Nos aseguramos de tener la velocidad correcta en el Soekris, esta debe ser igual que la implementada por defecto en OpenWRT (38400).

En este punto deberíamos tener un OpenWRT listo para trabajar con él.

El Soekris 4801 (ELZAR) y el 4501 (WERNSTROM) forman parte de una Mesh VPN usando Tinc. Gracias a esto tengo varias localidades interconectadas vía VPN con poco mantenimiento requerido para funcionar.

En este post me centrare en como he hecho para tener filtro de DNS y Anycast DNS. Anycast es algo que no se ve en una red casera pero mi red desde hace tiempo dejo de ser normal. OpenWRT cuenta con un package manager (opkg) que nos permitirá instalar software para conseguir las funcionalidades que deseamos en nuestro OpemWRT. Lo primero, claro, es tener nuestro OpenWRT funcionando y con el NAT deshabilitado (ese es el caso en mi red), instalaremos  BGP (Quagga) y reconfiguraremos DNSmasq.

Instalando los paquetes.

Quagga es la suite que usaremos para tener BGP (OSPF lo uso para redistribuir rutas a mi Vyatta), esto nos ahorrara trabajo (tengo otros nodos con Quagga) ya que solo tendré que copiar parte de la configuración, cambiar ASN, router ID y otras mínimas líneas de la config.

opkg update

Estos son los paquetes instalados actualmente en ELZAR.

  • quagga
  • quagga-bgpd
  • quagga-libospf
  • quagga-libzebra
  • quagga-ospf6d
  • quagga-ospfd
  • quagga-vtysh
  • quagga-watchquagga
  • quagga-zebra

Ahora toca configurar e iniciar los servicios para tener BGP funcionando. La instalación es por defecto, esto quiere decir que tendremos /etc/quagga donde pondremos los archivos de configuración que se requieren.

Para que BGP (módulo de Quagga) funcione necesitamos tener configurado zebra.conf y bgpd.conf.

Configuración básica de estos archivos.

zebra.conf :

  • hostname -zebra
  • password MiSuperPassword
  • service advanced-vty
  • !
  • line vty
  • access-class vty
  • !

bgpd.conf :

  • hostname -bgpd
  • password MiSuperPassword
  • service advanced-vty
  • !
  • access-list vty permit 127.0.0.0/8
  • access-list vty deny any
  • !
  • line vty
  • access-class vty
  • exec-timeout 0 0
  • !

Con esto podemos iniciar el servicio de Quagga usando /etc/init.d/quagga start, ya tendremos el servicio de BGP funcionando pero aun no es suficiente para que OpenWRT cumpla con la tarea asignada, ahora toca configurar BGP conectándonos a la consola que está disponible en el puerto 2605 (telnet localhost bgpd) y nos pedirá el password que usamos en la configuración base (MiSuperPassword en este ejemplo). Una vez dentro configuraremos nuestro número autónomo, las subredes que anunciaremos desde este router y los vecinos a quienes estaremos anunciando estas subredes.

Esta es la configuración en ELZAR (un poco editada).

  • Current configuration:
  • !
  • hostname elzar-bgpd
  • password MiSuperPassword
  • service advanced-vty
  • !
  • router bgp 64845
  • bgp router-id 10.45.254.9
  • network 10.45.254.9/32
  • network 10.45.255.1/32

Toda la configuración después de estas líneas es relacionada a los vecinos (neighbors) con los cuales el servicio de BGP intercambia rutas.

Internamente son 3 router con BGP que usar el ASN 64845 y están agrupados así:

  • neighbor aaNetworksHQ peer-group
  • neighbor aaNetworksHQ remote-as 64845
  • neighbor aaNetworksHQ override-capability
  • neighbor aaNetworksHQ next-hop-self
  • neighbor aaNetworksHQ soft-reconfiguration inbound

De esta manera solo necesito hacer lo siguiente para establecer relación entre 2 routers con el mismo ASN:

  • neighbor 10.45.252.10 peer-group aaNetworksHQ
  • neighbor 10.45.252.10 update-source 10.45.252.9
  • neighbor 10.45.252.14 peer-group aaNetworksHQ
  • neighbor 10.45.252.14 update-source 10.45.252.13

El router 10.45.252.10 es otro OpenWRT (wernstrom) el cual también funciona como Anycast DNS en mi red local, el router con 10.45.252.14 es un Vyatta que funciona como router para Internet y es quien agrupa todas las rutas que se puede distribuir hacia el OSPF internamente.

Al final terminamos con algo así:

  • router bgp 64845
  • bgp router-id 10.45.254.9
  • network 10.45.254.9/32
  • network 10.45.255.1/32
  • neighbor aaNetworks peer-group
  • neighbor aaNetworks remote-as 64635
  • neighbor aaNetworks update-source aanet
  • neighbor aaNetworks override-capability
  • neighbor aaNetworks soft-reconfiguration inbound
  • neighbor 10.45.252.10 peer-group aaNetworksHQ
  • neighbor 10.45.252.10 update-source 10.45.252.9
  • neighbor 10.45.252.14 peer-group aaNetworksHQ
  • neighbor 10.45.252.14 update-source 10.45.252.13

Ya tenemos a ELZAR conectado (Interfaces dedicadas hacia los demás routers) a sus vecinos e intercambiando rutas, Excelente!.

La idea es que ELZAR y WERNSTROM publiquen la dirección 10.45.255.1 y a su vez estén corriendo DNSmasq que por defecto viene instalado en OpenWRT. Antes de seguir, aquí dejo un pequeño diagrama de red para que se pueda entender la idea.

Otra configuración que debemos realizar es en zebra.conf, allí crearemos las interfaces donde tendremos las direcciones IP con /32, estas son la loopback (usada en router id & la IP para Anycast).

La configuración en ELZAR es la siguiente:

  • Current configuration:
  • !
  • hostname elzar-zebra
  • password MiSuperPassword
  • service advanced-vty
  • !
  • interface aanet
  • ipv6 nd suppress-ra
  • !
  • interface eth0
  • description “testing”
  • ipv6 address 2001:470:b24c:f021::1/126
  • ipv6 nd suppress-ra
  • !
  • interface eth1
  • ipv6 address 2001:470:b24c:ff22::2/126
  • ipv6 nd suppress-ra
  • !
  • interface eth2
  • ipv6 address 2001:470:b24c:dead::9/64
  • ipv6 nd suppress-ra
  • !
  • interface lo
  • ip address 10.45.254.9/32
  • ipv6 address 2001:470:b24c:254::9/128
  • ip address 10.45.255.1/32
  • !
  • access-list vty permit 127.0.0.0/8
  • access-list vty deny any
  • !
  • ip forwarding
  • ipv6 forwarding
  • !
  • !
  • line vty
  • access-class vty
  • !
  • End

Aquí se pueden ver las 2 direcciones IP.

En este momento las direcciones de loopback y la usada para Anycast son visibles en los demás routers de mi red.

Configurando DNSmasq al estilo OpenWRT.

OpenWRT tiene su método de configuración, aunque la mayoría de los paquetes instalables se pueden configurar vía su propio método, algunas veces es mejor hacerlo así.

DNSmasq es configurado desde /etc/config específicamente en el archivo dhcpd.

Luego procedemos a editar el dnsmasq.conf ubicado en /etc, aquí podemos realizar configuración de la forma oficial y soportada por el proyecto de dnsmasq. La configuración es muy extensa pero lo más importante y relacionado con esta entrada es:

  • listen-address=10.45.255.1
  • #Send most DNS lookups to opendns.com
  • server=208.67.222.222
  • server=208.67.220.220
  • #aaNetworks request to internal servers
  • server=/aanetworks.org/172.22.35.66
  • #server=/aanetworks.org/10.45.254.7
  • server=/172.in-addr.arpa/172.22.35.66
  • server=/10.in-addr.arpa/172.22.35.66
  • server=/aanetworks.local/172.22.35.50
  • server=/aanetworks.local/172.22.35.100

No me gusta que OpenDNS me responda bogus-nxdomain así que agregamos lo siguiente:

  • #blocked opendns.com bogus-nx
  • bogus-nxdomain=67.215.65.130
  • bogus-nxdomain=67.215.65.132
  • bogus-nxdomain=208.67.222.222
  • bogus-nxdomain=208.67.220.220

Reiniciamos DNSmasq para probar que nuestro IP para Anycast DNS sea utilizado como IP preferido para escuchar en los puertos de DNS.

Desde un cliente de la red, con una dirección de 172.22.35.0/26 esto es lo que tenemos cuando hacemos un dnslookup.

También un traceroute desde el mismo cliente que se realizó el nslookup.

Removiendo un vCenter no existente en vCloud Director.

Hace un tiempo que tenía instalado y funcionando vCloud Director en el homelab pero el vCenter en ese momento sufrió un accidente y fue reemplazado por un vCSA en un ESXi remoto (en OVH). El problema fue que toda la configuración realizada en ese vCenter se perdió, en ese momento no le di importancia.

Hace unos días decidid seguir jugando un poco más con vCloud pero quería recuperar la instalación de vCloud & vShield. vShield fue fácil, eliminar el plugin usando instrucciones encontradas aquí (https://communities.vmware.com/docs/DOC-10847).

vCloud fue un poco problemático, cada vez que intentaba eliminar el vCenter este me mostraba un error donde me decía que aun tenia dependencias de vCenter configuradas en algún sitio. Estas dependencias eran 2 host ESXi que fueron preparados desde vCloud.

Al final encontré un KB (2057335) donde explicaba como remover datasotre problemáticos en vCloud, decidi probar algo y además de las instrucciones de eliminar información de la base de datos, agregue el contenido de la tabla managed_server en la cual se encontraban los 2 ESXi.

 

Luego de realizar estos pasos podemos hacer un detach a nuestro viejo vCenter.

Aventuras en Flash! – PernixData FVP en el homelab.

Lo primero es que Flash en los Hypervisores es una realidad, eso queda demostrado por las nuevas tendencias (Pernixdata & VMware VSAN), así que si aún no etas explorando esas alternativas recomiendo que dediques un tiempo e investigues.

 
Esta entrada es para explicar un poco como está configurado mi homelab y que he estado haciendo con él. El homelab es muy básico, cuenta con almacenamiento por iSCSI (Iomega ix4-200) y 2 ESXi. Desde hace tiempo se ha estado hablando de PernixData y decidí investigar, al momento de entrar al sitio web veo que tienen un formulario para solicitar el beta y sin pensarlo me inscribí, lo próximo que supe era que tenía una llamada de un representante para recolectar información y determinar si era elegible para el beta, muy amablemente me informaron que tenía que contar con dispositivos Flash (SSD o PCIe), desde hace un tiempo ya estaba pensando con agregar SSD a los 2 ESXi del homelab así que tome esto como excusa para visitar eBay y adquirir 2 SSD de 128G Kingston.

 
Otro dato era que la versión que en ese momento se estaba ofreciendo en el beta era la 1.0 que no tiene soporte para vSphere 5.5 y que actualmente tengo en mi homelab, pero luego me entere que la versión 1.5 de FVP viene con soporte para vSphere 5.5… ¡Excelente!

 
Un correo con la información de descarga para la beta fue lo próximo que recibí, unos momentos leyendo la guía de instalación y estaba listo para la aventura. Es increíblemente sencillo (¿está de moda lo simple?), ya tenía instalado los SSD en ambos host de ESXi y solo faltaba instalar el VIB el cual no requiere que reinicies el host, esto quiere decir que si ya se tenía el dispositivo SSD en el equipo no tendríamos ningún corte de servicio cuando vayamos a instalar esta solución.

 
Siguiendo paso a paso la guía de instalación esto es lo que deberíamos hacer:
1.    Instalar el VIB en nuestros equipos que cuentan con los SSD.
2.    Instalar el software de manejo, si usamos VCSA deberemos seleccionar un equipo con Windows Server para realizar esta instalación, yo he decidido crear una nueva VM para esto e instalar SQL Express.
3.    Registrar el plugin en vSphere Web Client, necesitamos entrar al portal de administración de VCSA y reiniciar el servicio de web client.

 
Fácil, aquí están las imágenes tomadas de la instalación realizadas en mi homelab.

esxcli software vib install -d <ZIP file name with full path> —no-sig-check

/sbin/auto-backup.sh

nota: En la imagen se puede apreciar que cuando ejecute el comando para instalar el VIB no use el PATH completo y por eso recibí un error como respuesta.

 
Luego que tenemos los VIB + Management Software instalados podemos proceder a crear nuestro cluster de Flash.
Falta poco para tener los beneficios de FVP, lo próximo es decidir si agregamos todo un datastore o si agregamos solo las VM que queremos que sean aceleradas por FVP. Yo he decidido probar con Máquinas Virtuales directamente, debemos tener en cuenta que si contamos con más de 1 clúster de SSD en FVP podemos tener varias asignaciones, por ejemplo, si tenemos una VM (WEB01) y esta VM reside en un datastore (DS01), agregamos el datastore a un clúster de Flash llamado Silver y as u vez queremos que la VM sea acelerada por el Clúster de Flash llamado Gold es posible por el hecho de que FVP da prioridad a la asignación hecha directamente a la VM.

 
Para administrar nuestro cluster de Flash debemos dirigirnos a una nueva sección que aparecerá en nuestra área derecha, así podemos crear el clúster y realizar todo lo relacionado a FVP. Inicialmente en esta parte encontré un inconveniente que ya reporte al programa de beta en PernixData. Creo que es algo relacionado a mi ambiente de lab ya que se de otras personas que están usando FVP 1.5 sin problemas via vSphere Web Client.

Realizando el proceso para la creación de un clúster obtenía un error, en un principio pensé en problemas de conexión al servicio de inventario de vSphere pero al final parece que no es el caso ya que usando el módulo de FVP para PowerShell pude crear el cluster.

Para crear el cluster desde PowerShell hacemos lo siguiente:
1.    Registrarnos con el servicio de manejo de FVP


2.    Creamos el cluster – Luego de –Name usaremos el nombre que deseamos para el Cluster, en mi caso fue aaFlash


Después podemos volver al WebClient y no tendremos problemas.

 
En lo personal creo que una de las secciones más visitadas por una persona que tenga FVP en su ambiente de vSphere es el tab de Summary, en este tab podemos ver información relacionada al cluster y a las datastore o VM que estén siendo aceleradas.

 

Se puede notar que FVP ha ayudado de manera significativa a mi pobre ix4-200 que en su momento fue un dispositivo relevante para el homelab, últimamente ha sido desplazado por otros NAS debido al poco rendimiento que este ofrece.

 

 
En fin, este ha sido el inicio de mis aventuras en Flash. El trial tiene 60 días de licencia así que después que termine el trial decidiré si uso VSAN o si monto un NAS (XPEnology?) y agrego los SSD allí.

Para terminar, una lista de enlaces casi obligatorios para leer sobre FVP.
Frank Denneman
http://frankdenneman.nl/pernixdata/
Chris Wahl
http://wahlnetwork.com/2014/02/10/pernixdata-1-5/

http://wahlnetwork.com/tag/pernixdata/

VMware Horizon View – sin proxy.

Desde hace tiempo uso la versión HTML de VMware View porque siempre tenía problemas de conexión debido al proxy. Actualmente tengo un View instalado en casa y otro hospedado en OVH, ambas instalaciones se ven una a la otra y no importa en cual bróker me conecte puedo acceder a las mismas VMs sin problemas. El portal Web es útil, pero siento que el desempeño de las VM no es el mismo que cuando conecto usando el cliente nativo.

El caso es el siguiente, establezco una VPN para poder tener acceso a aaNetworks (network playground), de este modo puedo acceder a todos los equipos que componen mi red (172.22.35.0/24, 172.22.114.0/24 & 10.45.0.0/16 – RouterLooingGlass). Ya tengo el cliente de View instalado y lo normal sería decirle cual es el FQDN del bróker (view.aanetworks.local o desktops.aanetworks.org) y esperar para introducir el usuario y password, lamentablemente detrás de un proxy a veces no funciona y nos encontramos con esta ventana de error:

La soluciona este error es crear una entrada en el Registro de Windows (RegEdit) para que el cliente de View se salte el proxy. En View 5.x en adelante solo se crea una entrada en el Registro – HKEY_LOCAL_MACHINE\SOFTWARE\Policies\VMware, Inc.\VMware VDM\Client\.

Creamos el nuevo key llamado TunnelProxyBypass que es un MultiStringValue. Normalmente para que un cambio en el registro tome efecto debemos reiniciar la máquina, una vez la máquina de vuelta en Windows no deberíamos tener problemas para acceder a nuestro View sin proxy, pero a diferencia de mi caso el bróker no está en la red local, lo veo solo cuando estoy conectado a mi VPN. Para solventar esto he recurrido a un viejo truco en Windows (o en cualquier OS moderno), he manipulado la tabla de hosts y creado entradas para los dominios de mis bróker y de esta manera el trafico se realice vía VPN.

De ahora en adelante en lugar de usar el FQDN completo solo uso la parte host del bróker, es decir que para conectarme a view.aanetworks.local solo usaría view en el cuadro de Connection Server.

El proceso está documentado en el KB1009238 - Configuring VMware View Client to bypass Internet Explorer proxy settings (1009238).

Conectividad… Si, ESXi loves Gigabit Networking.

1G es uno de los requerimientos más obvios en una infraestructura de ESXi (vSphere!), la última vez que intente activar vMotion en una tarjeta de red sincronizada a 100M me presento un hermoso warning donde decía que el mínimo es 1G. Últimamente este no es un problema ya que las nuevas tendencias son de 10G y más, si más!

Un tema diferente es el HomeLAB. Los switches Gigabit dependiendo el modelo son caros y si lo conseguimos a un precio moderado entonces nos sale cara la factura de la luz y no podemos estar cerca de ellos por lo ruidoso que son. Desde hace un tiempo estoy usando hardware de Mikrotik (link) para routing y cosas relacionadas a OSPF & BGP (hasta MPLS se puede probar en estos aparaticos!), aunque desde hace tiempo el fuerte de ellos es el routing decidieron lanzar producto para conectividad LAN (me refiero a un switch).

El primer modelo que lanzaron fue el RB250GS (http://routerboard.com/RB250GS) que parece no fue tan popular (problemas?). El sucesor de este es el RB260GS (http://routerboard.com/RB260GS) que agrego un puerto SFP.

Pros: Baratos, bajo consumo.

Cons: El software, solo 5 puertos.

Aunque nunca he usado uno de estos equipos la diferencia con cualquier otro producto de Mikrotik es el software que viene con él, para este equipo MT desarrollo una nueva plataforma llamada SwOS la cual parece que no tuvo aceptación y apunta a que fue abandonada en favor del ya establecido RouterOS.

Además de lanzar 2 equipos dedicados a Switching, Mikrotik también cuenta con una línea de bajo costo. Los RB2011 (http://routerboard.com/RB2011iL-IN), estos cuentan con 10 puertos de conectividad donde 5 son 100M y otros 5 son Gigabit. Es una buena alternativa a los RB250 0 RB260 con SwOS.

Las opciones anteriores tienen ya un tiempo en el mercado, pero ahora Mikrotik ha lanzada una nueva plataforma llamada CRS (Cloud Core Switch) y estos Switches cuentan con 24 puertos Gigabit. Suena excelente para un HomeLAB y además el precio es bastante asequible.

Estoy pensando seriamente cambiar mi Cisco Catalyst 2960G por un CRS125-24G-1S-RM (http://routerboard.com/CRS125-24G-1S-RM).

Probando Vritual SAN – the virtuallyGhetto way … Parte1

Ya sabemos que es VSAN, ya sabemos cómo crear una VM que soporte VSAN. Qué tal si mejor usamos un OVA, todos amamos y queremos las VM pre-empaquetadas y mucho más si estamos seguros de que funcionara como queremos.

Para esto descargaremos él .ova proporcionado por William Lam en virtuallyGhetto.com (https://s3.amazonaws.com/virtuallyghetto-download/vsan-nested-esxi-vm-template.ova ), luego de descargado él .ova (o podemos usar el URL directamente) procederemos a hacer un despliegue de esta VM en nuestro ESXi ( o cluster de ESXi… ) de pruebas.

Note: si solo se cuenta con un ESXi o no se tiene vCSA los pasos son diferentes a los descritos a continuación.

 

Primero creamos un folder donde colocaremos las 2 (o 3 VM con ESXi) que importaremos usando el .OVA descargado.

Creamos nuestro

Si no estás familiarizado con el Web Client (como muchos actualmente…) en esta imagen vemos como iniciamos el import del OVA.

Ahora nos toca seleccionar la ubicación del OVA, ya sea en nuestro equipo local o en un URL, en este caso seleccionaremos el URL y usaremos el link publicado por William Lam.

Una diferencia que podemos ver cuando importamos este OVA usando el Web Client en lugar del cliente desktop (lo extrañaremos!!) es que podemos ver los cambios que se aplicaron a este OVA y nos solicita que debemos aceptar estos cambios antes de proceder, selececcionamos en Accept extra configuration options y estamos listos para seguir.

Seleccionamos el folder que creamos en el primer paso.

Seleccionamos el host donde queremos que viva nuestro ESXi virtual.

Seleccionamos el datastore donde tendremos los discos virtuales del ESXi.

Seleccionamos la red, en este caso es un VSS llamado VM Network el cual es creado por defecto en ESXi.

Listo para completar!

 

Inicialmente tenía planeado una entrada completa con todo y la inicialización de los datastore de VSAN pero en último momento decidí dividirlo en una entrada de 2 partes, espero tener la segunda lo más rápido posible…

Probando Virtual SAN (VSAN) usando nested ESXi.

Es muy posible que ya sepas que es VMware Virtual SAN, pero si no es el caso, VSAN es el remplazo de Virtual Storage Appliance (VSA). Las diferencias entre estos 2 productos son muchas, pero mejor hablemos de las funcionalidades que tiene VSAN ya que VSA dejara de existir.

 

  1. Radically Simple Storage Management.
  2. Two-Click Storage Provisioning
  3. Seamless Integration with vSphere and vCenter™
  4. High Performance with SSD Caching
  5. Resiliency Against Multiple Hardware Failures
  6. Dynamic Scaling of Performance and Capacity
  7. Reduced CapEx via Server Disks
  8. High Performance, Lower TCO

 

Como se puede apreciar, la lista es interesante.

Otra diferencia es que con VSA necesitábamos un VM (varios VM tipo master-slave) quien se encargaba de controlar el almacenamiento disponible para los servidores con ESXi. Aquí un link de la lista de funcionalidades que proporciona VSA (http://www.vmware.com/products/vsphere-storage-appliance/features.html ) comparada con la lista de funcionalidades que proporciona VSAN (http://www.vmware.com/products/virtual-san/features.html ), la diferencia es clara.

 

Ahora la parte importante es como probamos esta nueva tecnología de VMware llamada VSAN sin perder un órgano del cuerpo adquiriendo nuevos equipos o SSD para poder cumplir con los requerimientos de VSAN. Por suerte William Lam ha posteado un buen elaborado paso-a-paso de cómo crear un entorno VSAN con ESXi en modo nested.

 

Nota: también aquí tenemos los pre-requsitos de los pre-requisitos anteriores!!!!

 

VSAN Walkthrough (http://vmwarewalkthroughs.com/VSAN/ )

VSAN Part 1 – A first look at VSAN (http://cormachogan.com/2013/08/26/vsan-part-1-a-first-look-at-vsan/ )

VSAN Part 2 – What do you need to get started (http://cormachogan.com/2013/08/28/vsan-part-2-what-do-you-need-to-get-started/ )

Los requerimientos para esto son los siguientes:

Tener un equipo donde poder crear como mínimo 3 ESXi nested.

Crear una VM, en la ventana de configuración  seleccionar custom.

  1. Le pondremos un nombre (ej: nESXi1).
  2. Seleccionamos nuestro datastore.
  3. En la versión seleccionaremos la versión 8
  4. En Guest OS seleccionaremos “Other” y en la versión “Other 64bit”.
  5. Necesitamos 2 vCPU asi que seleccionaremos 2 virtual sockets.
  6. La cantidad de RAM ha variado de 5.1 a 5.5 y ahora el mínimo que está permitido es 4GB.
  7.  La cantidad de NIC puede variar dependiendo de qué tan complejo será nuestro entorno de pruebas, normalmente aquí le agrego 4 NICs a la VM.
  8. SCSI controller lo dejamos por defecto.
  9. Para los discos que tendrá nuestro ESXi virtual, como minimo necesitamos 3 discos.
    1. 2G para la instalación de ESXi 5.5
    2. 4G para emular una SSD. => http://www.virtuallyghetto.com/2013/07/emulating-ssd-virtual-disk-in-vmware.html
    3. 8G para storage.

Ya con esta configuración estamos listo para crear nuestro ESXi en modo nested y luego poder probar VSAN!

Pero qué tal si alguien ya nos facilitara un template con toda la customización necesaria para correr VSAN? … si, esta disponible este template, gracias a William Lam que lo ha creado y publicado en su blog. http://www.virtuallyghetto.com/2013/09/how-to-quickly-setup-and-test-vmware.html

Preparándome para NSX & SDN…

Desde hace varios días estoy leyendo documentación sobre VXLAN ( si, ya tiene tiempo en el mercado…), Nicira (NSX ¿?) y algunas cosas de SDN.

Por alguna razón el blog dice Virtualization and Networking….

Si al igual que yo te interesa todo esto nuevo relacionado a redes debes comenzar por:

http://blog.scottlowe.org/2013/06/12/resources-for-networking-and-network-virtualization/

es un reciente post de Scott Lowe sobre recursos para leer sobre estas tecnologías que están cambiando la forma en que vemos y usaremos las redes de datos.

Como hago para leer información relacionada a estos tópicos? Mi “read-flow” es de la siguiente manera.

Cuento con un Kindle Touch ( adoro este pequeño aparato!!!) y es mi dispositivo principal para lecturas algo extensas (Clustering Deepdive de Duncan Epping & Frank Denneman), usando el servicio de Readability hago llegar los blog posts y artículos que me interesan al Kindle para leerlos cómodamente.

En Readability tengo un tag llamado VXLAN que actualmente tiene lo siguiente.

Más adelante tratare de exportar la lista dinámicamente para asi no tener que crear hyperlinks en una página dedicada del blog. La idea es documentar todo lo relacionado a SDN mientras lo realizo en el LAB.

KEMP LoadMaster Virtual – Graficas en Cacti.

Hace varios meses que estoy administrando un cluster HA de KEMP LoadMaster, hasta el momento estoy fascinado con la solución. Anteriormente había leído sobre ella, algunos videos en YouTube y uno que otro blog en la red.

Inicialmente solo era un solo LoadMaster (VLM) en un servidor dedicado Dell PowerEdge R420 con VMware ESXi 5.1 GA.

Todo de maravilla hasta que llegó el momento de agregarlo en Cacti, resulta que solo encontré 1 template para crear graficas de VS (Virtual Servers) y estaba algo “broken”, como todo programmer-wannabe empecé a cambiar cosas aquí y allá en el template y termine con algo funcional.

Por el momento tengo estadísticas de Active Connection & Total Connection tanto en HTTP como en HTTPS.

Descarga: https://www.dropbox.com/s/z2xgdvmhac1mr51/KEMP.rar

Page 1 of 4512345...102030...Last »