Iniciando un VMware LAB – motherboard.

El primero paso para un LAB de VMware que nos permita adentrarnos en las opciones de gama alta de esta suite debe contar como mínimo con 2 host (Hypervisors) en este caso serian 2 Servidores ESXi idénticos o que la diferencia en hardware sea mínima. Lo normal es hacer una lista con componentes que estén en el HCL o que se hayan reportado como compatibles, para esto recomiendo el HCL hosteado por vm-help.com (http://www.vm-help.com//esx40i/esx40_whitebox_HCL.php), esta lista se inicio con ESX4 y ESXi4 pero como el HCL ha tenido muchos cambios, mas y mas hardware esta siendo aceptado en dicha lista.

A continuación describiré como termine decidiendo que hardware utilizar para montar el LAB de VMware.

El motherboard como se sabe, es una parte importante de todo equipo que se pretende usar como servidor, en virtualización este componente no pierde su importancia ya que varias funcionalidades primero deben ser soportadas allí.

Como el factor precio es importante, para mi la mejor manera fue comparando el precio y luego buscando en el HCL si estaba soportado. Así termine comprando un MSI 760GM-E51, este esta en la lista de vm-help y el único inconveniente reportado ha sido la NIC interna que no es detectada por ESXi4 pero si es detectada en ESXi5. http://www.vm-help.com/forum/viewtopic.php?f=13&t=2830

A simple vista este board no aparenta de alto desempeño, pero por el precio pagado y lo brindado, para mi es justo. Este board en amazon.com ronda por los $69.99 y sus especificaciones son mas que suficientes para las tareas que realizaremos en el LAB. http://www.amazon.com/MSI-Computer-Motherboards-760GM-E51-FX/dp/tech-data/B006MCSGZQ/ref=de_a_smtd

Copiado desde amazon.com:

Product Features

CPU: Socket AM3+ Support 64bit AMD FX/ Phenom II X6/X4/X3/X2/ Athlon II X4/X3/X2/ Sempron Processors; Support HyperTransport 3.0; FSB up to 2.6GHz

Chipset: AMD 760G & SB 710 Chipset

Memory: 4x DDR3-1333/1066/800 DIMMs, Unbuffered, Max Capacity up to 32GB

Slots: 1x PCI-Express 2.0 x16 Slot(Support Hybrid CrossFireX); 1x PCI-Express x1 Slot; 2x 3.3V/5V PCI Slots

IDE/SATA: 1x ATA-133 Channel; 5x SATA2 Ports, Support RAID 0/ 1/ 0+1/ JBOD; 1x eSATA2 Port

Form Factor: Micro-ATX

Ports: 12x USB 2.0 Ports(6 rear, 6 by headers); 1x PS/2 Port; 1x VGA Port; 1x DVI Port; 1x HDMI port; 1x eSATA2 port; 1x RJ45 Port; Audio I/O Jacks

Processor, Memory, and Motherboard

Memory Slots: 4

Ports and Connectivity

USB Ports: 12

Free PCI Slots: 1

Cases and Expandability

Size (LWH): 9.6 inches, 2.8 inches, 9.6 inches

Weight: 1.5 pounds

 

MSI 760GM-E51

continuara…

Monitoreando servidores ESXi en whiteboxes.

Monitorear el Hypervisor es algo importante ya sea en el LAB o producción. Los que cuentan con servidores de gama alta, digamos Dell, HP o Cisco pueden aprovechar el CIM (Common Information Model – http://en.wikipedia.org/wiki/Common_Information_Model_computing), ya que al parecer por lo menos en los motherboard de los 2 ESXi que tengo esto no funciona he optado por SNMP. Recuerden, si tienen equipos de gama alta es mejor usar CIM.

Por defecto SNMP esta deshabilitado en ESXi pero esto no dice que no podamos usarlo, realizaremos los siguientes pasos:

 

vi /etc/vmware/snmp.xml

Cambiamos <enabled>false</enabled> a <enabled>true</enabled>
Agregamos la comunidad de SNMP que posiblemente ya estamos usando:
<communities>PUBLIC</communities>
Reiniciamos el servicio:
/sbin/services.sh restart
Ya deberíamos poder hacer un snmpwalk:
snmpwalk -v 2c -c public mi.ESXi.server.local
Los datos que podemos conseguir usando SNMP en ESXi son muy limitados.
Pero a falta de CIM es major SNMP que nada.

aaNetworks VMware LAB.

 

Desde hace tiempo estaba contemplando montar un LAB de VMware en casa para tener mas contacto con las opciones avanzadas de esta suite, a diferencia de tener el LAB en el trabajo o tener un entorno de producción, contar con un LAB en la casa es imprescindible!

Además de tener un LAB físico en vSphere 5.0 también he montado uno virtual dentro del físico, el virtual es para no perder contacto con vSphere 4.1 del cual tengo varias cosas pendientes por hacer.

 

 VMwareHomeLAB

Aventuras con PanoLogic, Creando DVM Collection – Parte 1.

Ya sabemos que es Pano y que el manager es un OVF, esta de mas crear una entrada solo para explicar como desplegar el manager usando el vSphere Client.  Para eso mejor les dejo un video oficial de VMware -> http://www.youtube.com/watch?v=Ob3UVPlI7mE

Después de tener nuestro PanoManager funcionando los pasos a seguir son sencillos.

1) Lo conectamos a nuestro dominio de Windows.

2) Configuramos el ambiente de virtualización a utilizar (VMware vCenter o Microsoft SCVMM).

3) configuramos la opción de backup automáticos, esta opción guarda la configuración del Manager en un share de Windows.

Estamos mas cerca de nuestra meta, para este momento el Manager puede ver maquinas virtuales que existan en nuestro VMware Cluster (si, no uso SCVMM o Hyper-V), para revisar esto vamos al Tab de DVM Collections e intentamos crear uno.

DVM Collections -> Add…

Tendremos una ventana popup con varias opciones que tenemos que ir rellenando con información de nuestro nuevo DVM collection.

Inicialmente y esta hace varias semanas solo usaba la opción Pooled Desktops, los Pano están en un ambiente donde no tienen una persona asignada para que los usen y so compartidos por alrededor de 400 usuarios, por esto la mejor opción es Pooled.

El segundo Tab, es usado para asignar los usuarios que tendrán acceso a estas VM que serán asociadas al DVM que estamos creando, recuerdan haber agregado el PanoManager al ActiveDirectory?

El Tab de Deployment es uno de los mas importantes, ya que queremos que nuestra solución sea parecida a VMware View o XenDesktop seria genial que nuestro PanoManager pueda crear VMs en nuestro Cluster de VMware, en este Tab podemos hacer esa configuración.

Para saber que debemos usar en cada casilla, recomiendo leer la ayuda oficial.

http://help.panologic.com/4.5/wwhelp/wwhimpl/js/html/wwhelp.htm#href=Administration/Configure_for_DVM_Deployment.html

 

 

Continuara……

Removiendo viejas conexiones del vSphere Client.

Si llevas usando VMware un buen rato, puede que hayas notado que no importa si realizas un upgrade del cliente de vSphere desde versión 4 a 5, siempre tendrás esa lista de viejas conexiones que posiblemente ya no tengan importancia o simplemente ya no tienes acceso a estos ESX(i) o vSphere.

Lo mejor seria borrarlas del historial del vClient, aquí están los pasos. Ya que esta configuración se almacena en un registro de Windows lo primero en abrir será regedit.

Navegamos a -> HKEY_CURRENT_USER\Software\VMware\VMware Infrastructure Client\Preferences\

Editamos: RecentConnections

Como ya han notado aqui se guarda el registro de conexiones, ya sean host o IP.

Listo!  Ahora tendremos un vClient con menos direcciones al momento que necesitemos conectarnos a otro ESX(i) que no sea el habitual. Y si no lo notaron, cuando nos conectamos a un vSphere o ESX(i) la dirección de este toma el primer lugar.