Iniciando un VMware LAB – Networking.

El área de redes en VMware puede ser la mas simple o la mas compleja, dependiendo el background que se tenga en redes. Pero este post no es para hablar sobre las habilidades en redes que tenemos.

Esta fue la parte más sencilla, ya que anteriormente tenía un home lab, la parte de networking a nivel de switching estaba cubierta. Mi red local usa como backbone un Cisco Catalyst 2960 con 24 puertos GbE.

En los servidores ESXi, además de la NIC integrada que trae el motherboard (RealTek 8168 Gigabit Ethernet que solo funciona en ESXi 5.0 a menos que se use un custom package en ESXi 4.0), también he agregada una Intel PRO1000 82540EM PCI single-port y una Intel PRO1000 82571EB dual-port, con esto tengo un total de 4 puertos Gigabits en ESXi.

Debemos recordar que mientras mas NIC en ESXi mejor, esto nos da mas flexibilidad a la hora de crear vSS o vDS (o ambos?) ya que nuestro LAB terminara siendo 50% pruebas y tal vez el otro 50% home production network.

Algo a tener en cuenta es que si planeamos usar jumbro frames que es muy posible, no usar tarjetas Intel PRO1000 DT (desktop versión), estas tengo entendido que no soportan jumbo frames sin el driver de Intel el cual solo se instala en Windows.

Iniciando un VMware LAB – Procesador y RAM.

Luego de tener nuestro motherboard y teniendo en cuenta que este tiene hardware que aunque no esta en el HCL funciona con VMware ESXi, procederemos a adquirir el Procesador y la RAM.

Procesador

Para un home lab, lo más importante en el procesador es que soporte virtualización. En Intel esta opción es llamada VT-x y en ADM es llamada AMD-V, yo he optado por AMD y puedo decir que es más barato y más fácil de identificar que línea de procesador soporta AMD-V. por ejemplo, todos los procesadores de la línea Athlon II y Phenom II soportan virtualización. En mi caso ha sido Phenom (AMD Phenom(tm) II X4 925 ) y posiblemente no le saque todo el provecho a este procesador que cuenta con 4 nucleos.

RAM

En mi opinión la Memoria RAM es quien decide que tanto podremos hacer en nuestro LAB, sin importar que no tengamos virtualización en hardware o que algunas opciones no estén soportadas en el motherboard, la RAM es quien decidirá cuantas VM podremos tener encendidas simultáneamente. El motherboard pro el cual me decidí solo soporta hasta 16G de RAM, con esto inicialmente es suficiente para un home lab, pero a la larga aparecerán otras cosas que probar y posiblemente necesite mas, aunque llevar una maquina a 32G de RAM es demasiado costoso.

Iniciando un VMware LAB – motherboard.

El primero paso para un LAB de VMware que nos permita adentrarnos en las opciones de gama alta de esta suite debe contar como mínimo con 2 host (Hypervisors) en este caso serian 2 Servidores ESXi idénticos o que la diferencia en hardware sea mínima. Lo normal es hacer una lista con componentes que estén en el HCL o que se hayan reportado como compatibles, para esto recomiendo el HCL hosteado por vm-help.com (http://www.vm-help.com//esx40i/esx40_whitebox_HCL.php), esta lista se inicio con ESX4 y ESXi4 pero como el HCL ha tenido muchos cambios, mas y mas hardware esta siendo aceptado en dicha lista.

A continuación describiré como termine decidiendo que hardware utilizar para montar el LAB de VMware.

El motherboard como se sabe, es una parte importante de todo equipo que se pretende usar como servidor, en virtualización este componente no pierde su importancia ya que varias funcionalidades primero deben ser soportadas allí.

Como el factor precio es importante, para mi la mejor manera fue comparando el precio y luego buscando en el HCL si estaba soportado. Así termine comprando un MSI 760GM-E51, este esta en la lista de vm-help y el único inconveniente reportado ha sido la NIC interna que no es detectada por ESXi4 pero si es detectada en ESXi5. http://www.vm-help.com/forum/viewtopic.php?f=13&t=2830

A simple vista este board no aparenta de alto desempeño, pero por el precio pagado y lo brindado, para mi es justo. Este board en amazon.com ronda por los $69.99 y sus especificaciones son mas que suficientes para las tareas que realizaremos en el LAB. http://www.amazon.com/MSI-Computer-Motherboards-760GM-E51-FX/dp/tech-data/B006MCSGZQ/ref=de_a_smtd

Copiado desde amazon.com:

Product Features

CPU: Socket AM3+ Support 64bit AMD FX/ Phenom II X6/X4/X3/X2/ Athlon II X4/X3/X2/ Sempron Processors; Support HyperTransport 3.0; FSB up to 2.6GHz

Chipset: AMD 760G & SB 710 Chipset

Memory: 4x DDR3-1333/1066/800 DIMMs, Unbuffered, Max Capacity up to 32GB

Slots: 1x PCI-Express 2.0 x16 Slot(Support Hybrid CrossFireX); 1x PCI-Express x1 Slot; 2x 3.3V/5V PCI Slots

IDE/SATA: 1x ATA-133 Channel; 5x SATA2 Ports, Support RAID 0/ 1/ 0+1/ JBOD; 1x eSATA2 Port

Form Factor: Micro-ATX

Ports: 12x USB 2.0 Ports(6 rear, 6 by headers); 1x PS/2 Port; 1x VGA Port; 1x DVI Port; 1x HDMI port; 1x eSATA2 port; 1x RJ45 Port; Audio I/O Jacks

Processor, Memory, and Motherboard

Memory Slots: 4

Ports and Connectivity

USB Ports: 12

Free PCI Slots: 1

Cases and Expandability

Size (LWH): 9.6 inches, 2.8 inches, 9.6 inches

Weight: 1.5 pounds

 

MSI 760GM-E51

continuara…

Monitoreando servidores ESXi en whiteboxes.

Monitorear el Hypervisor es algo importante ya sea en el LAB o producción. Los que cuentan con servidores de gama alta, digamos Dell, HP o Cisco pueden aprovechar el CIM (Common Information Model – http://en.wikipedia.org/wiki/Common_Information_Model_computing), ya que al parecer por lo menos en los motherboard de los 2 ESXi que tengo esto no funciona he optado por SNMP. Recuerden, si tienen equipos de gama alta es mejor usar CIM.

Por defecto SNMP esta deshabilitado en ESXi pero esto no dice que no podamos usarlo, realizaremos los siguientes pasos:

 

vi /etc/vmware/snmp.xml

Cambiamos <enabled>false</enabled> a <enabled>true</enabled>
Agregamos la comunidad de SNMP que posiblemente ya estamos usando:
<communities>PUBLIC</communities>
Reiniciamos el servicio:
/sbin/services.sh restart
Ya deberíamos poder hacer un snmpwalk:
snmpwalk -v 2c -c public mi.ESXi.server.local
Los datos que podemos conseguir usando SNMP en ESXi son muy limitados.
Pero a falta de CIM es major SNMP que nada.

Removiendo viejas conexiones del vSphere Client.

Si llevas usando VMware un buen rato, puede que hayas notado que no importa si realizas un upgrade del cliente de vSphere desde versión 4 a 5, siempre tendrás esa lista de viejas conexiones que posiblemente ya no tengan importancia o simplemente ya no tienes acceso a estos ESX(i) o vSphere.

Lo mejor seria borrarlas del historial del vClient, aquí están los pasos. Ya que esta configuración se almacena en un registro de Windows lo primero en abrir será regedit.

Navegamos a -> HKEY_CURRENT_USER\Software\VMware\VMware Infrastructure Client\Preferences\

Editamos: RecentConnections

Como ya han notado aqui se guarda el registro de conexiones, ya sean host o IP.

Listo!  Ahora tendremos un vClient con menos direcciones al momento que necesitemos conectarnos a otro ESX(i) que no sea el habitual. Y si no lo notaron, cuando nos conectamos a un vSphere o ESX(i) la dirección de este toma el primer lugar.