Aventuras con PanoLogic, Creando DVM Collection – Parte 1.

Ya sabemos que es Pano y que el manager es un OVF, esta de mas crear una entrada solo para explicar como desplegar el manager usando el vSphere Client.  Para eso mejor les dejo un video oficial de VMware -> http://www.youtube.com/watch?v=Ob3UVPlI7mE

Después de tener nuestro PanoManager funcionando los pasos a seguir son sencillos.

1) Lo conectamos a nuestro dominio de Windows.

2) Configuramos el ambiente de virtualización a utilizar (VMware vCenter o Microsoft SCVMM).

3) configuramos la opción de backup automáticos, esta opción guarda la configuración del Manager en un share de Windows.

Estamos mas cerca de nuestra meta, para este momento el Manager puede ver maquinas virtuales que existan en nuestro VMware Cluster (si, no uso SCVMM o Hyper-V), para revisar esto vamos al Tab de DVM Collections e intentamos crear uno.

DVM Collections -> Add…

Tendremos una ventana popup con varias opciones que tenemos que ir rellenando con información de nuestro nuevo DVM collection.

Inicialmente y esta hace varias semanas solo usaba la opción Pooled Desktops, los Pano están en un ambiente donde no tienen una persona asignada para que los usen y so compartidos por alrededor de 400 usuarios, por esto la mejor opción es Pooled.

El segundo Tab, es usado para asignar los usuarios que tendrán acceso a estas VM que serán asociadas al DVM que estamos creando, recuerdan haber agregado el PanoManager al ActiveDirectory?

El Tab de Deployment es uno de los mas importantes, ya que queremos que nuestra solución sea parecida a VMware View o XenDesktop seria genial que nuestro PanoManager pueda crear VMs en nuestro Cluster de VMware, en este Tab podemos hacer esa configuración.

Para saber que debemos usar en cada casilla, recomiendo leer la ayuda oficial.

http://help.panologic.com/4.5/wwhelp/wwhimpl/js/html/wwhelp.htm#href=Administration/Configure_for_DVM_Deployment.html

 

 

Continuara……

Removiendo viejas conexiones del vSphere Client.

Si llevas usando VMware un buen rato, puede que hayas notado que no importa si realizas un upgrade del cliente de vSphere desde versión 4 a 5, siempre tendrás esa lista de viejas conexiones que posiblemente ya no tengan importancia o simplemente ya no tienes acceso a estos ESX(i) o vSphere.

Lo mejor seria borrarlas del historial del vClient, aquí están los pasos. Ya que esta configuración se almacena en un registro de Windows lo primero en abrir será regedit.

Navegamos a -> HKEY_CURRENT_USER\Software\VMware\VMware Infrastructure Client\Preferences\

Editamos: RecentConnections

Como ya han notado aqui se guarda el registro de conexiones, ya sean host o IP.

Listo!  Ahora tendremos un vClient con menos direcciones al momento que necesitemos conectarnos a otro ESX(i) que no sea el habitual. Y si no lo notaron, cuando nos conectamos a un vSphere o ESX(i) la dirección de este toma el primer lugar.

OpenFiler packet drops.

Hace mas de una semana que estoy probando OpenFiler para hacer shared storage en mi home lab de vSphere, OpenFiler puede que sea el NAS OpenSource mas usado en estos momentos y aunque no tiene tantas funciones como FreeNAS cuando se trata de iSCSI es una bestia.
El caso es que desde el inicio mi OpenFiler surgio de partes de PC bastante viejas, por ejemplo: el board contaba con SATA primera generacion (150Mbps). Al cabo de 1 hora, uno de los puertos de la Intel Dual Port que tenia instalada ya contaba con mas de 1,000 packet drops.

Despues de cambiar la maquina. De un Intel P4 con DDR400 a un Athlon II X2 con 2G de RAM DDR3, aun seguia teniendo packet drops, no en la misma cantidad, pero tantos que las VMs en el shared storage eran casi imposibles de usar.

 

Esta tarjeta causa los packet drops….


Pues resulta que todo el problema era causado por la tarjeta Intel Dual Port que instale, esta tarjeta fue extraida de un firewall que no la necesitaba mas ya que fue convertido a un Servidor con DNS y 4 tarjetas de Red no son necesarias para este caso. La tarjeta en cuestio no exactamente es de Intel, si usaron un chipset hecho por ellos pero la tarjeta esta orientada a firewall con opciones de bridge, de esos que si se apagan la tarjeta de red queda en un modo que aun pasa trafico de un puerto a otro.
La tarjeta con problemas esta basada en intel corporation 82540EM la cual remplaze con una PCI-e Intel Corporation 82571EB Gigabit Ethernet Controller y se nota la diferencia, sin contar que no tiene packet drops en el status de OpenFiler.

 

Con esta todo funciona bastante bien…

y aqui el status de OpenFiler sin packet drops…