IPv6 en mis dispositivos móviles!

Hace tiempo que mi red cuenta con conexión IPv6 vía túnel, esta vez es algo diferente, el túnel es proporcionado por OpenVPN a un pfSense remoto que a su vez tiene conexión a un Vyatta con un túnel a HE publicando su propio bloque vía BGP (Tema para un post!).

Desde hace tiempo uso iPhone y como no tengo data-plan en el, depende del Wireless, siempre está conectado vía wireless en mi casa y de algo que no me había percatado era de que él se estaba auto configurando una dirección IPv6 desde mi router!, también uso una Samsung Galaxy Tab, este es el dispositivo móvil que mas uso le doy, el día de hoy me di cuenta que tiene conectividad IPv6!…

En realidad fue en la Galaxy tab que note la conectividad al mundo IPv6..

iPhone!

[simage=522,288,n,center,]

Galaxy Tab!

[simage=523,320,n,center,]

Unable to contact a primary HA Agent. Ya entiendo por qué!

En Febrero escribí sobre algo que me paso con un nuevo cluster de producción de ESXi con HA. El caso fue que uno de los miembros tuvo problemas en el firmware de la BIOS y la caja blade perdió cierta comunicación con este equipo, lo más afectado fue el acceso a la SAN. Esa parte del problema se solucionó luego que el servidor recibió un update de firmware y encendió sin problemas, pero como se puede leer en la entrada antes mencionada (Unable to contact a primary HA Agent), este problema se resolvió muy fácil (desde mi punto de vista), pero el día de ayer, leyendo el libro de VMware vSphere 4.1 HA and DRS Techincal deepdive, me ha dado cuenta de porque paso y el porqué de la solución.

“The first 5 hosts that join the HA cluster are automatically selected as primary nodes. All other nodes are automatically selected as secondary nodes. When you do a reconfigure for HA, the primary nodes and secondary nodes are selected again. This is virtually random.”

Simple, al deshabilitar HA en el cluster y habilitarlo nuevamente el proceso se inició sin contar que ya no tenía el nodo perdido y así pude agregarlo nuevamente.

Tenía ganas de anotar esto en algún lugar. Vamos a seguir leyendo ¡! Muy interesante este libro!

Usando jumbo frame en ESXi con StarWind iSCSI SAN.

Hace varias semanas en el trabajo habilitamos una pequeña área con varios equipos “viejos” para usarlos en ambiente de pruebas principalmente para VMware y porque no, una que otras máquinas virtuales.

Inicialmente tenía un Switch Cisco 2950 10/100 y como se pueden imaginar cada vez que hacia vMotion tenía ese pequeño warning diciéndome que lo recomendable es 1G. asi que decidimos hacer un pequeño cambio y llevar ese Switch 10/100 a otra área de la estructura y tomar prestado uno 10/100/1000.

El cambio es significativo, pero cuando hacia vMotion, aun duraba mucho tiempo aunque no tenía ningún warning. Así quedo por varias semanas hasta que no pude más y decidí buscar algunas optimizaciones para resolver el problema. Inicialmente busque optimizaciones para StarWind iSCSI SAN, lo primero es que el servidor con StarWind no es una estrella de cine!, es un Dell PowerEdge SC1420 de hace casi 5 años así que no puedo pedirle tanto, tiene 2 tarjetas dedicadas de 1Gb solo para iSCSI y cuenta con 2G de RAM.

Buscando en el foro de StarWind, esto fue lo primero que encontré para habilitar Jumbo Frames.

Recommended TCP/IP settings

En este enlace también se incluyeron los pasos para habilitar Jumbro Frames en ESX/ESXi, Hyper-V y XenServer.

Para corroborar la configuración mostrada en el foro de StarWind, use un artículo en VMware Comunity, exactamente del VMware Networking Blog.

http://blogs.vmware.com/networking/2010/03/jumbo-frames-in-vsphere-40.html

Nota: ya que el artículo no hace énfasis en ESX/ESXi 4.1, la única diferencia que encontré es que en ESXi no tenemos vicfg-*. Y debemos usar esxcfg-*

Creo que debo buscar una versión actualizada específicamente para 4.1 U1.

Además de la configuración en StarWind y ESXi, debemos configurar el Switch, en mi caso es un Catalyst 3560 y lo único que no me gusto es que no puedo habilitar jumbro frames en puertos independientes y se tiene que hacer en la totalidad del equipo.

Catalyst 3750/3560 Series

Ahora solo tengo que monitorear el desempeño y correr algunos benchmarks para determinar posibles cuellos de botella.

Otorgándole permisos a usuarios en vCenter Server.

No sé si solo a mí me ha pasado, pero hace unas semanas atrás necesitaba otorgar permisos a usuarios específicos para que crearan VMs en un vCenter y tuve algunos problemas para lograr mi objetivo….

Note to self!

  1. Clonar el “Read Only” role en el ESX o DataCenter.
  2. Editar el role que acabas de clonar y agregar los siguientes permisos/privilegios.
  • DataStore -> Allocate Space
  • Virtual Machines  -> Configuration -> Add New Disk
  • Virtual Machines  -> Configuration -> Add or Remove Device
  • Virtual Machines  -> Inventory -> Create NewStep
  1. Asignar este role al usuario a nivel de ESX o DataCenter.
  2. Crear un nuevo role y asignar el nombre “Crear Virtual Machines”.
  3. Al role creado anteriormente, asignar todos los permisos del paso 2 y también agregar los siguientes permisos/privilegios.
  • Resource -> Assign Virtual Machine to Resource Pool
  1. Asignar este role al usuario a nivel del “Resource Pool”.
  2. Por último, crear una VM para probar los permisos/privilegios.

Fuente: http://kb.vmware.com/selfservice/search.do?cmd=displayKC&docType=kc&externalId=1027743

Sección 3 – Configurando Almacenamiento para ESX/ESXi. Objetivo 3.3 – Configurando NFS Datastores.

Objetivo 3.3 – Configurando NFS Datastores.

3.3.1 – Identificando los componentes de hardware de un NFS Datastore.

ESX/ESXi soporta usar NAS mediante el protocolo de NFS, el protocolo NFS habilita comunicación entre un cliente y un servidor de NFS.

El cliente build-in en ESXi solo soporta NFS versión 3.

Los componentes para poder usar NFS como datastore son:

  • NFS Share/Server
  • Switch
  • VMkernel interface for NFS Support.

Continuar leyendo «Sección 3 – Configurando Almacenamiento para ESX/ESXi. Objetivo 3.3 – Configurando NFS Datastores.»