Soporte IPv6 en NSX.

Desde hace tiempo quería crear una entrada con este tipo de información. recuerdo mi primer encuentro con IPv6 (2004?  Recuerdo tener un tunnel y conectar a freenode IRC!!) quede fascinado con la idea del punto-a-punto entre clientes y servidores (clientes a clientes!). Últimamente me he querido enfocar en la parte de redes de VMware, esto quiere decir que mi enfoque será NSX y la micro-segmentación.

Seria genial que NSX soportara IPv6 que tanto me gusta y que he estado desplegando en mi red local de maneras que no tienen sentido en la red del hogar de una persona. Virtualización + Redes es la combinación por la cual estoy apostando últimamente y esto quiere decir que estaré trabajando en recertificar VCP subiéndolo a versión 6 y prepararme para VCP6-NV.

 

Siguiendo en el tema, aquí les dejo una tabla del soporte actual de IPv6 en NSX y la cual estaré usando para validar su nivel de funcionalidad.

 

Detailed NSX IPv6 Support

Component Feature Support1 Notes
VM Addressing
Guest VM Addressing IPv4, IPv6, DS VXLAN encap packets are capable of carrying IPv6 payload. VMs can have only IPv6 static addresses. SLAAC (RA) and DHCPv6 (relay and server) are not supported
VXLAN Transport IPv4
NSX Manager
NSX Manager IP IPv4, IPv6, DS
NSX Controller
Management IP IPv4
NSX Edge
Management IP IPv4, IPv6 No DHCPv6 support
Syslog IPv4, IPv6 Export to IPv4 and IPv6 Syslog servers
Interface IP IPv4, IPv6, DS No DHCPv6 support
DNS IPv4
DHCP IPv4
Static Routing IPv4, IPv6
Dynamic Routing IPv4 No OSPFv3 or MP-BGP support
Firewall IPv4, IPv6
Load Balancer IPv4, IPv6 Transparent Mode
IPv4 VIP w/ IPv4 Pool (L4 & L7)
IPv6 VIP w/ IPv6 Pool (L4 & L7)

SNAT Mode
IPv4 VIP w/ IPv4 Pool
(L4 & L7)
IPv6 VIP w/ IPv6 Pool
(L4 TCP w/o HW accel only & L7)
IPv6 VIP w/ IPv4 Pool
(L4 TCP w/o HW accel only & L7)
IPv4 VIP w/ IPv6 Pool
(L4 TCP w/o HW accel only & L7)

NAT IPv4 NAT64, NAT 46 and NAT66 are not supported
IPSEC IPv4, IPv6 No IPv4 Peers with IPv6 internal subnet support
SSL VPN IPv4, IPv6 IPv4 and IPv6 can be used for outer packet (tunnel level) but IPv4 only for inner packet
L2VPN IPv4, IPv6 IPv4 and IPv6 can be used for outer packet (tunnel level) but IPv4 only for inner packet
NSX DLR
Management IP IPv4
Interface IP IPv4
Distributed Routing IPv4
NSX DFW
Distributed Firewall IPv4, IPv6
Virtual Distributed Switch
SNMP IPv4, IPv6, DS
LRO IPv4, IPv6
RSS IPv4, IPv6
DV Filters IPv4, IPv6
TSO IPv4, IPv6
SPAN IPv4, IPv6
RSPAN IPv4, IPv6
CDP & LLDP IPv4, IPv6
Statistics IPv4, IPv6
LACP IPv4, IPv6
IPFIX IPv4, IPv6
Traffic Filters IPv4, IPv6 No IPv6 Netflow collector can be configured

 

Esta información fue copiada de: https://www.vmbaggum.nl/2017/01/nsx-ipv6-support/

La información en la tabla proviene de la documentación oficial de NSX 6.2, la idea es actualizar la tabla usando NSX 6.3 y crear una nueva con los componentes que recibieron cambios.

Un artículo interesante que encontré mientras investigaba el soporte de IPv6 en NSX fue el uso de NSX Edge para transportar un /57 de direcciones IPv6 a una red local, comparando con la configuración actual que tengo en casa es el mismo resultado pero con implementación de software diferentes, si solo tuviera equipos en un datacenter donde pudiera correr NSX!!

https://www.vmguru.com/2016/12/using-nsx-for-ipv6-home/

 

El día de hoy desplegué el NSX Manager y asignado tanto dirección IPv4 como IPv6 en las opciones del OVF Template.

 

Más adelante posteare las actualizaciones relacionadas a las configuraciones realizadas que tengan IPv6.

datastore conflicts with an existing datastore in the datacenter.

Me he topado con este error mientras intentaba agregar un ESXi 6.5 a vCenter 6.5 (el ESXi es una VM). Resulta que el homelab ha cambiado bastante y últimamente solo contaba con un host de ESXi el cual no podía tocar para probar configuraciones, decidí crear un entorno vSphere nested.

Bastante sencillo, tres host ESXi, un vCenter y el almacenamiento formado por vSAN, execelnte plan!

Después de instalar el primer ESXi, pensé, porque no hacerlo template, desplegar del template, misión cumplida!!   No, no fue tan fácil.

Este es el mensaje que recibo cuando intento agregar el segundo host, el primero paso fue cambiar los nombres de los datastore de su nombre creado por defecto a <nombreHost>.datastore1, esto no0 entrego el resultado deseado. Por lo visto los datastore generan un ID/URL interno y al momento de desplegar del template este no se recrea, obvio, no se está ejecutando ningún proceso interno que realice esta función. Eso me pasa por no usar AutoLab.

Lo extraño es que he encontrado varias entradas donde hosts físicos que asumo fueron instalados con la media de ESXi estaban presentando el mismo problema. Como no es mi caso, no seguí investigando más y procedí a instalar los hosts de forma manual.

Aventuras con BGP.

Cuanto tiempo!  Algunos me han preguntado que si ya no planeaba escribir más en el blog (no muchos, pero si me han preguntado.).

Por cuestiones de trabajo, poco a poco fui descuidando el blog a un punto que ahora veo que se han perdido imágenes de algunas entradas, eso me pasa por usar Dropbox como proveedor de contenidos. Eso es algo que puedo arreglar más adelante, ahora al tema de la entrada.

A mediados de 2016 pude notar que viarios participantes de dn42 estaban usando ASN públicos asignados por ARIN, que chulo no? así que comencé a investigar y termine adquiriendo un Numero Autónomo público. Para que se preguntaran algunos, la respuesta es que desde hace mucho tiempo tengo una adicción al routing a un nivel que en mi pequeña red de la casa estoy corriendo BGP + OSPF para distribuir las rutas internamente.

Después de varios meses de jugar con el ASN y cambiar todos los Debian + Quagga que tenían ASN privado (64635 – 64714) al nuevo y reluciente ASN público (207036), comenzar a anunciar asignaciones de IPv6 (ya casi todo esta dual-stack, yija!!!!), termine con una asignación /22 de IPv4.

Entonces, como esta aaNetworks al día de hoy con relación a networking?

https://aanetworks.org/

 

 

 

 

 

 

 

 

Se puede conseguir más información en BGP.he.net

http://bgp.he.net/AS207036

NY/NJ – VMUG UserCon.

Hace ya 2 semanas (¿?) tuve la oportunidad de asistir al UserCon en New York, tener en cuenta que no pertenezco a ningún VMUG y que no había asistido a un VMUG meeting o a un UserCon anterior a este.

Si se es apasionado a la tecnología este es un evento al que no se puede faltar, lamentablemente en mi caso tuve que realizar un viaje desde RD a NY. La experiencia de reunirse con personas igual o más apasionadas a la tecnología es revitalizante, muchas personas (y no soy una excepción) a veces nos desconectamos un poco de las metas y caemos en una rutina que cuando nos damos cuenta ya han pasado varios meses y tenemos que retomar las cosas.

Imagínense un mini-VMworld donde asisten los partners y tenemos varios salones donde se están exponiendo temas de vanguardia (NSX, VSAN y seguridad por mencionar algunos) por personas calificadas para esto, el tema comercial existe y los representantes de ventas están ahí, pero se tiene la libertad de evitarlos como he hecho yo. En mi caso me tome la libertad de asistir a las sesiones relacionadas con NSX ya que es la tecnología en la cual me estoy enfocando más últimamente.

Los TechTalk no podían faltar, esta vez liderados por Ariel Sanchez (brother-in-name!) y para sorpresa de muchos Stalin Peña realizo una presentación sobre Micro-Segmentación con NSX en Español, por lo que pude escuchar es la primera vez que un UserCon tiene un espacio donde se habló en español.

En resumen, he quedado fascinado y planeo volver.

NSX Controller en estado DEPLOYING permanente!

La razón del porque el despliegue del primer controlador de NSX fallara en mi LAB fue debido a que el disco en mi R710 se llenó. No creo que esto pase a menudo en producción.

En fin, después de levantar todo el AutoLab y que arrancaran las VM dentro de los Nested ESXi, veo que el estado del controller-1 es deploying y nunca paso de ahí. La gran idea fue detener el Manager, detener el controller-1 (la VM) y borrarla del inventario/disco. En vano, ya que cuando inicie el Manager este seguía con el objeto registrado y en el mismo estado.

Un poco de Google-fu me mostro que otros pasaron por lo mismo y que la solución propuesta es hacer un DELETE usando el API REST de NSX.

Ummmm API, con que se come eso?

Luego de intentar hacer el DELETE desde el navegador de forma normal, entendí que tenía que leer la documentación para saber cuál era la manera en que esto de REST funcionaba. La forma más efectiva para una persona del área de administración es instalando un add-on de Mozilla Firefox (en mi caso Firefox, si usas Chrome también existe un app).

Un documento importante para leer es el NSX API Guide (https://pubs.vmware.com/NSX-6/topic/com.vmware.ICbase/PDF/nsx_604_api.pdf), el cual en la página 25 tiene el siguiente texto:

 

Realizando una llamada API podríamos configurar todo un ambiente de conectividad basado en NSX pero lo que me extraña es que no exista la opción de un borrado forzoso desde Web Client en la sección de NSX.

No pude capturar imágenes realizando los pasos desde el RESTclient que instale en Firefox, si realizamos una búsqueda en Google uno de los enlaces que me llevaron a la solución fue https://communities.vmware.com/thread/522857?start=0&tstart=0 y la única diferencia es que este es el segundo controller desplegado.

Otro enlace con más información es http://blog.jgriffiths.org/?p=1198 en el cual tenemos imágenes usando el RESTclient.