{"id":1068,"date":"2011-03-25T15:41:07","date_gmt":"2011-03-25T19:41:07","guid":{"rendered":"http:\/\/arielantigua.com\/weblog\/?p=1068"},"modified":"2011-03-25T15:41:37","modified_gmt":"2011-03-25T19:41:37","slug":"1068","status":"publish","type":"post","link":"https:\/\/arielantigua.com\/weblog\/2011\/03\/1068\/","title":{"rendered":"Secci\u00f3n 3 \u2013 Configurando Almacenamiento para ESX\/ESXi.  Objetivo 3.1 \u2013 Configurando almacenamiento de FC SAN."},"content":{"rendered":"<p><strong>Objetivo 3.1 \u2013 Configurando almacenamiento de FC SAN.<\/strong><\/p>\n<p><strong>3.1.1 \u2013 identificando los componentes de una SAN.<\/strong><\/p>\n<p>Cuando se decide usar una SAN en el ambiente de VMware primero tenemos que asegurar que esta SAN en particular est\u00e1 en la lista de hardware soportado de VMware (HCL). Una SAN est\u00e1 formada por diferentes compoenentes.<\/p>\n<ul>\n<li>SAN Controller<\/li>\n<\/ul>\n<p>Esta es la parte que controla los discos, crea los LUNs y los presenta a nuestros ESX\/ESXi. La mayor\u00eda de veces la controladora es manejada\/administrada desde un entorno web o por un software determinado que proporciona el fabricante.<\/p>\n<ul>\n<li>SAN Switches<\/li>\n<\/ul>\n<p>El SAN Controller y los host con ESX\/ESXi deben estar conectados a estos Switches de Fibra. Se puede comparar un Switch de FC a uno de Ethernet pero no pueden ser mezclados.<\/p>\n<ul>\n<li>Host Bus Adapter (HBA)<\/li>\n<\/ul>\n<p>Las HBA son las usadas para conectar nuestros ESX\/ESXi a los SAN Switches, este tambi\u00e9n es un hardware que es muy recomendado sea soportado en el HCL.<\/p>\n<p>Para leer m\u00e1s sobre Fabric Channel (FC) -&gt; <a href=\"http:\/\/en.wikipedia.org\/wiki\/Fibre_Channel_fabric\">http:\/\/en.wikipedia.org\/wiki\/Fibre_Channel_fabric<\/a><\/p>\n<p><!--more--><\/p>\n<p><strong>3.1.2 \u2013 Identificando como las conexiones desde ESX\/ESXi son realizadas al (FC) SAN Storage.<\/strong><\/p>\n<p>Los best practice indican que no solo para VMware ESX\/ESXi los hosts conectados a una SAN deben contar con conexi\u00f3n redundante a la SAN, esto quiere decir que se necesitan 2 HBA por cada host conectadas a SAN Switches diferentes. Cuando se tienen estas 2 conectiones a la SAN se pueden configurar los host para que realicen round robin y combinar estos 4 para que trabajen como 1 con mejor desempe\u00f1o.<\/p>\n<p><a href=\"http:\/\/pubs.vmware.com\/vsphere-esxi-4-1-installable\/wwhelp\/wwhimpl\/js\/html\/wwhelp.htm#href=fc_san_guide\/c_using_esx_esxi_with_fibre_channel_san.html\" target=\"_blank\">Using ESX\/ESXi with Fibre Channel SAN<\/a><\/p>\n<p><strong>3.1.3 \u2013 Describe el manejo de SAN en ESX.<\/strong><\/p>\n<p>El almacenamiento asignado a ESX desde una SAN es presentado como una LUN (Logical Unit Number). Las SAN usualmente pueden presentar hasta 25 LUN por cada controladora. Cuando una LUN es presentada a un host ESX a esta le ser\u00e1 asignado un identificador \u00fanico de 4 d\u00edgitos separado por dos-puntos (:). Por ejemplo: 1:0:0:2 estos d\u00edgitos representan un Adatador, Channel, Target, LUN.<\/p>\n<p>En el \u00a0vSphere Client podemos ver esta asignaci\u00f3n de la siguiente manera:<\/p>\n<p>Seleccionamos un host -&gt; click en Configuration -&gt; click en Storage Adapters -&gt; seleccionar una HBA. El valor que estamos buscando aparece en la columna llamada \u201cRuntime Name\u201d.<\/p>\n<p>&nbsp;<\/p>\n<p><strong>3.1.4 \u2013 describir el concepto de zonning y LUN masking.<\/strong><\/p>\n<p>Estas t\u00e9cnicas son usadas para ocultar LUN a los hosts con ESX\/ESXi.<\/p>\n<ul>\n<li>Zoning<\/li>\n<\/ul>\n<p>Esta t\u00e9cnica es t\u00edpicamente implementada en el SAN Switches. Zoning crea segmentos en los Switches de fibra que separa el tr\u00e1fico de data permitiendo que solo los host configurados en esa zona puedan ver esas LUN.<\/p>\n<ul>\n<li>LUN Masking<\/li>\n<\/ul>\n<p>Esta t\u00e9cnica es t\u00edpicamente implementada en el host que tiene ESX\/ESXi, con esta t\u00e9cnica se pueden ocultar las LUN desde el mismo host ESX\/ESXi.<\/p>\n<p>&nbsp;<\/p>\n<p><strong>3.1.5 \u2013 Configurando LUN Masking.<\/strong><\/p>\n<p>LUN Masking es usado para ocultar ciertas LUN al host con ESX\/ESXi. Todas las LUN presentadas al OS son normalmente visibles. Cuando se instala ESX en una LUN tenemos que asegurarnos que solo podemos ver la partici\u00f3n donde instalaremos el hypervisor, o corremos el riesgo de perder particiones con VMFS y por lo tanto con VM importantes.<\/p>\n<p>El m\u00e9todo de LUN Masking ha sido cambiado desde la versi\u00f3n 3.x. un nuevo comando es usado: \u201cesxcli claimrules convert\u201d. Este nuevo comando nos permite desenmascarar LUNs y convertirlas al nuevo formato que ahora es usado en ESX 4. Para enmascarar una LUN, el proceso debe realizar para cada camino existente desde el host hacia la SAN, esto quiere decir que si contamos con 4 caminos, debemos ejecutar el comando 4 veces.<\/p>\n<p>esxcli corestorage claimrule add -r &lt;claimrule_ID&gt; -t &lt;type&gt; &lt;required_option&gt; -P &lt;MASK_PATH&gt;<\/p>\n<p>&nbsp;<\/p>\n<p>En este enlace [ <a href=\"http:\/\/pubs.vmware.com\/vsp40\/wwhelp\/wwhimpl\/js\/html\/wwhelp.htm#href=fc_san_config\/t_mask_paths.html \" target=\"_blank\">link <\/a>] podemos encontrar m\u00e1s ejemplos de LUN Masking.<\/p>\n<p><strong>3.1.6 \u2013 Buscando nuevas LUNs.<\/strong><\/p>\n<p>Cuando nuevas LUNs son presentadas en la SAN y asignadas a nuestros hosts con ESX\/ESXi, estos deben realizar una b\u00fasqueda antes de que sean visibles para el sistema. Existen varias maneras de realziar esta b\u00fasqueda y nos permite hacer b\u00fasqueda para nuevos almacenamientos (New Storage Devices) y vol\u00famenes VMFS (VMFS Volumes). Para realizar esta b\u00fasqueda desde el GUI (vSpehre Client) hacemos lo siguiente:<\/p>\n<p>Seleccionamos el host ESX -&gt; click en Configration -&gt; click en Storage Adapters -&gt; seleccionamos la HBA \u2013 click Rescan.<\/p>\n<p>Nota: en ESXi no podemos seleccionar 1 solo HBA, el rescan se inicia en todos los HBA configurados.<\/p>\n<p><strong>3.1.7 \u2013 determinar y configurar la pol\u00edtica apropiada de multi-pathing.<\/strong><\/p>\n<p>Multipathing es una t\u00e9cnica para optimizar el uso de todos los caminos hacia la SAN. Para manejar el Multipathing, ESX usa una capa especial en el VMkernel llamada Pluggeable Storage Architecture (PSA). PSA es un framework modular que coordina las operaciones simult\u00e1neas de multiples Multipathing Plugins (MPPs). Podemos seleccionar usar el Multipathing Plugin Nativo, o usar uno proporcionado por un vendor. Los policies de multipathing nativo que podemos usar con ESX 4 son:<\/p>\n<ul>\n<li>Most Recent USed (MRU)<\/li>\n<\/ul>\n<p>Este selecciona el primero path funcional que fue descubierto al momento de iniciar el sistema. Si este path se vuelve inusable el host ESX cambia hacia el path alternativo. Esta es la configuraci\u00f3n por defecto para LUNs presentadas desde un array configurado con Activo\/Pasivo.<\/p>\n<ul>\n<li>Fixed (Fixed)<\/li>\n<\/ul>\n<p>Este usa el path designado como preferido, si este ha sido configurado. De otro modo este usa el primer path funcional que fue descubierto al momento de iniciar el sistema. Si el host ESX no puede usar el path preferido, este seleccionara uno alternativo al azar, el host autom\u00e1ticamente volver\u00e1 a usar el path preferido cuando este sea marcado como disponible. Esta es la configuraci\u00f3n por defecto para LUNs prestadas desde un array configurado Activo\/Activo.<\/p>\n<ul>\n<li>Round Robin (RR)<\/li>\n<\/ul>\n<p>Este usa un modo autom\u00e1tico de selecci\u00f3n que rota entre todos los path disponibles y por ende habilitando la distribuci\u00f3n de carga entre cada path. Para arrays configurados en Activo\/Pasivo, solo el path hacia el controlador activo ser\u00e1 usado en el Round Robin. Sin embargo para arrays configurados con Activo\/Activo todos los path ser\u00e1n usados en el Round Robin. Esta configuraci\u00f3n no est\u00e1 soportada para LUNs que son parte de un cluster de Microsoft (Microsoft Cluster Service \u2013 MSCS).<\/p>\n<p>&nbsp;<\/p>\n<p><strong>3.1.8 \u2013 Diferencias entre NMP y MPP de terceros.<\/strong><\/p>\n<p>El plugin de Multipathing proporcionado en el VMkernel por defecto es Native Multipathing Plugin (NMP), este es un m\u00f3dulo extensible que maneja subplugins. \u00a0Existen 2 tipos de subplugins.<\/p>\n<ul>\n<li>Storage Array Type Plugins (SATPs).<\/li>\n<li>Selection Plugins (PSPs).<\/li>\n<\/ul>\n<p>SATPs y PSPs pueden ser integrados y proporcionados por VMware o pueden ser proporcionados por un tercero. Si otras funcionalidades de Multipathing son necesarias, un vendor puede proporcionar un Multiple Multiphating Plugin (MPP) como adici\u00f3n, o como un remplazo del NMP. Un MPP es proporcionado espec\u00edficamente para un arreglo de almacenamiento por el fabricante de este almacenamiento y puede contener configuraciones espec\u00edficas de multipathing para mejorar el desempe\u00f1o.<\/p>\n<p>Los modulos de Multipathing realizan las siguientes funciones:<\/p>\n<ul>\n<li>Manejo del reclamo de los path f\u00edsicos.<\/li>\n<li>Manejo de la creaci\u00f3n, registro y eliminaci\u00f3n de registros de los dispositivos l\u00f3gicos.<\/li>\n<li>Asociaci\u00f3n de los path f\u00edsicos con los dispositivos l\u00f3gicos.<\/li>\n<li>Procesamiento de peticiones I\/O hacia los dispositivos l\u00f3gicos.<\/li>\n<li>Selecci\u00f3n del mejor path f\u00edsico para una petici\u00f3n.<\/li>\n<li>Dependiendo del dispositivo de almacenamiento, realiza acciones espec\u00edficas para manejar la p\u00e9rdida de un path y reintentas comandos de I\/O.<\/li>\n<li>Soporte de tareas administrativas, por ejemplo: abortar o resetear dispositivos l\u00f3gicos.<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Objetivo 3.1 \u2013 Configurando almacenamiento de FC SAN. 3.1.1 \u2013 identificando los componentes de una SAN. Cuando se decide usar una SAN en el ambiente de VMware primero tenemos que asegurar que esta SAN en particular est\u00e1 en la lista de hardware soportado de VMware (HCL). Una SAN est\u00e1 formada por diferentes compoenentes. SAN Controller [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[54,20],"tags":[],"class_list":["post-1068","post","type-post","status-publish","format-standard","hentry","category-vcp4-vmware","category-vmware"],"_links":{"self":[{"href":"https:\/\/arielantigua.com\/weblog\/wp-json\/wp\/v2\/posts\/1068","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/arielantigua.com\/weblog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/arielantigua.com\/weblog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/arielantigua.com\/weblog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/arielantigua.com\/weblog\/wp-json\/wp\/v2\/comments?post=1068"}],"version-history":[{"count":0,"href":"https:\/\/arielantigua.com\/weblog\/wp-json\/wp\/v2\/posts\/1068\/revisions"}],"wp:attachment":[{"href":"https:\/\/arielantigua.com\/weblog\/wp-json\/wp\/v2\/media?parent=1068"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/arielantigua.com\/weblog\/wp-json\/wp\/v2\/categories?post=1068"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/arielantigua.com\/weblog\/wp-json\/wp\/v2\/tags?post=1068"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}