meta data de esta página
no way to compare when less than two revisions
Diferencias
Muestra las diferencias entre dos versiones de la página.
Última revisión | |||
— | hardware:cabina_iscsi [2013/12/16 10:12] – editor externo 127.0.0.1 | ||
---|---|---|---|
Línea 1: | Línea 1: | ||
+ | {{tag> iscsi vsphere equallogic}} | ||
+ | ===== Instalación cabina iscsi Dell Equallogic 6010XV con Vmware Vsphere ===== | ||
+ | La cabina iscsi está conectada a dos switch powerconnect 8024F dedicados en exclusiva para el tráfico ISCSI, conectados estos a su vez a dos servidores vsphere . | ||
+ | |||
+ | La configuración que aparece en estas páginas es sólo para Vsphere y no es compatible con la versión ESX 3.5, ya que con la Vsphere se ha reescrito por completo el driver para ISCSI para conseguir mejor rendimiento y multipath. | ||
+ | |||
+ | {{: | ||
+ | |||
+ | ==== Consideraciones Generales ==== | ||
+ | |||
+ | A la hora de planificar una instalación ISCSI lo primero que tenemos que hacer es decidir como vamos a dividir el espacio de la SAN: | ||
+ | |||
+ | Dos opciones: | ||
+ | - Un sólo volumen | ||
+ | - Varios volúmenes | ||
+ | |||
+ | |||
+ | === Un sólo volumen === | ||
+ | * Tener todo el espacio en un sólo volumen nos permite más flexibilidad a la hora de redimensionar, | ||
+ | * Menor complejidad de administración | ||
+ | |||
+ | === Varios volúmenes | ||
+ | * Tener distintos tipos de Raid para distintas máquinas | ||
+ | * Más flexibilidad (Las políticas de multiplath y almacenamiento son por LUN) | ||
+ | |||
+ | === Grupos === | ||
+ | Segmentar la SAN en grupos lógicos por ejemplo | ||
+ | * Grupo A: pro | ||
+ | * Grupo B: pre | ||
+ | * GRUPO c: plantillas | ||
+ | * GRUPO D: Backup | ||
+ | |||
+ | === Requisitos de cada grupo === | ||
+ | Elegir el tipo de rendimiento y RAID en función de los requisitos de cada grupo | ||
+ | |||
+ | === Conexión de la cabina con los switch === | ||
+ | La primera es una conexión simple, la segunda es con Multiplath | ||
+ | |||
+ | {{: | ||
+ | |||
+ | |||
+ | === LUN === | ||
+ | |||
+ | Hay que tener en cuenta | ||
+ | |||
+ | * Cada LUN debe tener el nivel de RAID apropiado a las características de la máquina virtual. | ||
+ | * Una LUN sólo debe contener un volumen VMFS | ||
+ | * Si múltiples máquinas virtuales acceden a la misma LUN usar distintas prioridades para cada máquina | ||
+ | |||
+ | === Métodos de acceso a los datos en la SAN ==== | ||
+ | |||
+ | Las máquinas virtuales usan dos métodos para acceder a los datos | ||
+ | - VMFS Las operaciones sobre el VMFS son trasladadas por el ISCSI | ||
+ | - RDM Da acceso al Sistema Operativo invitado al dispositivo Raw | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | ===== Configuración de los switch Powerconnect ===== | ||
+ | Como estos switch se van a utilizar específicamente para el tráfico ISCSI cambiamos los siguientes parámetros | ||
+ | * Habilitar Flow Control en todas las bocas | ||
+ | * Habilitar Jumbo frames en todas las bocas | ||
+ | * PortFast | ||
+ | * No usar Sapnning-Tree (STP) usar rstp | ||
+ | * Deshabilitar LLDP (Link Layer Discovery Protocol) | ||
+ | |||
+ | <note tip> | ||
+ | Si ya tenemos una configuración en el swicth y queremos empezar desde cero hay que hacer lo siguiente | ||
+ | < | ||
+ | console> | ||
+ | console# | ||
+ | |||
+ | </ | ||
+ | |||
+ | === Switches and VLAN1 === | ||
+ | |||
+ | La recomendación es crear una nueva VLAN y poner todos los puertos usados para el ISCSI en dicha VLAN. En este caso como los switch están dedicados en exclusiva para el ISCSI utilizaremos la VLAN por defecto | ||
+ | |||
+ | === Habilitar Jumbo Frame ==== | ||
+ | < | ||
+ | mtu 9216 | ||
+ | exit</ | ||
+ | < | ||
+ | |||
+ | === deshabilita LLDP === | ||
+ | < | ||
+ | interface range ethernet all | ||
+ | no lldp transmit | ||
+ | no lldp receive | ||
+ | </ | ||
+ | |||
+ | === Habilitar el RSTP === | ||
+ | < | ||
+ | Switch(config)# | ||
+ | </ | ||
+ | === Habilitar el portfast === | ||
+ | < | ||
+ | interface range ethernet all | ||
+ | spanning-tree portfast | ||
+ | </ | ||
+ | === ISCSI ==== | ||
+ | Como el único tráfico que soportan estos switch es el ISCSI podemos quitar los parámetros para priorizar el tráfico ISCSI ya que estan dedicados en exclusiva para el tráfico ISCSI | ||
+ | < | ||
+ | console(config)# | ||
+ | console(config)# | ||
+ | console(config)# | ||
+ | </ | ||
+ | |||
+ | |||
+ | === STORM CONTROL === | ||
+ | < | ||
+ | no storm-control unicast</ | ||
+ | |||
+ | |||
+ | ==== Ejemplo configuración Switch Powerconnect ===== | ||
+ | < | ||
+ | console> enable | ||
+ | console# configure | ||
+ | console(config)# | ||
+ | console(config)# | ||
+ | This operation may take a few minutes. | ||
+ | Management interfaces will not be available during this time. | ||
+ | |||
+ | Are you sure you want to continue? (y/n) y | ||
+ | |||
+ | console(config)# | ||
+ | console(config-if)# | ||
+ | console(config-if)# | ||
+ | console(config-if)# | ||
+ | console(config-if)# | ||
+ | console(config-if)# | ||
+ | console(config-if)# | ||
+ | console (config)# exit | ||
+ | console# copy r s | ||
+ | </ | ||
+ | |||
+ | |||
+ | |||
+ | En nuestro caso como tenemos los dos switch conectados entre si por las dos últimas bocas necesitamos además crear un LAG con dichas bocas. | ||
+ | < | ||
+ | console# configure | ||
+ | console(config-if)# | ||
+ | console(config-if)# | ||
+ | console(config-if)# | ||
+ | console(config-if)# | ||
+ | </ | ||
+ | < | ||
+ | |||
+ | ===== Configuración de los ESX con multipath ===== | ||
+ | |||
+ | Vamos a utilizar un ejemplo, supongamos que tenemos un servidor ESX con cuatro interfaces, dos switch dedicados para el iscsi y una SAN con doble interface | ||
+ | * dos interfaces la ponemos en team y los utilizamos para la consola | ||
+ | * los otras dos los utilizamos para el iscsi | ||
+ | |||
+ | |||
+ | <note warning> | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | ==== 1.- Habilitamos Jumbo Frames en los vSwitch ==== | ||
+ | Creamos un vSwitch para ello desde la consola o por ssh ejecutamos | ||
+ | < | ||
+ | |||
+ | Habilitamos Jumbo Frames | ||
+ | < | ||
+ | [root@ord1309 ~]# esxcfg-vswitch -m 9000 vSwitch1 | ||
+ | </ | ||
+ | Comprobamos que está habilitado | ||
+ | < | ||
+ | [root@ord1309 ~]# esxcfg-vswitch -l | ||
+ | Switch Name Num Ports Used Ports Configured Ports MTU | ||
+ | vSwitch0 | ||
+ | |||
+ | PortGroup Name VLAN ID Used Ports Uplinks | ||
+ | VM Network | ||
+ | Service Console | ||
+ | |||
+ | Switch Name Num Ports Used Ports Configured Ports MTU | ||
+ | vSwitch1 | ||
+ | |||
+ | PortGroup Name VLAN ID Used Ports Uplinks | ||
+ | iscsi1 | ||
+ | |||
+ | Switch Name Num Ports Used Ports Configured Ports MTU | ||
+ | vSwitch2 | ||
+ | |||
+ | PortGroup Name VLAN ID Used Ports Uplinks | ||
+ | iscsi2 | ||
+ | </ | ||
+ | |||
+ | También podemos hacer < | ||
+ | |||
+ | ==== 2.- Añadimos los puertos ISCSI VMkernel ==== | ||
+ | < | ||
+ | La recomendación ha cambiado, ahora se recomienda un VMkernel por cada tarjeta física | ||
+ | < | ||
+ | esxcfg-vswitch -A ISCSI1 vSwitch1 | ||
+ | esxcfg-vmknic -a -i 172.17.1.2 -n 255.255.255.0 -m 9000 ISCSI1 | ||
+ | esxcfg-vswitch -A ISCSI2 vSwitch1 | ||
+ | esxcfg-vmknic -a -i 172.17.1.3 -n 255.255.255.0 -m 9000 ISCSI2 | ||
+ | esxcfg-vswitch -A ISCSI3 vSwitch1 | ||
+ | esxcfg-vmknic -a -i 172.17.1.4 -n 255.255.255.0 -m 9000 ISCSI3 | ||
+ | esxcfg-vswitch -A ISCSI4 vSwitch1 | ||
+ | esxcfg-vmknic -a -i 172.17.1.5 -n 255.255.255.0 -m 9000 ISCSI4 | ||
+ | esxcfg-vswitch -A ISCSI5 vSwitch1 | ||
+ | esxcfg-vmknic -a -i 172.17.1.6 -n 255.255.255.0 -m 9000 ISCSI5 | ||
+ | esxcfg-vswitch -A ISCSI6 vSwitch1 | ||
+ | esxcfg-vmknic -a -i 172.17.1.7 -n 255.255.255.0 -m 9000 ISCSI6 | ||
+ | </ | ||
+ | |||
+ | ==== 3.- Asignar las tarjetas de red ==== | ||
+ | |||
+ | Para listar las tarjetas del sistema ejecutar | ||
+ | < | ||
+ | El resultado será algo así | ||
+ | < | ||
+ | [root@ord1309 ~]# esxcfg-nics -l | ||
+ | Name PCI Driver | ||
+ | vmnic0 | ||
+ | vmnic1 | ||
+ | vmnic2 | ||
+ | vmnic3 | ||
+ | </ | ||
+ | Asignamos las tarjetas al vSwitch | ||
+ | < | ||
+ | esxcfg-vswitch -L vmnic2 vSwitch1 | ||
+ | esxcfg-vswitch -L vmnic3 vSwitch1 | ||
+ | </ | ||
+ | |||
+ | Para verificar que se han asignado correctamente | ||
+ | < | ||
+ | esxcfg-vswitch -l | ||
+ | </ | ||
+ | el resultado será parecido a | ||
+ | < | ||
+ | |||
+ | Switch Name Num Ports Used Ports Configured Ports MTU | ||
+ | vSwitch0 | ||
+ | |||
+ | PortGroup Name VLAN ID Used Ports Uplinks | ||
+ | VM Network | ||
+ | Service Console | ||
+ | |||
+ | Switch Name Num Ports Used Ports Configured Ports MTU | ||
+ | vSwitch1 | ||
+ | |||
+ | PortGroup Name VLAN ID Used Ports Uplinks | ||
+ | ISCSI6 | ||
+ | ISCSI5 | ||
+ | ISCSI4 | ||
+ | ISCSI3 | ||
+ | ISCSI2 | ||
+ | ISCSI1 | ||
+ | </ | ||
+ | |||
+ | ==== 4.- Asociar los puertos VMkernel con los Adaptadores Físicos ==== | ||
+ | |||
+ | Necesitamos enlazar cada VMkernel a una tarjeta de red. Esto se neecsita para sacar provecho de las nuevas características como Round Robin MPIO etc. | ||
+ | |||
+ | Antes vimos que cada puerto VMkernel tiene dos vmnics en cada uplink. Esto hay que cambiarlo para que quede una sola vmnic este enlazada y hacer nosotros el balanceo de carga entre todos los puerto VMkernel. | ||
+ | |||
+ | <note warning> Para usar los iniciadosres ISCSI es obligatorio dejar una sóla tarjeta como activa, poniendo el resto (en caso de tener varias), como **unavailable**. Ojo tampoco ponerla como standby</ | ||
+ | |||
+ | < | ||
+ | PortGroup Name VLAN ID Used Ports Uplinks | ||
+ | ISCSI6 | ||
+ | ISCSI5 | ||
+ | ISCSI4 | ||
+ | ISCSI3 | ||
+ | ISCSI2 | ||
+ | ISCSI1 | ||
+ | </ | ||
+ | Para quitar una de las vmnic ejecutamos lo siguiente | ||
+ | < | ||
+ | esxcfg-vswitch -p ISCSI1 -N vmnic3 vSwitch1 | ||
+ | </ | ||
+ | Seguimos el mismo proceso para los restantes VMkernel | ||
+ | < | ||
+ | [root@ord1309 ~]# esxcfg-vswitch -p ISCSI2 -N vmnic3 vSwitch1 | ||
+ | [root@ord1309 ~]# esxcfg-vswitch -p ISCSI3 -N vmnic3 vSwitch1 | ||
+ | [root@ord1309 ~]# esxcfg-vswitch -p ISCSI4 -N vmnic2 vSwitch1 | ||
+ | [root@ord1309 ~]# esxcfg-vswitch -p ISCSI5 -N vmnic2 vSwitch1 | ||
+ | [root@ord1309 ~]# esxcfg-vswitch -p ISCSI6 -N vmnic2 vSwitch1 | ||
+ | </ | ||
+ | |||
+ | Verificamos que sólo tenemos una tarjeta por uplink | ||
+ | < | ||
+ | Switch Name Num Ports Used Ports Configured Ports MTU | ||
+ | vSwitch1 | ||
+ | |||
+ | PortGroup Name VLAN ID Used Ports Uplinks | ||
+ | ISCSI6 | ||
+ | ISCSI5 | ||
+ | ISCSI4 | ||
+ | ISCSI3 | ||
+ | ISCSI2 | ||
+ | ISCSI1 | ||
+ | </ | ||
+ | <note important> | ||
+ | |||
+ | ==== 5.- Habilitar el iniciador ISCSI de VMware ==== | ||
+ | |||
+ | para habilitar el iniciador | ||
+ | < | ||
+ | para comprobar que se ha iniciado | ||
+ | < | ||
+ | ==== 6.- Enlazar los puertos VMkernel al iniciador ISCSI ==== | ||
+ | para que haga un escaneo para descubrir todos los adaptadores, | ||
+ | < | ||
+ | El resultado será parecido a | ||
+ | < | ||
+ | vmhba33 iscsi_vmk | ||
+ | </ | ||
+ | |||
+ | La siguiente información que necesitamos es el vmk# de cada puerto VMkernel. | ||
+ | Para verlo desde la consola gráfica hay que ir Configuration-> | ||
+ | Desde la cosnola podemos ejecutar < | ||
+ | |||
+ | < | ||
+ | [root@ord1309 ~]# esxcfg-vmknic -l | ||
+ | Interface | ||
+ | vmk0 | ||
+ | vmk1 | ||
+ | vmk2 | ||
+ | vmk3 | ||
+ | vmk4 | ||
+ | vmk5 | ||
+ | </ | ||
+ | Ahora que sabemos la vnhba# y el vmk# podemos enlazar cada puerto VMkernel con el iniciador ISCSI | ||
+ | < | ||
+ | esxcli swiscsi nic add -n vmk0 -d vmhba33 | ||
+ | esxcli swiscsi nic add -n vmk1 -d vmhba33 | ||
+ | esxcli swiscsi nic add -n vmk2 -d vmhba33 | ||
+ | esxcli swiscsi nic add -n vmk3 -d vmhba33 | ||
+ | esxcli swiscsi nic add -n vmk4 -d vmhba33 | ||
+ | esxcli swiscsi nic add -n vmk5 -d vmhba33 | ||
+ | </ | ||
+ | Para verificar | ||
+ | < | ||
+ | |||
+ | ===== 7.- Creamos los volúmenes en la cabina Equallogic ==== | ||
+ | Una vez que hemos configurado el iniciador tenemos que crear en la cabina los distintos volúmenes de datos y asignarlos. | ||
+ | |||
+ | < | ||
+ | |||
+ | Permitimos el acceso sólo a nuestra red ISCSI | ||
+ | |||
+ | {{: | ||
+ | |||
+ | Habilitamos el acceso compartido desde múltiples iniciadores. | ||
+ | {{: | ||
+ | |||
+ | |||
+ | <note warning> | ||
+ | |||
+ | ==== 8.- Enlazamos los volúmenes al Vsphere ==== | ||
+ | Una vez creados los volúmenes etc, hay que ir al vCenter **Configuration-> | ||
+ | -> ** hacer click en **Properties** | ||
+ | Click en la pestaña **Dynamic Discovery** | ||
+ | -> | ||
+ | |||
+ | En la venta que se abre poner la dirección IP de la SAN y pulsar en ok | ||
+ | |||
+ | |||
+ | ==== 9.- Activamos el Round Robin ==== | ||
+ | Al activar el Round Robin nos permite hacer uso de las características avanzadas de las cabinas, permitiendo mayores anchos de banda. | ||
+ | |||
+ | Para habilitar el Multiplathing Round Robin en un volumen, hay que ir al vcenter-> | ||
+ | |||
+ | < | ||
+ | |||
+ | Para poner por defecto Round Robin y utilizar por defecto el NMP de equallogic a la hora de crear nuevos volúmenes ejecutar: | ||
+ | < | ||
+ | esxcli nmp satp setdefaultpsp -–satp VMW_SATP_EQL -–psp VMW_PSP_RR | ||
+ | esxcli corestorage claimrule load | ||
+ | esxcli corestorage claimrule run</ | ||
+ | |||
+ | ====== Referencias ===== | ||
+ | |||
+ | * http:// | ||
+ | * http:// | ||
+ | * http:// | ||
+ | * http:// | ||
+ | * http:// | ||
+ | * http:// | ||
+ | * http:// | ||
+ | |||
+ | |||