Sei sulla pagina 1di 49

UNIVERSIDAD TECNOLGICA DE PANAM FACULTAD DE INGENIERA DE SISTEMAS COMPUTACIONALES MAESTRA EN CIENCIAS COMPUTACIONALES REDES DE REA LOCAL

VIRTUALIZACIN EN REDES DE REA LOCAL

Por: JUAN V. FERNNDEZ A.

Prof.: Lydia de Toppin

PANAMA, MAYO 2010

Resumen De la Monografa presentada a consideracin para el curso de Metodologa para el Desarrollo de Software del Programa de Maestra en Ciencias

Computacionales.

VIRTUALIZACIN EN REDES DE REA LOCAL

JUAN FERNNDEZ

Prof.: Lydia de Toppin

Resumen
La virtualizacin ha estado presente desde hace tiempo, pero la tecnologa sigue evolucionando. De hecho, la palabra en s tiene significados distintos para diferentes personas. No obstante, en trminos generales, la virtualizacin hace referencia a la abstraccin de una capa de la pila de tecnologa de la siguiente capa, como, por ejemplo, el almacenamiento de los servidores o el sistema operativo de las aplicaciones. La abstraccin de las diferentes capas, a su vez, permite la consolidacin y una mejor capacidad de administracin.

Como concepto, la virtualizacin se aplica al almacenamiento, las redes, los servidores, las aplicaciones y el acceso. En relacin con el almacenamiento y las redes, el objetivo de la virtualizacin es agregar un conjunto de distintos dispositivos de modo que el grupo total de recursos parezca y acte como una sola entidad. Por ejemplo, puede configurar una solucin de almacenamiento de 40 TB en vez de un conjunto de 20 dispositivos de almacenamiento de 2 TB. Pero con otros componentes, la virtualizacin acta en la direccin contraria y le ayuda a que un nico sistema aparezca como si hubiera mltiples sistemas.

CONTENIDO

CAPTULO I INTRODUCCIN
1.1 La virtualizacin y automatizacin

CAPTULO II REVISIN DE LA LITERATURA


2.1 Virtualizacin de plataforma 2.2 Diferencias entre virtualizar un Sistema operativo e instalarlo 2.3 Ventajas de la Virtualizacin 2.4 Programas tiles para virtualizar sistemas operativos 2.5 Virtualizacin por Hardware 2.6 La virtualizacin de almacenamiento 2.7 Infraestructura Virtual 2.8 Virtualizacin en sistemas operativos ms reconocidos

CAPTULO III DISCUSIN DE LA PROPUESTA

3.1 Virtualizacin de servidores: una propuesta atractiva pero no exenta de riesgos


3.2 Pueden no conseguirse los esperados ahorros en hardware

CONCLUSIN REFERENCIAS BIBLIOGRFICAS

CAPTULO I INTRODUCCIN

Recientemente se habla mucho de la virtualizacin, y gran parte de la discusin trata especficamente de la virtualizacin de servidores. Es una de las tendencias ms interesantes en el sector y la que tiene la capacidad, en los prximos aos, de cambiar el paradigma de la implementacin de los sistemas de TI. Pero la virtualizacin de servidores no slo cambiar el modo en que los administradores y arquitectos de TI perciben los servidores y el uso del sistema, sino que tambin va a afectar a los procesos y herramientas que se usan para administrar lo que, sin duda, se convertir en un entorno cada vez ms dinmico. Esta virtualizacin de servidores es un concepto utilizado para definir el proceso de agrupar varios servidores en uno solo, manteniendo cada ambiente individual al mismo tiempo que se optimiza el uso de recursos tales como procesadores, memoria, redes y almacenamiento. El propsito es utilizar los recursos ociosos, balancear adecuadamente las cargas de trabajo en los momentos peak y dar una administracin centralizada. Si revisamos cualquier organizacin ya sea una gran corporacin o una Pyme nos encontraremos con una cantidad insospechada de servidores, cada uno con servicios importantes: correo, file server, web server, imgenes, Intranet, aplicaciones. En fin, recursos complejos, costosos y, peor an, difciles de administrar.

1.1 La virtualizacin y automatizacin La virtualizacin como tal no es la solucin completa, la automatizacin es la clave para que la virtualizacin funcione satisfactoriamente en aplicaciones reales, es necesario hacer un uso intensivo de la automatizacin, de las herramientas administrativas basadas en polticas que sirven para implantar y gestionar instancias virtualizadas.

La automatizacin es la siguiente etapa de la virtualizacin. De hecho, analistas han pronosticado que Dado que la virtualizacin ha madurado, la siguiente revolucin va a consistir en automatizar la composicin y gestin de estos recursos virtualizados. La introduccin de la automatizacin inteligente en un datacenter traer una significativa mejora en el rendimiento del datacenter. La estandarizacin y la automatizacin permiten una rpida respuesta y capacidad de adaptacin manteniendo los controles de calidad, eficiencia y asegurando retornos de inversin predecible y consistente. Mediante la automatizacin, es posible obtener todava ms ventajas que las que la virtualizacin por s sola aporta: Despliegues ms rpidos Menor tiempo de paradas Recuperacin ante desastres Respuesta dinmica y autoajustable a las cargas de trabajo

Toda la automatizacin se realiza mediante herramientas de gestin y automatizacin centralizada, con las que le resultar ms sencillo aprovechar todos los recursos disponibles, le permitir ejecutar en todo momento sus cargas de trabajo en la plataforma ms adecuada. Hoy en da existes mltiples herramientas disponibles para

trabajar directamente en ambientes virtualizados, mediante monitoreo de status de equipos, balanceo automtico de data, monitoreo de red, gestionadores de procesos, etc.

CAPTULO II REVISIN DE LA LITERATURA

Figura 1. Ambiente completamente virtualizado

En informtica, virtualizacin se refiere a la abstraccin de los recursos de una computadora, llamada Hypervisor o VMM (Virtual Machine Monitor) que crea una capa de abstraccin entre el hardware de la mquina fsica (host) y el sistema operativo de la mquina virtual (virtual machine, guest), siendo un medio para crear una versin virtual de un dispositivo o recurso, como un servidor, un dispositivo de almacenamiento, una red o incluso un sistema operativo, donde se divide el recurso en uno o ms entornos de ejecucin. Esta capa de software (VMM) maneja, gestiona y arbitra los cuatro recursos principales de una computadora (CPU, Memoria, Red, Almacenamiento) y as podr repartir dinmicamente dichos recursos entre todas las mquinas virtuales definidas en el computador central. De modo que nos permite tener varios ordenadores virtuales ejecutndose sobre el mismo ordenador fsico.

Tal trmino es antiguo; se viene usando desde 1960, y ha sido aplicado a diferentes aspectos y mbitos de la informtica, desde sistemas computacionales completos, hasta capacidades o componentes individuales. Lo ms importante en este tema de virtualizacin es la de ocultar detalles tcnicos a travs de la encapsulacin.

La virtualizacin se encarga de crear un interfaz externo que esconde una implementacin subyacente mediante la combinacin de recursos en locaciones fsicas diferentes, o por medio de la simplificacin del sistema de control. Un avanzado desarrollo de nuevas plataformas y tecnologas de virtualizacin han hecho que se vuelva a prestar atencin a este importante concepto. De modo similar al uso de trminos como abstraccin y orientacin a objetos, virtualizacin es usado en muchos contextos diferentes.

Este concepto que es realmente interesante y que se lleva desarrollando desde hace muchos aos, parece que finalmente est encontrando sus caminos productivos y de desarrollo para profesionales. La mquina virtual en general es un sistema operativo completo que corre como si estuviera instalado en una plataforma de hardware autnoma. Tpicamente muchas mquinas virtuales son simuladas en un computador central. Para que el sistema operativo guest funcione, la simulacin debe ser lo suficientemente grande (siempre dependiendo del tipo de virtualizacin).

2.1 Virtualizacin de plataforma Esta involucra la simulacin de mquinas virtuales. La virtualizacin de plataforma se lleva a cabo en una plataforma de hardware mediante un software "host" (anfitrin), que es un programa de control que simula un entorno computacional (mquina virtual) para su software "guest" ("invitado"). Este software que generalmente es un sistema operativo completo, se ejecuta como si estuviera instalado en una plataforma de hardware autnoma. Tpicamente muchas mquinas virtuales son simuladas en una mquina fsica dada. Para que el sistema operativo funcione, la simulacin debe ser lo suficientemente grande como para soportar todas las interfaces externas de los sistemas invitados, las cuales se pueden incluir (todo esto dependiendo del tipo de virtualizacin) los drivers de hardware. Ejemplos

VMware Workstation VMware Server VirtualBox Parallels Desktop Virtual Iron Adeos Mac-on-Linux Win4BSD Win4Lin Pro y z/VM openvz Oracle VM XenServer Microsoft Virtual PC 2007 Hyper-V

Virtualizacin parcial Address Space Virtualization. La mquina virtual simula mltiples instancias de gran parte (pero no de todo) del entorno subyacente del hardware, particularmente espacio de direcciones. Tal entorno acepta compartir recursos y alojar procesos, pero no permite instancias separadas de sistemas operativos guest. Aunque no es vista como dentro de la categora de mquina virtual, histricamente ste fue un importante acercamiento, y lo usaron en sistemas como CTSS, el experimental IBM M44/44X, y podra mencionarse que en sistemas como OS/VS1, OS/VS2 y MVS. 2.2 Diferencias entre virtualizar un Sistema operativo e instalarlo Virtualizar el sistema operativo es una opcin interesante si no queremos instalar dos sistemas operativos en el mismo ordenador, pero si por el contrario lo que hacemos es instalarlo, todos los sistemas operativos que tengamos instalados funcionaran de la misma manera que si estuvieran instalados en distintos ordenadores. El nico y pequeo inconveniente es que necesitamos un gestor de arranque que al encender nuestro ordenador nos de la opcin de elegir que sistema operativo queremos utilizar, lo que conlleva a que si por ejemplo estamos en Windows y queremos cambiar a Linux deberamos reiniciar nuestro ordenador. La virtualizacin por el contrario permite cambiar de sistema operativo como si se tratase de cualquier otro programa, sin embargo, esta agilidad tiene la desventaja de que un sistema operativo virtualizado no es tan potente como uno que ya estuviera instalado. Retos de la Virtualizacin

ndices de utilizacin ms altos antes que la virtualizacin, los ndices de utilizacin del servidor y almacenamiento en los centros de datos de la empresa tpicamente promediaron menos que el 50% (de hecho, del 10% al 15% de los ndices de utilizacin fueron comunes). A travs de la virtualizacin, las cargas de trabajo pueden ser encapsuladas y transferidas a los sistemas inactivos o sin uso lo cual significa que los sistemas existentes pueden ser consolidados, as que las compras de capacidad adicional del servidor pueden ser retrasadas o evitadas.

Consolidacin de Recursos La virtualizacin permite la consolidacin de mltiples recursos de TI. Ms all de la consolidacin de almacenamiento, la virtualizacin proporciona una oportunidad para consolidar la arquitectura de sistemas, infraestructura de aplicacin, datos y base de datos, interfaces, redes, escritorios, e incluso procesos de negocios, resultando en ahorros de costo y mayor eficiencia.

Uso/costo menor energa La electricidad requerida para que funcionen los centros de datos de clase empresarial ya no est disponible en suministros ilimitados, y el costo est en una espiral ascendente. Por cada dlar gastado en un servidor hardware, un dlar adicional es gastado en energa (incluyendo el costo de los servidores en funcin y los enfriadores). Utilizando virtualizacin para consolidar hace posible cortar el consumo total de energa y ahorrar dinero de una manera significativa.

Ahorros de espacio La extensin del servidor permanece como un serio problema en la mayora de los centros de datos empresariales, pero la expansin del centro de datos no es siempre una opcin, con los costos de construccin promediando miles de dlares por pie cuadrado. La virtualizacin puede aliviar la tensin mediante la consolidacin de muchos sistemas virtuales en menos sistemas fsicos.

Recuperacin de desastre/continuidad del negocio La virtualizacin puede incrementar la disponibilidad de los ndices del nivel de servicio en general y proporcionar nuevas opciones de soluciones para la recuperacin de desastre.

Costos de operacin reducidos La empresa promedio gasta $8 dlares en mantenimiento por cada $1 dlar invertido en nueva infraestructura. La virtualizacin puede cambiar el radio de servicio-a administracin reducir la total carga de trabajo administrativo, y cortar el total de costos de operacin.

2.3 Ventajas de la Virtualizacin


Rpida incorporacin de nuevos recursos para los servidores virtualizados. Reduccin de los costes de espacio y consumo necesario de forma proporcional al ndice de consolidacin logrado (Estimacin media 10:1).

Administracin global centralizada y simplificada. Nos permite gestionar nuestro CPD como un pool de recursos o agrupacin de toda la capacidad de procesamiento, memoria, red y almacenamiento disponible en nuestra infraestructura

Mejora en los procesos de clonacin y copia de sistemas: Mayor facilidad para la creacin de entornos de test que permiten poner en marcha nuevas aplicaciones sin impactar a la produccin, agilizando el proceso de las pruebas.

Aislamiento: un fallo general de sistema de una mquina virtual no afecta al resto de mquinas virtuales.

No slo aporta el beneficio directo en la reduccin del hardware necesario, as como de sus costos asociados

Reduce los tiempos de parada. Migracin en caliente de mquinas virtuales (sin prdida de servicio) de un servidor fsico a otro, eliminando la necesidad de paradas planificadas por mantenimiento de los servidores fsicos.

Balanceo dinmico de mquinas virtuales entre los servidores fsicos que componen el pool de recursos, garantizando que cada mquina virtual ejecute en el servidor fsico ms adecuado y proporcionando un consumo de recursos homogneo y ptimo en toda la infraestructura.

Alto grado de satisfaccin general

2.4 Programas tiles para virtualizar sistemas operativos Como todos conocemos existen dos tipos de programas: los que son de pago y los que no. Dentro de los programas pagos encontramos uno de los ms famosos: el VMware, que es uno de los referentes en el mercado. A pesar de ser pago tambin existe una versin ms bsica que es gratuita, VMware Player, que permite virtualizar a travs de una mquina virtual ya configurada. Tambin existen webs que nos permiten rellenar un
6

formulario y descargarnos nuestra mquina virtual a nuestro gusto como EasyVMX! Parallels Virtuozzo Containers, es otro de los programas pagos ms famosos, que permite la virtualizacin a nivel de sistema operativo o hardware Parallesl Bare Metal. Tpicamente suele emplearse para virtualizar Windows y, en menor medida, GNU/Linux. Dentro de los programas gratuitos tenemos el Virtual PC de Microsoft, que es un producto de Windows, compatible con versiones avanzadas de XP y Vista. Dentro de los programas de cdigo libre estn el Xen, OpenVZ y VirtualBox, que funcionan tanto en Windows como en GNU/Linux y ambos permiten virtualizar los tres sistemas operativos ms famosos. Tipos de virtualizacin La virtualizacin se puede hacer desde un sistema operativo Windows, ya sea XP, Vista u otra versin que sea compatible con el programa que utilicemos, en el que virtualizamos otro sistema operativo como Linux o viceversa, que tengamos instalado Linux y queramos virtualizar una versin de Windows. 2.5 Virtualizacin por Hardware Virtualizacin asistida por Hardware, son extensiones introducidas en la arquitectura del procesador x86 y x64 para facilitar las tareas de virtualizacin al software corriendo sobre el sistema. Si cuatro son los niveles de privilegio o "anillos" de ejecucin en esta arquitectura, desde el cero o de mayor privilegio, que se destina a las operaciones del kernel de SO, al tres, con privilegios menores que es el utilizado por los procesos de usuario, en esta nueva arquitectura se introduce un anillo interior o ring -1 que ser el que un hypervisor o Virtual Machine Monitor usar para aislar todas las capas superiores de software de las operaciones de virtualizacin. Como de costumbre, los dos principales fabricantes de procesadores llegan a lo mismo usando diferentes tecnologas, con similitudes pero incompatibles entre s. Intel, con su Intel Virtualization Technology (o Intel-VT), y AMD con su AMD Virtualization (o AMD-V o tambin AMD "Pacfica").

Al igual que sucede con las extensiones de 64-bit (EM64T para Intel y AMD64 para AMD), casi la totalidad de los procesadores de gama media-alta puestos en el mercado en el ltimo ao soportan la virtualizacin asistida por hardware. Adems de todo esto, no basta con tener un procesador o procesadores compatibles. La BIOS del equipo debe soportarla, lo que agrega otra variable a la ecuacin y nos obliga a visitar la pgina de descargas correspondiente del fabricante de nuestro hardware. En las siguientes figuras aparece la opcin en la BIOS para habilitar/deshabilitar la virtualizacin.

Procesadores

actuales

con

mejor

tecnologa

de

virtualizacin

Los procesadores AMD Opteron de Cuatro Ncleos: Con Arquitectura de Conexin Directa y Virtualizacin AMD (AMD-V) impulsan las soluciones de alto rendimiento, flexibles y seguras para virtualizacin de servidores disponibles actualmente. La Indexacin Rpida de Virtualizacin, una mejora de la tecnologa AMD-V presente en los procesadores AMD Opteron de Cuatro Ncleos, est desarrollada para aumentar drsticamente el desempeo de las aplicaciones virtualizadas, permitiendo tambin una Alternancia ms rpida entre las mquinas virtuales para que puedas alojar ms mquinas por servidor, maximizando los beneficios de la virtualizacin. La Arquitectura de Conexin Directa de AMD incluye un controlador de memoria en la pastilla para una administracin ptima de la memoria un factor clave para el aumento
8

del desempeo, al tiempo que la tecnologa HyperTransport aumenta la escalabilidad de la plataforma y la tasa de transferencia. Arquitectura de Conexin Directa: La Arquitectura de Conexin Directa de AMD ofrece conexiones directas del procesador a la memoria, del procesador al dispositivo de E/S y del procesador a otro procesador, agilizando la virtualizacin del servidor. Los procesadores de cuatro ncleos de AMD con computacin de 64 bits ofrecen ms ancho de banda de memoria y ms recursos del procesador para virtualizacin que cualquier otro procesador para servidor comparable. El Controlador de Memoria Integrado est desarrollado para mejorar el desempeo en ambientes de virtualizacin con uso intensivo de memoria, alto ancho de banda, baja latencia y acceso escalable a la memoria.

Indexacin virtualizados

Rpida

de

Virtualizacin:

mejor

desempeo

en

ambientes

La Indexacin Rpida de Virtualizacin permite que las mquinas virtuales administren ms directamente la memoria para mejorar el rendimiento en muchas aplicaciones virtualizadas. Utilizando recursos del propio procesador en vez de software, La Indexacin Rpida de Virtualizacin puede reducir mucho los ciclos del Hypervisor y la prdida de rendimiento asociada comnmente a la virtualizacin. La Indexacin Rpida de Virtualizacin tambin fue desarrollada para disminuir el tiempo de alternancia entre una mquina virtual y la otra en un 25%, ofreciendo un aumento de la capacidad de repuesta La tecnologa HyperTransport optimiza el movimiento de los datos y permite compartir mejor los recursos entre las mquinas virtuales, proporcionando mayor escalabilidad del sistema. Los procesadores Intel Xeon serie 5500: Constituyen una plataforma fsica mejor para la virtualizacin, con exclusivas

funciones asistidas por hardware para mejorar el centro de datos virtual y ayudar a dominar la proliferacin de servidores. El procesador Intel Xeon serie 5500, basado en la microarquitectura Nehalem de Intel, denominada con el cdigo Nehalem, ampla las ventajas de la virtualizacin con innovaciones que potencian el rendimiento, mejoran las E/S, y permiten combinar servidores de diferentes generaciones en el mismo grupo de servidores virtualizados, mejorando as la recuperacin de fallos de las mquinas virtuales, el equilibrio de cargas y las capacidades de recuperacin ante desastres. Tecnologas como Intel Turbo Boost Technology, Intel Hyper-Threading Technology, puertas de energa integradas e Intel Virtualization Technology (VT), mejoradas por medio de tablas de pginas extendidas, le permiten al sistema adaptarse a un amplio espectro de cargas de trabajo.

10

Estas tecnologas estn totalmente integradas y probadas y son ampliamente compatibles con las principales soluciones de software de virtualizacin. Ofrecen a las empresas de TI una base probada lder en el sector para optimizar el valor de sus inversiones en servidores y virtualizacin.

2.6 La virtualizacin de almacenamiento Se refiere al proceso de abstraer el almacenamiento lgico del almacenamiento fsico, y es comnmente usado en SANs ("Storage Area Network" Red de rea de almacenamiento). Los recursos de almacenamiento fsicos son agregados al "storage pool" (almacn de almacenamiento), del cual es creado el almacenamiento lgico. Una red SAN se distingue de otros modos de almacenamiento en red por el modo de acceso a bajo nivel. El tipo de trfico en una SAN es muy similar al de los discos duros como ATA,SATA y SCSI. En otros mtodos de almacenamiento, (como SMB o NFS), el servidor solicita un determinado fichero, p.ej."/home/usuario/rocks". En una SAN el servidor solicita "el bloque 6000 del disco 4". La mayora de las SAN actuales usan el protocolo SCSI para acceder a los datos de la SAN, aunque no usen interfaces fsicas SCSI. Este tipo de redes de datos se han utilizado y se utilizan tradicionalmente en grandes main frames como en IBM, SUN o HP. Aunque recientemente con la incorporacin de Microsoft se ha empezado a utilizar en mquinas con sistemas operativos Microsoft. Una SAN es una red de almacenamiento dedicada que proporciona acceso de nivel de bloque a LUNs. Un LUN, o nmero de unidad lgica, es un disco virtual proporcionado por la SAN. El administrador del sistema el mismo acceso y los derechos a la LUN
11

como si fuera un disco directamente conectado a la misma. El administrador puede particionar y formatear el disco en cualquier medio que l elija. Dos protocolos de red utilizados en una SAN son Fibre Channel e iSCSI. Una red de canal de fibra es muy rpida y no est agobiada por el trfico de la red LAN de la empresa. Sin embargo, es muy cara. Las tarjetas de canal de fibra ptica cuestan alrededor de $ 1000.00 USD cada una. Tambin requieren especial conmutadores de canal de fibra. iSCSI es una nueva tecnologa que enva comandos SCSI sobre una red TCP / IP. Este mtodo no es tan rpido como una red Fibre Channel, pero ahorra costes, ya que utiliza un hardware de red menos costoso. A partir de desastres como lo fue el "martes negro" en el ao 2001 la gente de TI, han tomado acciones al respecto, con servicios de cmo recuperarse ante un desastre, cmo recuperar miles de datos y lograr la continuidad del negocio, una de las opciones es contar con la Red de rea de almacenamiento, sin embargo las compaas se pueden enfrentar a cientos de ataques, por lo que es necesario contar con un plan en caso de contingencia; es de vital importancia que el sitio dnde se encuentre la Red de almacenamiento, se encuentre en un rea geogrfica distinta a dnde se ubican los servidores que contienen la informacin crtica; adems se trata de un modelo centralizado fcil de administrar, puede tener un bajo costo de expansin y administracin, lo que la hace una red fcilmente escalable; fiabilidad, debido a que se hace ms sencillo aplicar ciertas polticas para proteger a la red.

Una SAN se puede considerar una extensin de Direct Attached Storage (DAS). Donde en DAS hay un enlace punto a punto entre el servidor y su almacenamiento, una SAN permite a varios servidores acceder a varios dispositivos de almacenamiento en una red compartida. Tanto en SAN como en DAS, las aplicaciones y programas de usuarios hacen sus peticiones de datos al sistema de ficheros directamente. La diferencia reside en la manera en la que dicho sistema de ficheros obtiene los datos requeridos del almacenamiento. En DAS, el almacenamiento es local al sistema de ficheros, mientras que en SAN, el almacenamiento es remoto. SAN utiliza diferentes protocolos de acceso como Fibre Channel y Gigabit Ethernet. En el lado opuesto se encuentra la tecnologa Network-attached storage (NAS), donde las aplicaciones hacen las peticiones de datos a los sistemas de ficheros de manera remota mediante protocolos CIFS y Network File System (NFS).

12

SAN vs NAS vs DAS

Estructura bsica de una SAN

Las SAN proveen conectividad de E/S a travs de las computadoras host y los dispositivos de almacenamiento combinando los beneficios de tecnologas Fibre Channel y de las arquitecturas de redes brindando as una aproximacin ms robusta, flexible y sofisticada que supera las limitaciones de DAS empleando la misma interfaz lgica SCSI para acceder al almacenamiento.

Las SAN se componen de tres capas:

Capa Host. Esta capa consiste principalmente en Servidores, dispositivos componentes (HBA, GBIC, GLM) y software (sistemas operativos).

Capa Fibra. Esta capa la conforman los cables (Fibra ptica) as como los SAN Hubs y los SAN switches como punto central de conexin para la SAN.

Capa almacenamiento. Esta capa la componen las formaciones de discos (Disk Arrays, Memoria Cach, RAIDs) y cintas empleados para almacenar datos.

La red de almacenamiento puede ser de dos tipos:


13

Red Fibre Channel. La red Fibre Channel es la red fsica de dispositivos Fibre Channel que emplea Fibre Channel Switches y Directores y el protocolo Fibre Channel Protocol (FCP) para transporte (SCSI-3 serial sobre Fibre Channel).

Red IP. Emplea la infraestructura del estndar LAN con hubs y/o switches Ethernet interconectados. Una SAN IP emplea iSCSI para transporte (SCSI-3 serial sobre IP)

Hbrido SAN-NAS

Aunque la necesidad de almacenamiento es evidente, no siempre est claro cul es la solucin adecuada en una determinada organizacin. Elegir la solucin correcta puede ser una decisin con notables implicaciones, aunque no hay una respuesta correcta nica, es necesario centrarse en las necesidades y objetivos finales especficos de cada usuario u organizacin. Por ejemplo, en el caso concreto de las empresas, el tamao de la compaa es un parmetro a tener en cuenta. Para grandes volmenes de informacin, una solucin SAN sera ms acertada. En cambio, pequeas compaas utilizan una solucin NAS. Sin embargo, ambas tecnologas no son excluyentes y pueden convivir en una misma solucin. Como se muestra en el grfico, hay una serie de resultados posibles que implican la utilizacin de tecnologas DAS, NAS y SAN en una misma solucin.

Caractersticas:
14

Latencia - Una de las diferencias y principales caractersticas de las SAN es que son construidas para minimizar el tiempo de respuesta del medio de transmisin.

Conectividad - Permite que mltiples servidores sean conectados al mismo grupo de discos o libreras de cintas, permitiendo que la utilizacin de los sistemas de almacenamiento y los respaldos sean ptimos.

Distancia - Las SAN al ser construidas con fibra ptica heredan los beneficios de sta, por ejemplo, las SAN pueden tener dispositivos con una separacin de hasta 10 Km sin ruteadores.

Velocidad - El rendimiento de cualquier sistema de computo depender de la velocidad de sus subsistemas, es por ello que las SAN han incrementado su velocidad de transferencia de informacin, desde 1 Gigabit, hasta actualmente 2 y 4 Gigabits por segundo.

Disponibilidad - Una de las ventajas de las SAN es que al tener mayor conectividad, permiten que los servidores y dispositivos de almacenamiento se conecten ms de una vez a la SAN, de esta forma, se pueden tener rutas redundantes que a su vez incrementaran la tolerancia a fallos.

Seguridad - La seguridad en las SAN ha sido desde el principio un factor fundamental, desde su creacin se not la posibilidad de que un sistema accediera a un dispositivo que no le correspondiera o interfiriera con el flujo de informacin, es por ello que se ha implementado la tecnologa de zonificacin, la cual consiste en que un grupo de elementos se aslen del resto para evitar estos problemas, la zonificacin puede llevarse a cabo por hardware, software o ambas, siendo capaz de agrupar por puerto o por WWN (World Wide Name), una tcnica adicional se implementa a nivel del dispositivo de almacenamiento que es la Presentacin, consiste en hacer que una LUN (Logical Unit Number) sea accesible slo por una lista predefinida de servidores o nodos (se implementa con los WWN)

Componentes - Los componentes primarios de una SAN son: switches, directores, HBAs, Servidores, Ruteadores, Gateways, Matrices de discos y Libreras de cintas.

Topologa - Cada topologa provee distintas capacidades y beneficios las topologas de SAN son:
15

o o o o

Cascada (cascade) Anillo (ring) Malla (meshed) Ncleo/borde (core/edge)

ISL (Inter Switch Link, enlace entre conmutadores) - Actualmente las conexiones entre los switches de SAN se hacen mediante puertos tipo "E" y pueden agruparse para formar una troncal (trunk) que permita mayor flujo de informacin y tolerancia a fallos.

Arquitectura - channel actuales funcionan bajo dos arquitecturas bsicas, FC-AL (Fibre Channel Arbitrated Loop) y Switched Fabric, ambos esquemas pueden convivir y ampliar las posibilidades de las SAN. La arquitectura FC-AL puede conectar hasta 127 dispositivos, mientras que switched fabric hasta 16 millones tericamente.

Ventajas: Compartir el almacenamiento simplifica la administracin y aade flexibilidad, puesto que los cables y dispositivos de almacenamiento no necesitan moverse de un servidor a otro, salvo en el modelo de SAN file system y en los cluster, el almacenamiento SAN tiene una relacin de uno a uno con el servidor. Cada dispositivo (o Logical Unit Number LUN) de la SAN es "propiedad" de un solo ordenador o servidor. Como ejemplo contrario, NAS permite a varios servidores compartir el mismo conjunto de ficheros en la red. Una SAN tiende a maximizar el aprovechamiento del almacenamiento, puesto que varios servidores pueden utilizar el mismo espacio reservado para crecimiento. Las rutas de almacenamiento son muchas, un servidor puede acceder a uno o "n" discos y un disco puede ser accedido por ms de un servidor, lo que hace que aumente el beneficio o retorno de la inversin, es decir, el ROI (Return On Investment). La Red de rea de almacenamiento tiene la capacidad de respaldar en locaciones fsicamente distantes. Su objetivo es perder el menor tiempo posible o mejor an, no perder tiempo, as que tanto el respaldo como la recuperacin son en lnea. Una de las grandes ventajas que tambin tiene es que proporciona alta disponibilidad de los datos. Una ventaja primordial de la SAN es su compatibilidad con los dispositivos SCSI ya existentes, aprovechando las inversiones ya realizadas y permitiendo el crecimiento a partir del hardware ya existente. Mediante el empleo de dispositivos modulares como
16

hubs, switches, bridges y routers, se pueden crear topologas totalmente flexibles y escalables, asegurando la inversin desde el primer da y, lo que es ms importante, aprovechando dispositivos SCSI de costo considerable como subsistemas RAID SCSI a SCSI, libreras de cintas o torres de CD-ROM, ya que a travs de un bridge Fibre Channel a SCSI podemos conectarlos directamente a la SAN. Puesto que estn en su propia red, son accesibles por todos los usuarios de manera inmediata. El rendimiento de la SAN est directamente relacionado con el tipo de red que se utiliza. En el caso de una red de canal de fibra, el ancho de banda es de aproximadamente 100 megabytes/segundo (1.000 megabits/segundo) y se puede extender aumentando la cantidad de conexiones de acceso. La capacidad de una SAN se puede extender de manera casi ilimitada y puede alcanzar cientos y hasta miles de terabytes. Una SAN permite compartir datos entre varios equipos de la red sin afectar el rendimiento porque el trfico de SAN est totalmente separado del trfico de usuario. Son los servidores de aplicaciones que funcionan como una interfaz entre la red de datos (generalmente un canal de fibra) y la red de usuario (por lo general Ethernet).

Desventajas: Por otra parte, una SAN es mucho ms costosa que una NAS ya que la primera es una arquitectura completa que utiliza una tecnologa que todava es muy cara. Normalmente, cuando una compaa estima el TCO (Coste total de propiedad) con respecto al costo por byte, el coste se puede justificar con ms facilidad.

Protocolos: Existen tres protocolos bsicos usados en una red de rea de almacenamiento:

FC-AL FC-SW SCSI

FC-AL: Protocolo Fibre Channel Arbitrated Loop, usado en hubs, en la SAN hub este protocolo es el que se usa por excelencia, el protocolo controla quin puede comunicarse, slo uno a la vez. FC-SW: Protocolo Fibre Channel Switched, usado en switches, en este caso varias comunicaciones pueden ocurrir simultneamente. El protocolo se encarga de conectar las comunicaciones entre dispositivos y evitar colisiones.
17

SCSI: Usado por las aplicaciones, es un protocolo usado para que una aplicacin de un equipo se comunique con el dispositivo de almacenamiento. En la SAN, el SCSI se encapsula sobre FC-AL o FC-SW. SCSI trabaja diferente en una SAN que dentro de un servidor, SCSI fue originalmente diseado para comunicarse dentro de un mismo servidor con los discos, usando cables de cobre. Dentro de un servidor, los datos SCSI viajan en paralelo y en la SAN viajan serializados.

Seguridad: Una parte esencial de la seguridad de las redes de rea de almacenamiento es la ubicacin fsica de todos y cada uno de los componentes de la red. La construccin de un data center es slo la mitad del desafo, es el hecho de decidir dnde pondremos los componentes de la red (tanto Software como Hardware) la otra mitad y la ms difcil. Los componentes crticos de la red, como pueden ser los switches, matrices de almacenamiento o hosts los cuales deben estar en el mismo data center. Al implementar seguridad fsica, slo los usuarios autorizados pueden tener la capacidad de realizar cambios tanto fsicos como lgicos en la topologa, cambios como pueden ser: cambio de puerto de los cables, acceso a reconfigurar algn equipo, agregar o quitar dispositivos entre otros. La planificacin tambin debe tomar en cuenta las cuestiones del medio ambiente como puede ser la refrigeracin, la distribucin de energa y los requisitos para la recuperacin de desastres. Al mismo tiempo se debe asegurar que las redes IP que se utilizan para gestionar los diversos componentes de la SAN son seguros y no son accesibles para toda la compaa. Tambin tiene sentido cambiar las contraseas por defecto que tienen los dispositivos de la red para as prevenir el uso no autorizado.

2.7 Infraestructura Virtual

18

Una infraestructura virtual consiste en el mapping dinmico de recursos fsicos en funcin de las necesidades de la empresa. Una mquina virtual representa los recursos fsicos de un nico ordenador, mientras que una infraestructura virtual representa los recursos fsicos de la totalidad del entorno de TI, aglutinando ordenadores x86, as como su red y almacenamiento asociados, en un pool unificado de recursos de TI. Estructuralmente, una infraestructura virtual consta de los siguientes componentes:

Hypervisor de un solo nodo para hacer posible la virtualizacin de todos los ordenadores x86.

Un conjunto de servicios de infraestructura de sistemas distribuida basada en la virtualizacin, como gestin de recursos, para optimizar los recursos disponibles entre las mquinas virtuales .

Soluciones de automatizacin que proporcionen capacidades especiales para optimizar un proceso de TI concreto, como aprovisionamiento o recuperacin ante desastres. Mediante la separacin de la totalidad del entorno de software de su infraestructura de hardware subyacente, la virtualizacin hace posible la reunin de varios servidores, estructuras de almacenamiento y redes en pools compartidos de recursos que se pueden asignar de forma dinmica, segura y fiable a las aplicaciones segn sea necesario. Este enfoque innovador permite a las organizaciones crear una infraestructura informtica con altos niveles de utilizacin, disponibilidad, automatizacin y flexibilidad utilizando

componentes bsicos de servidores econmicos y estndar del sector. Ventajas de la Infraestructura Virtual: Las soluciones de infraestructura virtual son ideales para entornos de produccin en parte debido a que se ejecutan en servidores y escritorios estndar de la industria y son compatibles con una amplia gama de sistemas operativos y entornos de aplicacin, as como de infraestructuras de red y almacenamiento. Se han diseado las soluciones para que funcionen de manera independiente del hardware y del sistema operativo y poder brindar a los clientes amplias posibilidades de eleccin de plataforma. Como resultado, son soluciones que proporcionan un punto de integracin clave para los proveedores de hardware y gestin de infraestructuras de cara a ofrecer un valor nico y aplicable por igual en todos los entornos de aplicacin y sistemas operativos.
19

Las empresas que han adoptado estas soluciones de infraestructura virtual nos han comunicado unos clarsimos resultados positivos, entre ellos:

ndices de utilizacin del 60 al 80% para servidores x86 (frente al 5 a 15% en hardware no virtualizado).

Capacidad para el aprovisionamiento de nuevas aplicaciones en cuestin de minutos, en lugar de das o semanas.

Mejora en tiempo de recuperacin de paradas imprevistas.

Desventajas de la Infraestructura Virtual:

Menor rendimiento, dado que una mquina virtual corre en una capa intermedia a la del hardware real, siempre tendr un rendimiento inferior. Si es necesario virtualizar, elegir bien la solucin necesaria en funcin de rendimiento y por supuesto costos y escalabilidad.

Tericamente no se podr utilizar hardware que no est soportado por el hypervisor de virtualizacin.

Hardware virtual obsoleto. Hasta hoy las mquinas virtuales solo nos ofrecen el acceso a tecnologa antiguas como USB 1.0, Firewire 400, Ethernet 100, pero por suerte hypervisor sigue evolucionando para estar al da con las ltimas tendencias.

La aceleracin de vdeo se ve afectada por el menor rendimiento, pero se han conseguido que funcione muy bien las ltimas versiones de aplicaciones de virtualizacin de escritorio como VmWare o Parallels ya incluyen soporte para OpenGL y DirectX.

Aumento de las mquinas virtuales, como una va para ahorrar compra de hierro, servidores dedicados reales, y con la idea de mejorar la escalabilidad de los
20

proyectos, aunque tambin es necesario ms tiempo de administracin de sistemas, gestin de licencia (si tenemos virtualizacin de pago), posibles riesgos de seguridad.

A veces se desaprovechan los recursos con la creacin de mquinas virtuales que no son necesarias.

La avera o fallo de un servidor anfitrin de virtualizacin afecta a todos los servidores virtuales que aloja, por lo que es importante no solo realizar copias de seguridad de las mquinas, incluso segn lo crtico que sea el proyecto un clsteres de servidores anfitriones para evitar este posible fallo.

Como cada producto de virtualizacin usa su propio sistema, no hay uniformidad o estandarizacin de formatos, la portabilidad entre plataformas es realmente complicada. Por eso es importante esa decisin al principio, lo ms normal es utilizar GNU/Linux como base.

La virtualizacin incide de forma directa en la venta de servidores reales, aunque los servidores utilizados para virtualizar suelen ser ms potentes y por supuesto ms caros.

El sistema operativo anfitrin se vuelve crtico, por lo que la seguridad de este es vital, as como evitar reinicios innecesarios que hacen todas las mquinas virtuales que alojan puedan quedar fuera de servicio. El reiniciar ya no es la solucin, como quizs muchas veces lo es.

21

2.8 Virtualizacin en sistemas operativos ms reconocidos

Virtualizacin en Microsoft Windows Introduccin a Hyper-V en Windows Server 2008 Microsoft ha abordado la virtualizacin en diferentes niveles, que van desde el escritorio hasta el centro de datos con soluciones para la virtualizacin de servidores, virtualizacin de aplicaciones, virtualizacin de presentaciones y virtualizacin de escritorios. El denominador comn de todos ellos es la administracin con Microsoft System Center. El componente de virtualizacin de servidores y, especficamente, en el modo en que Hyper-V, una caracterstica clave de Windows Server 2008, encaja en la ecuacin de un centro de datos dinmico. Hyper-V es una tecnologa de virtualizacin avanzada basada en hypervisor de 64 bits que ofrece capacidades de plataforma confiables y escalables. Junto con System Center, proporciona un nico conjunto de herramientas de administracin integradas para los recursos fsicos y virtuales. Todo esto sirve para reducir costos, mejorar el uso, optimizar la infraestructura y permitir que las empresas aprovisionen rpidamente nuevos servidores.

Tipos de soluciones de virtualizacin: Esencialmente existen tres arquitecturas generales que se usan para la virtualizacin de servidores, tal y como se muestra en la figura abajo expuesta. Las diferencias fundamentales tienen que ver con la relacin entre la capa de virtualizacin y el hardware fsico. La capa de virtualizacin es la capa de software denominada monitor de mquina virtual (VMM, que no se debe confundir con Virtual Machine Manager).

22

Esta es la capa que proporciona la capacidad de crear varias instancias aisladas que comparten los mismos recursos de hardware subyacentes.

La arquitectura VMM de tipo 2 se ejemplifica mediante mquinas virtuales Java. Aqu, el objetivo de virtualizacin es crear un entorno de tiempo de ejecucin en el que el proceso puede ejecutar un conjunto de instrucciones sin basarse en el sistema host. En este caso, el aislamiento es para los distintos procesos y permite que una sola aplicacin se ejecute en varios sistemas operativos sin tener que preocuparse de las dependencias de sistema operativo. La virtualizacin de servidores no se incluye en esta categora. El VMM de tipo 1 y los VMM hbridos son dos tipos de planteamientos que probablemente tengan una mayor difusin en la actualidad. El VMM hbrido constituye una etapa en la que el VMM se ejecuta junto al sistema operativo host y ayuda a crear mquinas virtuales en l. Algunos ejemplos de VMM hbrido son Microsoft Virtual Server, Microsoft Virtual PC, VMware Workstation y VMware Player. Debe tener en cuenta que estos tipos de soluciones son excelentes para un escenario de cliente donde slo se ejecutan mquinas virtuales una parte del tiempo, ya que los VMM agregan una sobrecarga considerable y, por lo tanto, no resultan adecuados para cargas de trabajo que realicen un uso intensivo de los recursos. En una arquitectura VMM de tipo 1, la capa de VMM se ejecuta directamente sobre el hardware. Se suele denominar capa de hypervisor. Esta arquitectura la dise IBM originalmente en la dcada de 1960 para los grandes sistemas (mainframe) y recientemente se ha hecho disponible en las plataformas x86/x64 con una amplia variedad de soluciones, incluido Windows Server 2008 Hyper-V. Existen soluciones en las que el hypervisor es una parte incrustada del firmware. No obstante, se trata simplemente de una opcin de empaquetado y no cambia realmente la tecnologa subyacente.

23

En lo que respecta a los VMM de tipo 1, existen principalmente dos modos principales de disear las soluciones de hypervisor: con microkernel y monoltico. Ambos de estos enfoques, tal y como se muestra en la figura de abajo, son autnticos VMM de tipo 1 en los que el hypervisor se instala directamente en el hardware fsico.

El enfoque de hypervisor monoltico hospeda el hypervisor/VMM en una sola capa que tambin incluye la mayor parte de los componentes requeridos, como el kernel, los controladores de dispositivo y la pila de E/S. Se trata del enfoque que usan soluciones como VMware ESX y los grandes sistemas (mainframe) tradicionales. El enfoque con microkernel usa un hypervisor muy ligero y especializado que slo lleva a cabo las tareas principales para garantizar el aislamiento de particiones y la administracin de la memoria. Esta capa no incluye la pila de E/S ni los controladores de dispositivo. Es el enfoque que usa Hyper-V. En esta arquitectura, la pila de virtualizacin y los controladores de dispositivo especficos del hardware se encuentran en una particin especializada que se denomina la particin principal.

Hypervisor de Windows: La separacin slida entre los mltiples sistemas operativos se garantiza con la creacin de procesadores virtuales, memoria, temporizadores y controladores de interrupciones. Los sistemas operativos usan estos recursos virtuales del mismo modo que usaran sus homlogos fsicos. El hypervisor de Windows, parte de Hyper-V, realiza las siguientes tareas:

Crea particiones lgicas. Administra la programacin de memoria y procesador para los sistemas operativos invitados.

Proporciona mecanismos para virtualizar la entrada/salida y establecer comunicacin entre las particiones.

Aplica las reglas de acceso a la memoria. Aplica la directiva de uso de la CPU.


24

Expone una interfaz de programacin sencilla denominada hiperllamadas.

Debido a que usa el enfoque con microkernel, el hypervisor de Windows es bastante pequeo, con un tamao de menos de 1 MB. Este espacio mnimo contribuye a mejorar la seguridad general del sistema. Uno de los requisitos para ejecutar Hyper-V es disponer de un sistema x64 que tenga tecnologas Intel VT o AMD-V. La tecnologa x64 permite el acceso a un espacio de direcciones mayor y compatibilidad con sistemas con ms memoria, con lo que se pueden ejecutar ms mquinas virtuales en un solo sistema host. Intel VT y AMD-V son las soluciones de virtualizacin asistida por hardware que proporcionan una capa con grandes privilegios en la arquitectura de anillo que ayuda a mantener el entorno de ejecucin del hypervisor separado del resto del sistema. Tambin permiten que Hyper-V ejecute un sistema operativo no modificado sin que suponga una penalizacin importante en el rendimiento de emulacin.

Particin principal: Hyper-V consta de una particin principal, que es esencialmente una mquina virtual que tiene un acceso especial o privilegiado. Es la nica mquina virtual con acceso directo a los recursos de hardware. Todas las dems mquinas virtuales, que se denominan particiones invitadas, pasan por la particin principal para obtener acceso a sus dispositivitos. La existencia de la particin principal es bastante transparente. Cuando se comienza a instalar Hyper-V, lo primero que debe hacer es instalar Windows Server 2008 x64 Edition en el sistema fsico. A continuacin, se debe ir a Administrador de servidores, habilitar la funcin de Hyper-V y reiniciar el sistema. Una vez reiniciado el sistema, primero se carga el hypervisor de Windows y, despus, el resto de la pila se convierte en la particin principal. La particin principal es la propietaria del teclado, el mouse, la pantalla de vdeo y otros dispositivos conectados al servidor host. No tiene control directo sobre los temporizadores y los controladores de interrupciones que usa el hypervisor. La particin principal contiene un proveedor de Instrumental de administracin de Windows (WMI) para facilitar la administracin de todos los aspectos del entorno virtualizado, as como una pila de virtualizacin que lleva a cabo las tareas relacionadas con el hardware en nombre de las particiones secundarias. Adems, los controladores de
25

fabricante de hardware independiente (IHV) que necesita el hardware del sistema host se incluyen en la particin principal y los controladores creados para las ediciones de Windows Server 2008 x64 tambin funcionan en la particin principal.

Arquitectura de uso compartido de dispositivos: Uno de los componentes de arquitectura innovadores en Hyper-V es la nueva arquitectura de uso compartido de dispositivos que admite los dispositivos emulados y sintticos en cada sistema operativo invitado. La emulacin de dispositivos resulta bastante til para la compatibilidad de sistemas operativos anteriores en controladores de dispositivo diseados para generaciones de hardware antiguas. Por ejemplo, Hyper-V incluye una emulacin del adaptador de red Intel 21140, que se denomin adaptador de red DEC 21140 cuando se distribuan numerosos sistemas operativos antiguos. Por lo general, la emulacin de dispositivos es lenta, no se puede ampliar fcilmente y no se escala bien. Pero la emulacin sigue siendo importante porque permite ejecutar la mayora de los sistemas operativos x86 en Hyper-V. Debido a que la virtualizacin ahora est pasando de una tecnologa nicho principalmente para pruebas y desarrollo a una tecnologa esencial para entornos de produccin, los usuarios requieren un mejor rendimiento para ejecutar mayores cargas de trabajo. Los dispositivos emulados ya no cumplen estas demandas cada vez ms exigentes. Una solucin alternativa a esto es usar dispositivos sintticos de Hyper-V. Los dispositivos sintticos son dispositivos virtuales que se asignan directamente a dispositivos fsicos. A diferencia de los dispositivos emulados, los sintticos no emulan el hardware heredado. Con el modelo de uso compartido de hardware de Hyper-V, los sistemas operativos invitados compatibles pueden interactuar directamente con los dispositivos sintticos que tal vez no tengan equivalentes fsicos. Estos sistemas operativos usan clientes de servicio virtuales (VSC), que actan como controladores de dispositivo dentro del sistema operativo invitado. En vez de obtener acceso al hardware fsico directamente, los VSC usan VMBus, que es un bus de alta velocidad en memoria, para tener acceso a los proveedores de servicios virtuales (VSP) en la particin principal. A continuacin, los VSP administran el acceso al hardware fsico subyacente, tal y como se ilustra en la figura de abajo. Una ventaja clave de los dispositivos sintticos es que el rendimiento de dichos dispositivos sobre VMBus se aproxima al de los dispositivos de hardware no virtualizados.

26

Componentes de integracin: Hyper-V se ha diseado para proporcionar lmites slidos entre las distintas instancias que se ejecutan en un equipo. Para habilitar la interaccin entre los sistemas operativos invitado y host, y para suministrar funcionalidad adicional a los sistemas operativos invitados compatibles, Hyper-V proporciona componentes de integracin. Las componentes de integracin de Hyper-V admiten las siguientes caractersticas:

Sincronizacin de hora Servicio de instantneas de volumen (VSS) Funcionalidad Latido Apagado de invitado Intercambio de pares de clave y-valor (se usa para el acceso al Registro de un sistema operativo invitado)

Identificacin de sistema operativo

Conjunto de caractersticas de Hyper-V: Cuanto ms se aproxima la plataforma de virtualizacin a la forma de actuar de un servidor fsico, ms fcil resulta para las organizaciones implementar y confiar en las cargas de trabajo virtuales. En la actualidad, la mayora de las soluciones de virtualizacin basadas en hypervisor se parecen mucho en cuanto a caractersticas y funcionalidad. A medida que se avanza, cuestiones como el costo total de propiedad (TCO) y la facilidad de uso sern los diferenciadores clave. Se realizarn inversiones continuas en las soluciones de administracin y el desarrollo nos acercar a la visin de un entorno de TI dinmico, donde la infraestructura es lo suficientemente flexible como para adaptarse a las
27

necesidades de la empresa, y los modelos y directivas ayudarn a impulsar una mayor automatizacin y administracin.

Escalabilidad: Gracias a la arquitectura de hypervisor con microkernel, Hyper-V tiene muy poca sobrecarga de CPU, lo que deja mucho espacio para virtualizar las cargas de trabajo. Al permitir que las mquinas virtuales hagan uso de caractersticas y hardware eficaces, como la tecnologa de multincleo, el acceso a disco mejorado y ms memoria, HyperV mejora la escalabilidad y el rendimiento de la plataforma de virtualizacin. Combinado con el resto de las capacidades de Windows Server 2008, Hyper-V permite consolidar la mayora de las cargas de trabajo (incluidas las de 32 y 64 bits) en un solo sistema. Y puede ayudar a equilibrar la adopcin de tecnologa de 64 bits con compatibilidad continua con las cargas de trabajo de 32 bits que ya se usan en el entorno. El hecho de que Hyper-V requiera un sistema host de 64 bits con virtualizacin asistida por hardware contribuye a garantizar que el sistema host podr obtener acceso a un grupo grande de recursos de memoria. Hyper-V puede admitir hasta 1 TB de memoria en el host, con hasta 64 GB de memoria por mquina virtual. Esto resulta clave para quien planifique virtualizar cargas de trabajo que hacen un uso intensivo de la memoria, como Exchange Server y SQL Server. Hyper-V tambin admite hasta 16 procesadores lgicos en el sistema host, lo que convierte a Hyper-V en escalable para la mayora de los sistemas de dos y cuatro zcalos comerciales con varios ncleos. Tambin puede crear una mquina virtual con un mximo de cuatro procesadores virtuales con el fin de admitir cargas de trabajo que requieran o aprovechen las ventajas de un multiprocesador. La consolidacin de servidores mediante Hyper-V tambin permite a dichos servidores utilizar la slida compatibilidad de funciones de red, incluido VLAN, Traduccin de direcciones de red (NAT) y las directivas (cuarentena) de Proteccin de acceso a redes (NAP). Y como una caracterstica de Windows Server 2008, Hyper-V funciona bien con otras caractersticas de Windows Server, como BitLocker y Windows PowerShell.

Alta disponibilidad: La alta disponibilidad es un escenario donde Hyper-V y las capacidades de agrupacin en clster del host colaboran para atender las necesidades de continuidad de negocio y
28

la recuperacin ante desastres. La continuidad de negocio es la capacidad de minimizar el tiempo de inactividad programado y el no programado. Esto incluye el tiempo que se pierde con las funciones rutinarias tales como el mantenimiento o la copia de seguridad, as como las interrupciones imprevistas. La recuperacin ante desastres es un componente clave de la continuidad de negocio. Los desastres naturales, los ataques malintencionados e incluso los problemas sencillos de configuracin, como los conflictos de software, pueden paralizar los servicios y las aplicaciones hasta que los administradores resuelven el problema y restauran los datos. Una estrategia confiable de negocio y de recuperacin ante desastres debe ofrece una mnima prdida de datos y capacidades de administracin remota eficaces. En lo que respecta a la alta disponibilidad, debe considerar tres categoras distintas: tiempo de inactividad planificado, tiempo de inactividad no planificado y copias de seguridad. La proteccin para el tiempo de inactividad no planificado normalmente es necesaria para quitar las mquinas virtuales del sistema host para poder realizar tareas de mantenimiento de hardware o aplicar revisiones al sistema host o la plataforma de virtualizacin (que puede requerir que se reinicie). La mayora de las organizaciones tienen intervalos de mantenimiento planificado y lo que se busca realmente es minimizar o eliminar el perodo de tiempo en el que las mquinas virtuales no estarn disponibles mientras el sistema est inactivo durante el mantenimiento. Con la caracterstica Migracin rpida se puede migrar rpidamente una mquina virtual en ejecucin desde un nodo fsico a otro en cuestin de segundos. De este modo puede mantener la disponibilidad de las mquinas virtuales para el entorno de produccin mientras lleva a cabo el mantenimiento en el host original. Una vez terminado el mantenimiento, puede usar Migracin rpida para devolver las mquinas virtuales a su sistema host original. El tiempo de inactividad no planificado es el que no se ha previsto. Puede ser de naturaleza catastrfica o tan simple como que un usuario desenchufe accidentalmente un cable de alimentacin y apague un servidor. Con Hyper-V, puede configurar un clster de hosts para los distintos sistemas host y configurar todas las mquinas virtuales como recursos de clster que pueden realizar la conmutacin por error en otro sistema en el caso de que se produzca un error en uno de los hosts. Mientras tanto, la capacidad de agrupacin en clster multisitio de Windows Server 2008 permitir configurar un clster disperso geogrficamente de modo que, si

29

se produce un error en el centro de datos principal, se tenga la capacidad de recuperar las distintas mquinas virtuales en un centro de datos remoto. Esto tambin resulta til para proteger todas las sucursales. Una de las ventajas de administrar el tiempo de inactividad no planificado con Hyper-V es que es independiente del sistema operativo invitado, lo que significa que puede ampliar sus ventajas de alta disponibilidad a mquinas virtuales Linux y a versiones anteriores de Windows Server para proteger y recuperar estos sistemas de forma similar.

Capacidad de administracin: Es fcil pasar de un ligero problema de dispersin de servidores a una dispersin de servidores masiva. Es el riesgo que conlleva la facilidad de implementacin de las mquinas virtuales. Y con la mayor movilidad de las mquinas virtuales, debe saber exactamente dnde se ejecutan las distintas mquinas virtuales, mantener un seguimiento de sus contextos de seguridad, etc. Afortunadamente, con Hyper-V no tiene que crear una infraestructura de administracin independiente para su entorno virtual. Se integra con las herramientas de administracin de Microsoft, System Center Virtual Machine Manager y Microsoft System Center Operations Manager, as como con herramientas de administracin de terceros. Esto permite administrar todos los recursos fsicos y virtuales desde una consola.

Virtualizacin en GNU/Linux Hay instrucciones de modo protegido que impiden ejecutar dos sistemas operativos simultneamente, pero mediante software se pueden suplir (con bastante complejidad) las carencias de hardware. As mismo mediante software se emulan componentes del hardware como discos, tarjeta grfica, de red y de sonido. Adems de la virtualizacin de la CPU, est la del resto del hardware: tarjeta de red, discos, tarjeta grfica... Para esta parte la mayora de los proyectos libres toman cdigo de Qemu. Hay varios mtodos de implementar la virtualizacin del procesador:
30

1. Emuladores totales: emulan totalmente el hardware, incluyendo el procesador. Es el caso de Booch. Su rendimiento es muy pobre. 2. Emuladores con compilacin JIT: es el caso de Qemu, cuando se ejecuta sin el mdulo kqemu. El cdigo necesita "compilarse" para la mquina virtual, si bien como los compiladores JIT de Java se hace slo la primera vez que se ejecuta el cdigo, luego ya est compilado. Mucho ms rpidos que los emuladores totales, pero ms lentos que el resto de soluciones. Se puede ejecutar como usuario normal sin instalar nada como root. Se pueden emular procesadores distintos. 3. Virtualizadores completos: es el caso de Vmware (software privativo), Qemu con el mdulo de aceleracin Kqemu (antes privativo ahora libre) y Virtual Box (software con una versin libre y otra ms funcional privativa). Se basan en un VMM (Virtual Machine Monitor, tambin conocido como hypervisor) que mediante complicadas tcnicas (como traps y anlisis del cdigo antes de su ejecucin) detecta en tiempo de ejecucin el cdigo que no puede ejecutarse directamente porque afectara a todo el sistema, modificando dinmicamente las instrucciones conflictivas. El rendimiento vara mucho segn lo avanzado que sea el VMM: Vmware tiene varias patentes. Estos tres programas permiten instalar un sistema operativo sobre un virtualizador del mismo modo que sobre un PC: la ventana del virtualizador asemeja el monitor de un PC, podemos entrar en la BIOS, reiniciar el ordenador. 4. Paravirtualizadores: es el caso de Xen y UML (User mode Linux). En lugar de tener que detectar un VMM los casos conflictivos en tiempo de ejecucin, se modifica el cdigo fuente de los sistemas operativos para evitar esos casos conflictivos. En lugar de el VMM tener que analizar el cdigo, es el cdigo quien invoca al VMM cuando sea necesario. Esta tcnica simplifica muchsimo el VMM y ofrece muy buen rendimiento, aunque en el caso concreto de UML el rendimiento es mediocre. La pega es que haya que parchear el sistema operativo, sobre todo para poder ejecutar Windows. Xen parche un Windows XP en un programa de investigacin que permita acceso al cdigo fuente de Microsoft, pero ese tipo de licencias no permita distribuir el resultado. UML tambin se puede considerar dentro de esta categora, pues es una modificacin del kernel de Linux para que pueda ejecutarse dentro de otro Linux. Xen no emula una tarjeta grfica SVGA "completa" como Qemu, Vmware o VirtualBox, pero utiliza VNC que para el sistema guest se ve como una tarjeta VGA. Vmware y VirtualBox no son
31

paravirtualizadores, pero utilizan esta tcnica para virtualizar la E/S en los drivers especiales que se ejecutan en el sistema guest (por ejemplo el driver de red y el de la tarjeta grfica: se comunican con el hypervisor en lugar de ser drivers normales sobre el hardware emulado). Lo mismo planea hacer KVM. 5. Virtualizadores apoyados en el hardware (un tanto pretenciosamente llamados nativos): los nuevos procesadores de Intel (los Core Duo y la mayora, pero no todos, de los Core Duo2 aaden las extensiones VT) y los ms recientes de AMD (a partir de stepping F; las extensiones se llaman SVM) cuentan con nuevas instrucciones que permiten la virtualizacin de la CPU. De este modo ya no es necesario ni un complicado VMM ni parchear el sistema operativo, si bien sigue siendo necesario virtualizar otros dispositivos y emular discos, tarjetas grficas, de red. Ejemplos de estas soluciones son KVM (integrado en el kernel desde la versin 2.6.20, utiliza qemu para la virtualizacin del resto del hardware) y Virtual Iron (basado en Xen, pero ya no es paravirtualizador; en cualquier caso es una solucin propietaria, con algo de cdigo bajo GPL). Adems Xen soporta tambin estas instrucciones, como mtodo para poder ejecutar Windows o simplemente sistemas sin paravirtualizar. Los virtualizadores apoyados en el hardware son ms lentos que los paravirtualizadores e incluso que los virtualizadores completos, al menos que los que tienen un VMM avanzado. VirtualBox no usa por defecto estas instrucciones, aunque las soporte, por este motivo. Lo mismo ocurre con Vmware, aunque s lo utiliza para poder utilizar como host un sistema operativo de 64bits (VirtualBox actualmente no permite esta configuracin). 6. Virtualizacin a nivel de sistema operativo (OS level Virtualization): no permite ejecutar dos sistemas operativos simultneamente, sino servidores privados virtuales (SVP) dentro de un nico servidor, es decir, es un nico kernel, pero que permite aislar (isolate) los servidores. Cada servidor tendr su propia red, espacio de disco, de memoria, se podr reiniciar.. as mismo tendr limitacin de uso de CPU con el fin de evitar que un servidor virtual esquilme recursos de los otros. Tambin esta tecnologa se denomina como Jail, pues es extender el concepto de chroot. Tantao Linux VServer como Virtuozzo lo vienen ofreciendo proveedores de hosting desde hace aos. Estas son las dos soluciones libres ms destacadas: a. Linux VServer: (no confundir con Linux virtual server, que es sobre clusters). Software libre. Una limitacin es que no admite usar tablas de ip dentro de cada SVP,
32

sino dentro del host. Tampoco admite migracin de procesos. As mismo est ms limitado en lo que se virtualiza, por ejemplo no se virtualiza nada de /proc). Por otro lado la distribucin host parece menos restringida que en OpenVZ, que como host slo admite Fedora, algunas versiones de CentOS y algunas de RHEL. Hay varias distribuciones que funcionan como guest directamente (las instalamos en su particin y luego las usamos, con sus programas y libreras, pero no obviamente con su kernel) aunque otras como Gentoo no. b. OpenVZ: Virtuozzo es un virtualizador bajo una licencia privativa; OpenVZ es el producto de la misma compaa que es software libre y que es la base de Virtuozzo. Un hecho positivo es que OpenVZ no es un conjunto de cdigo GPL difcil de integrar y sin soporte como ocurre con otros productos en los que hay versin GPL y privativa: tambin venden soporte para OpenVZ. Admite distintas distribuciones como host, a travs de templates, que son repositorios para bajar los paquetes necesarios para esa distribucin. Hosting con OpenVZ: En algn caso es ms caro con OpenVZ que con Virtuozzo, por ser menos maduro y requerir ms recursos. Entre las posibilidades ms avanzadas de algunos virtualizadores est el migrar en caliente con una indisponibilidad inapreciable un dominio de un servidor a otro. Dentro de los productos libres lo permiten Xen, KVM y OpenVZ. Vmware lo permite slo en su servidor de pago (EXS). En Vmware Server (antiguo Vmware GSX), ahora gratis (que no libre) no es posible. Un debate interesante es el de los virtualizadores que se ejecutan "bare metal", es decir, directamente sobre el hardware, en lugar de sobre un sistema operativo "host". Vmware EXS sigue esta frmula de forma pura, de tal modo que slo funciona con determinado hardware. En el caso de Xen, se ejecuta sobre un host, pero asume parte de las funciones de un sistema operativo, al tener cdigo por ejemplo para planificar la CPU. En cambio KVM utiliza todo lo que aporta Linux, lo que para muchos desarrolladores es la opcin preferible pues difcilmente una empresa que desarrolla un producto de virtualizacin tendr ms experiencia en elementos de sistemas operativos como un planificador, que el grupo de personas que llevan desarrollando estos componentes desde hace aos en un sistema tan extendido como el kernel Linux. VMWare y la red:
33

En VMWare a la hora de crear un dispositivo de red se puede elegir entre: 1. NAT: en el host aparecer como la interfaz vmnet8, pero no podremos hacer nada con esta interfaz, por ejemplo usar Iptables para restringir las Ips que se pueden alcanzar desde el sistema que se ejecuta dentro de Vmware. El motivo es que no se usa realmente el NAT del ncleo sino un demonio, vmnet-natd, por lo que los paquetes no pasan realmente por vmnet8. Si se quiere abrir puertos, basta con editar el fichero /etc/vmware/vmnet8/nat.conf 2. Bridge: tambin se implementa utilizando un demonio privativo, en este caso vmnetbridge, en lugar de utilizar el soporte del ncleo, por lo que no se puede restringir la red con tabla de ips sobre la interfaz vmnet2. Como en el caso de vmnet8, realmente el trfico no pasa por esta interfaz. 3. Host only: aparentemente este modo es el ms limitado. Pues bien, en realidad es el ms flexible, pues por la interfaz de red que crea, vmnet1, s que pasan todos los paquetes. De este modo podemos utilizar esta interfaz para hacer NAT a travs de tablas de ips, o crear un bridge con brctl. Al usar tablas de ips, podemos restringir el trfico como con cualquier otra unidad de red. En Qemu hay dos formas de utilizar la red. Por defecto se usa -net socket, que sera el equivalente al modo NAT de Vmware. Mediante la opcin -redir se pueden abrir puertos de servidor. Una diferencia interesante sobre Vmware es que esta solucin se implementa enteramente en espacio de usuario, por lo que no se crea interfaz de red ni se precisa cargar ningn mdulo del kernel, lo que es bueno porque en el caso de Vmware es un mdulo privativo que activa la marca "tained" del krnel, con lo que perdemos toda opcin de soporte. Adems as no hay que tener privilegios de superusuario para instalar Qemu (Vmware no requiere privilegios para ejecutarse, pero s hace falta para insertar el mdulo en el kernel). Las interfaces de red vmnet1, vmnet2, vment8, se crean al ejecutar vmware-config, en la parte de configuracin de red. Una posibilidad interesante si vamos a ejecutar varios sistemas simultneamente o si queremos que un sistema tenga ms de una interfaz es crear ms de un dispositivo de red para "host only", de modo que aparte de vmnet1 haya otros. De otro modo todas las mquinas virtuales estarn conectadas a la misma red, la de vmnet1. As, una mquina podr tener la IP 192.168.152.128, otra la 192.168.152.129 y el host la 192.168.152.1; las dos mquinas virtuales se vern la una a la otra y podrn comunicarse, aunque eso s, con un sniffer una mquina no ver el trfico de los otros
34

nodos. La red vmnet1 que crea Vmware es de mscara de red 255.255.255.0; ejecuta un servidor DHCP automticamente, cuya configuracin y arrendamientos pueden verse en /etc/vmware/vmnet1. Pero nada impide que podamos cambiar esta configuracin, pues se emula a una interfaz ethernet. Por ejemplo un nodo puede cambiar su IP a otra de la red o incluso crear un alias y usar una red distinta, tanto en el host como en las mquinas virtuales. Si usamos vmnet1 para hacer NAT utilizando tablas de ips, hay que tener en cuenta que habr que configurar la red de la mquina virtual para aadirle una ruta por defecto y la configuracin del DNS y que el firewall deber permitir que llegue al servidor DNS. Para pasar la configuracin de DNS y ruta por defecto podemos usar el servidor DHCP de Vmware: "option routers" y "option domain-name-servers". Qemu y TUN/TAP: Un inconveniente de -net socket es que como ocurre con los modos NAT y Bridge de Vmware los paquetes no pasan por ninguna interfaz de red, por lo que no se puede utilizar tablas de ips para restringir la red. La solucin est en el uso del soporte de TUN/TAP del kernel. Consiste en que una aplicacin puede abrir el fichero de dispositivo /dev/net/tun y con eso crear una nueva interfaz de red (por defecto tun0). Todo lo que la aplicacin escriba en ese dispositivo se recibir en la interfaz de red recin creada; de igual modo todo lo que llegue a esa interfaz de red (por ejemplo a travs de enrutamiento) lo leer la aplicacin del fichero de dispositivo. Los dispositivos TUN operan a nivel IP y son punto a punto. Los dispositivos TAP operan a nivel 2 y son multipunto, como las interfaces Ethernet . Un dispositivo tap0 y un dispositivo vmnet1 vienen a funcionar de forma muy similar y a nivel de ejemplos de configuracin con tablas de ips o brctl (Bridge) donde aparezca un tap0 podra aparecer un vmnet1 y viceversa. Por lo general se usa tun0 en lugar de tap0; para la mayora de los usos son equivalentes por lo que es mucho ms habitual utilizar tun0 que resulta ms sencillo y directo. Normalmente un dispositivo tun/tap slo existe mientras el programa no cierra el fichero /dev/net/tun. Esto a veces es problemtico, especialmente porque para crear un dispositivo TUN/TAP hacen falta privilegios de superusuario. Afortunadamente, con root se puede abrir un dispositivo en modo persistente para un determinado usuario, de
35

modo que luego un programa ejecutado por ese usuario sin privilegios podr abrir ese dispositivo tun/tap creado para l por el root. Este se puede hacer con el programa tunctl, que forma parte del paquete uml-utilities. Por qu no usa Vmware TUN/TAP en lugar de vmnet1? quizs por unicidad entre plataformas, o por diferencia de implementacin; es posible que vmnet1 tambin permita driver de red de la mquina virtual directamente en espacio del kernel. TUN/TAP es la solucin utilizada tambin por otros virtualizadores, como Virtual Box. Ejemplos: Permitir acceso slo a red local 192.168.10.0 y adems excluir el nodo 9 de esa red. iptables -A FORWARD -i vmnet1 --destination 192.168.10.9 -j REJECT iptables -A FORWARD -i vmnet1 --destination 192.168.10.0/24 -j ACCEPT iptables -A FORWARD -i vmnet1 -j REJECT iptables -t nat -A POSTROUTING -j MASQUERADE -o eth0 echo 1 > /proc/sys/net/ipv4/conf/eth0/forwarding echo 1 > /proc/sys/net/ipv4/conf/vmnet1/forwarding Crear un bridge, pero prohibiendo el acceso a la IP 157.88.10.20. Se puede filtrar con ebtables o con iptables. Muchas tarjetas wireless no soportan bridge. Un AP generalmente s. ifconfig eth0 0.0.0.0 ifconfig vmnet1 0.0.0.0 brctl addbr puente brctl addbr puente brctl addif eth0
36

brctl addif vmnet1 ifconfig puente 192.168.10.1 iptables -O FORWARD -m physdev --physdev-in vmnet1 --destination 157.88.10.20 -j REJECT Instalar QEMU Para compilar kqemu no hace falta versin vieja de compilador gcc, ni las fuentes de qemu. Es bastante rpido: ./configure make sudo make install modprobe kqemu Por defecto, necesitamos permisos de root para leer /dev/kqemu 1. creamos grupo qemu: sudo addgroup qemu 2. aadimos nuestro usuario (jomar) al grupo: sudo gpasswd -a jomar qemu 3. configuramos udev para que cree fichero de dispositivo con permisos para grupo qemu. Para ello editamos fichero /etc/udev/rules.d/60-kqemu.rules con este contenido:

KERNEL=="kqemu", NAME="%k", MODE="0666", GROUP="qemu", RUN="/root/prueba.sh" 4. hacemos lo propio con el fichero /dev/net/tun. A partir del kernel 2.6.18 no pasa nada por dar permiso para todo el mundo, pues nadie sin privilegios puede crear una nueva interfaz si no se ha creado antes por el root para ese usuario. Esto se puede hacer con la
37

herramienta tunctl, que forma parte del paquete uml-utilities. Tambin se puede usar el programa que adjuntamos ms adelante, cambiando el tipo de dispositivo de tun a tap. Para crear el dispositivo con tunctl se usa tunctl u jomar -t tap0; para borrarlo tunctl -d tap0. Ejemplos: ./qemu -net nic -net tap,script=no ~/linux-0.2.img -net nic,vlan=1 -net

socket,vlan=1,listen=:8081 centos.qcow2 ifconfig tap0 up ifconfig eth0 brctl addif puente tap0 ifconfig eth0 0.0.0.0 brctl addif puente eth0 ifconfig eth0 192.168.15.45 ./qemu -net nic -net tap,script=no ~/centos.qcow2 -no-kqemu Crear una imagen con Qemu qemu-img create -f qcow2 centos.qcow2 3G Con esta orden se crea una imagen de un disco de 3GB; en realidad con GNU/Linux este fichero no ocupa 3GB; el espacio sin usar del fichero no ocupa espacio en el disco. Para arrancar del CD de instalacin podemos ejecutar: qemu -kernel-kqemu -cdrom /home/jomar/centos1of6.iso -boot d -m 512 centos.qcow2 La opcin -kernel-kqemu es para obtener la mxima aceleracin: acelera tambin el cdigo del espacio del kernel; por defecto slo se acelera la de usuario. Si se produce
38

algn problema, reintentaremos sin esta opcin; si sigue habiendo problemas podemos probar con -no-kqemu a quitar incluso la aceleracin de espacio de usuario. Tras la instalacin, podemos probar a volver a utilizar aceleracin: a veces los posibles problemas slo se dan durante la instalacin, aunque esta situacin es ms propia de Windows que GNU/Linux. Con la opcin -cdrom le indicamos que el CDROM es en realidad esa ISO; as evitamos el tener que grabar un CD. Con la opcin -boot d indicamos que arranque de CD en vez de disco duro. La opcin m 512 establece que la mquina virtual tenga 512 MB de memoria. La cantidad de memoria puede cambiarse de una ejecucin a otra, pero hay que tener en cuenta que los instaladores suelen crear una particin de intercambio con el doble de la memoria RAM.

39

CAPTULO III DISCUSIN DE LA PROPUESTA

Ciertamente, la virtualizacin de servidores ofrece beneficios irresistibles a las empresas, pero tambin puede ocasionarles complejos problemas. Entre los primeros cabe destacar el ahorro de aparatos hardware en el centro de datos y el consiguiente ahorro de espacio, la agilizacin de las cargas de trabajo, una mayor flexibilidad en la recuperacin ante desastres, la reduccin de costos, y, por ende, la disminucin de las emisiones de carbono que perjudican a nuestro planeta. Todas estas ventajas tienen, no obstante, un precio, que puede llegar a ser muy alto si la planificacin no es la adecuada.

3.1 Virtualizacin de servidores: una propuesta atractiva pero no exenta de riesgos

En el camino hacia la virtualizacin existen algunos obstculos difciles de superar y que la empresa debe conocer y prever de antemano. Un tropezn podra llegar a arruinar cualquier proyecto de esta naturaleza. Sin duda, le resultar traumtico el darse cuenta repentinamente de que la plantilla TI de su empresa no est preparada para llevarlo a cabo y requiere una importante formacin al respecto, por ejemplo. O quiz se lleve una sorpresa desagradable al no haber previsto que le llevara al menos un mes tomar el control de su entorno servidor para poder empezar a trabajar en su transformacin. Tambin podra verse obligado a gastar dinero extra para cubrir algunos costos ocultos o comprar nuevo equipamiento, porque para lo que se supone un proyecto de consolidacin servidor, probablemente necesitar al principio adquirir nuevas mquinas. Probablemente existe un exceso de marketing en los discursos de los suministradores de este tipo de tecnologas. Bajando a la realidad, podra decirse que, en rigor, el rasgo esencial de la virtualizacin servidor consiste en romper el matrimonio tradicional entre el hardware y el software (en este caso, entre el sistema fsico y el software de sistema operativo), y en permitir, como consecuencia, que un nico servidor fsico hospede muchos servidores virtuales con sistemas operativos diferentes.

Realmente el mercado est inundado de casos de xito relacionados con la virtualizacin servidor, y el ritmo con que se producen aumenta cada da.

Pero ms all de la fiebre de virtualizacin que inunda el mercado, lo cierto es que la virtualizacin servidor cambia desde sus fundamentos ms profundos la apariencia y el funcionamiento de los centros de datos. Y ninguna gran transformacin es fcil.

3.2

Pueden

no

conseguirse

los

esperados

ahorros

en

hardware

Una de las mayores ironas de la virtualizacin servidor consiste en que muchas empresas esperan conseguir ahorrar con ella grandes cantidades de dinero desde el principio, cuando, como se ha apuntado, la realidad es muy diferente. A menudo les exigir al principio gastos adicionales. Esto se debe a que la virtualizacin servidor demandar ineludiblemente dos cosas: almacenamiento compartido y servidores potentes, ricamente configurados y equipados con chips de memoria basada en hardware del tipo de algunos de los ofrecidos por AMD e Intel.

Incluso si usted ya cuenta con este tipo de servidores, no podr evitar cierta inversin derivadas de las peculiares exigencias del nuevo entorno que planea introducir. Las cuestiones de interoperabilidad servidor, por ejemplo, frustrarn muchas jornadas de los trabajadores implicados en proyectos de virtualizacin. Por poner un caso, no se puede mezclar plataformas AMD e Intel en el mismo cluster ESX (VMware), Algo parecido ocurre con las redes de rea de almacenamiento (SAN). No todas las SAN soportan un entorno virtualizado. Adems, el ancho de banda existente en la empresa quiz resulte de pronto insuficiente para satisfacer las demandas de un nmero creciente de servidores virtuales, lo que obligar a terminar gastando dinero adicional en nuevos servidores, conmutadores y otros equipamientos TI, lo que es peor, los costos de actualizacin pueden llegar a eclipsar casi todos los ahorros iniciales derivados de los servidores que se hayan logrado eliminar mediante la consolidacin.

Cuando la virtualizacin de servidores empez a ganar adeptos, los observadores de la industria pensaron que el mercado de servidores podra entrar en una etapa difcil, debido a la previsible reduccin en la demanda de equipos. Despus de todo, como se ha dicho varias veces, la virtualizacin permite consolidar un mayor nmero de aplicaciones en uno menor de servidores, preferiblemente en aquellos ya existentes en la empresa.

CONCLUSIN

Hay varios factores por el cual se habla mucho hoy da del trmino virtualizacin y el ms importante es la temporizacin. Se han combinado una serie de factores clave del sector al mismo tiempo, lo que contribuye a impulsar la mayor adopcin de la virtualizacin. Entre estos factores sectoriales se incluye el cambio a la computacin de 64 bits, los procesadores de varios ncleos e, incluso, el impulso de una computacin sostenible para mejorar el uso del sistema.

Los sistemas estn aumentando de tamao y requieren una tecnologa como la virtualizacin para realizar un uso completo de la eficacia del sistema. Pero aunque es cierto que la tecnologa principal ha avanzado de forma continua en lo que respecta a la produccin de una mayor capacidad de procesamiento de la que los sistemas pueden usar, ahora tenemos una mayor conciencia del impacto medioambiental, los requisitos de energa y los costos de refrigeracin. Todos estos factores, adems del rendimiento de la inversin al adoptar la virtualizacin, deberan acelerar la adopcin de la virtualizacin en empresas grandes y pequeas. Y nosotros, los profesionales de TI, podemos esperar que las principales empresas sigan invirtiendo en esta tecnologa en los prximos aos y mejorando las caractersticas y la funcionalidad.

Es importante tener en cuenta dnde se adopta la virtualizacin. Los clientes empresariales ciertamente son los que han abierto camino con sus pruebas y al ser los primeros usuarios. Sin embargo, hay pequeas y medianas empresas que tambin implementan la virtualizacin. La adopcin de la virtualizacin abarca distintos tipos de cargas de trabajo, desde aplicaciones empresariales y administrativas hasta la Web y el correo electrnico.

REFERENCIAS BIBLIOGRFICAS

http://carrero.es/desventajas-de-la-virtualizacion-de-servidores/4459

http://es.wikipedia.org/wiki/Virtualizaci%C3%B3n

http://www.consultoras.org/frontend/aec/Virtualizacion-De-Servidores--UnaPropuesta-Atractiva-Pero-No-Exenta-De-Riesgos-vn8500-vst778

http://www.commondigital.commonperu.com/index.php?option=com_content&view= article&id=254:intel-lanza-su-nuevo-procesador-para-servidores-intel-xeon5500&catid=422:intel&Itemid=458

http://technet.microsoft.com/es-es/magazine/2008.10.hyperv.aspx

http://es.wikipedia.org/wiki/Red_de_%C3%A1rea_de_almacenamiento

Potrebbero piacerti anche