Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Este término es antiguo: se viene usando desde 1960. Se ha sido aplicando a diferentes aspectos y ámbitos de la informática,
desde sistemas computacionales completos hasta capacidades o componentes individuales.2 3 Con la consolidación del modelo
de la Computación en la nube, la virtualización ha pasado a ser uno de sus componentes fundamentales, especialmente en lo que
se denomina infraestructura de nube privada.4
La virtualización se encarga de crear una interfaz externa que encapsula una implementación subyacente mediante la
combinación de recursos en localizaciones físicas diferentes, o por medio de la simplificación del sistema de control. En los
últimos años, el avanzado desarrollo de nuevas plataformas y tecnologías de virtualización ha hecho que se haya vuelto a prestar
atención a este concepto.
En general, la máquina virtual simula una plataforma de hardware autónoma, incluyendo un sistema operativo completo que se
ejecuta como si estuviera instalado. Típicamente, varias máquinas virtuales operan en un computador central. Para que el sistema
operativo “guest” funcione, la simulación debe ser lo suficientemente grande (siempre dependiendo del tipo de virtualización).
Virtualización de plataforma
Esta involucra la simulación de máquinas virtuales. La virtualización de plataforma se lleva a cabo en una plataforma de
hardware mediante un software "host" (en castellano “anfitrión”), que es un programa de control que simula un entorno
computacional (máquina virtual) para su software "guest" (en castellano "huésped"). Este software “huésped”, que generalmente
es un sistema operativo completo, se ejecuta como si estuviera instalado en una plataforma de hardware autónoma. Típicamente
muchas máquinas virtuales se simulan en una máquina física dada. Para que el sistema operativo “huésped” funcione, la
simulación debe ser lo suficientemente grande para soportar todas las interfaces externas de los sistemas huéspedes, las cuales
pueden incluir (dependiendo del tipo de virtualización) los drivers de hardware.
Virtualización completa
La máquina virtual simula un hardware suficiente para permitir un sistema operativo “huésped” sin modificar (uno diseñado para
la misma CPU) para ejecutarlo de forma aislada. Típicamente, muchas instancias pueden ejecutarse al mismo tiempo. Este
enfoque fue el pionero en 1966 con CP-40 y CP[-67]/CMS, predecesores de la familia de máquinas virtuales de IBM.
Ejemplos
VMware Workstation
VMware Server
VMware vSphere
Microsoft Hyper-V
Microsoft Enterprise Desktop Virtualization (MED-V)
VirtualBox de Oracle
Parallels Desktop
Virtual Iron
Adeos
Mac-on-Linux
Win4BSD
Win4Lin Pro
y z/VM
openvz
Oracle VM
XenServer
Microsoft Virtual PC
KVM
Virtuozzo
Virtualización parcial
“Address Space Virtualization”. La máquina virtual simula múltiples instancias de gran parte del entorno subyacente del
hardware, particularmente los espacios de direcciones. Tal entorno acepta compartir recursos y alojar procesos, pero no permite
instancias separadas de sistemas operativos “huésped”. Aunque no se contempla dentro de la categoría de máquina virtual,
históricamente significó un importante acercamiento, y lo usaron en sistemas como CTSS, el experimental IBM M44/44X; y
OS/VS1, OS/VS2 y MVS.
La Virtualización de Hypervisor tiene una capa base (generalmente un kernel, Linux que se muestra aquí como un hypervisor o
SO estándar, lo mismo que Windows Server 2008 R2 Hyper-V) que se carga directamente en el servidor base. Para asignar
hardware y recursos a las máquinas virtuales (VMs), es recomendable que todo el hardware del servidor esté virtualizado. La
siguiente capa superior muestra cada chip, placa, etc., que debe virtualizarse para que pueda asignarse a las VMs. Una vez en la
VM, hay una copia completa de un sistema operativo y finalmente la aplicación o carga de trabajo.
La Virtualización de SO mejora el rendimiento, la gestión y la eficiencia. En su base reside un sistema operativo anfitrión
estándar, como Parallels Virtuozzo, que incluye Windows y un sistema con núcleo Linux. A continuación encontramos la capa de
virtualización, con un sistema de archivos propietario y una capa de abstracción de servicio de kernel que garantiza el aislamiento
y seguridad de los recursos entre distintos contenedores. La capa de virtualización hace que cada uno de los contenedores
aparezca como servidor autónomo. Finalmente, el contenedor aloja la aplicación o carga de trabajo.
Ventajas de la Virtualización
Índices de utilización más altos. Antes de la virtualización, los índices de utilización del servidor y
almacenamiento en los centros de datos de la empresa rondaban menos del 50% (de hecho, los más comunes
fueron del 10% al 15%. A través de la virtualización, las cargas de trabajo pueden encapsularse y transferirse a
los sistemas inactivos o sin uso. Esto significa que los sistemas existentes pueden consolidarse, y retrasarse o
evitarse las compras de capacidad adicional del servidor. Se alcanzan índices de utilización del 60 al 80% para
servidores x86.
Consolidación de recursos. La virtualización permite consolidar múltiples recursos de TI. Además de la
consolidación de almacenamiento, la virtualización proporciona una oportunidad para consolidar la arquitectura
de sistemas, infraestructura de aplicación, datos y base de datos, interfaces, redes, escritorios, e incluso
procesos de negocios, resultando en ahorros de costes y en mayor eficiencia.
Uso/coste menor de energía. La electricidad requerida para que funcionen los centros de datos de clase
empresarial no está disponible en suministros ilimitados, y su coste está en una espiral ascendente. Por cada
dólar gastado en un servidor hardware, se gasta un dólar adicional (incluyendo el coste de los servidores en
función y la refrigeración). Utilizando la virtualización para consolidar, se puede ahorrar de manera significativa
en consumo total de energía y en dinero.
Ahorros de espacio. La ampliación del servidor aparece como un serio problema en la mayoría de los centros
de datos empresariales. No siempre es una opción, porque los costes de construcción son de miles de dólares
por metro cuadrado. La virtualización puede aliviar la tensión mediante la consolidación de muchos sistemas
virtuales en menos sistemas físicos.
Recuperación de desastre/continuidad del negocio. La virtualización puede incrementar la disponibilidad de
los índices del nivel de servicio en general y proporcionar nuevas opciones de soluciones para la recuperación
de desastre. Hasta el 85% de mejora en tiempo de recuperación de paradas imprevistas
Costes de operación reducidos. La empresa promedio gasta $8 dólares en mantenimiento por cada $1 dólar
invertido en nueva infraestructura. La virtualización puede cambiar el ratio de servicio-a administración, reducir la
carga total de trabajo administrativo y ahorrar costes de operación.
Reutilización de hardware existente (para utilizar software más moderno) y optimizar el aprovechamiento de
todos los recursos de hardware.6
Capacidad para el provisioning de nuevas aplicaciones en cuestión de minutos, en lugar de días o semanas.
Rápida incorporación de nuevos recursos para los servidores virtualizados.
Reducción de los costes de espacio y consumo necesario de forma proporcional al índice de consolidación
logrado (estimación media 10:1).
Administración global centralizada y simplificada.
Permite gestionar el CPD como un pool de recursos o agrupación de toda la capacidad de procesamiento,
memoria, red y almacenamiento disponible en nuestra infraestructura
Mejora en los procesos de clonación y copia de sistemas: mayor facilidad para crear entornos de test que
permiten poner en marcha nuevas aplicaciones sin impactar a la producción, agilizando el proceso de las
pruebas.
Aislamiento: un fallo general de sistema de una máquina virtual no afecta al resto de máquinas virtuales.
Mejora de TCO y ROI.
No sólo aporta el beneficio directo en la reducción del hardware necesario, sino también los costes asociados.
Reduce los tiempos de parada.
Migración en caliente de máquinas virtuales (sin pérdida de servicio) de un servidor físico a otro, eliminando la
necesidad de paradas planificadas por mantenimiento de los servidores físicos.
Balanceo dinámico de máquinas virtuales entre los servidores físicos que componen el pool de recursos,
garantizando que cada máquina virtual ejecute en el servidor físico más adecuado y proporcionando un
consumo de recursos homogéneo y óptimo en toda la infraestructura.
Contribución al medio ambiente -Green IT- por menor consumo de energía en servidores físicos.6
Alta disponibilidad.
Programas útiles para virtualizar sistemas operativos
Existen dos tipos de programas: los de pago y los gratuitos.
Dentro de los programas de pago encontramos el VMware, que es uno de los referentes en el mercado, como así también
Windows Server 2008 R2 Hyper-V [1] (http://technet.microsoft.com/virtualization/) cuya función de virtualización está incluida
sin cargo en la licencia del servidor. Existe una versión más básica de VMWare que es gratuita, VMware Player, que permite
virtualizar a través de una máquina virtual ya configurada. También existen webs que nos permiten rellenar un formulario y
descargarnos nuestra máquina virtual a nuestro gusto como EasyVMX! (https://web.archive.org/web/20090218133255/http://easy
vmx.com/) Parallels Virtuozzo Containers, es otro de los programas de pago más famosos, que permite la virtualización a nivel de
sistema operativo o hardware Parallels Bare Metal. Típicamente suele emplearse para virtualizar Windows y, en menor medida,
GNU/Linux.
Dentro de los programas gratuitos tenemos el Virtual PC de Microsoft, que es un producto de Windows, compatible con versiones
avanzadas de XP, Vista y Windows 7.
Dentro de los programas de código libre están el Xen, OpenVZ y VirtualBox, que funcionan tanto en Mac OS, en Windows como
en GNU/Linux y todos permiten virtualizar los tres sistemas operativos más famosos.
Tipos de virtualización
La virtualización se puede hacer desde un sistema operativo Windows, ya sea XP, Vista u otra versión que sea compatible con el
programa que utilicemos, en el que virtualizamos otro sistema operativo como Linux o viceversa, que tengamos instalado Linux y
queramos virtualizar una versión de Windows.
La virtualización de almacenamiento
Se refiere al proceso de abstraer el almacenamiento lógico del físico. Comúnmente se usa en SANs ("Storage Area Network" Red
de área de almacenamiento). Los recursos de almacenamiento físicos se agregan al "storage pool" (almacén de almacenamiento),
del cual se crea el almacenamiento lógico.
Particionamiento
Es la división de un solo recurso (casi siempre grande), como el espacio de disco o el ancho de banda de la red, en un número
más pequeño y con recursos del mismo tipo, que son más fáciles de utilizar. Muchas veces se denomina “zoning”, especialmente
en almacenamiento de red.
Hypervisor de almacenamiento
Es un pack portátil de gestión centralizada, utilizado para mejorar el valor combinado de los sistemas de disco de almacenamiento
múltiples, incluyendo los modelos diferentes e incompatibles, complementando sus capacidades individuales con el
aprovisionamiento extendido, la réplica y la aceleración del rendimiento del servicio. Su completo conjunto de funciones de
control y monitorización del almacenamiento, operan como una capa virtual transparente entre los pools de disco consolidados
para mejorar su disponibilidad, velocidad y utilización.
Virtualización de datos
La virtualización de datos es una capa de abstracción y una capa de servicios de datos. La virtualización de datos integra datos de
fuentes dispersas, en distintas localizaciones y formatos, sin replicar los datos, para construir una capa de datos virtual que facilita
la provisión de servicios de datos unificados para dar soporte a múltiples aplicaciones y usuarios.
Esto se puede llevar a cabo fusionando varias máquinas en un solo servidor, disminuyendo el consumo energético y los costes;
ahorrando 7.000 kilovatios hora o cuatro toneladas de emisiones de CO2 al año. Los PCs virtualizados pueden reducir el consumo
de energía y los costos en un 35 por ciento. Hoy en día, la mayor parte consumen entre un 70 y un 80% de su energía estimada.
Otra medida es la desconexión de los servidores y desktops durante los períodos de inactividad, como por la noche o los fines de
semana, con lo que se puede ahorrar aproximadamente un 25 por ciento de consumo energético. Hoy en día, las empresas son las
más interesadas en la virtualización, ya que les interesa mucho reducir costes y energía.
Infraestructura Virtual
Una infraestructura virtual consiste en el mapping dinámico de recursos físicos en función de las necesidades de la empresa. Una
máquina virtual representa los recursos físicos de un único ordenador, mientras que una infraestructura virtual representa los
recursos físicos de la totalidad del entorno de TI, aglutinando ordenadores x86, así como su red y almacenamiento asociados, en
un pool unificado de recursos de TI.
Hipervisor de un solo nodo para hacer posible la virtualización de todos los ordenadores x86.
Un conjunto de servicios de infraestructura de sistemas distribuida basada en la virtualización, como gestión de
recursos, para optimizar los recursos disponibles entre las máquinas virtuales.
Soluciones de automatización que proporcionen capacidades especiales para optimizar un proceso de TI
concreto, como provisioning o recuperación ante desastres.
Mediante la separación de la totalidad del entorno de software de su infraestructura de hardware subyacente, la virtualización
hace posible reunir varios servidores, estructuras de almacenamiento y redes en pools compartidos de recursos que se pueden
asignar de forma dinámica, segura y fiable a las aplicaciones según sea necesario. Este enfoque innovador permite a las
organizaciones crear una infraestructura informática con altos niveles de utilización, disponibilidad, automatización y flexibilidad
utilizando componentes básicos de servidores económicos y estándar del sector.
Referencias
1. Turban, E; King, D; Lee, J; Viehland, D (2008). «Chapter 19: Building E-Commerce Applications and
Infrastructure». Electronic Commerce A Managerial Perspective (5th edición). Prentice-Hall. p. 27.
2. Brodkin, Jon (2009). With long history of virtualization behind it, IBM looks to the future (https://web.archive.org/w
eb/20090504085115/http://www.networkworld.com/news/2009/043009-ibm-virtualization.html). Networld World.
Archivado desde el original (http://www.networkworld.com/news/2009/043009-ibm-virtualization.html) el 4 de
mayo de 2009. Consultado el 20 de septiembre de 2011.
3. Henley, Chris (2011), Virtualization 101 (Part 1 of 4): A Brief History of Virtualization from A to Hyper-V (http://ww
w.microsoft.com/events/podcasts/default.aspx?seriesID=Series-96d0741c-9476-4f97-b6d0-6d3a7371bacb.xml&p
ageId=x8992&source=Microsoft-Podcasts-about-Tech·Ed-2011-Online:-Advance-Your-Expertise&WT.rss_ev=a),
Microsoft Corp.
4. [http://technet.microsoft.com/virtualization/gg697744.aspx Implementación de una infraestructura de nube
privada mediante virtualización
5. Microsoft Corp. (2007 (updated 2011)). Infrastructure Planning and Design. Selecting the Right Virtualization
Technology (http://technet.microsoft.com/en-us/solutionaccelerators/ee382254.aspx). Copyright © 2011 Microsoft
Corporation. This documentation is licensed to you under the Creative Commons Attribution License.
6. TechCenter Virtualización (http://technet.microsoft.com/virtualization/default)
7. López-Vallejo, Marisa; Huedo Cuesta, Eduardo; Garbajosa Sopeña, Juan. «Green IT: tecnologías para la
eficiencia energética en los sistemas TI» (http://www.madrimasd.org/informacionidi/biblioteca/publicacion/doc/VT/
VT19_green_IT_tecnologias_eficiencia_energetica_sistemas_TI.pdf). Madrimasd.org.
Bibliografía
Jonathan Leake and Richard Woods. «Revealed: the environmental impact of Google searches» (http://technolo
gy.timesonline.co.uk/tol/news/tech_and_web/article5489134.ece). Consultado el 11 de enero de 2009.
Montserrat Pérez Lobato - Observatorio Tecnológico - Ministerio de Educación y Ciencia (España). «Introducción
a las máquinas virtuales» (http://observatorio.cnice.mec.es/modules.php?op=modload&name=News&file=article
&sid=462).
José María González - vExpert 2009, vExpert 2010, VCI, VCP2, VCP3, VCP4,. «El Blog de Virtualización en
Español» (http://www.josemariagonzalez.es).
«Virtualización-Nube Privada» (http://technet.microsoft.com/es-CO/virtualization/bb802511).
David Aragón - Qloudea.com (Noviembre de 2014). «Instalar Máquinas virtuales con Virtualization Station» (htt
p://qloudea.com/blog/instalar-maquinas-virtuales-qnap/).
Obtenido de «https://es.wikipedia.org/w/index.php?title=Virtualización&oldid=118877612»
Esta página se editó por última vez el 3 sep 2019 a las 13:36.
El texto está disponible bajo la Licencia Creative Commons Atribución Compartir Igual 3.0; pueden aplicarse
cláusulas adicionales. Al usar este sitio, usted acepta nuestros términos de uso y nuestra política de privacidad.
Wikipedia® es una marca registrada de la Fundación Wikimedia, Inc., una organización sin ánimo de lucro.
Blog Contacto
El término centro de datos o Data Center es de uso muy habitual hoy en día.
Muchos de los datos que manejamos hoy –desde móviles, tabletas y
ordenadores– acaban almacenados en estos centros de datos; en lo que
muchos llaman «la nube» como un término realmente genérico.
¿Qué es un DataCenter?
¿Quiénes somos?
Nuestros Centros de Datos
Nuestra red
Contactar
Cloud Privado
Almacenamiento en red
Infraestructura para ISPs
Servicios gestionados
Ventajas
Casos de éxito
Blog
Trabaja con nosotros
Solicita una oferta rápida y conoce Stackcale
Ir a...
Anterior Siguiente
Ese es el caso de la gestión del uso de la energía en los llamados “Data centers”. Estos ordenadores que
controlan tanta información deben también instalarse y utilizarse contemplando los parámetros de la
eficiencia energética, y a continuación repasaremos un poco el cómo se implementa esta noción en este
tipo de instalaciones.
La arquitectura y requerimientos pueden variar mucho de un datacenter a otro. Por ejemplo, un data center
construido para una gran empresa internacional de venta online será distinto al de un data center de una
organización gubernamental. Pero todos los data centers poseen una arquitectura compuesta por los
siguientes elementos:
1. Instalaciones o “espacio blanco” (y es en este elemento que el hecho de proveer información 24/7
hace que los data centers sean increíbles consumidores de energía).
2. Infraestructura de soporte.
3. Fuentes de energía continua (UPS por sus siglas en inglés, “uninterruptible power sources”).
4. Control ambiental (ventilación, calefacción, aire acondicionado).
5. Equipo informático (servidores, hardware de almacenamiento, cables…).
6. Personal de operaciones.
Los data centers han evolucionado mucho en años recientes, adoptando tecnologías como la virtualización
para optimizar el uso de recursos e incrementar la flexibilidad en los servicios informáticos. Además,
también se está poniendo el énfasis precisamente en el consumo de energía, buscando prácticas más
eficientes en la administración de data centers, avanzando hacia la noción de “data centers verdes”.
Es en ese sentido que la e ciencia energética es importante como guía de acción para lograr administrar
mejor y optimizar el uso de la energía en una instalación que por definición, consume mucha.
No es cuestión de eliminar funciones o reducir el uso del data center. Es cuestión de modificar algunos
elementos estructurales y cambiar prácticas, de forma que sea posible mantener el funcionamiento del data
center, pero reducir su consumo energético. Ello no sólo pensando en el ahorro que supone en términos de
facturas, sino también en el impacto ambiental que este tipo de estructuras (tan importantes para el modo
de vida contemporáneo) tienen a escala global.
El análisis de la eficiencia energética de un data center es complicado porque existen a escala internacional
diversas formas de “calcular “este parámetro.
No quiere decir que el término sea poco válido (hay pocas cosas con menor validez para el análisis del
consumo energético que todo lo que rodea a la noción de eficiencia), pero técnicamente es más claro
cuando se habla en métricas del consumo neto de energía en kilowatts (kW). Esta es una métrica simple y
no ambigua que permite hacer una auténtica auditoría energética y planificar medidas para mejorar el
parámetro de la eficiencia.
La energía eléctrica se paga en unidades que se denominan “kilowatt por hora”, que es la cantidad de
energía que se “entrega” o utiliza en una hora con un poder de 1000 watts (es decir, un kilowatt o kW). La
energía se entiende de dos formas diferentes al realizar una auditoría energética: en primera instancia está
“la capacidad energética de la instalación”, cuyos costos están asociados con los sistemas que
producen/distribuyen la energía y se incrementa con el diseño y uso que de la energía hace el sistema. La
segunda instancia son los “costos de la energía” que es lo que se refleja en la factura eléctrica.
Un elemento esencial que permite avanzar hacia la eficiencia energética es entender que reducir el
consumo energético puede reducir la capacidad operativa y no sólo los costos. Por ello, la idea no es
“recortar” el uso de energía para ahorrar, sino que deben tomarse medidas que permitan reducir el consumo
de energía de forma permanente. Los cambios estructurales como el uso de servidores altamente eficientes
reducen a largo plazo tanto los costos en mantenimiento de infraestructura como los gastos cotidianos en la
factura eléctrica.
Es la misma diferencia que discutimos siempre cuando hablamos de la diferencia entre “ahorrar” energía y
usarla de forma eficiente. Ambos son buenos como propósitos, pero sólo el segundo permite realmente
realizar economías a largo plazo.
El elemento clave es entender que existen dos formas de reducir los costos en el consumo de energía:
1. Aquellos que disminuyen el consumo de energía, pero no reducen la capacidad de las instalaciones
informáticas.
2. Aquellos que, al reducir el costo del consumo energético, disminuyen en cierta forma la capacidad de
las instalaciones del data center.
Esta segunda forma de reducir el consumo energético no sólo no se basa en el concepto de eficiencia, sino
que es por definición: temporal.
El primer método sigue los parámetros de la eficiencia y puede definirse como una modificación estructural
que disminuye de forma permanente el consumo energético y los gastos involucrados. En los data centers la
regla general es que los cambios estructurales representan a la larga un ahorro dos veces más importante.
Este viraje hacia la gestión eficiente de un data center puede nacer con dos aproximaciones diferentes. En
primer lugar, acciones operacionales y, en segundo término, acciones de planificación. Revisemos algunos
de los elementos que se incluyen en cada uno de estos caminos a seguir en la persecución del uso eficiente
de la energía en un data center.
La mayoría de los data centers tienen tecnología “vieja” que se mantiene operativa por distintas razones,
pero muchos tienen aplicaciones y servidores que se mantienen operativos, pero no tienen usuarios. Es muy
útil hacer un inventario o repertorio de estos sistemas y crearles una especie de “plan de retiro”. Hay muchos
casos en que se puede retirar de uso un servidor aun cuando todavía sea útil. Mantener en uso sólo los
servidores que se usan de verdad puede representar una disminución de hasta una quinta parte de la
energía en un data center.
Migrar los sistemas es otra estrategia que puede ser muy efectiva para reducir el consumo de energía. La
mayoría de los data centers en Europa tienen lo que se denomina servidores de baja densidad de entre 3 y 5
años. Estos servidores ocupan la misma energía que los servidores modernos que tienen una mayor
capacidad. La migración a sistemas más modernos permite tener un almacenamiento más denso de
información y un uso más concentrado de los sistemas. Ello puede no reducir de forma automática el
consumo, pero a largo plazo es una de las medidas que más puede reducir el gasto energético. Tanto como
un 25%. Para hacer esta medida aún más eficaz, es útil: usar un servidor de doble vía (2-way server) o un
procesador de doble núcleo para sustituir dos o más servidores o bien utilizar procesadores tipo “Blade“.
En cuanto a la planeación que puede incidir en la mejora de la eficiencia energética de un data server:
a. Virtualización.
Usar el sistema de dimensiones adecuadas para los auténticos requerimientos informáticos del data center
es otra excelente forma de hacer más eficiente el consumo energético. Tiene el potencial (bien llevado a
cabo) de disminuir en un 50% el consumo y el gasto energético de un data center.
El diseño del sistema tiene un impacto terrible en el consumo energético de un data center. Es incluso más
importante que la selección de fuentes de alimentación y sistemas de enfriamiento. Se puede obtener un
diseño estandarizado que comprenda módulos prediseñados y pre-probados para no tener que asumir el
gasto de hacer un diseño personalizado.
Las grandes firmas que tienen data centers increíblemente potentes han pensado incluso en mudar sus data
centers al Ártico, porque el enfriamiento de un data center es un gran consumidor de energía. Elegir
adecuadamente el sistema de enfriamiento puede cambiar y reducir significativamente (hasta en un 30%) el
consumo energético de un data center.
Estas son sólo unas claves para entender el profundo entramado de medidas que pueden tomarse para
administrar e cientemente en términos de energía un data center. Otros esfuerzos, como la realización de
una auditoría energética completa y una certi cación energética correcta, pueden ayudar a empresas e
instituciones a gestionar de forma eficiente la energía en un data center.
Por Certificador Energetico | 26.07.2017 | Ahorro económico, Eficiencia Energética | Sin comentarios
Deje su comentario
Comentar...
Nombre (requerido)
Sitio web
PUBLICAR COMENTARIO
Categorías
Ahorro económico
Certificación Energética
Certificado energético
Eficiencia Energética
Energía eólica
Energía Solar
Energías Renovables
Entradas recientes
Archivos
septiembre 2019
agosto 2019
julio 2019
junio 2019
mayo 2019
abril 2019
marzo 2019
febrero 2019
enero 2019
diciembre 2018
noviembre 2018
octubre 2018
septiembre 2018
agosto 2018
julio 2018
junio 2018
mayo 2018
abril 2018
marzo 2018
febrero 2018
enero 2018
diciembre 2017
noviembre 2017
octubre 2017
septiembre 2017
agosto 2017
julio 2017
junio 2017
mayo 2017
abril 2017
marzo 2017
febrero 2017
enero 2017
diciembre 2016
noviembre 2016
octubre 2016
septiembre 2016
agosto 2016
julio 2016
junio 2016
mayo 2016
abril 2016
marzo 2016
febrero 2016
enero 2016
diciembre 2015
noviembre 2015
octubre 2015
septiembre 2015
agosto 2015
julio 2015
junio 2015
mayo 2015
abril 2015
marzo 2015
febrero 2015
enero 2015
diciembre 2014
noviembre 2014
octubre 2014
septiembre 2014
agosto 2014
julio 2014
junio 2014
mayo 2014
abril 2014
marzo 2014
febrero 2014
Últimos Tweets
Powerhouse, posiblemente el único edificio que produce el doble de energía de la que consume
idealista.com/news/inmobilia… vía @idealista
3 semanas hace
España necesita más de 40.000 millones de euros para lograr la eficiencia energética en los
edificios… twitter.com/i/web/status/1…
1 mes hace
En CertificadodeEficienciaEnergetica.com usamos cookies propias y de terceros para proporcionarte nuestro mejor servicio.
Si continuas navegando, consideraremos que aceptas su uso. Más información aquí
Publicación Especial 800-145
Peter Mell
Timoteo Grance
NIST Special Publication 800-145 La definición del NIST del Cloud Computing Peter Mell
Timoteo Grance
LA SEGURIDAD INFORMÁTICA
El Laboratorio de Tecnología de la Información (DIT) del Instituto Nacional de Estándares y Tecnología (NIST) promueve la economía
estadounidense y el bienestar público, proporcionando liderazgo técnico para la infraestructura de medición y estándares de la nación. ITL
desarrolla pruebas, métodos de prueba, datos de referencia, prueba de concepto, implementaciones y análisis técnico para avanzar en el
desarrollo y uso productivo de la tecnología de la información.
responsabilidades de ITL incluyen el desarrollo de técnicas, físicas,
y las normas de gestión administrativa y directrices para la seguridad económica y la privacidad de la información no clasificada sensible en los
sistemas informáticos federales. Esta publicación especial los informes de la serie 800 en la investigación, orientación y actividades de
divulgación de ITL en seguridad informática y sus actividades de colaboración con la industria, el gobierno y organizaciones académicas.
Ciertas entidades comerciales, equipos o materiales pueden ser identificados en este documento con el fin de
describir un procedimiento experimental o concepto de manera adecuada. Dicha identificación no pretende
implicar recomendación o aprobación por el Instituto Nacional de Estándares y Tecnología, ni tiene por objeto
dar a entender que la entidades, materiales o equipos son necesariamente los mejores disponibles para el
propósito.
ii
Agradecimientos
Los autores Peter Mell y Timoteo grance del Instituto Nacional de Estándares y Tecnología (NIST) desean agradecer a los muchos
expertos en la industria y el gobierno que contribuyeron con sus pensamientos a la creación y revisión de esta definición.
Agradecemos especialmente Murugiah Souppaya y Lee Badger, también del NIST, y Wayne Jansen de Booz Allen Hamilton, cuyo
consejo y conocimiento técnico asistido este esfuerzo.
Errata
Los siguientes cambios han sido incorporados en la publicación especial 800 a 145, a partir de la fecha indicada en la tabla.
iii
1. Introducción
1.1 Autoridad
El Instituto Nacional de Estándares y Tecnología (NIST) desarrollaron este documento en cumplimiento de sus responsabilidades legales
bajo la Ley Federal de Gestión de Seguridad de la Información (FISMA) de 2002, Ley Pública 107-347.
NIST es responsable del desarrollo de normas y directrices, incluidos los requisitos mínimos, para proporcionar seguridad de la información
adecuada para todas las operaciones de la agencia y activos; pero tales normas y directrices no serán aplicables a los sistemas de seguridad
nacional. Esta directriz es consistente con los requisitos de la Oficina de Administración y Presupuesto (OMB) Circular A-130, Sección 8 ter (3),
“Sistemas de Información de la Agencia de Mantenimiento”, como se analizó en la A-130, Apéndice IV: Análisis de las secciones clave.
Información de consulta se proporciona en A-130, Apéndice III.
Esta guía ha sido preparada para su uso por las agencias federales. Puede ser utilizado por las organizaciones no gubernamentales sobre una
base voluntaria y no está sujeta a derechos de autor, aunque se desea atribución. Nada en este documento debe ser tomado en contradicción
con las normas y directrices hechas obligatorios y vinculantes para las agencias federales por el Secretario de Comercio bajo la autoridad legal,
ni debe estas pautas puede interpretar como la alteración o reemplazando las autoridades existentes de la Secretaría de Comercio, Director de
La computación en nube es un paradigma en evolución. La definición del NIST caracteriza aspectos importantes de la computación en la nube y está destinado a
servir como un medio para comparaciones generales de servicios en la nube y estrategias de implementación, y para proporcionar una línea de base para la
discusión de lo que es la computación en nube a la mejor forma de computación en nube de uso. Los modelos de servicio y de despliegue definidos forman una
taxonomía simple que no está destinado a prescribir o limitar ningún método particular de despliegue, la prestación de servicios, o la operación de negocios.
1.3 Audiencia
El público objetivo de este documento es planificadores de sistemas, administradores de programas, tecnólogos y otros que adoptan la computación en nube
como consumidores o proveedores de servicios en la nube.
1
2. La definición del NIST del Cloud Computing
La computación en nube es un modelo que permite, acceso ubicuo conveniente, a pedido de red a un conjunto compartido de recursos informáticos
configurables (por ejemplo, redes, servidores, almacenamiento, aplicaciones y servicios) que pueden ser rápidamente aprovisionados y liberados con el
mínimo esfuerzo de gestión o rápidamente la interacción proveedor de servicios. Este modelo de nube se compone de cinco características esenciales, tres
modelos de servicio, y cuatro modelos de despliegue.
Características esenciales:
En demanda auto servicio. Un consumidor puede unilateralmente capacidades de provisión de computación, tales como
hora del servidor y de almacenamiento en red, según sea necesario de forma automática sin necesidad de interacción humana con cada
proveedor de servicios.
acceso a la red amplia. Capacidades están disponibles en la red y acceder a través de estándar
mecanismos que promueven el uso de plataformas heterogéneas cliente delgado o grueso (por ejemplo, teléfonos móviles, tabletas,
ordenadores portátiles, y estaciones de trabajo).
Puesta en común de recursos. los recursos informáticos del proveedor se combinaron para servir a múltiples consumidores
utilizando un modelo multi-inquilino, con diferentes recursos físicos y virtuales asignadas dinámicamente y reasignados de
acuerdo con la demanda del consumidor. Hay un sentido de independencia de la ubicación en la que el cliente generalmente
tiene ningún control o conocimiento sobre la ubicación exacta de los recursos proporcionados, pero puede ser capaz de
especificar la ubicación en un nivel de abstracción más alto (por ejemplo, país, estado, o centro de datos). Ejemplos de recursos
incluyen el almacenamiento, procesamiento, memoria y ancho de banda.
elasticidad rápida. Las capacidades pueden ser elásticamente aprovisionados y liberados, en algunos casos
de forma automática, para escalar rápidamente exterior e interior acorde con la demanda. Para el consumidor, las capacidades
disponibles para la provisión menudo parecen ser ilimitadas y pueden ser apropiados en cualquier cantidad en cualquier
momento.
Medido servicio. sistemas de nubes controlan automáticamente y optimizar el uso de recursos mediante el aprovechamiento
una capacidad de medición 1 en algún nivel de abstracción apropiado para el tipo de servicio (por ejemplo, almacenamiento,
procesamiento, ancho de banda, y cuentas de usuario activas). El uso de recursos se puede supervisar, controlar, e informó,
proporcionando transparencia, tanto para el proveedor y el consumidor del servicio utilizado.
Modelos de servicio:
1 Normalmente esto se hace sobre una base de pago por uso o cargo por uso.
2 Una infraestructura en la nube es la colección de hardware y software que permite a las cinco características esenciales de la computación en la nube. La infraestructura de la nube
puede ser visto como que contiene tanto una capa física y una capa de abstracción. La capa física se compone de los recursos de hardware que son necesarias para soportar los
servicios de nube que se proporcionan, y típicamente incluye servidores, almacenamiento y componentes de red. La capa de abstracción consiste en el software implementado a
través de la capa física, que se manifiesta las características esenciales de la nube. Conceptualmente, la capa de abstracción se sienta encima de la capa física.
2
idiomas, bibliotecas, servicios y herramientas soportadas por el proveedor. 3 El consumidor no administrar o controlar la
infraestructura de nube subyacente incluyendo la red, servidores, sistemas operativos, o el almacenamiento, pero no tiene control
sobre las aplicaciones implementadas y los ajustes de configuración, posiblemente, para el entorno de aplicaciones de
alojamiento.
Infraestructura como Servicio (IaaS). La capacidad proporcionada al consumidor es a la provisión
procesamiento, almacenamiento, redes y otros recursos informáticos fundamentales donde el consumidor es capaz de
desplegar y ejecutar software arbitrario, que puede incluir sistemas operativos y aplicaciones. El consumidor no administrar
o controlar la infraestructura de nube subyacente pero tiene control sobre los sistemas operativos, almacenamiento y
aplicaciones desplegadas; y control posiblemente limitado de componentes de red seleccione (por ejemplo, cortafuegos
host).
Modelos de implementación:
Nube privada. La infraestructura de la nube está preparada para el uso exclusivo de una sola organización
que comprende múltiples consumidores (por ejemplo, unidades de negocios). Puede ser de propiedad, administrado y operado por la
organización, un tercero, o una combinación de ellos, y que puede existir dentro o fuera de las instalaciones.
nube comunitaria. La infraestructura de la nube está preparada para el uso exclusivo de un determinado
comunidad de consumidores de organizaciones que han compartido preocupaciones (consideraciones, por ejemplo, la misión,
los requisitos de seguridad, de política y de cumplimiento). Puede ser de propiedad, administrado y operado por una o más de
las organizaciones de la comunidad, un tercero, o alguna combinación de ellos, y que puede existir dentro o fuera de las
instalaciones.
nube pública. La infraestructura de la nube está preparada para el uso abierto por el público en general. Puede ser
propiedad, administrado y operado por una empresa, o una organización gubernamental académica, o alguna combinación de
ellos. Existe en las instalaciones del proveedor de la nube.
nube híbrido. La infraestructura de la nube es una composición de dos o más nube distinta
infraestructuras (privada, comunitaria o públicos) que permanecen entidades únicas, pero están unidos por la tecnología
estandarizada o propietaria que permite que los datos y la portabilidad de aplicaciones (por ejemplo, la nube de ruptura de
equilibrio de carga entre las nubes).
3 Esta capacidad no excluye necesariamente el uso de lenguajes de programación compatibles, bibliotecas, servicios y herramientas de otras fuentes.