Sei sulla pagina 1di 28

Virtualización

En Informática, la virtualización es la creación a través de software de una


versión virtual de algún recurso tecnológico, como puede ser una plataforma de
hardware, un sistema operativo, un dispositivo de almacenamiento u otros
recursos de red.1 En los ámbitos de habla inglesa, este término se suele conocer
por el numerónimo "v12n".

Dicho de otra manera, se refiere a la abstracción de los recursos de una


computadora, llamada Hypervisor o VMM (Virtual Machine Monitor) que crea
una capa de abstracción entre el hardware de la máquina física (host) y el Una máquina virtual nos permite
sistema operativo de la máquina virtual (virtual machine, guest), dividiéndose el tener varios ordenadores virtuales
recurso en uno o más entornos de ejecución. ejecutándose sobre el mismo
ordenador físico.
Esta capa de software (VMM) maneja, gestiona y arbitra los cuatro recursos
principales de una computadora (CPU, Memoria, Dispositivos Periféricos y
Conexiones de Red). Así podrá repartir dinámicamente estos recursos entre todas las máquinas virtuales definidas en el
computador central. Esto hace que se puedan tener varios ordenadores virtuales ejecutándose en el mismo ordenador físico.

Este término es antiguo: se viene usando desde 1960. Se ha sido aplicando a diferentes aspectos y ámbitos de la informática,
desde sistemas computacionales completos hasta capacidades o componentes individuales.2 3 Con la consolidación del modelo
de la Computación en la nube, la virtualización ha pasado a ser uno de sus componentes fundamentales, especialmente en lo que
se denomina infraestructura de nube privada.4

La virtualización se encarga de crear una interfaz externa que encapsula una implementación subyacente mediante la
combinación de recursos en localizaciones físicas diferentes, o por medio de la simplificación del sistema de control. En los
últimos años, el avanzado desarrollo de nuevas plataformas y tecnologías de virtualización ha hecho que se haya vuelto a prestar
atención a este concepto.

En general, la máquina virtual simula una plataforma de hardware autónoma, incluyendo un sistema operativo completo que se
ejecuta como si estuviera instalado. Típicamente, varias máquinas virtuales operan en un computador central. Para que el sistema
operativo “guest” funcione, la simulación debe ser lo suficientemente grande (siempre dependiendo del tipo de virtualización).

Existen diferentes formas de virtualización: se puede virtualizar


el hardware de servidor, el software de servidor, sesiones de
usuario, aplicaciones y también crear máquinas virtuales en una
computadora de escritorio.5

Entre los principales proveedores de software que han


desarrollado tecnologías de virtualización integrales (que abarcan
todas las instancias: servidor, aplicaciones, escritorio) se
encuentran, por ejemplo Citrix, VMware y Microsoft. Estas
compañías han diseñado soluciones específicas para
virtualización, como XenServer, VMware ESX y Windows
Server 2008 Hyper-V para la virtualización de servidores.
VirtualBox
Índice
Virtualización de plataforma
Virtualización completa
Ejemplos
Virtualización parcial
Virtualización por S.O o Semi-parcial
Diferencias entre virtualizar un Sistema operativo e
instalarlo
Ventajas de la Virtualización
Programas útiles para virtualizar sistemas
operativos
Tipos de virtualización
Virtualización asistida por Hardware
La virtualización de almacenamiento
Particionamiento
Hypervisor de almacenamiento
Virtualización de datos
Virtualización relacionada con el Green IT
Infraestructura Virtual
Referencias
Bibliografía

Virtualización de plataforma
Esta involucra la simulación de máquinas virtuales. La virtualización de plataforma se lleva a cabo en una plataforma de
hardware mediante un software "host" (en castellano “anfitrión”), que es un programa de control que simula un entorno
computacional (máquina virtual) para su software "guest" (en castellano "huésped"). Este software “huésped”, que generalmente
es un sistema operativo completo, se ejecuta como si estuviera instalado en una plataforma de hardware autónoma. Típicamente
muchas máquinas virtuales se simulan en una máquina física dada. Para que el sistema operativo “huésped” funcione, la
simulación debe ser lo suficientemente grande para soportar todas las interfaces externas de los sistemas huéspedes, las cuales
pueden incluir (dependiendo del tipo de virtualización) los drivers de hardware.

Tipos de Virtualización de plataforma

A continuación se enuncian algunos tipos de virtualización.

Virtualización completa
La máquina virtual simula un hardware suficiente para permitir un sistema operativo “huésped” sin modificar (uno diseñado para
la misma CPU) para ejecutarlo de forma aislada. Típicamente, muchas instancias pueden ejecutarse al mismo tiempo. Este
enfoque fue el pionero en 1966 con CP-40 y CP[-67]/CMS, predecesores de la familia de máquinas virtuales de IBM.

Ejemplos

VMware Workstation
VMware Server
VMware vSphere
Microsoft Hyper-V
Microsoft Enterprise Desktop Virtualization (MED-V)
VirtualBox de Oracle
Parallels Desktop
Virtual Iron
Adeos
Mac-on-Linux
Win4BSD
Win4Lin Pro
y z/VM
openvz
Oracle VM
XenServer
Microsoft Virtual PC
KVM
Virtuozzo

Virtualización parcial
“Address Space Virtualization”. La máquina virtual simula múltiples instancias de gran parte del entorno subyacente del
hardware, particularmente los espacios de direcciones. Tal entorno acepta compartir recursos y alojar procesos, pero no permite
instancias separadas de sistemas operativos “huésped”. Aunque no se contempla dentro de la categoría de máquina virtual,
históricamente significó un importante acercamiento, y lo usaron en sistemas como CTSS, el experimental IBM M44/44X; y
OS/VS1, OS/VS2 y MVS.

Virtualización por S.O o Semi-parcial


Virtualizar significa instalar un sistema operativo dentro de otro al que se le llama anfitrión (HOST), mediante el uso de una
máquina virtual. Frecuentemente denominada virtualización compartida del Sistema Operativo o virtualización del SO, la
virtualización del Sistema Operativo virtualiza servidores en la capa del sistema operativo (kernel). Este método de virtualización
crea particiones aisladas o entornos virtuales (VEs) en un único servidor físico e instancia de SO para así maximizar los esfuerzos
de administración del hardware, software y centro de datos.

La Virtualización de Hypervisor tiene una capa base (generalmente un kernel, Linux que se muestra aquí como un hypervisor o
SO estándar, lo mismo que Windows Server 2008 R2 Hyper-V) que se carga directamente en el servidor base. Para asignar
hardware y recursos a las máquinas virtuales (VMs), es recomendable que todo el hardware del servidor esté virtualizado. La
siguiente capa superior muestra cada chip, placa, etc., que debe virtualizarse para que pueda asignarse a las VMs. Una vez en la
VM, hay una copia completa de un sistema operativo y finalmente la aplicación o carga de trabajo.

La Virtualización de SO mejora el rendimiento, la gestión y la eficiencia. En su base reside un sistema operativo anfitrión
estándar, como Parallels Virtuozzo, que incluye Windows y un sistema con núcleo Linux. A continuación encontramos la capa de
virtualización, con un sistema de archivos propietario y una capa de abstracción de servicio de kernel que garantiza el aislamiento
y seguridad de los recursos entre distintos contenedores. La capa de virtualización hace que cada uno de los contenedores
aparezca como servidor autónomo. Finalmente, el contenedor aloja la aplicación o carga de trabajo.

Diferencias entre virtualizar un Sistema operativo e instalarlo


Virtualizar el sistema operativo es una opción interesante si no queremos instalar dos sistemas operativos en el mismo ordenador.
Por el contrario, si lo instalamos, todos los sistemas operativos instalados funcionaran igual que si estuvieran instalados en
distintos ordenadores.
El único y pequeño inconveniente es que necesitamos un gestor de arranque que al encender nuestro ordenador nos dé la opción
de elegir qué sistema operativo queremos utilizar, lo que conlleva que, si por ejemplo estamos en Windows y queremos cambiar a
GNU/Linux, deberíamos reiniciar nuestro ordenador. En cambio, la virtualización permite cambiar de sistema operativo como si
se tratase de cualquier otro programa. Sin embargo, esta agilidad tiene la desventaja de que un sistema operativo virtualizado no
es tan potente como uno instalado.

Ventajas de la Virtualización
Índices de utilización más altos. Antes de la virtualización, los índices de utilización del servidor y
almacenamiento en los centros de datos de la empresa rondaban menos del 50% (de hecho, los más comunes
fueron del 10% al 15%. A través de la virtualización, las cargas de trabajo pueden encapsularse y transferirse a
los sistemas inactivos o sin uso. Esto significa que los sistemas existentes pueden consolidarse, y retrasarse o
evitarse las compras de capacidad adicional del servidor. Se alcanzan índices de utilización del 60 al 80% para
servidores x86.
Consolidación de recursos. La virtualización permite consolidar múltiples recursos de TI. Además de la
consolidación de almacenamiento, la virtualización proporciona una oportunidad para consolidar la arquitectura
de sistemas, infraestructura de aplicación, datos y base de datos, interfaces, redes, escritorios, e incluso
procesos de negocios, resultando en ahorros de costes y en mayor eficiencia.
Uso/coste menor de energía. La electricidad requerida para que funcionen los centros de datos de clase
empresarial no está disponible en suministros ilimitados, y su coste está en una espiral ascendente. Por cada
dólar gastado en un servidor hardware, se gasta un dólar adicional (incluyendo el coste de los servidores en
función y la refrigeración). Utilizando la virtualización para consolidar, se puede ahorrar de manera significativa
en consumo total de energía y en dinero.
Ahorros de espacio. La ampliación del servidor aparece como un serio problema en la mayoría de los centros
de datos empresariales. No siempre es una opción, porque los costes de construcción son de miles de dólares
por metro cuadrado. La virtualización puede aliviar la tensión mediante la consolidación de muchos sistemas
virtuales en menos sistemas físicos.
Recuperación de desastre/continuidad del negocio. La virtualización puede incrementar la disponibilidad de
los índices del nivel de servicio en general y proporcionar nuevas opciones de soluciones para la recuperación
de desastre. Hasta el 85% de mejora en tiempo de recuperación de paradas imprevistas
Costes de operación reducidos. La empresa promedio gasta $8 dólares en mantenimiento por cada $1 dólar
invertido en nueva infraestructura. La virtualización puede cambiar el ratio de servicio-a administración, reducir la
carga total de trabajo administrativo y ahorrar costes de operación.

Reutilización de hardware existente (para utilizar software más moderno) y optimizar el aprovechamiento de
todos los recursos de hardware.6
Capacidad para el provisioning de nuevas aplicaciones en cuestión de minutos, en lugar de días o semanas.
Rápida incorporación de nuevos recursos para los servidores virtualizados.
Reducción de los costes de espacio y consumo necesario de forma proporcional al índice de consolidación
logrado (estimación media 10:1).
Administración global centralizada y simplificada.
Permite gestionar el CPD como un pool de recursos o agrupación de toda la capacidad de procesamiento,
memoria, red y almacenamiento disponible en nuestra infraestructura
Mejora en los procesos de clonación y copia de sistemas: mayor facilidad para crear entornos de test que
permiten poner en marcha nuevas aplicaciones sin impactar a la producción, agilizando el proceso de las
pruebas.
Aislamiento: un fallo general de sistema de una máquina virtual no afecta al resto de máquinas virtuales.
Mejora de TCO y ROI.
No sólo aporta el beneficio directo en la reducción del hardware necesario, sino también los costes asociados.
Reduce los tiempos de parada.
Migración en caliente de máquinas virtuales (sin pérdida de servicio) de un servidor físico a otro, eliminando la
necesidad de paradas planificadas por mantenimiento de los servidores físicos.
Balanceo dinámico de máquinas virtuales entre los servidores físicos que componen el pool de recursos,
garantizando que cada máquina virtual ejecute en el servidor físico más adecuado y proporcionando un
consumo de recursos homogéneo y óptimo en toda la infraestructura.
Contribución al medio ambiente -Green IT- por menor consumo de energía en servidores físicos.6

Alta disponibilidad.
Programas útiles para virtualizar sistemas operativos
Existen dos tipos de programas: los de pago y los gratuitos.

Dentro de los programas de pago encontramos el VMware, que es uno de los referentes en el mercado, como así también
Windows Server 2008 R2 Hyper-V [1] (http://technet.microsoft.com/virtualization/) cuya función de virtualización está incluida
sin cargo en la licencia del servidor. Existe una versión más básica de VMWare que es gratuita, VMware Player, que permite
virtualizar a través de una máquina virtual ya configurada. También existen webs que nos permiten rellenar un formulario y
descargarnos nuestra máquina virtual a nuestro gusto como EasyVMX! (https://web.archive.org/web/20090218133255/http://easy
vmx.com/) Parallels Virtuozzo Containers, es otro de los programas de pago más famosos, que permite la virtualización a nivel de
sistema operativo o hardware Parallels Bare Metal. Típicamente suele emplearse para virtualizar Windows y, en menor medida,
GNU/Linux.

Dentro de los programas gratuitos tenemos el Virtual PC de Microsoft, que es un producto de Windows, compatible con versiones
avanzadas de XP, Vista y Windows 7.

Dentro de los programas de código libre están el Xen, OpenVZ y VirtualBox, que funcionan tanto en Mac OS, en Windows como
en GNU/Linux y todos permiten virtualizar los tres sistemas operativos más famosos.

Tipos de virtualización
La virtualización se puede hacer desde un sistema operativo Windows, ya sea XP, Vista u otra versión que sea compatible con el
programa que utilicemos, en el que virtualizamos otro sistema operativo como Linux o viceversa, que tengamos instalado Linux y
queramos virtualizar una versión de Windows.

Virtualización asistida por Hardware


Virtualización asistida por Hardware son extensiones introducidas en la arquitectura de procesador x86 para facilitar las tareas de
virtualización al software ejecutándose sobre el sistema. Si cuatro son los niveles de privilegio o anillos de ejecución en esta
arquitectura, desde el cero o de mayor privilegio, que se destina a las operaciones del kernel de SO, al tres, con privilegios
menores que es el utilizado por los procesos de usuario, en esta nueva arquitectura se introduce un anillo interior o ring -1 que
será el que un hypervisor o Virtual Machine Monitor usará para aislar todas las capas superiores de software de las operaciones de
virtualización.

La virtualización de almacenamiento
Se refiere al proceso de abstraer el almacenamiento lógico del físico. Comúnmente se usa en SANs ("Storage Area Network" Red
de área de almacenamiento). Los recursos de almacenamiento físicos se agregan al "storage pool" (almacén de almacenamiento),
del cual se crea el almacenamiento lógico.

Particionamiento
Es la división de un solo recurso (casi siempre grande), como el espacio de disco o el ancho de banda de la red, en un número
más pequeño y con recursos del mismo tipo, que son más fáciles de utilizar. Muchas veces se denomina “zoning”, especialmente
en almacenamiento de red.

Hypervisor de almacenamiento
Es un pack portátil de gestión centralizada, utilizado para mejorar el valor combinado de los sistemas de disco de almacenamiento
múltiples, incluyendo los modelos diferentes e incompatibles, complementando sus capacidades individuales con el
aprovisionamiento extendido, la réplica y la aceleración del rendimiento del servicio. Su completo conjunto de funciones de
control y monitorización del almacenamiento, operan como una capa virtual transparente entre los pools de disco consolidados
para mejorar su disponibilidad, velocidad y utilización.

Virtualización de datos
La virtualización de datos es una capa de abstracción y una capa de servicios de datos. La virtualización de datos integra datos de
fuentes dispersas, en distintas localizaciones y formatos, sin replicar los datos, para construir una capa de datos virtual que facilita
la provisión de servicios de datos unificados para dar soporte a múltiples aplicaciones y usuarios.

Virtualización relacionada con el Green IT


En estudios7 centrados en el ahorro de energía que genera la empresa para sus clientes, se muestra que las soluciones de
virtualización reducen los costos económicos y emisiones de CO2.

Esto se puede llevar a cabo fusionando varias máquinas en un solo servidor, disminuyendo el consumo energético y los costes;
ahorrando 7.000 kilovatios hora o cuatro toneladas de emisiones de CO2 al año. Los PCs virtualizados pueden reducir el consumo
de energía y los costos en un 35 por ciento. Hoy en día, la mayor parte consumen entre un 70 y un 80% de su energía estimada.

Otra medida es la desconexión de los servidores y desktops durante los períodos de inactividad, como por la noche o los fines de
semana, con lo que se puede ahorrar aproximadamente un 25 por ciento de consumo energético. Hoy en día, las empresas son las
más interesadas en la virtualización, ya que les interesa mucho reducir costes y energía.

Infraestructura Virtual
Una infraestructura virtual consiste en el mapping dinámico de recursos físicos en función de las necesidades de la empresa. Una
máquina virtual representa los recursos físicos de un único ordenador, mientras que una infraestructura virtual representa los
recursos físicos de la totalidad del entorno de TI, aglutinando ordenadores x86, así como su red y almacenamiento asociados, en
un pool unificado de recursos de TI.

Estructuralmente, una infraestructura virtual consta de los siguientes componentes:

Hipervisor de un solo nodo para hacer posible la virtualización de todos los ordenadores x86.
Un conjunto de servicios de infraestructura de sistemas distribuida basada en la virtualización, como gestión de
recursos, para optimizar los recursos disponibles entre las máquinas virtuales.
Soluciones de automatización que proporcionen capacidades especiales para optimizar un proceso de TI
concreto, como provisioning o recuperación ante desastres.
Mediante la separación de la totalidad del entorno de software de su infraestructura de hardware subyacente, la virtualización
hace posible reunir varios servidores, estructuras de almacenamiento y redes en pools compartidos de recursos que se pueden
asignar de forma dinámica, segura y fiable a las aplicaciones según sea necesario. Este enfoque innovador permite a las
organizaciones crear una infraestructura informática con altos niveles de utilización, disponibilidad, automatización y flexibilidad
utilizando componentes básicos de servidores económicos y estándar del sector.

Referencias
1. Turban, E; King, D; Lee, J; Viehland, D (2008). «Chapter 19: Building E-Commerce Applications and
Infrastructure». Electronic Commerce A Managerial Perspective (5th edición). Prentice-Hall. p. 27.
2. Brodkin, Jon (2009). With long history of virtualization behind it, IBM looks to the future (https://web.archive.org/w
eb/20090504085115/http://www.networkworld.com/news/2009/043009-ibm-virtualization.html). Networld World.
Archivado desde el original (http://www.networkworld.com/news/2009/043009-ibm-virtualization.html) el 4 de
mayo de 2009. Consultado el 20 de septiembre de 2011.
3. Henley, Chris (2011), Virtualization 101 (Part 1 of 4): A Brief History of Virtualization from A to Hyper-V (http://ww
w.microsoft.com/events/podcasts/default.aspx?seriesID=Series-96d0741c-9476-4f97-b6d0-6d3a7371bacb.xml&p
ageId=x8992&source=Microsoft-Podcasts-about-Tech·Ed-2011-Online:-Advance-Your-Expertise&WT.rss_ev=a),
Microsoft Corp.
4. [http://technet.microsoft.com/virtualization/gg697744.aspx Implementación de una infraestructura de nube
privada mediante virtualización
5. Microsoft Corp. (2007 (updated 2011)). Infrastructure Planning and Design. Selecting the Right Virtualization
Technology (http://technet.microsoft.com/en-us/solutionaccelerators/ee382254.aspx). Copyright © 2011 Microsoft
Corporation. This documentation is licensed to you under the Creative Commons Attribution License.
6. TechCenter Virtualización (http://technet.microsoft.com/virtualization/default)
7. López-Vallejo, Marisa; Huedo Cuesta, Eduardo; Garbajosa Sopeña, Juan. «Green IT: tecnologías para la
eficiencia energética en los sistemas TI» (http://www.madrimasd.org/informacionidi/biblioteca/publicacion/doc/VT/
VT19_green_IT_tecnologias_eficiencia_energetica_sistemas_TI.pdf). Madrimasd.org.

Bibliografía
Jonathan Leake and Richard Woods. «Revealed: the environmental impact of Google searches» (http://technolo
gy.timesonline.co.uk/tol/news/tech_and_web/article5489134.ece). Consultado el 11 de enero de 2009.
Montserrat Pérez Lobato - Observatorio Tecnológico - Ministerio de Educación y Ciencia (España). «Introducción
a las máquinas virtuales» (http://observatorio.cnice.mec.es/modules.php?op=modload&name=News&file=article
&sid=462).
José María González - vExpert 2009, vExpert 2010, VCI, VCP2, VCP3, VCP4,. «El Blog de Virtualización en
Español» (http://www.josemariagonzalez.es).
«Virtualización-Nube Privada» (http://technet.microsoft.com/es-CO/virtualization/bb802511).
David Aragón - Qloudea.com (Noviembre de 2014). «Instalar Máquinas virtuales con Virtualization Station» (htt
p://qloudea.com/blog/instalar-maquinas-virtuales-qnap/).

Obtenido de «https://es.wikipedia.org/w/index.php?title=Virtualización&oldid=118877612»

Esta página se editó por última vez el 3 sep 2019 a las 13:36.

El texto está disponible bajo la Licencia Creative Commons Atribución Compartir Igual 3.0; pueden aplicarse
cláusulas adicionales. Al usar este sitio, usted acepta nuestros términos de uso y nuestra política de privacidad.
Wikipedia® es una marca registrada de la Fundación Wikimedia, Inc., una organización sin ánimo de lucro.
Blog Contacto

¿Qué es un Data Center?


 15/Jul/2019 -   General

Un centro de procesamiento de datos (CPD) es la ubicación física donde se


concentran los recursos necesarios de computación de una organización o
proveedor de servicios. También es conocido como « Internet Data Center»
(IDC) en inglés, centro de cómputo en Latinoamérica, o centro de cálculo o
centro de datos en España.

El término centro de datos o Data Center es de uso muy habitual hoy en día.
Muchos de los datos que manejamos hoy –desde móviles, tabletas y
ordenadores– acaban almacenados en estos centros de datos; en lo que
muchos llaman «la nube» como un término realmente genérico.

¿Cómo es un centro de datos por


dentro?
A través del siguiente vídeo podéis conocer cómo es un centro de datos por
dentro. En este caso se trata de nuestro centro de datos en Madrid, Interxion
MAD2. Estamos seguros de que a los más curiosos les encantará conocer
más sobre una de nuestras infraestructuras de alojamiento en Madrid.

¿Qué es un DataCenter?

Un centro de datos dispone de espacios de uso exclusivo donde las


empresas mantienen y operan sus infraestructuras IT. Es ese espacio donde
se pueden alojar los servidores y sistemas de almacenamiento para ejecutar
las aplicaciones que procesan y almacenan datos de empresas. Algunas
empresas disponen de una Jaula o de solo uno o varios racks (bastidores),
mientras que otras pueden disponer de salas privadas para alojar un número
determinado de armarios rack, dependiendo del tamaño de la empresa.

El centro de datos proporciona el espacio técnico preparado con falso suelo


por debajo de cual se instalan las tomas eléctricas para conectar los
bastidores.

El control de clima es esencial para mantener unos parámetros de


temperatura y humedad correctos que garanticen el correcto
funcionamiento y la integridad operativa de los sistemas alojados. Para ello,
los centros de datos cuentan con sistemas de alimentación eléctrica,
alimentación de reserva, refrigeración, cableado, detección y extinción de
incendios, detectores de fugas de agua y controles de seguridad.

Un Data Center físico puede alojar Datacenters virtuales, conocidos como


Cloud Datacenters o Cloud privado, con un menor coste gracias a la capa de
virtualización. Cada centro de datos virtual es totalmente independiente del
resto, por lo que, cuenta con las máximas garantías de seguridad,
disponibilidad y flexibilidad.

Stackscale selecciona los centros de datos de referencia en cada ubicación


geográfica que pone en funcionamiento. Hoy disponemos de infraestructura
en Madrid en Interxion MAD2 y Equinix MD2, además de Amsterdam en
Equinix AM5.
Si te ha gustado, compártelo en redes
sociales

¿Quiénes somos?
Nuestros Centros de Datos
Nuestra red
Contactar

Cloud Privado
Almacenamiento en red
Infraestructura para ISPs
Servicios gestionados

Ventajas
Casos de éxito
Blog
Trabaja con nosotros
Solicita una oferta rápida y conoce Stackcale

Solicitar más información

Copyright 2013-2019 Stackscale S.L.


Contrato general de prestación de servicios - Política de privacidad y cookies - Aviso legal
Mi Cuenta | Alta Certificador

 

Ir a... 

¿Cómo se aplica la eficiencia energética de los centros de data (Data


Centers)?

 Anterior Siguiente 

¿Cómo se aplica la eficiencia energética de los centros de data (Data Centers)?

La eficiencia energética no es exclusividad de los propietarios de casas e inmuebles particulares. La noción


de utilizar la energía de una forma eficaz y optimizando cada porción de energía para que produzca la
mayor cantidad de satisfactores posibles, abarca al conjunto de las actividades humanas.
Es por ello que la obtención del certi cado de e ciencia energética ha ayudado a generalizar la
comprensión que tenemos de esta idea de usar adecuadamente la energía, no sólo ahorrarla o
economizarla.

Y si bien en el ámbito personal/particular es importante no perder de vista la eficiencia en el uso de la


energía, ello se aplica en otras áreas de igual forma. A escala industrial, administrativa e incluso de gestión
dentro de una empresa, la eficiencia se convierte en una necesidad ecológica y que, además, permite
realizar grandes economías.

Ese es el caso de la gestión del uso de la energía en los llamados “Data centers”. Estos ordenadores que
controlan tanta información deben también instalarse y utilizarse contemplando los parámetros de la
eficiencia energética, y a continuación repasaremos un poco el cómo se implementa esta noción en este
tipo de instalaciones.

¿Qué es un data center?


Los datacenters son instalaciones que centralizan y organizan todas las operaciones y mantenimiento de
equipo informático, además de que almacena, administra y distribuye su “data”, es decir, toda la información.
Los data centers albergan los sistemas más críticos de una red, y son vitales para la continuidad de las
operaciones cotidianas. Como consecuencia, la seguridad y confiabilidad de un datacenter y su información
son prioridad esencial para las organizaciones.

La arquitectura y requerimientos pueden variar mucho de un datacenter a otro. Por ejemplo, un data center
construido para una gran empresa internacional de venta online será distinto al de un data center de una
organización gubernamental. Pero todos los data centers poseen una arquitectura compuesta por los
siguientes elementos:

1. Instalaciones o “espacio blanco” (y es en este elemento que el hecho de proveer información 24/7
hace que los data centers sean increíbles consumidores de energía).
2. Infraestructura de soporte.
3. Fuentes de energía continua (UPS por sus siglas en inglés, “uninterruptible power sources”).
4. Control ambiental (ventilación, calefacción, aire acondicionado).
5. Equipo informático (servidores, hardware de almacenamiento, cables…).
6. Personal de operaciones.

Los data centers han evolucionado mucho en años recientes, adoptando tecnologías como la virtualización
para optimizar el uso de recursos e incrementar la flexibilidad en los servicios informáticos. Además,
también se está poniendo el énfasis precisamente en el consumo de energía, buscando prácticas más
eficientes en la administración de data centers, avanzando hacia la noción de “data centers verdes”.

¿Para qué sirve la eficiencia energética en un data center?


Hay que tener en cuenta que incluso un pequeño data center puede ahorrar miles de euros realizando
elecciones inteligentes que lo encaminen hacia el ahorro y, sobre todo, al uso eficiente de la energía. Y es
que a pesar de que en la actualidad los data centers ocupan menos espacio (en metros cuadrados de
terreno) los centros informáticos de alta densidad son caros en su manutención por diversas razones entre
las que se incluyen el crecimiento continuo de las necesidades de energía y sus costos, y la generación
excesiva de calor.
Administrar o diseñar la arquitectura de un data center muestra de forma cotidiana lo críticos que son estos
elementos y lo importante que es conservar la energía a la vez que se da cumplimiento a los objetivos del
data center en cuestión.

Es en ese sentido que la e ciencia energética es importante como guía de acción para lograr administrar
mejor y optimizar el uso de la energía en una instalación que por definición, consume mucha.

No es cuestión de eliminar funciones o reducir el uso del data center. Es cuestión de modificar algunos
elementos estructurales y cambiar prácticas, de forma que sea posible mantener el funcionamiento del data
center, pero reducir su consumo energético. Ello no sólo pensando en el ahorro que supone en términos de
facturas, sino también en el impacto ambiental que este tipo de estructuras (tan importantes para el modo
de vida contemporáneo) tienen a escala global.

¿Cómo se consume la energía en un data center?

En un data center, aproximadamente el 50% de la energía se invierte en la carga de los sistemas


informáticos. La otra mitad va a la infraestructura física del data center, que incluye equipos, sistemas de
enfriamiento e iluminación. Toda la energía consumida por el data center termina desperdiciada como calor
que se lanza a la atmósfera de forma continua.

El análisis de la eficiencia energética de un data center es complicado porque existen a escala internacional
diversas formas de “calcular “este parámetro.

No quiere decir que el término sea poco válido (hay pocas cosas con menor validez para el análisis del
consumo energético que todo lo que rodea a la noción de eficiencia), pero técnicamente es más claro
cuando se habla en métricas del consumo neto de energía en kilowatts (kW). Esta es una métrica simple y
no ambigua que permite hacer una auténtica auditoría energética y planificar medidas para mejorar el
parámetro de la eficiencia.

La energía eléctrica se paga en unidades que se denominan “kilowatt por hora”, que es la cantidad de
energía que se “entrega” o utiliza en una hora con un poder de 1000 watts (es decir, un kilowatt o kW). La
energía se entiende de dos formas diferentes al realizar una auditoría energética: en primera instancia está
“la capacidad energética de la instalación”, cuyos costos están asociados con los sistemas que
producen/distribuyen la energía y se incrementa con el diseño y uso que de la energía hace el sistema. La
segunda instancia son los “costos de la energía” que es lo que se refleja en la factura eléctrica.

Un elemento esencial que permite avanzar hacia la eficiencia energética es entender que reducir el
consumo energético puede reducir la capacidad operativa y no sólo los costos. Por ello, la idea no es
“recortar” el uso de energía para ahorrar, sino que deben tomarse medidas que permitan reducir el consumo
de energía de forma permanente. Los cambios estructurales como el uso de servidores altamente eficientes
reducen a largo plazo tanto los costos en mantenimiento de infraestructura como los gastos cotidianos en la
factura eléctrica.

Es la misma diferencia que discutimos siempre cuando hablamos de la diferencia entre “ahorrar” energía y
usarla de forma eficiente. Ambos son buenos como propósitos, pero sólo el segundo permite realmente
realizar economías a largo plazo.

El elemento clave es entender que existen dos formas de reducir los costos en el consumo de energía:

1. Aquellos que disminuyen el consumo de energía, pero no reducen la capacidad de las instalaciones
informáticas.
2. Aquellos que, al reducir el costo del consumo energético, disminuyen en cierta forma la capacidad de
las instalaciones del data center.

Esta segunda forma de reducir el consumo energético no sólo no se basa en el concepto de eficiencia, sino
que es por definición: temporal.

El primer método sigue los parámetros de la eficiencia y puede definirse como una modificación estructural
que disminuye de forma permanente el consumo energético y los gastos involucrados. En los data centers la
regla general es que los cambios estructurales representan a la larga un ahorro dos veces más importante.

Este viraje hacia la gestión eficiente de un data center puede nacer con dos aproximaciones diferentes. En
primer lugar, acciones operacionales y, en segundo término, acciones de planificación. Revisemos algunos
de los elementos que se incluyen en cada uno de estos caminos a seguir en la persecución del uso eficiente
de la energía en un data center.

Acciones operacionales para alcanzar la eficiencia energética

Entre las medidas operacionales se pueden privilegiar:

a. Retirar sistemas informáticos.

La mayoría de los data centers tienen tecnología “vieja” que se mantiene operativa por distintas razones,
pero muchos tienen aplicaciones y servidores que se mantienen operativos, pero no tienen usuarios. Es muy
útil hacer un inventario o repertorio de estos sistemas y crearles una especie de “plan de retiro”. Hay muchos
casos en que se puede retirar de uso un servidor aun cuando todavía sea útil. Mantener en uso sólo los
servidores que se usan de verdad puede representar una disminución de hasta una quinta parte de la
energía en un data center.

b. Mejorar de forma eficiente la operación de los sistemas en uso.


Los sistemas más modernos tienen poderosas herramientas de administración y gestión, con lo que se
permite reducir el consumo energético en los momentos en que la exigencia informática es menor. Hace
sólo algunas generaciones informáticas, estas dos variables (uso de energía y exigencia informática) no
podían regularse de esta forma. Administrar adecuadamente la energía en relación con la exigencia
informática puede parecer un esfuerzo mínimo, pero ayuda a disminuir paulatinamente el consumo
energético.

c. Migrar los sistemas a plataformas informáticas eficientes energéticamente.

Migrar los sistemas es otra estrategia que puede ser muy efectiva para reducir el consumo de energía. La
mayoría de los data centers en Europa tienen lo que se denomina servidores de baja densidad de entre 3 y 5
años. Estos servidores ocupan la misma energía que los servidores modernos que tienen una mayor
capacidad. La migración a sistemas más modernos permite tener un almacenamiento más denso de
información y un uso más concentrado de los sistemas. Ello puede no reducir de forma automática el
consumo, pero a largo plazo es una de las medidas que más puede reducir el gasto energético. Tanto como
un 25%. Para hacer esta medida aún más eficaz, es útil: usar un servidor de doble vía (2-way server) o un
procesador de doble núcleo para sustituir dos o más servidores o bien utilizar procesadores tipo “Blade“.

Acciones de planeación para alcanzar la eficiencia energética

En cuanto a la planeación que puede incidir en la mejora de la eficiencia energética de un data server:

a. Virtualización.

La virtualización de los servidores representa un incremento dramático en los requerimientos energéticos


de un servidor. Reduce el número de servidores instalados y al virtualizar servidores, las estrategias que se
usan para aprovechar al máximo la energía es usar servidores de alto desempeño. También es posible, dado
que es difícil predecir por adelantado el desempeño de un servidor basando su uso en cada aplicación, es
posible vincular cada servidor y su desempeño a los requerimientos de cada aplicación para hacer eficiente
su uso de la energía.

b. Adecuar el tamaño de los servidores.

Usar el sistema de dimensiones adecuadas para los auténticos requerimientos informáticos del data center
es otra excelente forma de hacer más eficiente el consumo energético. Tiene el potencial (bien llevado a
cabo) de disminuir en un 50% el consumo y el gasto energético de un data center.

c. Diseñar sistemas eficientes en términos de energía.

El diseño del sistema tiene un impacto terrible en el consumo energético de un data center. Es incluso más
importante que la selección de fuentes de alimentación y sistemas de enfriamiento. Se puede obtener un
diseño estandarizado que comprenda módulos prediseñados y pre-probados para no tener que asumir el
gasto de hacer un diseño personalizado.

d. Usar sistemas de enfriamiento eficientes.

Las grandes firmas que tienen data centers increíblemente potentes han pensado incluso en mudar sus data
centers al Ártico, porque el enfriamiento de un data center es un gran consumidor de energía. Elegir
adecuadamente el sistema de enfriamiento puede cambiar y reducir significativamente (hasta en un 30%) el
consumo energético de un data center.
Estas son sólo unas claves para entender el profundo entramado de medidas que pueden tomarse para
administrar e cientemente en términos de energía un data center. Otros esfuerzos, como la realización de
una auditoría energética completa y una certi cación energética correcta, pueden ayudar a empresas e
instituciones a gestionar de forma eficiente la energía en un data center.

Vind ik leuk 4 Twittear Share

Por Certificador Energetico | 26.07.2017 | Ahorro económico, Eficiencia Energética | Sin comentarios

Deje su comentario

Comentar...

Nombre (requerido)

Correo electrónico (requerido)

Sitio web

Demuestra que eres humano: *


uno  ×   =  5 
Acepto el Aviso Legal y la Política de Privacidad *

PUBLICAR COMENTARIO
Categorías

 Ahorro económico

 Certificación Energética

 Certificado energético

 Eficiencia Energética

 Energía eólica

 Energía Solar

 Energías Renovables

Entradas recientes

 Avances tecnológicos e inversiones en energía renovable

 Las interpretaciones de las etiquetas de eficiencia energética

 Oficinas, tiendas, supermercados, bares, cafeterías y restaurantes obligados a exhibir la etiqueta


energética

 Las mejores fuentes de energía híbridas

 Educación sobre eficiencia energética

Archivos

 septiembre 2019

 agosto 2019

 julio 2019

 junio 2019

 mayo 2019

 abril 2019

 marzo 2019
 febrero 2019

 enero 2019

 diciembre 2018

 noviembre 2018

 octubre 2018

 septiembre 2018

 agosto 2018

 julio 2018

 junio 2018

 mayo 2018

 abril 2018

 marzo 2018

 febrero 2018

 enero 2018

 diciembre 2017

 noviembre 2017

 octubre 2017

 septiembre 2017

 agosto 2017

 julio 2017

 junio 2017

 mayo 2017

 abril 2017

 marzo 2017

 febrero 2017

 enero 2017
 diciembre 2016

 noviembre 2016

 octubre 2016

 septiembre 2016

 agosto 2016

 julio 2016

 junio 2016

 mayo 2016

 abril 2016

 marzo 2016

 febrero 2016

 enero 2016

 diciembre 2015

 noviembre 2015

 octubre 2015

 septiembre 2015

 agosto 2015

 julio 2015

 junio 2015

 mayo 2015

 abril 2015

 marzo 2015

 febrero 2015

 enero 2015

 diciembre 2014
 noviembre 2014

 octubre 2014

 septiembre 2014

 agosto 2014

 julio 2014

 junio 2014

 mayo 2014

 abril 2014

 marzo 2014

 febrero 2014

Últimos Tweets

Avances tecnológicos e inversiones en energía renovable


 certificadodeeficienciaenergetica.com/blog/avances-t… vía @icertificados
2 semanas hace

Powerhouse, posiblemente el único edificio que produce el doble de energía de la que consume
 idealista.com/news/inmobilia… vía @idealista
3 semanas hace

Las interpretaciones de las etiquetas de eficiencia energética


 certificadodeeficienciaenergetica.com/blog/interpret… vía @icertificados
4 semanas hace

España necesita más de 40.000 millones de euros para lograr la eficiencia energética en los
 edificios… twitter.com/i/web/status/1…
1 mes hace

Oficinas, tiendas, supermercados, bares, cafeterías y restaurantes obligados a exhibir la etiqueta


 energética… twitter.com/i/web/status/1…
1 mes hace

Contactar | Blog: Certificado energetico | Aviso Legal y Política de Privacidad | Consejos de Seguridad  


Todos los derechos reservados. Copyright 2019

En CertificadodeEficienciaEnergetica.com usamos cookies propias y de terceros para proporcionarte nuestro mejor servicio.
Si continuas navegando, consideraremos que aceptas su uso. Más información aquí

 
Publicación Especial 800-145

La definición del NIST del Cloud


Computing

Recomendaciones del Instituto Nacional de


Estándares y Tecnología

Peter Mell
Timoteo Grance
NIST Special Publication 800-145 La definición del NIST del Cloud Computing Peter Mell

Timoteo Grance

LA SEGURIDAD INFORMÁTICA

Instituto de Tecnología de Laboratorio de Seguridad Informática de

Información División Nacional de Estándares y Tecnología de

Gaithersburg, MD 20899-8930 de septiembre de 2011

Departamento de Comercio de los EE.UU.

Rebecca M. Blank, Secretario interino

Instituto Nacional de Estándares y Tecnología

Patrick D. Gallagher, subsecretario de Estándares y Tecnología y Director


Los informes sobre los sistemas de tecnología de la computación

El Laboratorio de Tecnología de la Información (DIT) del Instituto Nacional de Estándares y Tecnología (NIST) promueve la economía
estadounidense y el bienestar público, proporcionando liderazgo técnico para la infraestructura de medición y estándares de la nación. ITL
desarrolla pruebas, métodos de prueba, datos de referencia, prueba de concepto, implementaciones y análisis técnico para avanzar en el
desarrollo y uso productivo de la tecnología de la información.
responsabilidades de ITL incluyen el desarrollo de técnicas, físicas,
y las normas de gestión administrativa y directrices para la seguridad económica y la privacidad de la información no clasificada sensible en los
sistemas informáticos federales. Esta publicación especial los informes de la serie 800 en la investigación, orientación y actividades de
divulgación de ITL en seguridad informática y sus actividades de colaboración con la industria, el gobierno y organizaciones académicas.

Instituto Nacional de Estándares y Tecnología Special Publication 800-145


7 páginas (Septiembre 2011)

Ciertas entidades comerciales, equipos o materiales pueden ser identificados en este documento con el fin de
describir un procedimiento experimental o concepto de manera adecuada. Dicha identificación no pretende
implicar recomendación o aprobación por el Instituto Nacional de Estándares y Tecnología, ni tiene por objeto
dar a entender que la entidades, materiales o equipos son necesariamente los mejores disponibles para el
propósito.

ii
Agradecimientos

Los autores Peter Mell y Timoteo grance del Instituto Nacional de Estándares y Tecnología (NIST) desean agradecer a los muchos
expertos en la industria y el gobierno que contribuyeron con sus pensamientos a la creación y revisión de esta definición.
Agradecemos especialmente Murugiah Souppaya y Lee Badger, también del NIST, y Wayne Jansen de Booz Allen Hamilton, cuyo
consejo y conocimiento técnico asistido este esfuerzo.

Errata

Los siguientes cambios han sido incorporados en la publicación especial 800 a 145, a partir de la fecha indicada en la tabla.

FECHA TIPO CAMBIO NÚMERO DE PÁGINA


4/27/2012 Editorial número de la página corregida de “2” a “1” 1

iii
1. Introducción

1.1 Autoridad

El Instituto Nacional de Estándares y Tecnología (NIST) desarrollaron este documento en cumplimiento de sus responsabilidades legales
bajo la Ley Federal de Gestión de Seguridad de la Información (FISMA) de 2002, Ley Pública 107-347.

NIST es responsable del desarrollo de normas y directrices, incluidos los requisitos mínimos, para proporcionar seguridad de la información
adecuada para todas las operaciones de la agencia y activos; pero tales normas y directrices no serán aplicables a los sistemas de seguridad
nacional. Esta directriz es consistente con los requisitos de la Oficina de Administración y Presupuesto (OMB) Circular A-130, Sección 8 ter (3),
“Sistemas de Información de la Agencia de Mantenimiento”, como se analizó en la A-130, Apéndice IV: Análisis de las secciones clave.
Información de consulta se proporciona en A-130, Apéndice III.

Esta guía ha sido preparada para su uso por las agencias federales. Puede ser utilizado por las organizaciones no gubernamentales sobre una

base voluntaria y no está sujeta a derechos de autor, aunque se desea atribución. Nada en este documento debe ser tomado en contradicción

con las normas y directrices hechas obligatorios y vinculantes para las agencias federales por el Secretario de Comercio bajo la autoridad legal,

ni debe estas pautas puede interpretar como la alteración o reemplazando las autoridades existentes de la Secretaría de Comercio, Director de

la OMB, o cualquier otro funcionario federal.

1.2 Objetivo y alcance

La computación en nube es un paradigma en evolución. La definición del NIST caracteriza aspectos importantes de la computación en la nube y está destinado a
servir como un medio para comparaciones generales de servicios en la nube y estrategias de implementación, y para proporcionar una línea de base para la
discusión de lo que es la computación en nube a la mejor forma de computación en nube de uso. Los modelos de servicio y de despliegue definidos forman una
taxonomía simple que no está destinado a prescribir o limitar ningún método particular de despliegue, la prestación de servicios, o la operación de negocios.

1.3 Audiencia

El público objetivo de este documento es planificadores de sistemas, administradores de programas, tecnólogos y otros que adoptan la computación en nube
como consumidores o proveedores de servicios en la nube.

1
2. La definición del NIST del Cloud Computing

La computación en nube es un modelo que permite, acceso ubicuo conveniente, a pedido de red a un conjunto compartido de recursos informáticos
configurables (por ejemplo, redes, servidores, almacenamiento, aplicaciones y servicios) que pueden ser rápidamente aprovisionados y liberados con el
mínimo esfuerzo de gestión o rápidamente la interacción proveedor de servicios. Este modelo de nube se compone de cinco características esenciales, tres
modelos de servicio, y cuatro modelos de despliegue.

Características esenciales:

En demanda auto servicio. Un consumidor puede unilateralmente capacidades de provisión de computación, tales como
hora del servidor y de almacenamiento en red, según sea necesario de forma automática sin necesidad de interacción humana con cada
proveedor de servicios.
acceso a la red amplia. Capacidades están disponibles en la red y acceder a través de estándar
mecanismos que promueven el uso de plataformas heterogéneas cliente delgado o grueso (por ejemplo, teléfonos móviles, tabletas,
ordenadores portátiles, y estaciones de trabajo).
Puesta en común de recursos. los recursos informáticos del proveedor se combinaron para servir a múltiples consumidores
utilizando un modelo multi-inquilino, con diferentes recursos físicos y virtuales asignadas dinámicamente y reasignados de
acuerdo con la demanda del consumidor. Hay un sentido de independencia de la ubicación en la que el cliente generalmente
tiene ningún control o conocimiento sobre la ubicación exacta de los recursos proporcionados, pero puede ser capaz de
especificar la ubicación en un nivel de abstracción más alto (por ejemplo, país, estado, o centro de datos). Ejemplos de recursos
incluyen el almacenamiento, procesamiento, memoria y ancho de banda.

elasticidad rápida. Las capacidades pueden ser elásticamente aprovisionados y liberados, en algunos casos
de forma automática, para escalar rápidamente exterior e interior acorde con la demanda. Para el consumidor, las capacidades
disponibles para la provisión menudo parecen ser ilimitadas y pueden ser apropiados en cualquier cantidad en cualquier
momento.
Medido servicio. sistemas de nubes controlan automáticamente y optimizar el uso de recursos mediante el aprovechamiento
una capacidad de medición 1 en algún nivel de abstracción apropiado para el tipo de servicio (por ejemplo, almacenamiento,
procesamiento, ancho de banda, y cuentas de usuario activas). El uso de recursos se puede supervisar, controlar, e informó,
proporcionando transparencia, tanto para el proveedor y el consumidor del servicio utilizado.

Modelos de servicio:

Software como Servicio (SaaS). La capacidad proporcionada al consumidor es utilizar el proveedor de


las aplicaciones que se ejecutan en una infraestructura de nube 2. Las aplicaciones son accesibles desde varios dispositivos cliente a
través de una interfaz de cliente ligero, como un navegador web (por ejemplo, el correo electrónico basado en la web), o una interfaz
del programa. El consumidor no administrar o controlar la infraestructura de nube subyacente incluyendo la red, los servidores, los
sistemas operativos, almacenamiento, o incluso capacidades de aplicación individuales, con la posible excepción de limitados por el
usuario los valores de configuración específicos de aplicación.

Plataforma como servicio (PaaS). La capacidad proporcionada al consumidor es el despliegue en la nube


infraestructura de los consumidores a crear aplicaciones adquiridas o creadas mediante programación

1 Normalmente esto se hace sobre una base de pago por uso o cargo por uso.
2 Una infraestructura en la nube es la colección de hardware y software que permite a las cinco características esenciales de la computación en la nube. La infraestructura de la nube
puede ser visto como que contiene tanto una capa física y una capa de abstracción. La capa física se compone de los recursos de hardware que son necesarias para soportar los
servicios de nube que se proporcionan, y típicamente incluye servidores, almacenamiento y componentes de red. La capa de abstracción consiste en el software implementado a
través de la capa física, que se manifiesta las características esenciales de la nube. Conceptualmente, la capa de abstracción se sienta encima de la capa física.

2
idiomas, bibliotecas, servicios y herramientas soportadas por el proveedor. 3 El consumidor no administrar o controlar la
infraestructura de nube subyacente incluyendo la red, servidores, sistemas operativos, o el almacenamiento, pero no tiene control
sobre las aplicaciones implementadas y los ajustes de configuración, posiblemente, para el entorno de aplicaciones de
alojamiento.
Infraestructura como Servicio (IaaS). La capacidad proporcionada al consumidor es a la provisión
procesamiento, almacenamiento, redes y otros recursos informáticos fundamentales donde el consumidor es capaz de
desplegar y ejecutar software arbitrario, que puede incluir sistemas operativos y aplicaciones. El consumidor no administrar
o controlar la infraestructura de nube subyacente pero tiene control sobre los sistemas operativos, almacenamiento y
aplicaciones desplegadas; y control posiblemente limitado de componentes de red seleccione (por ejemplo, cortafuegos
host).

Modelos de implementación:

Nube privada. La infraestructura de la nube está preparada para el uso exclusivo de una sola organización
que comprende múltiples consumidores (por ejemplo, unidades de negocios). Puede ser de propiedad, administrado y operado por la
organización, un tercero, o una combinación de ellos, y que puede existir dentro o fuera de las instalaciones.

nube comunitaria. La infraestructura de la nube está preparada para el uso exclusivo de un determinado
comunidad de consumidores de organizaciones que han compartido preocupaciones (consideraciones, por ejemplo, la misión,
los requisitos de seguridad, de política y de cumplimiento). Puede ser de propiedad, administrado y operado por una o más de
las organizaciones de la comunidad, un tercero, o alguna combinación de ellos, y que puede existir dentro o fuera de las
instalaciones.
nube pública. La infraestructura de la nube está preparada para el uso abierto por el público en general. Puede ser
propiedad, administrado y operado por una empresa, o una organización gubernamental académica, o alguna combinación de
ellos. Existe en las instalaciones del proveedor de la nube.
nube híbrido. La infraestructura de la nube es una composición de dos o más nube distinta
infraestructuras (privada, comunitaria o públicos) que permanecen entidades únicas, pero están unidos por la tecnología
estandarizada o propietaria que permite que los datos y la portabilidad de aplicaciones (por ejemplo, la nube de ruptura de
equilibrio de carga entre las nubes).

3 Esta capacidad no excluye necesariamente el uso de lenguajes de programación compatibles, bibliotecas, servicios y herramientas de otras fuentes.

Potrebbero piacerti anche