Sei sulla pagina 1di 26

Un Centro de datos o data center es una instalación compuesta de

equipos y almacenamiento conectados en red, que las organizaciones o empresas emplean para
organizar, procesar, almacenar y difundir, grandes volúmenes de información.

También se puede conceptualizar como una instalación que centraliza las operaciones TI de una
Compañía y los respectivos equipos en los que se almacenan, gestionan y difunden sus datos.
Albergan los sistemas más críticos de una red y son vitales para la continuidad de los procesos
diarios. Consecuentemente la seguridad y la fiabilidad de los datacenters son una prioridad de
todas las organizaciones.

Un negocio normalmente se fundamenta en gran medida en apps, sitios webs y datos alojados
desde este tipo de epicentros.

Un datacenter no es un solo elemento aislado, se trata de un conjunto de elementos. Como


mínimo, sirven como principales repositorios para todo tipo de aparatos informáticos, incluyendo
servidores, subsistemas de almacenamiento, conmutadores de red, routers y cortafuegos
(firewalls), así como el cableado y los bastidores físicos usados para organizar e interconectar los
servidores.

Un Centro de datos debe poseer también una infraestructura adecuada, tales como sistemas y
suplementos de energía (UPS), sistemas de conmutación eléctrica, generadores de emergencia,
sistemas de ventilación, refrigeración y aprovisionamiento adecuado para una conectividad
eficiente.
PREGUNTAS

1. Uptime instituto (concepto reseña historia características, etc.)

Uptime Institute LLC es un consorcio de empresas que se dedican a la educación, publicaciones,


consultoría, certificaciones, conferencias y seminarios para la empresa de centro de datos de la
industria y para los centros de datos profesionales. Es mejor conocido por sus ampliamente
adoptadas certificaciones de nivel de los centros de datos.

Fundada en 1993 por Kenneth G. Brill, el Instituto Uptime fue adquirida por The 451 Group
(llamado así por el libro Fahrenheit 451 de Ray Bradbury) en 2009. Desde entonces, el Uptime
Institute ha sido una división independiente de El Grupo 451, que tiene su sede en Nueva York,
con oficinas en ciudades como San Francisco, Washington DC, Londres, Boston, Seattle, Denver,
São Paulo, Dubái y Singapur. The 451 Group también es propietaria de 451 Research, una
tecnología-industria de la investigación y los datos de la empresa sindicada.

Uptime Institute es una organización de asesoramiento imparcial centrado en mejorar el


rendimiento, la eficiencia y la fiabilidad de las infraestructuras críticas de negocio a través de la
innovación, la colaboración y certificaciones independientes. Uptime Institute sirve a todos los
actores responsables de la disponibilidad de servicios de TI a través de los más altos niveles de la
industria, la educación, la creación de redes peer-to-peer, consultoría y programas de premios
entregados a las organizaciones empresariales y los terceros operadores, fabricantes y
proveedores. Uptime Institute es reconocido a nivel mundial para la creación y administración de
las Normas y Certificaciones de Nivel para Centro de Datos Diseño, Construcción y
Sostenibilidad Operativa junto con sus Gestión y Operaciones de los comentarios, metodología
FORCSS ™, y las iniciativas de eficiencia energética.

Uptime Institute - El Centro Authority® datos globales, una división de The 451 Group, cuenta
con oficinas en los EE.UU., México, Costa Rica, Brasil, Reino Unido, España, Emiratos Árabes
Unidos, Rusia, Taiwán, Singapur y Malasia.

2. Qué es un tier?

TIER es una certificación o “clasificación” de un Data Center en cuanto a su diseño, estructura,


desempeño, fiabilidad, inversión y retorno de inversión.

Esta certificación es otorgada por el Uptime Institute, una división independiente de la empresa
The 451 Group con sede central en Nueva York. El Uptime Institute está conformado por
destacados miembros de la industria de infraestructura de sistemas, consultores especializados y
usuarios del servicio a nivel internacional.

Actualmente los certificados TIER han emitido más de 350 certificaciones en centros de datos de
al menos 53 países. En otras palabras podríamos decir que esta certificación podría tener la
equivalencia a certificaciones como ISO, CMMI o ITIL, pero orientada única y exclusivamente a
la evaluación Data Centers.
Los Data Center pueden optar a cuatro tipo de certificación TIER, nivel 1, nivel 2, nivel 3 y nivel
4.

3. Qué es tier I.

Características:

Disponibilidad 99,671%

Tiene componentes no redundantes y un solo paso no redundante de distribución sirviendo los


equipos.

Sensible a las interrupciones, tanto planificada como no planificada.

Una falla en cualquier de los componentes impactará el sistema.

Puede o no tener un piso elevado.

Generador independiente.

Toma 3 meses implementar.

Tiempo de inactividad anual de 28,8 horas del DataCenter.

La infraestructura del DataCenter deberá estar fuera de servicio al menos una vez al año por
razones de mantenimiento y/o reparaciones.

Aplicaciones:

Aplicable para negocios pequeños.

Infraestructura de TI solo para procesos internos.

Compañías hacen uso de la Web como una herramienta de mercadeo.

Compañías que basan su negocio en Internet pero que no requieren calidad en sus servicios

4. Qué es Tier II
Características:

Disponibilidad de 99,741%.

Componentes redundantes (N+1)

Una falla en un componente de capacidad pudiera tener un impacto en los equipos de cómputos.

Una falla en la distribución de energía o de Data causa la parada del sistema.

Tiene suelos elevados, generadores auxiliares o UPS.

Es menor susceptible a la interrupción por actividades planeadas o no.

Conectados a una única línea de distribución eléctrica y de refrigeración.

Incluye un piso elevado UPS y generador.

Toma de 3 a 6 meses para implementar.

El tiempo de inactividad anual es de 22,0 horas.

El mantenimiento requiere una interrupción del servicio.

Aplicaciones:

Aplicable a negocios pequeños.

Uso de TI limitado a las horas normales de trabajo.

Compañías de software que no ofrecen servicios “online” o “real-time”.

Compañías que basan su negocio en Internet pero no requieren calidad en sus servicios.
5. Qué es tier III

Este tipo de Datacenter, por lo general, prestan servicios 24/7 y se encuentran conectados a
múltiples líneas de distribución eléctrica y de refrigeración, aunque con sólo una activa. Eso sí,
para su mantenimiento no es necesario parar el funcionamiento del sistema, ya que la capacidad
es ideal para brindar el servicio a través de otras líneas. El tiempo de implementación es mucho
mayor y va de 15 a 20 meses y posee disponibilidad del 99,82%.

6. Qué es tier IV

Este tipo de Datacenter, está orientado a empresas con presencia a nivel internacional,
como bancos y multinacionales. Es tolerante a fallas, ya que permite múltiples líneas de
distribución de electricidad y refrigeración. Se pueden hacer mantenimientos sin afectar el
servicio y puede responder ante eventos no planificados. Su implementación puede ir hasta
los 20 meses y su disponibilidad del 99,99%.

7. Qué es un Estándar TIA-942

Características:

Brinda los requerimientos y lineamientos necesarios para el diseño e instalación de DataCenters.

La intención es que sea utilizado por los diseñadores que necesitan un conocimiento acabado del
facility planning (servicios de planificación), el sistema de cableado y el diseño de redes.

Este estándar está aprobado por TIA (Telecomunications Industry Association) y ANSI (American
National Standards Institute).

El estándar TIA 942 y la categorización de Tiers en Latinoamérica llevan al replanteamiento de


las necesidades de infraestructura para la instalación de un DataCenter.

Creado por miembros de la industria, consultores y usuarios, que intentan estandarizar el proceso
de diseño de los centros de datos.

Historia:

En abril de 2005, la Telecomunication Industry Association publica su estándar TIA-942 con la


intención de unificar criterios en el diseño de áreas de tecnología y comunicaciones.

Este estándar que en sus orígenes se basa en una serie de especificaciones para comunicaciones y
cableado estructurado, avanza sobre los subsistemas de infraestructura generando los lineamientos
que se deben seguir para clasificar estos subsistemas en función de los distintos grados de
disponibilidad que se pretende alcanzar.

En su anexo G (informativo) y basado en recomendaciones del Uptime Institute, establece cuatro


niveles (tiers) en función de la redundancia necesaria para alcanzar niveles de disponibilidad de
hasta el 99.995%.
Infraestructura de Soporte:

Según el estándar TIA-942, la infraestructura de soporte de un Data Center debe estar compuesto
por cuatro subsistemas como lo son:

Telecomunicaciones

Arquitectura

Sistema eléctrico

Sistema mecánico

Ventajas:

La nomenclatura estándar

El funcionamiento a prueba de fallos

Sólida protección contra las catástrofes naturales o manufacturadas.

La fiabilidad a largo plazo

Capacidad de expansión y escalabilidad.

Áreas funcionales:

Una o más entradas al cuarto

Área de distribución principal

Una o más áreas de distribución horizontal

Área de equipo de distribución

Zona de distribución

El cableado horizontal y el backbone


8. Qué es un sistema pozo a tierra

9. Qué es un sistema refrigeración

10. Qué es un sistema alimentación eléctrica

La preocupación por la mejora de la eficiencia energética y por extensión de la factura eléctrica ha


llevado a la industria de los datacenter a evolucionar hacia nuevos modelos que reduzcan la
dependencia de los sistemas de refrigeración tradicionales basados en inyectar aire frío en las
dependencias. Fruto de ello en los últimos años hemos sido testigos de la implantación de
datacenters en regiones cuya climatología específica ha permitido el enfriamiento de las
instalaciones aprovechando los propios recursos naturales que brinda el entorno

Pero la innovación no se ha quedado ahí y se ha extendido al diseño de los propios servidores del
datacenter para permitir el enfriamiento de los componentes que más calor generan mediante el
uso de refrigeración por agua (a través de circuito cerrado).

Ahora bien, ¿realmente sería posible pensar en un ordenador refrigerado gracias a la inmersión
completa de la electrónica en un fluido?

Que es esta idea no parece tan lejana o al menos esto es lo que se deduce de los primeros
resultados que algunos de los principales fabricantes del mercado han publicado recientemente.
Aunque todavía se trata de pruebas realizadas en laboratorio la idea se basa en el uso de un líquido
dieléctrico que evita el sobrecalentamiento de los componentes electrónicos que se sumergen en
él. Este innovador líquido (Novec) ya se utiliza en los sistemas de extinción de incendios y se está
probando por primera vez como sistema de refrigeración de sistemas informáticos.

El mantenimiento de las condiciones ambientales es muy importante en un datacenter, ya que


garantiza la integridad de su información y la fiabilidad de la operación de los equipos
electrónicos por mucho tiempo.
Condiciones ambientales

Temperatura

Las recomendaciones de temperatura de trabajo suelen estar entre los 20°C y 25°C (norma TIA-
942). Los fabricantes de servidores suelen recomendar temperaturas de 22-23°C (IBM, Dell, HP).
Datacenters de grandes empresas suelen trabajar a temperaturas como: Google 26°C, Sun 27°C,
Cisco 25°C, Facebook 22°C (fuente: DataCenterKnowledge)

Todo esto también depende de la tecnología utilizada y del ritmo de renovación de equipos. Hay
quien trabaja a temperaturas altas con renovación de equipos cada pocos años, o bien con
temperaturas bajas con máquinas más longevas

Humedad.-

Lo ideal es mantener un rango óptimo para evitar electricidad estática (ambiente seco) y
degradación de los componentes eléctricos por condensación del aire (ambiente húmedo). En un
datacenter se recomienda una humedad relativa alrededor de 45% ± 5% (norma TIA-942).

No es recomendable climatizar un datacenter con un sistema de aire acondicionado de confort


para las personas: la gente añade humedad al ambiente de una habitación por la respiración o la
transpiración, los equipos no. El 60-70% del trabajo que hace un sistema de confort es remover
calor y el otro 30-40% es remover humedad. Un sistema de confort extraerá la humedad por
debajo de los límites aceptables para la operación eficiente de los equipos. O bien se les expone a
posibles problemas por un ambiente muy seco (electricidad estática), o se deberá adquirir sistemas
de humidificación adicionales.

Partículas en suspensión

El polvo puede dañar las cabezas lectoras de los discos duros. Las partículas pueden acumularse
rápidamente en los componentes electrónicamente cargados y reducir la capacidad de disipación
de calor, causando que las partes afectadas trabajen a una temperatura superior a los límites de
eficiencia, causando su deterioro. La aplicación de filtros del aire minimiza estos efectos de
deterioro. También se utiliza el sistema de mantener una presión atmosférica más alta que en el
exterior para evitar la entrada de polvo. Esta presión más alta se puede conseguir inyectando un
poco más de aire del que se evacua.

Sistemas de refrigeración

Sistemas pasivos.-

Pueden ser una serie de intervenciones en los elementos constructivos del espacio para que no
entre el calor ni salga el frío, como aislamiento de paredes, refuerzo de los cerramientos, persianas
para evitar la luz solar, salas en sótanos con temperatura de las paredes estable a lo largo del año,
etc...

Circulación forzada de aire exterior.-

En lugares o épocas del año fríos, se puede aprovechar el aire frío del exterior para refrigerar los
equipos, a través de circulación de renovación de aire, siempre con filtros para evitar el polvo.
Sistemas Inverter

En los equipos de refrigeración tradicionales, el termostato hace funcionar (ON/OFF) el motor del
compresor. Si la temperatura es suficientemente alta se enciende, si es suficientemente baja se
apaga. Con el sistema inverter, el compresor es de tipo "scroll" de velocidad variable controlado
por un regulador de potencia que puede hacer trabajar el sistema con cargas parciales. Así, para
acondicionar un área puede funcionar a mucha carga si hace mucho calor o a poca carga si no
hace tanto. Este sistema permite un ahorro energético muy considerable.

Pasillo frío-Pasillo caliente

Un sistema propio de datacenters en el que se crean pasillos fríos, donde miran las partes frontales
de los racks, y pasillos calientes, donde miran los 'culos' de los racks. Entonces un sistema de
refrigeración fuerza la circulación de aire frío desde el suelo por los pasillos fríos y, a través de los
equipos, sale por los pasillos calientes, hacia el techo y hacia la captación del sistema de
refrigeración para cerrar el ciclo.

Sistemas de automatización y sensores

Para mantener las condiciones ambientales adecuadas, se utilizan sistemas de automatización que
valoran los datos de los sensores de temperatura, humedad, etc... y activan o desactivan los
sistemas de renovación de aire, climatización, etc...

El sistema de sensores ambientales se puede ampliar con sensores de consumo eléctrico (


OpenEnergyMonitor ), para monitorizar el consumo y buscar mejoras de eficiencia energética, así
como para valorar la instalación de sistemas de autoproducción de energía eléctrica.

Sensores de condiciones ambientales

Idealmente, los sensores de temperatura y humedad hacen medidas en las diferentes estancias de
un datacenter, para optimizar la refrigeración en cada una de las estancias. Esto conlleva una
instalación más compleja, pero una optimización de la energía requerida para climatizar.

También es bueno que se sitúen sensores a diferentes alturas de las estancias, para valorar las
condiciones ambientales a diferentes alturas y poder calibrar mejor el sistema. Así también se
pueden prever cambios en las condiciones ambientales de manera más efectiva.

Automatización

Los datos recogidos por los sensores ambientales deben ser procesados para poder
activar/desactivar o aumentar/disminuir el trabajo de los sistemas de refrigeración.

PLC

Los PLC son autómatas programables que reciben los datos de los sensores y activan/desactivan
salidas de potencia para relé. Los hay de económicos (Logo de Siemens y marcas low-cost). No se
conocen dispositivos de éstos en formato 'open source'.

Microcontroladores

Dentro del mundo de los microcontroladores, destacan las plataformas Arduino y PICAXE, por su
orientación 'open source'. En el caso de Arduino, permite conectar los sensores ambientales a la
placa y enviar datos vía USB o WiFi a un ordenador que puede monitorizarlos, procesarlos y
tomar decisiones sobre la climatización, y las salidas de la placa pueden activar actuadores de
refrigeración.

Domótica

Para datacenters pequeños se puede valorar la utilización de sistemas domóticos como los basados
en bus KNX o en X10.

La importancia de la refrigeración

La producción de calor de los equipos que conforman un centro de datos es uno de los problemas
principales y que más preocupan a sus administradores.

El exceso de calor en una sala de servidores afecta negativamente el rendimiento del equipo y
acorta su vida útil, además de suponer un peligro en el caso de alcanzar niveles elevados. Por eso
es de vital importancia el diseño de un buen sistema de refrigeración.

En este diseño es fundamental el dimensionamiento del sistema, que exige comprender la cantidad
de calor producida por los equipos TI junto con el que producen otras fuentes de calor que
habitualmente están presentes como los SAI, la distribución de alimentación, unidades de aire
acondicionado, iluminación y personas…Fijarse en todo ello es básico para calcular la carga
térmica. En una instalación típica las cargas que más peso tienen son: el 70% que suele
corresponder a la carga de los equipos TI, el 9% a la iluminación, el 6% a la distribución de la
alimentación y el 2% a las personas.

Además de eliminar el calor, un sistema de aire acondicionado para un centro de datos está
diseñado para controlar la humedad. En la mayoría de sistemas de aire acondicionado la función
de refrigeración por aire del sistema causa una importante condensación de vapor de agua y la
consiguiente pérdida de humedad. Por tanto, es necesaria una humidificación suplementaria para
mantener el nivel de humedad deseado.

Esta humidificación suplementaria crea una carga de calor adicional en la unidad de aire
acondicionado de la sala de ordenadores (CRAC), disminuyendo de forma clara la capacidad de
refrigeración de la unidad y haciendo necesario un sobredimensionamiento.

Es importante hablar también del diseño de la red de conductos del aire o el falso suelo, ya que
tiene un efecto importante en el rendimiento global del sistema y, además, afecta en gran medida a
la uniformidad de la temperatura dentro del centro de datos. La elección de un sistema de
distribución de aire modular, unido a una correcta estimación de la carga térmica, puede reducir
significativamente los requisitos de configuración del diseño del centro de datos.
REFRIGERACIÓN LÍQUIDA EN EL DATA CENTER, UNA REALIDAD

Desde Powernet advertimos a nuestros clientes algo que a pesar de su obviedad, no siempre es
tenido en cuenta a la hora de un diseño eficiente de los Data Center; la temperatura en los
servidores dentro de un Data Center es algo primordial para cualquier operación de TI.

La nueva generación de sistemas de refrigeración líquida podría introducir un gran cambio en el


diseño de los centros de datos, con una mayor reducción en los ingresos de los fabricantes de aire
acondicionado, proveedores de energía e incluso responsables del mercado inmobiliario.

Los beneficios de las técnicas de refrigeración mediante agua, incluyendo enfriamiento líquido
directo, indirecto y total, pueden generar un alto grado mejoras en los costes; garantizando
también un menor ruido y evitando grandes fallos en los servidores.

También esta tendencia podría generar la caída drástica en los costes a medida que el
equipamiento del data center se vuelve más simple. De esta forma, a medida que la demanda de
computación de alto rendimiento crece, las técnicas para refrigerar estas máquinas serán cada vez
más críticas.

Hay un interés latente por optar la refrigeración líquida por parte de operadores web y compañías
de hosting como Google, Facebook y eBay, ellos han reescrito las normas del data center y han
legitimado un enfoque menos conservador para el diseño y operación de las instalaciones.

Gracias a la adopción de estos sistemas se evitará el ruido alterando la infraestructura. Sin los
ventiladores se puede ubicar el data center en cualquier lugar. En el futuro es posible que
desaparezca la necesidad de salas TI especializadas y nadie necesitará pagar miles de dólares por
metro cuadrado por un espacio de almacenamiento. Los data centers del futuro podrían estar en
cualquier sitio.

Presente de la tecnología.

Powernet está al día en la evolución tecnológica del sector, y su departamento de ingeniería ya


conoce y evalúa tecnologías punteras como esta. Aunque no está en España sirva como ejemplo
de que esta tecnología ya está en marcha, el Laboratorio para Ciencias Físicas de la agencia
estadounidense NSA (si, son ellos), que recientemente ha implantado un sistema de enfriamiento
por inmersión en aceite mineral

La refrigeración por inmersión –esto es, la inmersión del equipamiento TI en un fluido


refrigerante– se está planteando como una alternativa de enfriamiento interesante especialmente
para sistemas de alto rendimiento. Una de las entidades que ha estado probando las posibilidades
de este sistema es la NSA en su Laboratorio para Ciencias Físicas (o LPS, en sus siglas en inglés),
donde en 2012 instaló un sistema de refrigeración por inmersión en aceite.

Según indican desde la propia NSA, refrigerar el equipamiento de computación mediante


inmersión en aceite puede reducir significativamente los costes de enfriamiento. De hecho, según
la NSA, este método puede recortar a la mitad los costes de construcción de futuros data centers.

Sumergiendo los servidores.

Aunque hablamos de inmersión, evidentemente no es posible sumergir los equipos de


computación en agua, debido a los peligros de unir este líquido con la electricidad. Sin embargo,
el aceite mineral ha sido utilizado por las empresas eléctricas como fluido refrigerante durante
más de un siglo.

Sumergiendo los servidores.

Aunque hablamos de inmersión, evidentemente no es posible sumergir los equipos de


computación en agua, debido a los peligros de unir este líquido con la electricidad. Sin embargo,
el aceite mineral ha sido utilizado por las empresas eléctricas como fluido refrigerante durante
más de un siglo.

Si bien el aceite mineral solo tiene un 40% de la capacidad de retención del calor y un 25% de la
conductividad térmica del agua, tiene una gran ventaja sobre ésta, puesto que es un aislante
térmico. De este modo, los dispositivos eléctricos pueden funcionar perfectamente estando
sumergidos en aceite. Además, el aceite mineral retiene calor 1.000 veces más que el aire.

El LPS de la NSA está utilizando en su Research Park un sistema formado por un tanque lleno de
aceite mineral, que contiene los servidores, y un módulo que cuenta con un intercambiador de
calor agua/aceite y una bomba de circulación de aceite.

“En esta instalación, el intercambiador de calor está vinculado al circuito de agua enfriada, si bien
no es necesario. El aceite circula entre el tanque y el intercambiador de calor gracias a una
pequeña bomba. La velocidad de bombeo es modulada para mantener una temperatura constante
en el tanque”, explican desde la NSA.

El interior del tanque ha sido diseñado de tal forma que el aceite frío procedente del
intercambiador de calor es dirigido para que pase a través de los servidores antes de volver al
intercambiador. La combinación de la variación de velocidad y los conductos de aceite supone que
se utiliza de forma muy eficiente el fluido de refrigeración. El sistema solo bombea la cantidad
necesaria para satisfacer la carga.

Servidores de red sumergidos en un tanque de aceite mineral.

En base a esta experiencia desde Powernet destacamos que además de la eficiencia, hay tres
beneficios añadidos de la refrigeración por inmersión:

El primero es debido al hecho de que el sistema está diseñado para mantener una temperatura
constante dentro del tanque, lo que hace que los servidores estén en un ambiente isotérmico –y,
por tanto, evita fallos mecánicos derivados de los cambios de temperatura.

El segundo beneficio es la limpieza del servidor. Si bien los centros de datos son entornos
relativamente limpios, sigue habiendo polvo y suciedad. En los servidores refrigerados por aire,
cualquier partícula de polvo o suciedad en el aire tiende a acumularse en el chasis de los
servidores.

Finalmente, el tercer beneficio añadido de la refrigeración por inmersión es el silencio. Los


sistemas de refrigeración por inmersión no hacen prácticamente ruido.

Conclusiones.

A raíz de la implementación de estos sistemas, se ha concluido que la eficiencia energética en el


data center puede ser mejorada tanto haciendo la computación más eficiente energéticamente
como haciendo la eliminación del calor más eficiente.

En este sentido, la refrigeración por inmersión es un modo de mejorar significativamente la


eficiencia en el proceso de eliminación de calor. La energía requerida para la refrigeración por
inmersión puede ser más de un 15% menor que la utilizada en el enfriamiento por aire. La
refrigeración por inmersión puede eliminar la necesidad de infraestructura que representa la mitad
del coste de construcción de un data center. Además, este tipo de enfriamiento puede reducir los
fallos en los servidores, y es más limpio y menos ruidoso que la refrigeración por aire.
En resumidas cuentas, permite más computación utilizando menos energía e infraestructura.

SISTEMA DE ALIMENTACION ELECTRICA

Reseña histórica.- Nuestra primera aproximación al mundo del data center, allá hacia mediados de
los 90, fue precisamente por esta vía, y a lo largo de estos casi 20 años esa relación entre el
servicio TI y su alimentación eléctrica es cada día más intensa, fruto de la creciente necesidad de
que el servicio no se detenga de ninguna de las maneras.

A la hora de considerar la instalación eléctrica, conviene siempre no olvidar el verdadero objetivo


de la misma, que no es otro que el ya citado y, para ello, la visión más acertada es aquella que
otorga prioridad al entorno más próximo al equipo TI, lo que hemos dado en llamar “óptica del
equipo”. Se trata de comenzar los diseños, las revisiones, los análisis, etc., con la idea clara de
llevar hasta ese punto la mayor garantía de continuidad, mediante la adopción de las mejores
prácticas al uso. Procurar que la energía discurra desde la fuente hasta el receptor de la forma más
segura y eficiente.

Sistema UPS estático de Socomec


El rol del UPS

Yendo aguas más arriba nos encontramos con la figura más representativa dentro del elenco de
personajes de esta historia. Se trata de los SAIs o UPS, denominador común casi irreemplazable
en los data centers. Habida cuenta que la tolerancia de los equipos ante la pérdida de alimentación
eléctrica apenas sobrepasa los 20 ms (milisegundos), y conociendo el comportamiento de las
líneas de suministro externo en los países en los que trabajamos, su utilización es casi obligada si
se quiere dar a los equipos un mínimo colchón de seguridad. Es cierto que, en los tiempos que
corren, se están viendo algunas aplicaciones en las que no se cuenta con ellos y que, en otras
ocasiones, se está recurriendo a no colocarlos en una de las ramas, pero ello no impide que se
pueda afirmar rotundamente que se trata de los elementos más conocidos del reparto (muchas
veces hemos oído a gente del lado TI hablar de la parte eléctrica como “eso de los UPSs” y ya
está).

Pues bien, en cada nuevo proyecto, y ya que en modo alguno se discute sobre su utilización,
aparece indefectiblemente la consabida discusión sobre qué tecnología adoptar y qué modelo en
concreto. Al menos en Europa, la primera decisión es la de si ir a modelos estáticos con baterías
como almacén de energía o a rotativos dotados de volantes de inercia para idéntico objetivo. Los
pros y contras son bien explicados por los encargados de vender unos u otros pero la decisión no
es nada fácil, al menos para los que no disponen de un historial en su organización en el uso de
ambas alternativas durante años, única forma de saber a ciencia cierta hacia dónde ir.

Y, en el caso de haber seleccionado la versión estática, a continuación hacerlo con el tipo de


configuración. Desde la off-line hasta la on-line de doble conversión, pasando por las de
naturaleza interactiva o las de conversión tipo delta, los argumentos son variados y, todos ellos,
ciertos. Por ejemplo, el enorme ahorro de aparellaje cuando se eligen modelos fuera de línea en
alta tensión, el compromiso entre precio y prestaciones de determinados modelos interactivos o la
aportación de un excelente acondicionamiento de línea en los modelos de doble conversión. Se
trata éste de un concepto íntimamente relacionado con el de power quality, un término que
históricamente ha sido anulado por el de la continuidad de servicio, pero que tiene una
importancia máxima en este tipo de entornos, donde la sensibilidad de los equipos es directamente
proporcional a la evolución en el grado de integración.

Al comienzo de nuestra actividad en el terreno de la power quality, los únicos que entraban algo
en ese terreno eran los fabricantes de SAIs, y lo hacían desde una perspectiva focalizada en un
producto que, eso sí, bien seleccionado, contribuía en gran medida a la mejora en las condiciones
de suministro a equipos sensibles. Pero, de forma simultánea, ciertas medidas tomadas por ese
colectivo, fundamentalmente en lo que respecta a la relación entre el conductor neutro y el de
protección, fueron directamente en contra de la línea anteriormente expresada, dando lugar a
situaciones que incorporaban serios problemas de seguridad.

Una buena solución para este inconveniente que ha sido muy corriente en nuestro sector ha sido el
uso de transformadores de aislamiento, esa gran ayuda de la que disponemos los diseñadores y
usuarios de data centers para resolver muchos de los problemas relacionados con tierras,
armónicos, sobretensiones transitorias y demás fenómenos relacionados con la PQ. En los países
donde, debido a las tensiones normalizadas de suministro, deben realizar una reducción de voltaje
para llegar a los equipos, tienen, sin muchas veces darse cuenta de ello, la ayuda impuesta por la
necesidad y, por ello, suelen presentar menos anomalías en las condiciones de funcionamiento de
esa parte de la instalación.

Modelo de UPS rotativo diésel de la marca Hitec


El TIER de un Datacenter es una clasificación ideada por el Uptime Institute que se plasmó en el
estándar ANSI/TIA-942 y que básicamente establece (a día de hoy) 4 categorías, en función del
nivel de redundancia de los componentes que soportan el Datacenter.

Centro de datos Tolerante a fallos

Esta es la clasificación más exigente que implica cumplir con los requisitos de TIER III además de
soportar fallos en cualquier de sus componentes que inhabilite una línea (suministro, refrigeración).

Conectados múltiples líneas de distribución eléctrica y de refrigeración con múltiples componentes


redundantes 2 (N+1), ¿Qué significa esto?, que contaremos con 2 líneas de suministro eléctrico,
cada una de ellos con redundancia N+1

Características de un datacenter tier IV


 Disponibilidad garantizada del 99,995 % anual. Es decir, que durante todo un año el único
período de actividad que no está garantizado es de 26 minutos. Un peldaño por debajo está
la certificación TIER III, con una disponibilidad asegurada del 99,982 % (95 minutos
anuales no asegurados).

 Refrigeración a través del suelo técnico. En cada una de las salas del Alcalá Data Center
encontramos este tipo de suelo, donde está instalado el cableado pero a través del cual
también pasa el aire que se ha reciclado del exterior y que sirve para mantener frescas estas
salas pese al calor que desprende cada uno de los equipos, a una temperatura siempre
monitorizada de entre 18 y 24ºC.

Sistema de refrigeración Free-Cooling

El free-cooling es un sistema de refrigeración de locales que aprovecha la baja entalpía del


aire exterior, cuando las condiciones son favorables, para disminuir el uso de los equipos
de aire acondicionado.

Pueden darse tres condiciones de operación de free-cooling:

1. La temperatura del aire exterior es menor que la del aire de impulsión: el sistema
modula las compuertas hasta lograr que la mezcla del aire exterior con el aire recirculado
alcance la temperatura deseada, siendo innecesaria la producción de frío, por lo que, el
enfriamiento es gratuito.

2. La temperatura del aire exterior es mayor que la temperatura del aire de impulsión, pero
menor que la del aire de retorno del local: el sistema frigorífico debe operar parcialmente
para bajar la temperatura del aire exterior que se introduce en un 100% hasta alcanzar la
temperatura de impulsión requerida por el local. Cuando la temperatura del aire exterior
alcanza a la del local se alcanza el límite del enfriamiento gratuito.

3. La temperatura del aire exterior es mayor que la temperatura del aire de retorno del
local: la instalación funciona en forma convencional, para satisfacer las necesidades de
ventilación del local.
 Eficiencia energética medida como la relación entre energía recibida y energía empleada en
las salas IT. La relación óptima sería de 1. En un centro de datos TIER IV está entre 1,2 y
1,4. En el Alcalá Data Center está entre 1,2 y 1,3.

 Escalabilidad viable pensada desde su construcción. El factor más importante es la


posibilidad de que el centro de datos pueda ampliar su capacidad eléctrica de forma
modular, sin precisar de obras completas que pudiesen requerir parar la actividad de los
equipos. "como un LEGO" es determinado la escalabilidad de un tier IV. Es fácil y rápido
agregar nuevas cajas eléctricas.

 Redundancia, Todas las salas deben tener duplicada la fuente de alimentación eléctrica y
mantenerse activas de forma independiente. Se calcula la potencia total requerida y se
duplica con un pequeño margen para asegurarse de que el suministro nunca será un
problema. También se duplican las redes de acceso a los datos. Tanto si fallan ellas como si
falla el suministro eléctrico por alguna razón, el funcionamiento siempre estará garantizado
con ese 99,995 % de disponibilidad anual

Los términos N, N+1 y 2N, por lo general se refieren al Nº de componentes de energía y


enfriamiento que comprenden la totalidad de los sistemas de infraestructura del centro de
datos. De este modo “N” es la calificación mínima de cualquier componente requerido
para soportar la carga crítica; un sistema de “N” no es redundante en absoluto, lo cual
supone que en caso de corte de luz, los componentes como UPS, generador o unidad de
enfriamiento se verán afectados. En el caso de los Tier N+1 y 2N, éstos representan
niveles crecientes de respaldo de energía y rutas de alimentación, sin embargo, es
importante entender que los componentes redundantes en sí mismos no garantizan la
disponibilidad continua, ni aseguran el cumplimiento que el Uptime Institute certifica.
 Seguridad

Como es fácil de imaginar, las medidas de seguridad son extraordinariamente altas para
evitar cualquier tipo de problema. Todas las instalaciones deben ser vigiladas con cámaras
que no dejen ángulos muertos, todas las puertas deben cerradura y en muchos casos control
de acceso por huella dactilar, tarjeta de identificación o código de seguridad. Las visitas,
incluso si se trata de clientes con sus datos alojados allí, ha de pasar un estricto control de
seguridad.

Premios Brill
En septiembre de 2013 el Instituto Uptime anunció la creación de los Premios Brill (nombrado en
honor del fallecido fundador del Uptime Institute, Ken Brill). Los Premios se describen como haber
sido creado "a reconocer la eficiencia en el sentido más amplio de la palabra-eficiencia del
despliegue de capital, tecnología, diseño, operaciones y gestión global".

Los premios reconocen la eficiencia de TI en cinco categorías, a través de cuatro regiones del
mundo: Norteamérica, EMEA, América Latina, y APAC. Jueces tendrán en cuenta los méritos de
los proyectos en cada una de las cinco categorías. A su criterio, se seleccionarán los ganadores del
Premio hasta el 20 de todo el mundo Brill.

Las categorías son:

• Data Center Design

• Operativo de actualización del Centro de Datos

• Data Center Facilities Management

• Sistemas de TI eficiencia

• Soluciones de producto
Fuentes:

http://hipertextual.com/2014/06/alcala-data-center-2014

https://www.youtube.com/watch?v=naENbwanMlg

http://www.antel.com.uy/wps/wcm/connect/11d15900496ba5459bbc9f7c46b5f36a/Charla-
datacenter.pdf?MOD=AJPERES

http://director-it.com/index.php?option=com_content&view=article&id=96:que-es-un-tier-
iv&catid=55&Itemid=218&lang=es

https://www.youtube.com/watch?v=jPBVEQ6-tg0

https://www.youtube.com/watch?v=wVXP3AvQ3h8

http://blog.aodbc.es/2012/07/10/clasificacion-tier-en-el-datacenter-el-estandar-ansitia-942/

https://en.wikipedia.org/wiki/Uptime_Institute