Sei sulla pagina 1di 7

UNIVERSIDAD TECNOLÓGICA INDOAMÉRICA

FACULTAD DE SISTEMAS

ANGEL VINICIO LOJANO

DATAWAREHOUSE SQL SERVER

DECIMO SEMESTRE
SEMIPRESENCIAL

AMBATO – ECUADOR
DATAWAREHOUSE

ARQUITECTURAS OLAP SERVER

OLAP relacional(ROLAP)

 Utilice relacional o relacional ampliada DBMS para almacenar y


gestionar datos de almacenes y OLAP media de consumo
 Incluya optimización de DBMS backend, la implementación de la
lógica de navegación agregación y herramientas y servicios
adicionales
 Mayor escalabilidad

OLAP multidimensional (MOLAP)

 Escaso motor de almacenamiento multidimensional basada en


arreglos
 Indexación rápida a los datos resumidos previamente calculados
 OLAP híbrido(HOLAP)(Por ejemplo, Microsoft SQL Server)
 La flexibilidad, por ejemplo, el bajo nivel: relación al de alto nivel:
array
ARQUITECTURA DE AREAS

Arquitectura de datos:

Cada área en un negocio se basa en diferentes dimensiones. Donde se


cruzan es necesario definir el mismo (el cliente que compra es el mismo
proyecto).

Arquitectura Infraestructura:

Cuestiones de tamaño, la escalabilidad y la capacidad deben ser diseñados


y dimensionados.

Arquitectura técnica:

Este es impulsado por el catálogo de metadatos. Los servicios deben


elaborarlos parámetros de las tablas.

ESQUEMA ALMACEN DE DATOS


VERSIONES SQL SERVER

ESQUEMA EN ESTRELLA

Consiste en estructurar la información en procesos, vistas y métricas recordando a una


estrella (por ello el nombre star schema). Es decir, tendremos una visión
multidimensional de un proceso que medimos a través de unas métricas.
ESQUEMA COPO DE NIEVE

El esquema en copo de nieve (snowflake schema) es un esquema de representación


derivado del esquema en estrella, en el que las tablas de dimensión se normalizan en
múltiples tablas. Por esta razón, la tabla de hechos deja de ser la única tabla del
esquema que se relaciona con otras tablas, y aparecen nuevas joins gracias a que las
dimensiones de análisis se representan ahora en tablas de dimensión normalizadas.
En la estructura dimensional normalizada, la tabla que representa el nivel base de la
dimensión es la que hace join directamente con la tabla de hechos.

PROCESO ETL

Los procesos ETL son un término estándar que se utiliza para referirse al
movimiento y transformación de datos. Se trata del proceso que permite a
las organizaciones mover datos desde múltiples fuentes, reformatearlos y
cargarlos en otra base de datos (denominada data mart o data
warehouse) con el objeto de analizarlos. También pueden ser enviados a
otro sistema operacional para apoyar un proceso de negocio.
El término ETL corresponde a las siglas en inglés de:

 Extract: extraer.
 Transform: transformar.
 Load: cargar.

FASES PROCESO ETL

1. Extracción de los datos desde uno o varios sistemas fuente.


2. Transformación de dichos datos, es decir, posibilidad de
reformatear y limpiar estos datos cuando sea necesario.
3. Carga de dichos datos en otro lugar o base de datos, un data mart o
un data warehouse, con el objeto de analizarlos o apoyar un
proceso de negocio.

VENTAJAS PROCESO ETL

Como hemos visto, los procesos ETL son muy útiles y beneficiosos para las
organizaciones por su capacidad para integrar grandes bases de datos,
logrando así una visión única global que permite, a los analistas y
directivos, tomar las decisiones estratégicas adecuadas.

La implantación de un sistema ETL bien definido supone todo un reto


puesto que, para que sea realmente efectivo, debe permitir integrar los
sistemas legacy (algunos ya muy obsoletos) con los más modernos.
Además, el acceso a todos estos sistemas se debe producir no solo en
modo de lectura, sino también como escritura.
HERRAMIENTAS PROCESOS ETL

ABINITIO:

Programa para procesos ETL, transformación de grandes cantidades de


datos desde su extracion hasta su procesamiento, incluyendo varias
ventajas en los resultados.

CLOVERETL

CloverETL es un software de integración de datos (ETL) basado en Java


para el rápido desarrollo y automatización de transformaciones de datos,
limpieza de datos y calidad de datos, migración de datos y distribución de
datos en aplicaciones, bases de datos, nube y data warehouses.

Potrebbero piacerti anche