Sei sulla pagina 1di 11

ARQUITECTURAS PARALELAS

Por lo general, hay 2 tipos principales de arquitecturas


paralelas frecuentes en las industrias:
1.

ARQUITECTURA DE MEMORIA DISTRIBUIDA

2.

ARQUITECTURA DE MEMORIA COMPARTIDA


A.

UMA (Acceso a memoria uniforme)

B.

NUMA(Acceso a memoria no-uniforme)

C.

COMA(Acceso a memoria solo en cachs)

CRITERIOS EN EL RENDIMIENTO
DE UN MULTIPROCESADOR
1.

ESCALABILIDAD: es la capacidad de un sistema demostrar


un aumento proporcional de la aceleracin en paralelo con el
aumento de ms procesadores

2.

LATENCIA: es el tiempo que se tarda en enviar un mensaje


desde el nodo A al nodo B.

3.

ANCHO DE BANDA: es la cantidad de datos que puede ser


transportadas para su comunicacin

NUMA: Acceso a memoria no uniforme


Un

multiprocesador NUMA es un sistema de memoria


compartida en que cada procesador tiene su propia
memoria local, pero puede tambin tener acceso a la
memoria de otros procesadores (remoto).

Es

llamada no-uniforme porque un procesador puede


acceder a su propia memora local ms rpido que la
memoria no local (memoria que esta en otro procesador o
compartida entre procesadores)

SOLUCIN A SMP (tambin


llamada UMA)

La arquitectura NUMA fue diseado para superar los lmites de escalabilidad de las
arquitectura SMP.

SMP(multiproceso simtrico): Todos los accesos a la memoria se ha publicado en el


mismo bus de memoria compartida

Problema: Esto funciona bien para un relativamente pequeo nmero de CPU, pero el
problema con el bus compartido aparece cuando tiene decenas, incluso centenares, de
CPUs que compiten por el acceso al bus de memoria compartida. (mas costoso)

Solucin: NUMA

NUMA alivia cuellos de botella

Escalabilidad (menos costoso)

Forma de reducir el nmero de CPU que compiten por el acceso a un bus de memoria
compartida

NUMA

ARQUITECTURA Y OBJETIVO
EL objetivo de una computadora NUMA es mantener una memoria
transparente desde cualquier parte del sistema, al tiempo que se
permiten varios nodos de multiprocesador, cada uno con su propio
bus u otro sistema de interconexin interna.

Significa que el ltimo valor


de un dato debe ser visto
por todos los procesadores.
Sirve para mantener la
coherencia de los datos

Para reducir la
contencin de memoria

Analoga del mundo real para comprender la


arquitectura NUMA
Imagine que est preparando un pastel.
Tiene un grupo de ingredientes (=> pginas de memoria) que usted necesita para
completar la receta (=> proceso).
Algunos de los ingredientes que usted pueda tener en su gabinete (=> memoria local),
pero algunos de los ingredientes que no podra tener, tienen que pedir a un vecino (=>
memoria remota). La idea general es tratar de tener la mayor cantidad de
ingredientes en su propio gabinete como sea posible, ya que esto reduce tiempo y
esfuerzo
en
hacer
la
torta.
Tambin hay que recordar que sus gabinetes slo pueden contener una cantidad fija
de ingredientes (=> nodal de memoria fsica).Si tratas de adquirir ms, pero que no
tienen espacio para almacenarlo, puede que tenga que pedir a su vecino para
mantenerlo en su gabinete hasta que lo necesite (=> memoria local lleno, as que asigne
pginas de forma remota).

En la siguiente tabla: se muestra la relacin existente entre el nmero de


procesadores en un multiprocesador y la eleccin de direcciones compartidas
contra paso de mensajes para comunicacin, y la eleccin entre bus y red en
cuanto a conexin fsica. Para las direcciones compartidas tambin se tiene la
posibilidad de que el acceso a memoria sea uniforme o no uniforme. Aunque
hay muchas posibilidades para algunos nmeros de procesadores, para otras
regiones hay un acuerdo generalizado.

IMPLEMENTACION PRCTICA DE MEMORIA NUMA


Arquitectura de Interconexin Quick Path (utilizado en la NUMA)
El punto clave a observar en esta
implementacin es que la memoria se conecta
directamente a la CPU del lugar de una
controlador de memoria. En lugar de acceder
a la memoria a travs de una Memoria
concentrador de controladores.
Cada CPU tiene ahora un controlador de
memoria incrustado en su interior.
Adems los CPUs estn conectados a un
concentrador de E/S. As , en efecto, esta
aplicacin intenta abordar los problemas de

Ventajas arquitecturales de
ccNUMA

Modelo de memoria compartida


Como los sistemas SMP, presenta un solo, global, y unificado modelo de
memoria.

Multi CPUs, Multiprocesamiento


Como SMP y MPP, soporta multi CPUs y multiprocesamiento en
configuraciones de un cierto nmero de CPUs.

Distribucin de la carga
Como MPP, distribuye E/S y accesos a memoria por mltiples subsistemas,
pero difiere de MPP en que la carga se balancea automticamente.

Operaciones de E/S concurrentes


Como MPP, soporta mltiples operaciones concurrentes al disco usando
independientes, pero totalmente conectados, subsistemas de E/S.

MEMORIA COMPARTIDA