Sei sulla pagina 1di 7

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Defensa


Universidad Nacional Experimental Politécnica de la Fuerza Armada
U.N.E.F.A
Núcleo/Sucre-Sede/Cumaná

Profesor: Integrantes:
Pablo Bossio Daniel A. Neira Carias
Arturo J. Corvo Astudillo
Jesús L. Cumana Frontado
Rolando A. Diaz Guillen

Cumaná Mayo del 2019


HARDWARE

Un ordenador consiste en Hardware y Software. Llamamos Hardware a todos


los componentes físicos internos de un ordenador, es decir, la parte tangible del
equipo, como son el disco duro, la CPU, el microprocesador, los cables, el ratón
entre otros. También hablamos de Hardware para referirnos a componentes
periféricos, como sería una impresora o un escáner.
El término hardware se utilizó en inglés a partir del siglo XVI, pero para
designar utensilios y herramientas fabricados a partir de metales duros o pesados,
como el hierro, y que se destinaban a labores de ferretería o de mecánica.

Tipos de hardware
El hardware de los sistemas computacionales se clasifica de acuerdo a su
desempeño en el conjunto, identificando así cinco categorías diferentes:

✓ Procesamiento. El corazón propiamente dicho del sistema o el computador,


es donde reside su capacidad de realizar operaciones lógicas, es decir, sus
cálculos. Se le identifica con la Unidad Central de Proceso o CPU.

✓ Almacenamiento. La “memoria” del sistema, se trata de unidades que


permiten salvaguardar la información y recuperarla luego, tanto en soportes
internos dentro del cuerpo de la máquina, o en soportes retirables y portátiles,
como los disquetes.

✓ Periféricos de entrada. Se trata de dispositivos con una función específica:


ingresar información al sistema. Pueden estar integrados a la máquina o ser
removibles.

✓ Periféricos de salida. Semejantes a los de entrada, pero permiten extraer o


recuperar información del sistema.

✓ Periféricos de entrada y salida. Aquellos combinan las funciones de


entrada y de salida de información del sistema.

ARQUITECTURA DEL COMPUTADOR

La arquitectura de computadoras es el diseño conceptual y la estructura


operacional fundamental de un sistema de computadoras. Es decir, es un modelo y
una descripción funcional de los requerimientos y las implementaciones de diseño
para varias partes de una computadora, con especial interés en la forma en que la
unidad central de proceso (CPU) trabaja internamente y accede a las direcciones
de memoria.

También la arquitectura del computador está basado en tres grandes


principios que se aplican a todo dispositivo o componente del computador, estos
tres principios son: velocidad, capacidad y tipo de conexión.

También suele definirse como la forma de interconectar componentes de


hardware, para crear computadoras según los requerimientos de funcionalidad,
rendimiento y costo.

La computadora recibe y envía la información a través de los periféricos, por


medio de los canales. La CPU es la encargada de procesar la información que le
llega a la computadora. El intercambio de información se tiene que hacer con los
periféricos y la CPU. Puede considerarse que todas aquellas unidades de un
sistema, exceptuando la CPU, se denomina periférico, por lo que la computadora
tiene dos partes bien definidas, que son:

▪ La CPU (encargada de ejecutar programas y que también se considera


compuesta por la memoria principal, la unidad aritmético lógica y la unidad
de control).

▪ Los periféricos (que pueden ser de entrada, salida, entrada/salida,


almacenamiento y comunicaciones).

ARQUITECTURA VON NEUMANN


La arquitectura de Von Neumann es una familia de arquitecturas de
computadoras que utilizan el mismo dispositivo de almacenamiento tanto para las
instrucciones como para los datos (a diferencia de la arquitectura Harvard).

La mayoría de computadoras modernas están basadas en esta arquitectura,


aunque pueden incluir otros dispositivos adicionales, (por ejemplo, para gestionar
las interrupciones de dispositivos externos como ratón, teclado, etc).

El diseño de una arquitectura Von Neumann es más simple que la


arquitectura Harvard más moderna, que también es un sistema de programa
almacenado, pero tiene un conjunto dedicado de direcciones y buses de datos para
leer datos desde memoria y escribir datos en la misma, y otro conjunto de
direcciones y buses de datos para ir a buscar instrucciones.

Un computador digital de programa almacenado es uno que mantiene sus


instrucciones de programa, así como sus datos, en memoria de acceso aleatorio
(RAM) de lectura-escritura. Las computadoras de programa almacenado
representaron un avance sobre los ordenadores controlados por programas de la
década de 1940, como la Colossus y la ENIAC, que fueron programadas ajustando
interruptores e insertando parches, conduciendo datos de la ruta y para controlar
las señales entre las distintas unidades funcionales. En la gran mayoría de las
computadoras modernas, se utiliza la misma memoria tanto para datos como para
instrucciones de programa, y la distinción entre Von Neumann vs. Harvard se aplica
a la arquitectura de memoria caché, pero no a la memoria principal.

Las computadoras son máquinas de arquitectura Von Neumann cuando:

• Tanto los programas como los datos se almacenan en una memoria en


común. Esto hace posible la ejecución de comandos de la misma forma que
los datos.

• Cada celda de memoria de la máquina se identifica con un número único,


llamado dirección.
• Las diferentes partes de la información (los comandos y los datos) tienen
diferentes modos de uso, pero la estructura no se representa en memoria de
manera codificada.

• Cada programa se ejecuta de forma secuencial que, en el caso de que no


haya instrucciones especiales, comienza con la primera instrucción. Para
cambiar esta secuencia se utiliza el comando de control de transferencia.

ARQUITECTURA HARVARD

Es una arquitectura de computadora con pistas de almacenamiento y de


señal físicamente separadas para las instrucciones y para los datos. El término
proviene de la computadora Harvard Mark I basada en relés, que almacenaba las
instrucciones sobre cintas perforadas (de 24 bits de ancho) y los datos en
interruptores electromecánicos. Estas primeras máquinas tenían almacenamiento
de datos totalmente contenido dentro la unidad central de proceso, y no
proporcionaban acceso al almacenamiento de instrucciones como datos. Los
programas necesitaban ser cargados por un operador; el procesador no podría
arrancar por sí mismo.

Todas las computadoras constan principalmente de dos partes, la CPU que


procesa los datos, y la memoria que guarda los datos. Cuando hablamos de
memoria manejamos dos parámetros, los datos en sí, y el lugar donde se
encuentran almacenados (o dirección). Los dos son importantes para la CPU, pues
muchas instrucciones frecuentes se traducen a algo así como "coge los datos de
esta dirección y añádelos a los datos de ésta otra dirección", sin saber en realidad
qué es lo que contienen los datos. En los últimos años la velocidad de las CPUs ha
aumentado mucho en comparación a la de las memorias con las que trabaja, así
que se debe poner mucha atención en reducir el número de veces que se accede a
ella para mantener el rendimiento. Si, por ejemplo, cada instrucción ejecutada en la
CPU requiere un acceso a la memoria, no se gana nada incrementando la velocidad
de la CPU (este problema es conocido como limitación de memoria). Se puede
fabricar memoria mucho más rápida, pero a costa de un precio muy alto.
La arquitectura Harvard ofrece una solución particular a este problema. Las
instrucciones y los datos se almacenan en cachés separadas para mejorar el
rendimiento. Por otro lado, tiene el inconveniente de tener que dividir la cantidad de
caché entre los dos, por lo que funciona mejor sólo cuando la frecuencia de lectura
de instrucciones y de datos es aproximadamente la misma. Esta arquitectura suele
utilizarse en DSPs, o procesador de señal digital, usados habitualmente en
productos para procesamiento de audio y video.

Ventajas
✓ El tamaño de las instrucciones no está relacionado con el de los datos, y por
lo tanto puede ser optimizado para que cualquier instrucción ocupe una sola
posición de memoria de programa, logrando así mayor velocidad y menor
longitud de programa.
✓ El tiempo de acceso a las instrucciones puede superponerse con el de los
datos, logrando una mayor velocidad en cada operación.

Una pequeña desventaja de los procesadores con arquitectura Harvard, es


que deben poseer instrucciones especiales para acceder a tablas de valores
constantes que pueda ser necesario incluir en los programas, ya que estas tablas
se encontraran físicamente en la memoria de programa (por ejemplo, en la EPROM
de un microprocesador).

BUSES DE DATOS
El bus (o canal) es un sistema digital que transfiere datos entre los
componentes de una computadora. Está formado por cables o pistas en un circuito
impreso, dispositivos como resistores y condensadores, además de circuitos
integrados.

Existen dos tipos de transferencia en los buses:

1) Serie: El bus solamente es capaz de transferir los datos bit a bit. Es decir, el
bus tiene un único cable que transmite la información.
2) Paralelo: El bus permite transferir varios bits simultáneamente, por ejemplo
8 bits.

Existen distintos tipos de buses.

a) El bus de direcciones, por ejemplo, vincula el bloque de control de la CPU


para colocar datos durante procesos de cómputo.
b) El bus de control, por otro lado, transporta datos respecto de las
operaciones que se encuentra realizando el CPU.
c) El bus de datos, transporta información entre dispositivos de hardware como
teclado, mouse, impresora, monitor y también de almacenamiento como el
disco duro o memorias móviles.

En diferentes tipos de ordenadores se emplean diversos tipos de buses. Para


PC, por ejemplo, son comunes el PCI, ISA, VESA, MCA, PATA, SATA y otros como
USB o Firewire.

Potrebbero piacerti anche