Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Tabla de Contenidos
TAREA 1: Comprobar
las Especificaciones Principales
de un Computador
Introducción:
Un Técnico en hardware de computadoras, que trabaje en
entornos, donde exista diversidad de equipos de cómputo,
debe identificar las especificaciones del computador, a fin de
determinar las características operativas y de rendimiento de
cada computador.
Además, el técnico en soporte de computadoras, debe
manejar las herramientas del sistema operativo para
identificar las especificaciones básicas de un computador.
En esta tarea revisará las herramientas:
Información del sistema
Administrador de dispositivos
Administrador de discos
De manera que empecemos nuestro estudio de ensamblaje
de computadoras, entendiendo los conceptos básicos de
almacenamiento y procesamiento de información en el
computador.
Equipos y Materiales:
Computador Pentium 4 o superior
Sistema operativo Windows XP o superior
Orden de Ejecución:
1. Usar el sistema operativo para identificar velocidad del CPU y cantidad de
memoria RAM
2. Usar el sistema operativo para identificar recursos del sistema
3. Usar el sistema operativo para identificar unidades de almacenamiento
Operación 1:
Usar el Sistema Operativo Para Identificar Velocidad del CPU y
Cantidad de Memoria RAM
Se realizara la identificación de la velocidad y cantidad de memoria en el computador
usando la herramienta información del sistema.
Proceso de Ejecución:
1. Encienda el computador, luego acceda a la ventana del comando ejecutar
Observación:
La velocidad de un computador está relacionada directamente con la
velocidad del CPU y la cantidad de memoria RAM
Operación 2:
Usar el Sistema Operativo Para Identificar Recursos del Sistema
Se realizara la identificación de los recursos del sistema operativo Windows usando la
herramienta Administrador de dispositivos.
Proceso de Ejecución:
1. Encienda el computador, luego acceda a la ventana del comando ejecutar
Observación:
La asignación de memoria para los diferentes componentes del computador
esta mapeado usando el sistema de numeración hexadecimal
Operación 3:
Usar el Sistema Operativo Para Identificar Unidades de
Almacenamiento
Se realizara la identificación de las unidades de almacenamiento de información en el
computador la herramienta Administrador de discos.
Proceso de Ejecución:
1. Encienda el computador, luego acceda a la ventana del comando ejecutar
Observación:
Las unidades de almacenamiento usadas por el computador pueden ser
internas o externas, además pueden estar preparadas para su uso actual o
reservado para un uso futuro.
FUNDAMENTO TEÓRICO:
Información Digital:
El computador es un sistema electrónico digital, presente actualmente en cada
actividad de la vida humana. Está compuesto básicamente por una tarjeta electrónica
principal (placa base), un microprocesador, memorias y dispositivos de entrada y
salida. Con estos componentes físicos y teniendo como complemento componentes
lógicos (programas), el computador procesa información, “Información Digital”.
Datos:
Un dato es la representación simbólica de un atributo o una característica de una
entidad física o lógica. Por lo tanto los datos empleados en el computador pueden ser
datos físicos o datos lógicos.
Los datos para que puedan ser procesados deben ser convertidos en Señal
Eléctrica, para que esto sea posible se utiliza la tecnología electrónica.
Señal Eléctrica:
Una señal eléctrica es un voltaje (V) o corriente (I), generalmente de nivel bajo que
lleva algún tipo de información. De acuerdo a su comportamiento en el tiempo y sus
características propias se agrupan en 2 grandes grupos: Señal Analógica y Señal
Digital.
Frecuencia:
Se puede definir como el número de señales que son procesadas en un segundo. En
el computador representa velocidad (rapidez).Se expresa en Hertz. (Hz)
Almacenamiento de la Información:
La información digital se almacena en diferentes dispositivos electrónicos para poder
ser tratada. Según sus características cada dispositivo almacena mayor o menor
cantidad de información digital.
OTRAS UNIDADES:
CÓDIGO ASCII:
Código formado por 7 bits, se emplea para representar letras, números, símbolos
especiales y caracteres de control. Este código representa a 33 caracteres no
imprimibles y 99 caracteres imprimibles. Ej.:
Sistema Binario:
Sistema de numeración que emplea solo dos símbolos para representar cualquier
cantidad. Estos símbolos son los números 0 y 1, a los cuales se les llama BIT (BInary
digiT).
Sistema Decimal:
Sistema de numeración que emplea 10 símbolos para representar cualquier cantidad.
Estos símbolos son los números: 0 1 2 3 4 5 6 7 8 9.
Sistema Hexadecimal:
Sistema de numeración que emplea 16 símbolos para representar cualquier cantidad.
Estos símbolos son los números: 0 1 2 3 4 5 6 7 8 9 y las letras: A B C D E F.
Consiste en representar el número binario como producto de cada digito que forma el
número binario, por su peso respectivo (potencia de dos según la posición que
ocupe).
Hexadecimal 6 4
Binario 0110 0100
ACTIVIDAD
Equipos y Materiales:
Computador Pentium 4 o superior para practica
Destornillador estrella mediano
Orden de Ejecución:
1. Identifica partes de un case compatible
2. Determina ventajas y desventajas del case compatible
Operación 1:
Identifica Partes de un Case Compatible
Se realizara la identificación de las partes de un case compatible y se entiende el uso
de cada elemento identificado.
Proceso de Ejecución:
1. Utilizando el case del computador de práctica que se le asigno, identifique los
elementos del panel frontal. Utilice como referencia el siguiente esquema.
Cantidad
Uso
Características
Principales
Uso
Características
Principales
5. Retire la tapa lateral, luego identifique las partes internas del case y el uso que
se les da. Utilice como referencia el esquema siguiente:
6. Con las observaciones realizadas, elabore una tabla descriptiva. Utilice como
referencia la siguiente tabla:
ELEMENTOS INTERNOS
Bahías Bahías Bahías Int. Soporte Fuente de
Ventilador
51/4 31/2 31/2 Motherboard Poder
Cantidad
Uso
Características
Principales
Observación:
El gabinete sirve de protección para todo el hardware interno del computador.
Operación 2:
Determina ventajas y desventajas del case compatible
Se realizara una comparación del case compatible con uno de un equipo de marca
(OEM) y se establecerá ventajas y desventajas del case compatible.
Proceso de Ejecución:
1. Destape un case compatible y uno de marca (OEM) y establezca diferencias
físicas entre ambas. Las imágenes son referenciales.
Ventajas Desventajas
Observación:
Si aceptamos la definición de que un computador clonado o compatible es
aquel que está ensamblado a partir de componentes de terceros, en la
actualidad absolutamente todos los computadores que hay en el mercado (de
PC's, se entiende) son clónicos o compatibles.
FUNDAMENTO TEÓRICO:
¿Qué es una Computadora?
El nombre computadora (nombre que deriva del latín computare, que significa contar),
computador u ordenador como lo mencionan los españoles, nos tienta a pensar que
se trata de un aparato que simplemente sirve para contar u ordenar cosas. Nada más
alejado de la realidad. Si bien una posible aplicación podría ser la de contar u ordenar
elementos, esto no es lo que mejor describe a esta poderosa herramienta de nuestros
días.
Una computadora es pues, una máquina electrónica controlada 100% por el ser
humano, es decir, funciona de acuerdo a las instrucciones que el hombre le indica. Al
unir más de una instrucción en forma lógica y coherente, se crea un programa.
Mediante el uso de estos, la computadora es capaz de recibir, procesar y almacenar
información. En otras palabras, una computadora no es útil si no tiene un programa
que le indique lo que tiene que hacer
La Computadora Personal
En la década del 70, por la aparición del microprocesador (un micro circuito
electrónico integrado, comúnmente llamado chip que contiene todo lo necesario para
realizar tareas de cómputo), se pudo desarrollar la idea de un equipo informático
relativamente sencillo y económico, generando un nuevo mercado referido al
segmento de equipos orientados al individuo: La Computadora Personal o PC.
A principios de la década del 80, IBM presenta su PC, basada en el microprocesador
iapx8088 de la firma Intel, y aunque otras computadoras personales ya existían, pasó
a ser inmediatamente adoptada por la mayoría de los entusiastas. Años después,
motivados por la demanda constante de ese modelo, los orientales comenzaron a
ofrecer copias idénticas (o clones) a la mitad del precio de IBM, inundando al mundo
de computadoras personales y creando nuevos mercados, dado su menor costo.
IBM, en un intento por frenar la copia de sus equipos, modifica el modelo PC por el
PS/2 (Personal System 2 – Sistema Personal 2), patentando algunas partes del
diseño para evitar que la sigan copiando. Pero el fenómeno de la PC, no pudo
detenerse, y comenzó a evolucionar tecnológicamente por sí mismo, llegando a
nuestros días con posibilidades sólo soñadas en la década del 80.
Apple
Hablar de Apple computers nos remonta al inicio de la computadora personal, nos
hace ver como una empresa ha sido líder en equipos destinados a aplicaciones de
desarrollo gráfico y con gran auge en el campo de la producción de Video. Y
finalmente, es hablar de una empresa que ha revolucionado a la industria musical con
su popular iPad rompiendo paradigmas y sorprendiendo en cada conferencia en la
que Steve Jobs se hace presente.
Mac vs PC
En el mundo de las computadoras de uso doméstico, existen dos tipos de
computadoras, las comúnmente conocidas como Macintosh (Mac) aunque su marca
comercial es Apple, y las más comunes en el mercado las llamadas PC (en inglés
Personal Computer) para las que hay muchas marcas en venta como IBM, HP,
Compaq y Acer por mencionar algunas.
¿Por qué los dos tipos? Esto se debe a que hace tiempo
un grupo de desarrolladores de sistemas operativos para
computadoras que no estaban de acuerdo con las normas de
diseño de sus colegas, decidió desarrollar sus propias
especificaciones y normas de diseño, apartándose así del
común de su tiempo. Dicha empresa se consolidó como
Apple creándose así la diferencia entre Macintosh y PC, que
con el tiempo ha crecido por ejemplo en el aspecto físico y
en los procesadores que integran ambas plataformas y se ha
reducido en otras como en la manera de manejar o
comunicarse con su sistema operativo.
Para casos prácticos esto significa que aunque las dos son computadoras personales
la manera de trabajar en ambas es diferente y que algunos de los trabajos realizados
en una serán incompatibles en la otra (o sea que no se podrán leer o se perderá
alguna de la información). Para decidir cuál comprar es importante conocer las
ventajas y desventajas de ambas.
Principales Ventajas
Macintosh PC
Principales Desventajas
Macintosh PC
Otro punto que se debe tomar en cuenta para la decisión es que actualmente en la
mayoría de las oficinas, escuelas y universidades se utiliza la plataforma PC, por lo
que si se realiza trabajos en casa y se continua en otro sitio, y además seleccionaron
la plataforma Mac, tendrán que trabajar con aplicaciones que sean compatibles en
ambos sistemas (como el Office o Adobe Photoshop, por mencionar algunos) y tener
bien claro que habrá aplicaciones con nula compatibilidad.
Desventajas
Desventajas
GARANTIA: La garantía está determinada por cada una de las piezas y así,
no todas tendrán ni el mismo fabricante que responda por la garantía ni igual
duración de la misma.
Proceso
La unidad central de proceso (CPU) se encarga de realizar cualquier acción en el
interior de la computadora. Es ahí donde todos los procesos y cómputos se llevan a
cabo. La CPU se apoya para el procesamiento en unidades de almacenamiento,
siendo la memoria principal (RAM) la más importante.
Salida
Hardware (hard en inglés significa duro, difícil), hace referencia a todo lo tangible,
todo aquello que podemos ver y tocar de una computadora, como es por ejemplo la
pantalla, los circuitos electrónicos y el teclado. El término en inglés, difícil, se refiere a
la dificultad que representa modificar algún componente (no es fácil por ejemplo
modificar de tamaño la pantalla, o agregarle teclas a un teclado).
Fuente de alimentación
Chasis
Cable power (cable poder)
Cables del panel frontal
Tornillos
Aisladores.
Case AT:
Este gabinete utiliza una fuente AT que se caracteriza por un contenedor P8 y P9
(suministra energía a la fuente de alimentación) además de un conector para el botón
encendido.
Case ATX:
Este tipo de gabinetes posee 3 versiones: ATX (sólo conector de 20 pines), ATX 12V
1.X (conector 20 pines, conector de 4 pines, conector de 6 pines y conector SATA) y
ATX 12V2 2.X (conector 24 pines, conector sata, conector de 4 pines) A la primera
también se le denomina gabinete para Pentium III y a las 2 últimas se le denomina
para Pentium IV. Para poder diferenciar entre las diferentes versiones de ATX es
Case BTX:
Los conectores de la fuente BTX traen la misma distribución que las fuentes ATX 12V
2.X. Los case BTX no traen compatibilidad con placas ATX, ya que la ubicación en el
case cambia. Aunque no tan populares, pero en creciente difusión actualmente
también existen:
BTX
Micro BTX
Pico BTX
El Factor de Forma:
La primera consideración a tener en cuenta en la elección de un gabinete es el factor
de forma, puesto que es lo que va a determinar qué tipos de Motherboards podemos
colocar en él y por consiguiente que pretendemos del sistema que vamos a integrar.
El Tamaño:
Después de determinar que factor de forma es el correcto para nuestro caso, la
segunda pregunta es determinar cuánto espacio necesitamos (en el interior del
gabinete) y cuanto espacio podemos ocupar (Ej. En un escritorio). Esto determinará
La Fuente de Alimentación:
Como estudiaremos más adelante es un elemento vital para el armado de un equipo
PC. La consideración que debemos tener es en primera medida cual va a ser el
requerimiento de consumo de dicha fuente Ej. 250 w, 300 w, 350w Etc. Y dentro de
este punto que tipo de conectores de alimentación para el Motherboard posee.
Case AT 80 W – 300 W
Estilos y Tamaños:
MINI TOWER:
FULL TOWER
Full Tower es la medida más alta disponible en el mercado,
generalmente orientado a la línea de servidores y está
diseñado para ser instalado en el suelo directamente.
También es muy usual su presentación con más de una
DESKTOP
SLIM
Refrigeración:
Un aspecto muy importante en el desempeño del computador es la adecuada
refrigeración, los cases utilizan sistemas de refrigeración basadas en: coolers, toberas
y refrigeración líquida.
Modding:
ACTIVIDAD
TAREA 3: Instalación
de la Placa Base
Introducción:
En el ensamblado de un computador, la instalación de la
placa base es una de las tareas más importantes. Esta
operación debe realizarse tomando las precauciones y las
medidas de seguridad adecuadas, ya que la placa base es un
elemento bastante sensible a descargas electroestáticas y
una manipulación incorrecta la puede averiar.
El técnico en Hardware de computadoras debe conocer las
partes de la placa base, el uso que le pueda dar para obtener
su máximo rendimiento y su correcta instalación en el case
del computador
En esta tarea aprenderá la correcta instalación de una placa
base en el computador. Además conocerá los principales
partes de la placa base y su utilidad.
Equipos y Materiales:
Case Tower
Placa base para practica
Destornillador estrella mediano
Alicate tipo pinza
Orden de Ejecución:
1. Colocar aisladores y sujetadores en el case
2. Realizar instalación física de la placa base
3. Reconocer las partes principales de la placa base
4. Realizar conexión de conectores del panel frontal
Operación 1:
Colocar aisladores y sujetadores en el case
Se colocan los aisladores y/o sujetadores en el case, para luego instalar la placa
base.
Proceso de Ejecución:
1. Usando el case de práctica, identifique el lugar donde se instala la placa base
(Motherboard). A manera de prueba coloque la placa base sobre la superficie
donde ira instalada.
2. Identificar los agujeros que usara para colocar los aisladores y tornillos de
sujeción. Luego retire la placa madre, para proceder a colocar los aisladores,
Las imágenes son referenciales.
3. Coloque los aisladores en los agujeros que sujetaran la placa base. Las
imágenes son referenciales.
4. Una vez colocado los aisladores, ya se podrá colocar la placa base. La imagen
es referencial.
Observación:
El gabinete se debe aislar de la placa base ya que es conductor.
Operación 2:
Realizar Instalación Física de la Placa Base
Se procede a instalar la placa base en la superficie de la placa base tomando las
precauciones del caso.
Proceso de Ejecución:
1. Antes de manipular la placa base, tome las medidas de precaución para evitar
descarga electroestática.
2. Proceda a la instalación de la placa base en la superficie del case, use los
tornillos adecuados. Las imágenes son referenciales
Observación:
La placa base es sensible a descarga electroestática (ESD).
Operación 3:
Reconocer las Partes Principales de la Placa Base
Se identificara las principales partes de la placa base, la función que cumplen y sus
características principales.
Proceso de Ejecución:
1. Utilizando la placa base asignada para práctica, realice una observación de su
parte posterior, identifique los conectores que incorpora. Elabore un cuadro
con sus observaciones. La imagen y el cuadro son referenciales.
Características
Nombre del Conector Uso del Conector
(Color, cantidad, número de pines, etc.)
PS/2
USB
COM
…
Observación:
Se debe conocer la forma de los conectores y ubicación de pines para realizar
una instalación correcta de los elementos en la placa base.
Operación 4:
Realizar Conexión de Conectores del Panel Frontal
Se realizara la conexión de los elementos del panel frontal (leds, speaker, USB, etc.)
del case con los conectores de la placa base
Proceso de Ejecución:
1. Identifique los cables del case que incorporan los conectores del panel frontal
(leds, conectores USB, audio, speaker).
2. Ubique en la superficie de la placa base asignada para práctica, los
conectores del panel frontal (leds, conectores USB, audio, speaker). Las
imágenes son referenciales.
3. Proceda a realizar la conexión de los cables del panel frontal del case de
respetando polaridad de leds.
Observación:
Se debe conectar los conectores del panel frontal respetando la polaridad.
FUNDAMENTO TEÓRICO:
Descarga Electroestática (ESD)
Es un fenómeno físico que se da por la acumulación de cargas eléctricas en exceso
en un cuerpo y que por contacto con otro genera una corriente espontánea (corriente
estática). Esta corriente aunque es temporal puede dañar componentes de la placa
base u otros elementos del computador como CPU o memorias.
El cuerpo humano está formado por electrones, como todo en el universo, por lo tanto
puede generar descargas electroestáticas. Para proteger las partes del computador
contra este fenómeno se deben tomar las precauciones necesarias. Entre las
principales medidas podemos indicar:
Uso de pulseras antiestáticas
Uso de guantes antiestáticos
Contacto con superficie metálica antes de manipular partes del computador
Placa Base:
Es la tarjeta más importante del computador, recibe diferentes nombres: Tarjeta
principal, Mainboard, Motherboard, Placa madre, Tarjeta plana, etc. Es una placa de
circuito impreso de doble cara, sobre la que se encuentra el circuito electrónico
principal del sistema, este circuito conecta los principales elementos del sistema
empleando conectores y puertos de comunicación. Entre los elementos más
importantes del sistema tenemos: El microprocesador, La memoria principal (RAM),
Puertos de comunicación y Los buses de comunicación.
Estudiaremos cual fue la evolución de los distintos factores de forma a través del
tiempo, cuáles fueron sus necesidades de implementación y a qué tipo de equipos PC
están dirigidos. El sentido de los factores de forma es la estandarización del formato
en la fabricación de las partes. Es decir que el fabricante de Motherboard pondrá los
orificios de fijación de tal modo que después coincidan con los orificios que el
fabricante del gabinete proporciona. También dentro de estos factores se determinan
estandarizaciones como la ubicación de los componentes dentro de un gabinete como
así también la distribución de las partes que componen un Motherboard, como deberá
ser la fuente de alimentación, el flujo de aire dentro del gabinete y el tipo de panel
trasero (conexionado) que nos proporciona el fabricante del Motherboard. Los
diferentes tipos de Motherboard clasificados por su factor de forma (con todos sus
derivados) son: AT, BABY AT, ATX, NLX, LPX, SPX, WTX y BTX
Factor de Forma AT
El AT es el más antiguo de los
factores de forma y también el más
grande, pues sus dimensiones son
12 pulgadas de ancho (unos 30
Centímetros) x 11 pulgadas de
profundidad (unos 27 Cm.). Este
factor de forma fue utilizado en la
época de las 386
(1992, 1993). AT y BABY AT tienen
varios puntos en común, los dos
poseen puertos seriales y paralelos
con conexionado del tipo PIN (por
ejemplo el paralelo tiene 26 pines como salida desde el Motherboard) y la vinculación
hacia el panel trasero del gabinete se efectúa con un cable plano. Estos también
tienen un conector de teclado del tipo DIN soldado al Motherboard y con salida hacia
el panel trasero.
Mini ATX
Mini ATX es esencialmente igual a ATX pero más reducido en cuanto a su forma, sus
medidas son 28 x 20 cm. (11.2" x 8.2").
MICRO ATX
Micro ATX es una evolución de ATX sus medidas son 24 x24 cm. (9.6" x 9.6"), este
factor de forma, en cuanto a su especificación, soporta hasta cuatro slots de
expansión pudiendo combinar estos libremente (ISA, PCI, PCI/ISA compartidos,
AGP). Los orificios de montaje cambian, puesto que las medidas son diferentes, pero
igualmente es compatible con la mayoría de los gabinetes ATX.
Flex ATX
Flex ATX es una extensión de micro ATX que define una menor superficie para el
tamaño del Motherboard 22 x 19 cm. (9" x 7,5"). Flex ATX (como su nombre lo indica)
brinda flexibilidad de construcción de sistemas puesto que permite crear PC’s
Desktop, LCD-Personal Computers o sistemas todo en uno (all in one). Esta
especificación indica que Flex ATX soporta únicamente procesadores basados en
socket (zócalo) no siendo posible instalar entonces procesadores basados en slot.
También se definió una nueva fuente de alimentación con dimensiones más
reducidas.
Es un diseño desarrollado por Western Digital para PC’s de escritorio. Eran utilizados
por los constructores de PC’s de escritorio con diseño dirigido a ocupar poco espacio
que permitía colocar el monitor sobre el gabinete. NLX es la evolución de LPX.
NLX
Este factor de forma (se desarrolló a partir de la época del Pentium II) está orientado
a las PC’s de escritorio que necesiten espacios reducidos (los gabinetes que soportan
el monitor arriba de ellos) y pocos requerimientos en cuanto a prestaciones. Este
diseño soporta los futuros procesadores, todas las tecnologías de memoria y no
aporta un desmonte más fácil puesto que se reduce la cantidad de tornillos a sacar.
La tecnología se completa con una tarjeta llamada “Riser Card” en la cual residen los
slots de expansión. El objetivo de esta tarjeta es ahorrar espacio ubicando a las
placas de expansión paralelas al Motherboard. El panel trasero está modificado con
respecto a ATX para satisfacer las necesidades de la construcción de dichos
sistemas.
WTX
Este Factor de Forma está diseñado para estaciones de trabajo de medio y alto nivel.
La idea introducida aquí es dar flexibilidad y accesibilidad. Este diseño fue
desarrollado por INTEL en 1998. Esta tecnología fue adoptada por los constructores
de sistemas orientados a servidores pues estandariza particularidades como modelos
térmicos y niveles de energía electromagnética. WTX está diseñado para:
BTX
El BTX fue creado por Intel, como evolución del ATX en 2004 para intentar resolver
problemas de refrigeración que tenían algunos procesadores. El formato BTX es
prácticamente incompatible con el ATX, salvo en la fuente de alimentación. Las CPUs
y las tarjetas gráficas consumen cada vez más y más potencia, y esto resulta en una
mayor disipación térmica. Por otro lado, los usuarios reclaman cada vez más PC’s
que sean silenciosos. Las actuales cases y placas madre ATX no fueron diseñadas
para los increíbles niveles de calor que se producen en ellas. Así comienza la
necesidad de un nuevo formato.
La placa base BTX tuvo muy poca aceptación por parte de fabricantes y usuarios y
por lo cual fue dejada de fabricar en muy poco tiempo (2007). En cuestión de
tamaños, hay tres tipos: picoBTX, microBTX y regularBTX, con los siguientes
tamaños máximos: picoBTX: 20.3 x 26.7 cm, microBTX: 26.4 x 26.7 cm, regularBTX:
32.5 x 26.7 cm
El front-side bus, también conocido por FSB, está relacionado con la velocidad de los
microprocesadores y su comunicación con la placa base. La placa base es diseñada
para que soporte sólo cierta velocidad de FSB, por lo tanto también soportara ciertos
tipos de microprocesadores. El concepto de velocidad de bus, está relacionado
también con velocidad de comunicación de otros componentes del computador como
la memoria RAM.
Soporte de Microprocesador
Esta especificación indica que microprocesador se puede instalar en la placa base,
según el tipo y/o la velocidad de bus de lado frontal (FSB/Front Side Bus). Esta
especificación la podemos obtener del manual de la placa base.
Soporte de Memoria
Esta especificación indica los módulos de memoria RAM que se puede instalar en la
placa base, según su tecnología y velocidad (BUS). Esta especificación la podemos
obtener también del manual de la placa base.
Tecnología de Integración
Se refiere a la forma como se ubican en la placa base las controladoras y los puertos
de entrada y salida. En los sistemas actuales podemos observar principalmente 2
categorías tomando como referencia las controladoras principales:
Placa Base Integrada
Placa Base Semi - Integrada
La tecnología de integración de las controladoras en la placa base actualmente es
principalmente Built-In (utiliza al máximo os recursos del sistema)
Puertos de Comunicación
Puertos Clásicos:
Aquí nombramos dos puertos antiguos, actualmente son poco usados en aplicaciones
domésticas. Se mencionan al puerto serial y al puerto paralelo.
Puerto Serial
Los dispositivos de redes, como los router y switch, a menudo tienen puertos serie
para modificar su configuración. Los puertos serie se usan frecuentemente en estas
áreas porque son sencillos, baratos y permiten la interoperabilidad entre dispositivos.
La desventaja es que la configuración de las conexiones serie requiere, en la mayoría
de los casos, un conocimiento avanzado por parte del usuario y el uso de comandos
complejos si la implementación no es adecuada.
Puerto Paralelo
Un puerto paralelo es una interfaz entre una computadora y un periférico, cuya
principal característica es que los bits de datos viajan juntos, enviando un paquete de
byte a la vez utilizando 8 cables para la transmisión y recepción. Es decir, se
implementa un cable o una vía física para cada bit de datos formando un bus.
Mediante el puerto paralelo podemos controlar también periféricos como focos,
motores entre otros dispositivos, adecuados para automatización. Se ha utilizado
principalmente para conectar impresoras, actualmente ha sido reemplazado por el
puerto USB en esta función. Muchas placas actuales ya no lo incluyen como conector
soldado, pero pueden traerlo como conector On Board para su uso a través de
adaptadores. El conector paralelo es de 25 pines macho, es conocido como conector
DB25 macho o puerto LPT.
LPT1 = 0x378
LPT2 = 0x278
Puerto USB
Fue creado para usar la capacidad PNP (plug and play) y conectar periféricos
externos. Permite ahorrar recursos del sistema, además permite la desconexión y
conexión en caliente. Admite hasta 127 dispositivos simultáneos en el computador
como: teclados, mouse, cámaras, etc. Cuando se conecta un nuevo dispositivo USB,
el computador lo enumera y agrega el software necesario para que pueda funcionar,
Baja velocidad (1.0): Tasa de transferencia de hasta 1,5 Mbps (192 KB/s).
Utilizado en su mayor parte por dispositivos de interfaz humana (Human
Interface Device) como los teclados, los ratones (mouse), las cámaras web,
etc.
Velocidad completa (1.1): Tasa de transferencia de hasta 12 Mbps (1,5 MB/s)
según este estándar. Ésta fue la más rápida antes de la especificación USB
2.0, y muchos dispositivos fabricados en la actualidad trabajan a esta
velocidad. Estos dispositivos dividen el ancho de banda de la conexión USB
entre ellos, basados en un algoritmo de impedancias LIFO.
Alta velocidad (2.0): Tasa de transferencia de hasta 480 Mbps (60 MB/s) pero
por lo general de hasta 125Mbps (16MB/s). Está presente casi en el 99% de
los PC actuales. El cable USB 2.0 dispone de cuatro líneas, un par para datos,
una de corriente y una de toma de tierra.
Súper alta velocidad (3.0): Tiene una tasa de transferencia de hasta 4.8 Gbps
(600 MB/s). Esta especificación es diez veces más veloz que la anterior 2.0 y
se lanzó a mediados de 2009 por Intel, según se cree o quizá por otra
empresa de Hardware, de acuerdo con la información recabada de Internet. La
velocidad del bus es diez veces más rápida que la del USB 2.0, debido a que
han incluido 5 conectores extra, desechando el conector de fibra óptica
propuesto inicialmente, y es compatible con los estándares anteriores.
Puerto FireWire
También llamado IEEE_1394, diseñado para altas transferencias de datos en video y
sonido. El IEEE 1394 (conocido como FireWire por Apple iLink por Sony) es un
estándar multiplataforma para entrada/salida de datos en serie a gran velocidad.
Suele utilizarse para la interconexión de dispositivos digitales como cámaras digitales
y videocámaras a las computadoras.
Lanzado en 1995. Tiene un ancho de banda de 400 Mbps, 30 veces mayor que el
USB 1.1 (12 Mbps) y similar a la del USB 2.0 (480 Mbps), aunque en pruebas
realizadas, en transferencias de lectura de 5000 archivos con un total de 300 Mb,
FireWire completó el proceso con un 33% más de velocidad que USB 2.0, debido a su
arquitectura peer-to-peer mientras USB utiliza arquitectura slave-master. La longitud
máxima permitida con un único cable es de 4,5 metros, pudiendo utilizarse hasta 16
repetidores para prolongar la longitud (no pudiendo sobrepasar nunca la distancia de
72 metros). Su conector está dotado de 6 pines, dos de ellos destinados a la
alimentación del dispositivo (excepto en la versión distribuida por sony, iLink, que
carece de estos dos pines de alimentación) ofreciendo un consumo de unos 7 u 8 W
por puerto a 25 V (nominalmente)
Anunciados en diciembre del 2007, permiten un ancho de banda de 1.6 y 3.2 Gbps,
cuadruplicando la velocidad del Firewire 800, a la vez que utilizan el mismo conector
de 9 pines.
Anunciado en junio del 2007. Aporta mejoras técnicas que permite el uso de FireWire
con puertos RJ45 sobre cable CAT5, combinando así las ventajas de Ethernet con
Firewire800.
Características generales
Comparativa de Velocidades
Aplicaciones de FireWire
Edición de vídeo digital: La edición de vídeo digital con FireWire ha permitido que
tuviera lugar una revolución en la producción del vídeo con sistemas de escritorio. La
incorporación de FireWire en cámaras de vídeo de bajo costo y elevada calidad
permite la creación de vídeo profesional en Macintosh o PC. Atrás quedan las
carísimas tarjetas de captura de vídeo y las estaciones de trabajo con dispositivos
SCSI de alto rendimiento. FireWire permite la captura de vídeo directamente de las
nuevas cámaras de vídeo digital con puertos FireWire incorporados y de sistemas
analógicos mediante conversores de audio y vídeo a FireWire. Si unimos la
posibilidad de usar las conexiones FireWire para crear redes TCP/IP a las
prestaciones de FireWire 2 (FireWire 800), tenemos razones muy serias para que
Apple recupere rápidamente la atención de los fabricantes de periféricos para
satisfacer las necesidades de los usuarios de aplicaciones que requieren gran ancho
de banda en redes locales, como todas las relacionadas con el vídeo digital. Por no
hablar de introducirse en un posible mercado nuevo.
Buses de Comunicación
Son medios de comunicación, permiten transportar datos, direcciones y señales de
control dentro del computador.
Físicamente se encuentran:
Dentro de microprocesador (bus del CPU)
Sobre la placa base (bus de sistema)
En la conexión de la placa base con los periféricos.
Buses Externos: Son los que se encuentran sobre la placa base, transportan
señales de control, datos y direcciones. Se clasifican en: bus principal, bus local
(FSB) y bus de expansión.
Placas de 64 Bits
Las placas base actualmente (y desde antes) traen soporte para microprocesadores
de 64 bits (longitud de sus registros, internos al procesar datos). Para aprovechar esta
característica que está relacionado con el ancho del bus de datos se debe:
Instalar un procesador de 64 bits, recién desde el 2003 con los procesadores
ATHLON 64 de AMD y posteriormente con los últimos modelos del PENTIUM4
de INTEL se empieza a emplear la tecnología de 64 bits en los computadores
para uso doméstico.
Instalar como mínimo 4GB de memoria RAM, ya que el mapeo de memoria
ocupa más espacio guardando la misma información que en plataformas de 32
bits.
Instalar un sistema operativo creado para plataformas de 64 bits, con sus
respectivos controladores.
En un inicio las aplicaciones de software no requerían una plataforma de 64 bits para
obtener un desempeño óptimo, pero en estos tiempos el desarrollo de aplicaciones de
desarrollo de diseño CAD y diseño gráfico entre otras, hacen de la plataforma de 64
bits una necesidad para un mejor desempeño. Es así como se introducen los
procesadores de 64 bits en equipos domésticos (antes eran usados en servidores).
EISA
EISA (Extended ISA, ISA Extendida) fue otra opción de 32 bits con una ranura de
expansión bastante particular, ya que el formato físico y electrónico es el mismo al
ISA y posee un agregado de contactos en la parte más profunda del conector para la
tecnología de 32 bits.
PCI
PCI (Peripheral Component Interconnect – Interconexión de Componentes
Periféricos). Esta es la versión de INTEL para el bus de 32 bits y compatible con su
generación de procesadores llamados Pentium, el color característico del conector es
blanco. También fue pensado para trabajar en con 64 bits. Esta tecnología es aun
utilizada en la actualidad.
AGP
AGP (Accelerated Graphics Port = Puerto Gráfico Acelerado). Las aplicaciones en
video se desarrollaron rápidamente, como respuesta ello se introdujo un puerto de
video dedicado, que duplica la velocidad a 66 MHz, manteniendo el ancho del Bus a
32 bits. Dadas las necesidades gráficas, la velocidad de transferencia de datos de
este puerto ha ido aumentando, gracias a nuevas técnicas implementadas para tal fin,
siendo el ancho de banda de AGP x1 es de 266 Mega bytes por segundo.
Un punto importante que indicar es que los niveles de consumo de voltaje varían
dependiendo de la tecnología de tarjeta de video a instalar y modo de funcionamiento.
En 1X y 2X es 3.3 V, en 4X es 3.3 v ó 1.5 V, en 8X es 0.7 V ó 1.5 V
PCIE 3.0, codificará los datos en 128 / 130-bit y la tasa de transferencias pasa a ser
de 8 giga transferencia por segundo. Si PCIE 2.0 x16 es capaz de transferir hasta 16
Gbps, hablamos de una mejora sustancial con PCIe 3.0, llegando hasta 32 GBps.
Chipset
Se usa ese término para nombrar a un conjunto de chips de control (controladores)
que dirigen el flujo de datos hacia y desde componentes claves de la placa base,
lográndose de esta manera la comunicación de todos los componentes del sistema y
se logra la compatibilidad de hardware. En un inicio estos chips se encontraban
separados cumpliendo una función de control única.
Intel desarrollo esta arquitectura con tres chips que se le conoce con los nombres:
North Bridge, South Bridge y Súper I/O. Según su diseño una placa puede tener uno,
dos o los tres chips set.
Los Chipset son un conjunto de circuitos integrados montados sobre la tarjeta madre.
El mismo funciona como el eje del sistema de cómputo, interconectando otros
componentes, como el microprocesador, las memorias RAM, ROM, las tarjetas de
expansión y de video.
El chipset como tal, no incluye a todos los integrados instalados sobre una misma
tarjeta madre, aunque es el lugar de conexión de los sistemas soportados por esos
otros integrados, como puede ser las funciones de red, sonido, alimentación eléctrica
y control de las temperaturas. Es el que determina muchas de las características de
una tarjeta madre y por lo general, la referencia de la misma, está relacionada con la
del Chipset.
Aun así hay libertad para escoger entre varios estándares y características, por
ejemplo en el caso de los buses de expansión, dos tarjetas madre pueden tener bus
PCI-Express, pero pueden soportar una cantidad muy diferente de tarjetas y de
distintos anchos de bus (1x, 8x, 16x). La terminología de los integrados a cambiado
desde que se creó el concepto del chipset a principio de los años 90, pero todavía
existe equivalencia haciendo algunas aclaraciones:
Se suele comparar al Chipset con la médula espinal: una persona puede tener un
buen cerebro, pero si la médula falla, todo lo de abajo no sirve para nada.
NORTH BRIDGE:
El microprocesador se comunica con este chip a través del bus local (FSB), al igual
que la memoria principal (RAM) y este a su vez se comunica con el bus externo AGP
o PCIE y el South bridge a través del bus principal.
SOUTH BRIDGE:
Controlador DMA
Controlador de Interrupcciones
Controlador IDE (SATA o PATA)
Puente LPC
Reloj en Tiempo Real - Real Time Clock
Administración de potencia eléctrica APM y ACPI
BIOS
Interfaz de sonido AC97 o HD Audio.
En los últimos modelos de placas el Southbridge integra cada vez mayor número de
dispositivos a conectar y comunicar por lo que fabricantes como AMD o VIA
Technologies han desarrollado tecnologías como HyperTransport o Ultra V-Link
respectivamente para evitar el efecto cuello de botella que se producía al usar como
puente el bus PCI.
SÚPER I/O
Arquitectura de Concentrador
Esta arquitectura se basa en la arquitectura North y South Bridge. El North Bridge
recibe el nombre Concentrador Controlador de Memoria (MCH) y el South Bridge
recibe el nombre de Concentrador Controlador de Interface (ICH). No es sólo el
cambio de nombre si no que se cambia el control en el bus PCI, se incorpora una
interface dedicada llamada concentrador la cual conecta directamente el bus PCI y el
chip ICH duplicando la velocidad de acceso de dispositivos PCI
Este sistema MCH/ICH permite un mayor rendimiento para los dispositivos PCI,
además soporta nuevas tecnologías de alta velocidad como ATA-66, ATA-100, USB
2.0, DUAL CHANEL, S_ATA etc. Además que deja de ser compatible con tecnologías
lentas y antiguas como ISA.
ACTIVIDAD
5. ¿Qué importancia tiene conocer las características del chipset principal de una
placa base?
TAREA 4: Instalación
de la Fuente de Poder
Introducción:
La fuente de poder (fuente de alimentación) es un elemento
de mucha importancia, ya que se encarga del suministro
eléctrico a todos los componentes del computador. Su
instalación o sustitución es una de las tareas realizadas con
frecuencia por un técnico en hardware de computadoras.
En esta tarea aprenderá la correcta instalación de una fuente
de alimentación en el computador. Además conocerá las
principales partes de la fuente de alimentación y su utilidad.
Equipos y Materiales:
Computador Pentium 4 o superior
Fuente de alimentación
Destornillador estrella mediano
Orden de Ejecución:
1. Identificar las partes de la fuente
2. Realizar la instalación física de la fuente de poder
Operación 1:
Identificar las Partes de la Fuente
Se identificaran las partes externas de la fuente de poder, la función que cumplen y
sus características principales.
Proceso de Ejecución:
1. Usando la fuente de poder de práctica, identifique los elementos de su parte
externa. Realice un cuadro con sus observaciones. La imagen es referencial.
Conectores
Uso de conectores Características
(Nombre)
Observación:
Se debe identificar la forma física de cada conector para una correcta
instalación.
Operación 2:
Realizar Instalación Física de la Fuente de Poder
Se procede a instalar la fuente de poder en el interior del case.
Proceso de Ejecución:
1. Realice la instalación de la placa base en el case, use los tornillos adecuados.
Las imágenes son referenciales
Observación:
Al instalar la fuente de poder tener cuidado que los cables de salida no tengan
contacto con las hélices de los ventiladores.
FUNDAMENTO TEÓRICO:
Voltaje AC (VAC) y Voltaje DC (VDC)
Se puede entender el voltaje, como la fuerza que permite la generación de corriente
eléctrica. La corriente eléctrica hace posible que un circuito electrónico empiece a
funcionar. Existen dos tipos principales de voltaje: El voltaje de corriente alterna y el
voltaje de corriente directa (continua). El voltaje de corriente alterna (VAC) se
encuentra en la red doméstica e industrial y se caracteriza por sus valores altos
(110V, 220V, 340V, etc.) y su cambio de polaridad. Este tipo de voltaje no se puede
emplear para dar energía (polarizar) componentes internos del computador. El voltaje
de corriente directa (VDC) se emplea para alimentación de componentes y equipos
electrónicos (computador, teléfonos celulares, televisores, etc.) y se caracteriza por
sus valores bajos (3.5V, 5V, 12V, etc.) y su valor constante (positivo o negativo).
Nota: Las Fuentes de poder viene con el case, pero también se distribuyen
por separado para ser usada como pieza de recambio
Fuente de Alimentación AT
Fue la fuente usada por mucho tiempo en los computadores, actualmente ya no son
empleados, se indica como referencia en la evolución de la fuente de poder para
computadoras.
En este tipo de fuentes se debía tener cuidado al realizar las conexiones, una
conexión incorrecta arruina la placa base o la misma fuente.
Los colores de los cables de los conectores de salida de la fuente están normalizados
según el voltaje y la señal que entregan.
Las fuentes ATX fueron evolucionando de acuerdo a la necesidad de contar con más
energía en el computador, lo que dio origen a nuevos tipos de fuentes ATX. Entre los
principales tipos se pueden indicar:
Los colores de los cables de los conectores de salida de la fuente también están
normalizados según el voltaje y la señal que entregan.
Los colores de los cables que llevan las señales y voltajes de salida también están
normalizados.
ACTIVIDAD
TAREA 5: Ensamblaje
Inicial del Computador
Introducción:
En esta tarea se realizara la instalación de los primeros
componentes del computador considerando un orden lógico y
respetando normas básicas de seguridad. Un técnico de
hardware debe manejar el multímetro para comprobar voltajes
y efectuar tareas de diagnóstico. En esta tarea se utilizara el
multímetro para comprobar voltajes en la fuente de poder.
Además se aprenderán algunos criterios para la selección de
placas base y fuentes de poder.
Equipos y Materiales:
Computador Pentium 4 o superior
Fuente de alimentación
Destornillador estrella mediano
Multímetro digital
Orden de Ejecución:
1. Colocar aisladores y sujetadores en el case
2. Realizar instalación física de la placa base
3. Reconocer las partes principales de la placa base
4. Realizar conexión de conectores del panel frontal
5. Identificar las partes de la fuente
6. Realizar la instalación física de la fuente de poder
7. Realizar medida de voltajes en la fuente de poder
Operación 1:
Colocar aisladores y sujetadores en el case
Se colocan los aisladores y/o sujetadores en el case, para luego instalar la placa
base.
Proceso de Ejecución:
1. Usando el case de práctica, identifique el lugar donde se instala la placa base
(Motherboard). A manera de prueba coloque la placa base sobre la superficie
donde ira instalada.
2. Identificar los agujeros que usara para colocar los aisladores y tornillos de
sujeción. Luego retire la placa madre, para proceder a colocar los aisladores,
Las imágenes son referenciales.
3. Coloque los aisladores en los agujeros que sujetaran la placa base. Las
imágenes son referenciales.
4. Una vez colocado los aisladores, ya se podrá colocar la placa base. La imagen
es referencial.
Observación:
El gabinete se debe aislar de la placa base ya que es conductor.
Operación 2:
Realizar Instalación Física de la Placa Base
Se procede a instalar la placa base en la superficie de la placa base tomando las
precauciones del caso.
Proceso de Ejecución:
1. Antes de manipular la placa base, tome las medidas de precaución para evitar
descarga electroestática.
2. Proceda a la instalación de la placa base en la superficie del case, use los
tornillos adecuados. Las imágenes son referenciales
Observación:
La placa base es sensible a descarga electroestática (ESD).
Operación 3:
Reconocer las Partes Principales de la Placa Base
Se identificara las principales partes de la placa base, la función que cumplen y sus
características principales.
Proceso de Ejecución:
1. Utilizando la placa base asignada para práctica, realice una observación de su
parte posterior, identifique los conectores que incorpora. Elabore un cuadro
con sus observaciones. La imagen y el cuadro son referenciales.
Observación:
Se debe conocer la forma de los conectores y ubicación de pines para realizar
una instalación correcta de los elementos en la placa base.
Operación 4:
Realizar Conexión de Conectores del Panel Frontal
Se realizara la conexión de los elementos del panel frontal (leds, speaker, USB, etc.)
del case con los conectores de la placa base
Proceso de Ejecución:
1. Identifique los cables del case que incorporan los conectores del panel frontal
(leds, conectores USB, audio, speaker).
2. Ubique en la superficie de la placa base asignada para práctica, los
conectores del panel frontal (leds, conectores USB, audio, speaker). Las
imágenes son referenciales.
3. Proceda a realizar la conexión de los cables del panel frontal del case de
respetando polaridad de leds.
Observación:
Se debe conectar los conectores del panel frontal respetando la polaridad.
Operación 5:
Identificar las Partes de la Fuente
Se identificaran las partes externas de la fuente de poder, la función que cumplen y
sus características principales.
Proceso de Ejecución:
1. Usando la fuente de poder de práctica, identifique los elementos de su parte
externa. Realice un cuadro con sus observaciones. La imagen es referencial.
Conectores
Uso de conectores Características
(Nombre)
Observación:
Se debe identificar la forma física de cada conector para una correcta
instalación.
Operación 6:
Realizar Instalación Física de la Fuente de Poder
Se procede a instalar la fuente de poder en el interior del case.
Proceso de Ejecución:
1. Realice la instalación de la placa base en el case, use los tornillos
adecuados. Las imágenes son referenciales
Observación:
Al instalar la fuente de poder tener cuidado que los cables de salida no tengan
contacto con las hélices de los ventiladores.
Operación 7:
Realizar medida de voltajes en la fuente de poder
Se procede a medir y comprobar los niveles de voltajes de salida (VDC) de la fuente
de poder.
Proceso de Ejecución:
1. Conectar la fuente de poder a la red eléctrica
2. Encender la fuente de poder
3. Seleccionar la escala adecuada en el multímetro, para medir voltajes de salida
de corriente directa (VDC) en la fuente.
3. Realizar medidas en todos los conectores de salida de la fuente de poder y
comparar con los valores medidos y los teóricos. Elabore un cuadro con sus
medidas para cada conector de la fuente de poder. Las imágenes y cuadro
son referenciales.
Observación:
Los valores medidos deben ser iguales a los valores teóricos.
FUNDAMENTO TEÓRICO:
Ensamblaje Inicial del Computador
Hemos llegado al punto en el que iniciaremos el ensamblado del computador desde
cero, teniendo a la vista los componentes necesarios para esta tarea. En el
ensamblaje inicial consideramos:
Conocemos cuales son las herramientas a utilizar y sabemos identificar cada uno de
sus componentes por su tipo de bus, función, características técnicas, etc. Ahora
bien, dispuestos a ensamblar un computador, es necesario señalar un conjunto
mínimo de normas que harán que nuestro trabajo resulte satisfactorio.
Sistema de Calidad
La calidad no sólo estará dada por los componentes empleados, también dependerá
de la seguridad y los cuidados tomados durante su montaje, que deben tomarse en
un ambiente de trabajo adecuado. Aquí veremos los cuidados y las buenas técnicas a
emplear en el armado de un equipo informático. Que al ser una herramienta
productiva, exige confiabilidad, siendo la calidad final del mismo muy importante para
obtener un desempeño profesional.
Descarga Electroestática
Una vez reunidos todos los elementos deberemos asegurar que ninguno de ellos
sufra desperfectos. Una cuestión a tratar en este punto es la electricidad estática. Si
se trabaja con circuitos integrados, es necesario colocarse a tierra uno mismo. Esto
es así debido a que ciertas partes de estos circuitos integrados son susceptibles de
estropearse con la electricidad estática que almacena nuestro propio cuerpo. Para
resolver este problema se puede emplear una pulsera conductora que se conectará
debidamente a tierra, descargando la electricidad estática que posea nuestro cuerpo.
Si no contamos con este elemento bien podríamos disminuir los riesgos apoyando
nuestras manos en la estructura metálica del gabinete. Si decidimos adquirir un
producto completo a los efectos de asegurarnos un trabajo sin riesgos podemos
utilizar un kit que incluye una alfombra antiestática sobre la que deberán depositarse
los elementos de trabajo y una pulsera.
Como punto de partida debemos organizar nuestra mesa de trabajo de forma tal que
no queden elementos distribuidos al azar sino que nos permita desarrollar una
actividad ordenada empleando todas las herramientas que sean necesarias
respetando la función que cada una de ellas tiene. Mantener un criterio con los
elementos utilizados nos ahorrará tiempo durante el armado de la PC.
Recomendaciones
Hemos iniciado el armado del equipo partiendo desde cero. Debemos señalar que no
siempre vamos a integrar una máquina con los mismos componentes, sin embargo el
método descrito es aplicable siempre. He aquí algunos ítems básicos a tener en
cuenta:
Proceso de Armado
Partiendo de un punto conocido, con todos los elementos para integrar un equipo
existen dos caminos para elegir:
A medida que las computadoras tienen más relación con nuestras actividades
cotidianas, también su uso será diverso, por lo que la elección de la “placa base
perfecta” está relacionada con el uso que se le dará al computador. Se puede indicar
2 elementos mínimos a analizar al elegir una placa base actual:
Chipset Principal:
El análisis de las características del chipset principal nos permitirá conocer el soporte
relacionado a la placa base principalmente, en cuanto a procesadores soportados
(debe soportar los procesadores actuales) y memoria soportada (debe soportar las
tecnologías de memoria actuales). Si la placa trae la tarjeta de video incorporada
también las especificaciones del chipset principal nos indicaran las características del
desempeño de video de la placa.
PC Para Ofimática
PC de Alto Rendimiento
Equipos para aplicaciones especiales donde hay consumo grande de los recursos del
sistema. Estas aplicaciones van desde el diseño gráfico, web y CAD, hasta equipos
orientados a los videos juegos en 3D. Aquí, la elección de un buen microprocesador
es importante, así como la posibilidad de incrementar la cantidad de memoria
principal (RAM), además la elección de una tarjeta gráfica externa con un buen GPU,
características especiales y buena cantidad de memoria de video será un aspecto a
considerar. En aplicaciones más exigentes se debe considerar poder instalar 2
tarjetas gráficas acopladas, para obtener un mejor rendimiento en los videojuegos en
3D (tecnologías SLI y CrossFire).
No hay mucho que comentar en la selección de una fuente de poder pero es bueno
hacer algunas aclaraciones, una de las características de la fuente de poder es su
potencia, por lo tanto será esta característica la que se considerara al elegir una
fuente para un determinado PC. La potencia de la fuente de poder debe ser mayor a
la que necesita el computador. Si se está reemplazando buscar siempre la última
versión de fuente de poder para extender su uso, si los conectores no son
ACTIVIDAD
TAREA 6: Instalación
del Microprocesador
Introducción:
En esta tarea se realizara la instalación del microprocesador,
considerando normas básicas de seguridad. Un técnico de
hardware de computadoras debe conocer diferentes tipos de
microprocesadores y sus características con la finalidad de
actualizar un sistema o integrar uno desde cero. En esta tarea
se explicara las especificaciones de los microprocesadores,
su evolución y los diferentes tipos disponibles actualmente.
Equipos y Materiales:
Placas Pentium 4 o superior
Procesadores Pentium 4, equivalente o superior
Cooler del microprocesador
Destornillador estrella mediano
Orden de Ejecución:
1. Reconocer características del microprocesador
2. Realizar la Instalación física del CPU
3. Instalar el cooler del CPU
Operación 1:
Reconocer Características del Microprocesador
Se identificaran las especificaciones y/o características de un microprocesador,
además se aprenderá lo que representa cada característica en el desempeño de un
sistema.
Proceso de Ejecución:
Usando los 5 microprocesadores diferentes asignados para esta práctica,
identifique sus principales especificaciones, luego presente sus datos en una
tabla de resumen. La imagen y la tabla son referenciales.
Observación:
Las especificaciones del CPU determinan el desempeño del computador.
Operación 2:
Realizar la Instalación Física del CPU
Se procede a instalar el microprocesador en la superficie de la placa base tomando
las precauciones del caso.
Proceso de Ejecución:
1. Antes de manipular el microprocesador, tome las medidas de precaución para
evitar descarga electroestática.
2. Proceda a realizar la instalación del microprocesador sobre la placa base,
tenga en cuenta la ubicación de los pines. Las imágenes son referenciales
Observación:
El microprocesador es sensible a descarga electroestática (ESD).
Operación 3:
Instalar el Cooler del CPU
Se procede a instalar el cooler del microprocesador de forma adecuada, tomando las
precauciones del caso.
Proceso de Ejecución:
1. Observe e identifique la forma de conexión de los sujetadores y/o tornillos de
sujeción con la placa base.
2. Realice la instalación del cooler sin realizar un exceso de fuerza, tenga en
cuenta la posición de sujetadores, tornillos de sujeción y cables de
alimentación. Las imágenes son referenciales.
Observación:
La instalación correcta del cooler, permitirá una buena refrigeración del CPU.
FUNDAMENTO TEÓRICO:
El Microprocesador (CPU)
Es un circuito integrado (chip) especial que trabaja en base a datos e instrucciones
(programa). Todo microprocesador para empezar a trabajar necesita como mínimo:
Componentes Internos
La estructura del microprocesador se divide en dos partes: Una para procesamiento y
otra para control. En la parte de control, los principales elementos que se encuentran
son:
ALU: Es la parte que ejecuta todos los cálculos numéricos y lógicos durante la
operación del procesador.
Los buses: Son interconexiones internas que llevan información de un lado a otro.
Componentes Externos
Dentro de los principales componentes externos del microprocesador se encuentran:
• Bus de direcciones.
• Bus de datos.
• Líneas Vcc y GND.
• Bus de control; Donde se encuentran :
• Líneas de inicialización (RES).
• Líneas de interrupción (IQR).
• Líneas de autorización (R/W).
• Líneas de solicitud (SYNC, SO, RDY,..)
• Líneas de reloj (0, 1, 2,..)
Bus de dirección: Están formados por líneas de salida (16 líneas A0 hasta A15; si el
CPU tiene 16 bits en el bus de direcciones). Está relacionada con la cantidad de
memoria principal (RAM), que el CPU puede direccionar.
Bus de datos: Están formados por líneas de entrada y salida (8 líneas D0 hasta D7; si
el CPU tiene 8 bits en el bus de datos). Está relacionado con el tamaño de los
registros internos del CPU.
Microprocesadores de 64 Bits
Este término tiene relación con la cantidad de bits de los registros internos del CPU,
aunque los microprocesadores cuyos registros de trabajo eran de 64 bits existen hace
mucho, su aplicación en entornos domésticos recién se dio en los últimos modelos
Pentium 4 en Intel y Athlon XP 64 de AMD.
Arquitectura Pipeline
Permite la ejecución simultánea de instrucciones en el microprocesador, consiste en
dividir los procesos, con esto se minimiza el tiempo muerto de trabajo de los
procesadores. Estos procesos son: Fetch (búsqueda) y Execute (ejecución).
Con esta arquitectura sólo se desperdicia tiempo al inicio, luego mientras el CPU va
ejecutando las instrucciones el otro proceso va buscando la nueva instrucción a
ejecutar. Actualmente todos los microprocesadores usan la tecnología pipeline.
RISC y CISC
Son 2 términos relacionados con el diseño y el modo de trabajo del microprocesador
(filosofía de un microprocesador). Veamos primero cual es el significado de los
términos CISC y RISC:
Los atributos complejo y reducido describen las diferencias entre los dos modelos de
arquitectura para microprocesadores solo de forma superficial. Se requiere de
muchas otras características esenciales para definir los RISC y los CISC típicos. Aún
más, existen diversos procesadores que no se pueden asignar con facilidad a ninguna
categoría determinada.
Así, los términos complejo y reducido, expresan muy bien una importante
característica definitiva, siempre que no se tomen sólo como referencia las
instrucciones, sino que se considere también la complejidad del hardware del
procesador.
Esto hace suponer que RISC reemplazará al CISC, pero la respuesta a esta cuestión
no es tan simple ya que:
La arquitectura.
La tecnología de proceso.
El encapsulado.
Hoy en día, los programas cada vez más grandes y complejos demandan mayor
velocidad en el procesamiento de información, lo que implica la búsqueda de
microprocesadores más rápidos y eficientes.
Arquitectura CISC
Arquitectura RISC
Buscando aumentar la velocidad del procesamiento se descubrió en base a
experimentos que, con una determinada arquitectura de base, la ejecución de
programas compilados directamente con microinstrucciones y residentes en memoria
externa al circuito integrado resultaban ser más eficientes, gracias a que el tiempo de
acceso de las memorias se fue disminuyendo conforme se mejoraba su tecnología de
encapsulado.
Alrededor del 20% de las instrucciones ocupa el 80% del tiempo total de
ejecución de un programa.
Existen secuencias de instrucciones simples que obtienen el mismo resultado
que secuencias complejas predeterminadas, pero requieren tiempos de
ejecución más cortos.
a) Transferencia.
b) Operaciones.
c) Control de flujo.
El disipador
El ventilador
La grasa siliconada (acoplador térmico).
Velocidad Principal:
Es la Velocidad interna del microprocesador. Es la velocidad con la que el CPU
procesa los datos internamente. Los procesadores actuales expresan esta
característica en GHz.
Memoria Caché:
Es la Memoria interna que almacena información que el CPU utiliza frecuentemente.
Esta memoria da mayor rapidez al procesamiento de la información. De acuerdo al
procesador se encuentran los siguientes tipos: nivel 1 (L1), nivel 2 (L2), nivel 3 (L3).
En un inicio la memoria caché L2 no estaba integrado dentro del procesador, a partir
de los procesadores Pentium Pro se integran al CPU. La memoria caché L3 sólo o
integran algunos procesadores, principalmente de la línea AMD. La memoria Cache
actualmente se expresa en MB o GB (mucho menor que la RAM).
Voltaje de trabajo:
Se refiere a la tensión eléctrica que necesita el CPU para trabajar. Se expresa en
voltios.
Encapsulado:
Esta característica se refiere a la parte externa del CPU. Permite manipular el CPU,
además sirve de protección. También indica el tipo de zócalo donde se instalara el
CPU. Además es aquí donde se muestra los detalles del CPU.
Fabricantes de Microprocesadores
En el rubro de microprocesadores para computadoras, los principales fabricantes de
microprocesadores son: INTEL y AMD. Ambos fabricantes poseen modelos de bajo
costo y de alto rendimiento.
hará una revisión rápida de los principales microprocesadores que se han usado en
los computadores.
Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal
Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a
que Intel terminó el proyecto tarde y a que no cumplía con las expectativas de
Computer Terminal Corporation, finalmente no fue usado en el Datapoint 2200.
Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera
ser vendido a otros clientes.
Una venta realizada por Intel a la nueva división de computadoras personales de IBM,
hizo que los cerebros de IBM dieran un gran golpe comercial con el nuevo producto
para el 8088, el IBM PC. El éxito del 8088 propulsó a Intel en la lista de las 500
mejores compañías de la prestigiosa revista Fortune, y la revista nombró la compañía
como uno de Los triunfos comerciales de los sesenta.
El 286, también conocido como el 80286, era el primer procesador de Intel que podría
ejecutar todo el software escrito para su predecesor. Esta compatibilidad del software
sigue siendo un sello de la familia de Intel de microprocesadores. Luego de 6 años de
su introducción, había un estimado de 15 millones de 286 basados en computadoras
personales instalados alrededor del mundo.
El procesador Intel 386 ofreció 275 000 transistores, más de 100 veces tantos como
en el original 4004. El 386 añadió una arquitectura de 32 bits, poseía capacidad
multitarea, que significa que podría ejecutar múltiples programas al mismo tiempo y
una unidad de traslación de páginas, lo que hizo mucho más sencillo implementar
sistemas operativos que emplearan memoria virtual.
La generación 486 realmente significó que el usuario contaba con una computadora
con muchas opciones avanzadas, entre ellas, un conjunto de instrucciones
optimizado, una unidad de coma flotante y un caché unificado integrados en el propio
circuito integrado del microprocesador y una unidad de interfaz de bus mejorada.
Estas mejoras hacen que los i486 sean el doble de rápidos que un i386 e i387 a la
misma frecuencia de reloj. El procesador Intel 486 fue el primero en ofrecer un
coprocesador matemático integrado, el cual acelera las tareas del micro, porque
ofrece la ventaja de que las operaciones matemáticas complejas son realizadas (por
el coprocesador) de manera independiente al funcionamiento del procesador central
(CPU).
Procesadores lanzados por AMD 100% compatible con los códigos de Intel de ese
momento, ya que eran clones, pero llegaron a superar incluso la frecuencia de reloj
de los procesadores de Intel a precios significativamente menores. Aquí se incluyen
las series Am286, Am386, Am486 y Am586
charlas de la televisión a diario, en realidad se volvió una palabra muy popular poco
después de su introducción.
Lanzado al mercado para el otoño de 1995 el procesador Pentium Pro se diseña con
una arquitectura de 32 bits, su uso en servidores, los programas y aplicaciones para
estaciones de trabajo (redes) impulsan rápidamente su integración en las
computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium
Pro a menudo iba más despacio que un Pentium cuando ejecutaba código o sistemas
operativos de 16 bits. Cada procesador Pentium Pro estaba compuesto por unos 5,5
millones de transistores.
1996: AMD K5
El procesador de 7,5 millones de transistores Pentium II, se busca entre los cambios
fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución
de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria
caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de
circuito impreso junto a éste. Gracias al nuevo diseño de este procesador, los
usuarios de PC pueden capturar, pueden revisar y pueden compartir fotografías
digitales con amigos y familia vía Internet; revisar y agregar texto, música y otros; con
una línea telefónica, el enviar vídeo a través de las líneas normales del teléfono
mediante el Internet se convierte en algo cotidiano.
Más adelante lanzó una mejora de los K6, los K6-2 a 250 nanómetros, para seguir
compitiendo con los Pentium II, siendo éste último superior en tareas de coma
Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de
desempeño en computadoras de medio-rango, servidores más potentes y estaciones
de trabajo (Workstation). Consistente con la estrategia de Intel para diseñar productos
de procesadores con el objetivo de llenar segmentos de los mercados específicos, el
procesador Pentium II Xeon ofrece innovaciones técnicas diseñadas para las
estaciones de trabajo (Workstation) y servidores que utilizan aplicaciones comerciales
exigentes como servicios de Internet, almacenaje de datos corporativo, creaciones
digitales y otros. Pueden configurarse sistemas basados en el procesador para
integrar de cuatro u ocho procesadores y más allá de este número.
El procesador Athlon con núcleo Thunderbird apareció como la evolución del Athlon
Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el
bus EV6. El proceso de fabricación usado para todos estos microprocesadores es de
180 nanómetros El Athlon Thunderbird consolidó a AMD como la segunda mayor
compañía de fabricación de microprocesadores, ya que gracias a su excelente
rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a
la misma velocidad de reloj) y bajo precio, la hicieron muy popular tanto entre los
entendidos como en los iniciados en la informática.
El procesador Pentium III Xeon amplía las fortalezas de Intel en cuanto a las
estaciones de trabajo (Workstation) y segmentos de mercado de servidor y añade una
actuación mejorada en las aplicaciones del comercio electrónico y la informática
comercial avanzada. Los procesadores incorporan tecnología que refuerzan los
multimedios y las aplicaciones de video. La tecnología del procesador III Xeon acelera
la transmisión de información a través del bus del sistema al procesador, mejorando
la actuación significativamente. Se diseña pensando principalmente en los sistemas
con configuraciones de multiprocesador.
2000: PENTIUM 4
2001: ATHLON XP
Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vio que el Athlon
Thunderbird no estaba a su nivel. Además no era práctico para el overclocking,
entonces para seguir estando a la cabeza en cuanto a rendimiento de los
procesadores x86, AMD tuvo que diseñar un nuevo núcleo, por eso sacó el Athlon
XP. Compatibilizaba las instrucciones SSE y las 3DNow! Entre las mejoras respecto
al Thunderbird podemos mencionar la pre recuperación de datos por hardware,
conocida en inglés como prefetch, y el aumento de las entradas TLB, de 24 a 32.
2004: ATHLON 64
el usuario está ejecutando aplicaciones que requieren poco uso del procesador, la
velocidad del mismo y su tensión se reducen.
Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (Módulo
Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la
nueva arquitectura Core de Intel. La micro arquitectura Core regresó a velocidades de
CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía
comparados con anteriores NetBurst de los CPUs Pentium 4/D2 La micro arquitectura
Core provee etapas de decodificación, unidades de ejecución, caché y buses más
eficientes, reduciendo el consumo de energía de CPUs Core 2, mientras se
incrementa la capacidad de procesamiento. Los CPUs de Intel han variado muy
bruscamente en consumo de energía de acuerdo a velocidad de procesador,
arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de
energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45
nanómetros.
Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera
generación de procesadores de tres y cuatro núcleos basados en la micro
arquitectura K10. Como característica común todos los Phenom tienen tecnología de
65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator
(SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada
tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados
para facilitar el uso inteligente de energía y recursos del sistema, listos para la
virtualización, generando un óptimo rendimiento por vatio. Todas las CPUs Phenom
poseen características como controlador de memoria DDR2 integrado, tecnología
HyperTransport y unidades de coma flotante de 128 bits, para incrementar la
velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct
Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador
integrado de memoria, logrando un ancho de banda de 16 Gb/s para
intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport,
de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene
caché L3 compartida para un acceso más rápido a los datos (y así no depender tanto
de la propia latencia de la RAM), además de compatibilidad de infraestructura de los
zócalos AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos.
A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo.
3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar
la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa,
pasando de los 2 MB del Phenom original a 6 MB.
Los procesadores Intel Core i3, Intel Core i5 e Intel Core i7 serie 2000 y Gxxx;
próximamente en el mercado
Tecnologías Vigentes
Virtualización:
Sistema por el cual el CPU divide los datos en 2 hilos. Procesa la información de dos
programas en simultáneo. Aprovecha la capacidad total del CPU y se mejora el
rendimiento general del sistema. Hyper-Threading se presenta ante las aplicaciones y
los sistemas operativos modernos como dos procesadores virtuales.
Multi núcleo:
Aparece como opción de mejorar el rendimiento del sistema; Debido a la dificultad de
incrementar la frecuencia de reloj en los CPUs. Consiste en la integración de dos
CPUs en uno solo. Se consume menos energía y mejora la gestión de los recursos
del sistema.
TAREA 7: Instalación
de la Memoria Principal
Introducción:
En esta tarea se realizara la instalación de la memoria
principal considerando las normas básicas de seguridad. Un
técnico de hardware de computadoras debe conocer
diferentes tipos de memorias y sus características con la
finalidad de repotenciar un sistema o integrarlo desde cero.
En esta tarea se examinara las diferentes tecnologías de
memorias, sus especificaciones, su evolución y los diferentes
tipos disponibles actualmente.
Equipos y Materiales:
Placas base Pentium 4, equivalente o superior
Memorias de diferentes tipos
Orden de Ejecución:
1. Reconocer características de la memoria principal
2. Realizar la Instalación física de la memoria principal
Operación 1:
Reconocer Características de la Memoria Principal
Se identificaran las especificaciones y/o características relacionadas a la memoria
principal del computador.
Proceso de Ejecución:
1. Usando 2 placas bases diferentes, identifique la tecnología de bancos de
memoria principal que utiliza, tecnología de memoria a instalar y sus
características. Elabore un cuadro con sus observaciones. Las imágenes y el
cuadro son referenciales.
Observación:
Se debe identificar el soporte de memoria adecuado, de la placa base para
aprovechar al máximo su rendimiento.
Operación 2:
Realizar la Instalación Física de la Memoria Principal
Se procede a instalar los módulos de memoria principal en la superficie de la placa
base tomando las precauciones del caso.
Proceso de Ejecución:
1. Antes de manipular los módulos de memoria, tome las medidas de precaución
para evitar descarga electroestática.
2. Proceda a la instalación de los módulos de memoria en la superficie de la
placa base. Las imágenes son referenciales
Observación:
Los módulos de memoria son sensibles a descarga electroestática (ESD).
FUNDAMENTO TEÓRICO:
Memorias en el Computador
El computador emplea diversos tipos de memoria para realizar:
Memorias Semiconductoras
Son circuitos integrados (chips) que almacenan información en forma temporal o
permanente, pueden ser:
Los computadores trabajan con memorias RAM, Las cuales pueden ser:
Memoria Principal
Es el espacio de trabajo del microprocesador, en el computador. En esta área se
almacena en forma temporal los programas y datos que debe utilizar el
microprocesador, por lo tanto, los programas y datos permanecen almacenados en
esta memoria de forma provisional mientras se mantenga el suministro eléctrico en el
computador. Cuando el suministro eléctrico se va o el computador se apaga y se
vuelve a encender el contenido anterior almacenado en la memoria principal (RAM
dinámica) se volatiza (se pierde). En la actualidad se comercializan en “módulos de
En origen, los programadores no veían en tiempo real lo que tecleaban, teniendo que
imprimir de cuando en cuando el programa residente en memoria RAM y haciendo
uso del papel a la hora de ir modificando o creando un nuevo programa. Dado que el
papel era lo más accesible, los programas comenzaron a imprimirse en un soporte de
celulosa más resistente, creando lo que se denominó Tarjeta perforada. Así pues, los
programas constaban de una o varias tarjetas perforadas, que se almacenaban en
archivadores de papel con los típicos anillos de sujeción. Dichas perforaciones, eran
leídas por un dispositivo de entrada, que no era muy diferente al teclado y que
constaba de pulsadores que eran activados o desactivados, dependiendo de si la
tarjeta en la posición de byte, contenía una perforación o no. Cada vez que se
encendía la máquina, requería de la carga del programa que iba a ejecutar.
Dado que los datos en memoria son de 0 o 1, que esas posiciones físicamente
representan el estado de un conmutador, que la estimulación del conmutador
evolucionó a pulsos electromagnéticos, el almacenamiento de los programas era
cuestión de tiempo que su almacenamiento pasara del papel a un soporte lógico, tal
como las cintas de almacenamiento. Las cintas eran secuenciales, y la composición
de la cinta era de un material magneto-estático; bastaba una corriente Gauss para
cambiar las polaridades del material. Dado que el material magnético puede tener
polaridad norte o sur, era ideal para representar el 0 o el 1. Así, ahora, cargar un
programa no era cuestión de estar atendiendo un lector de tarjetas en el cual se
debían de ir metiendo de forma interminable tarjetas perforadas que apenas podían
almacenar apenas unos bytes. Ahora, los dispositivos electromagnéticos secuenciales
requerían la introducción de la cinta y la pulsación de una tecla para que se cargara
todo el programa de inicio a fin, de forma secuencial. Los accesos aleatorios no
aparecieron hasta la aparición del disco duro y el Floppy. Con estos medios, un
Es en esta parte del tiempo, en donde se puede hablar de un área de trabajo para la
mayor parte del software de un computador. La RAM continua siendo volátil por lo
que posee la capacidad de perder la información una vez que se agote su fuente de
energía. Existe una memoria intermedia entre el procesador y la RAM, llamada caché,
pero ésta sólo es una copia (de acceso rápido) de la memoria principal (típicamente
discos duros) almacenada en los módulos de RAM.
Uno de los primeros tipos de memoria RAM fue la memoria de núcleo magnético,
desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo
de circuitos integrados a finales de los años 60 y principios de los 70. Antes que eso,
las computadoras usaban relés y líneas de retardo de varios tipos construidas con
tubos de vacío para implementar las funciones de memoria principal con o sin acceso
aleatorio.
Inspirado en técnicas como el "Burst Mode" usado en procesadores como el Intel 486,
se implantó un modo direccionamiento en el que el controlador de memoria envía una
sola dirección y recibe a cambio esa y varias consecutivas sin necesidad de generar
todas las direcciones. Esto supone un ahorro de tiempos ya que ciertas operaciones
son repetitivas cuando se desea acceder a muchas posiciones consecutivas.
Funciona como si deseáramos visitar todas las casas en una calle: después de la
primera vez no sería necesario decir el número de la calle únicamente seguir la
misma. Se fabricaban con tiempos de acceso de 70 ó 60 ns y fueron muy populares
en sistemas basados en el 486 y los primeros Pentium.
La tecnología de memoria actual usa una señal de sincronización para realizar las
funciones de lectura-escritura de manera que siempre esta sincronizada con un reloj
del bus de memoria, a diferencia de las antiguas memorias FPM y EDO que eran
asíncronas. Hace más de una década toda la industria se decantó por las tecnologías
síncronas, ya que permiten construir integrados que funcionen a una frecuencia
superior a 66 MHz (Al día de hoy, se han superado con creces los 1600 MHz).
SDR SDRAM
DDR SDRAM
Memoria síncrona, envía los datos dos veces por cada ciclo de reloj. De este modo
trabaja al doble de velocidad del bus del sistema, sin necesidad de aumentar la
frecuencia de reloj. Se presenta en módulos DIMM de 184 contactos. Los tipos
disponibles son:
DDR2 SDRAM
Las memorias DDR 2 son una mejora de las memorias DDR (Double Data Rate), que
permiten que los búferes de entrada/salida trabajen al doble de la frecuencia del
núcleo, permitiendo que durante cada ciclo de reloj se realicen cuatro transferencias.
Se presentan en módulos DIMM de 240 contactos. Los tipos disponibles son:
DDR3 SDRAM
Las memorias DDR 3 son una mejora de las memorias DDR 2, proporcionan
significantes mejoras en el rendimiento en niveles de bajo voltaje, lo que lleva consigo
una disminución del gasto global de consumo. Los módulos DIMM DDR 3 tienen 240
pines, el mismo número que DDR 2; sin embargo, los DIMMs son físicamente
incompatibles, debido a una ubicación diferente de la muesca. Los tipos disponibles
son:
Dual Channel
Es una tecnología para memorias aplicada en las computadoras u ordenadores
personales, la cual permite el incremento del rendimiento gracias al acceso
simultáneo a dos módulos distintos de memoria (haciéndolo a bloques de 128 bits, en
lugar de los 64 bits tradicionales desde el inicio de la era Pentium en 1993). Esto se
consigue mediante un segundo controlador de memoria en el puente norte
(northbridge) del chipset o conjunto de chips.
Para que la computadora pueda funcionar en Dual Channel, se debe tener dos
módulos de memoria de la misma capacidad, velocidad y tipo DDR, DDR2 o DDR3
(ya que no es posible usarlo en SDR) en los zócalos correspondientes de la placa
base, y el chipset de la placa base debe soportar dicha tecnología. Es recomendable
Memoria de Sistema
Se denomina así al ROM-BIOS, encargado de controlar el hardware del computador;
la tecnología de estas memorias ha evolucionado desde las simples memorias ROM
(memorias de solo lectura), pasando por las PROM (memorias ROM programables),
las EPROM (memorias programables y borrables con luz ultravioleta), memorias
EEPROM (memorias regrabables por pulsos eléctricos) y memorias FEPROM (flash)
regrabables y actualizables por software.
Esta memoria se encuentra en la placa base sobre un zócalo y en algunos casos esta
soldado a la placa base.
Memorias Complementarias
Son memorias que realizan funciones especiales en el computador, como almacenar
configuraciones e instrucciones que permiten el desempeño más óptimo del sistema.
Las memorias complementarias empleadas por el computador son: La CMOS-RAM y
la CACHÉ-RAM
CMOS-RAM
Memoria de poca capacidad, almacena la configuración del BIOS como detección de
hardware, ingreso de contraseñas, configuración de hora y fecha, etc.
Tiene bajo consumo, cuando el computador está apagado es alimentada por una pila
que se encuentra en la placa base y que debe durar años, (generalmente modelo CR-
2032) y que dura de 2 a 5 años
Caché-RAM:
Memoria de gran velocidad. Busca compensar las diferencias de velocidades entre el
microprocesador y la memoria principal. Almacena datos e instrucciones repetitivas.
Actualmente se encuentra integrado dentro del microprocesador.
Memoria Secundaria
Se llama así a los dispositivos que permiten almacenar información por periodos
grandes de tiempo, permiten transportar datos, almacenar copias de seguridad de
sistemas, etc. Estos medios de almacenamiento son de capacidades grandes.
ACTIVIDAD
TAREA 8: Instalación
de Unidades de Disco
Introducción:
En esta tarea se realizara la instalación de las unidades de
disco usadas en el computador, considerando normas
básicas de seguridad.
Un técnico de hardware de computadoras debe conocer los
diferentes tipos de discos duros existentes, además de
identificar sus características con la finalidad de re potenciar
un sistema o integrarlo desde cero.
En esta tarea se examinara las diferentes tecnologías de
discos duros, sus características, su evolución y los diferentes
tipos disponibles actualmente.
Equipos y Materiales:
Placas base Pentium 4,equivalente o superior
Fuente de alimentación
Discos duros de diferentes tipos
Unidades CD/DVD - ROM
Orden de Ejecución:
1. Reconocer características de las unidades de disco
2. Realizar la Instalación física de las unidades de disco
Operación 1:
Reconocer Características de las Unidades de Disco
Se identificaran las especificaciones y/o características de los discos duros y lectoras
de CD-DVD.
Proceso de Ejecución:
1. Usando un disco duro y una lectora de CD/DVD identifique sus principales
características físicas y el lugar donde se instala en la placa base. Elabore un
cuadro con sus observaciones. Las imágenes y el cuadro son referenciales.
Características Principales
Dispositivo Fab. y Mod. Tipo
(Conectores, partes, especificaciones, etc.)
Disco Duro
CD/DVD ROM
Observación:
Identificar las características, especificaciones y conectores para una
instalación correcta de las unidades.
Operación 2:
Realizar la Instalación física de las unidades de disco
Se procede a instalar el disco duro y la lectora en la placa base considerando las
diferentes configuraciones posibles.
Proceso de Ejecución:
1. Proceda a la instalación del disco duro y lectora en la placa base realizando
las configuraciones de maestro-esclavo de ser necesario. Las imágenes son
referenciales.
Observación:
En unidades IDE tener en cuenta la configuración maestro esclavo.
FUNDAMENTO TEÓRICO:
Unidades de Disco
El término unidad de disco se refiere a aquel dispositivo o aparato que realiza las
operaciones de lectura y escritura de los medios o soportes de almacenamiento con
forma de disco, refiriéndose a las unidades de disco duro, unidades de discos
flexibles (disquetes: 5¼", 3½"), unidades de discos ópticos (CD, DVD, HD DVD o Blu-
ray) o unidades de discos magneto-ópticos (discos Zip, discos Jaz, SuperDisk).
Los equipos que reproducen (leen) o graban (escriben) discos ópticos son conocidos
como lectoras o grabadoras, respectivamente. Las disqueteras son las unidades de
lectura y escritura de disquetes. No todos los discos son grabables:
Una unidad de disco cuenta con un motor que hace funcionar un sistema de arrastre
que hace girar uno o varios discos a una velocidad constante, al tiempo que un
mecanismo de posicionamiento sitúan la cabeza o cabezas sobre la superficie del
disco para permitir la reproducción o grabación del disco. La rotación del disco puede
ser constante o parar de forma alternada.
Las unidades de disco pueden ser permanentes (fijas) o extraíbles. Existen distintas
formas y tamaños de unidades de disco, que va desde el disquete, el minidisc, el CD,
el DVD y el disco duro.
Dispositivos de Almacenamiento
Disco Duro
Los discos duros tienen una gran capacidad de almacenamiento de información, pero
al estar alojados normalmente dentro del case de la computadora (discos internos),
no son extraíbles fácilmente. Para intercambiar información con otros equipos (si no
están conectados en red) necesitamos utilizar unidades de disco, como los disquetes,
los discos ópticos (CD, DVD), los discos magneto-ópticos, memorias flash (USB), etc.
El disco duro almacena casi toda la información que manejamos al trabajar con una
computadora. En él se aloja, por ejemplo, el sistema operativo que permite arrancar la
máquina, los programas, archivos de texto, imagen, vídeo, etc. Dicha unidad puede
ser interna (fija) o externa (portátil), dependiendo del lugar que ocupe en el case de la
computadora.
Un disco duro está formado por varios discos apilados sobre los que se mueve una
pequeña cabeza magnética que graba y lee la información. Este componente, al
contrario que el microprocesador o los módulos de memoria, no se coloca
directamente en la placa, sino que se conecta a ella mediante un cable. También va
conectado a la fuente de alimentación, pues, como cualquier otro componente,
necesita energía para funcionar. Además, una sola placa puede tener varios discos
duros conectados. Las características principales de un disco duro son:
También existen discos duros externos que permiten almacenar grandes cantidades
de información. Son muy útiles para intercambiar información entre dos equipos.
Normalmente se conectan al PC mediante un conector USB. Cuando el disco duro
está leyendo, se enciende en la carcasa un LED (de color rojo, verde u otro). Esto es
útil para saber, por ejemplo, si la máquina ha acabado de realizar una tarea o si aún
está procesando datos.
Disquetera
Cabe destacar que el uso de este soporte en la actualidad es escaso o nulo, puesto
que se ha vuelto obsoleto teniendo en cuenta los avances que en materia de
tecnología se han producido.
La unidad de CD-ROM permite utilizar discos ópticos de una mayor capacidad que los
disquetes de 3,5 pulgadas: hasta 700 MB. Ésta es su principal ventaja, pues los CD-
ROM se han convertido en el estándar para distribuir sistemas operativos,
aplicaciones, etc. El uso de estas unidades está muy extendido, ya que también
permiten leer los discos compactos de audio. Para introducir un disco, en la mayoría
de las unidades hay que pulsar un botón para que salga una especie de bandeja
donde se deposita el CD-ROM. Pulsando nuevamente el botón, la bandeja se
introduce.
En estas unidades, además, puede existir una toma para audífonos, y también
pueden estar presentes los controles de navegación y de volumen típicos de los
equipos de audio para saltar de una pista a otra, por ejemplo. Una característica
básica de las unidades de CD-ROM es la velocidad de lectura que normalmente se
expresa como un número seguido de una «x» (40x, 52x,..). Este número indica la
velocidad de lectura en múltiplos de 128 kB/s. Así, una unidad de 52x lee información
de 128 kB/s × 52 = 6,656 kB/s, es decir, a 6,5 MB/s.
Las unidades de CD-ROM son de sólo lectura. Es decir, pueden leer la información en
un disco, pero no pueden escribir datos en él. Una re grabadora puede grabar y re
grabar discos compactos. Las características básicas de estas unidades son la
velocidad de lectura, de grabación y de regrabación. En los discos regrabables es
normalmente menor que en los discos que sólo pueden ser grabados una vez. Las re
grabadoras que trabajan a 8X, 16X, 20X, 24X, etc., permiten grabar los 650, 700 o
más megabytes (hasta 900 MB) de un disco compacto en unos pocos minutos. Es
Las unidades de DVD-ROM son aparentemente iguales que las de CD-ROM, pueden
leer tanto discos DVD-ROM como CD-ROM. Se diferencian de las unidades lectoras
de CD-ROM en que el soporte empleado tiene hasta 17 GB de capacidad, y en la
velocidad de lectura de los datos. La velocidad se expresa con otro número de la «x»:
12x, 16x... Pero ahora la x hace referencia a 1,32 MB/s. Así: 16x = 21,12 MB/s.
Las conexiones de una unidad de DVD-ROM son similares a las de la unidad de CD-
ROM: placa base, fuente de alimentación y tarjeta de sonido. La diferencia más
destacable es que las unidades lectoras de discos DVD-ROM también pueden
disponer de una salida de audio digital. Gracias a esta conexión es posible leer
películas en formato DVD y escuchar seis canales de audio separados si disponemos
de una buena tarjeta de sonido y un juego de parlantes apropiados (subwoofer más
cinco satélites).
• Por una parte, admiten discos de gran capacidad: 230 MB, 640 Mb o 1,3 GB.
• Además, son discos re escribibles, por lo que es interesante emplearlos, por
ejemplo, para realizar copias de seguridad.
almacenamiento que utiliza memoria flash para guardar la información que puede
requerir o no baterías (pilas), en los últimos modelos la batería no es requerida, la
batería era utilizada por los primeros modelos. Estas memorias son resistentes a los
rasguños externos y al polvo que han afectado a las formas previas explicadas de
almacenamiento portátil, como los CD y los disquetes.
Integración ATA
Normas de Fabricación
La norma ATA aparece como un conjunto de especificaciones estándar para el
manejo de las funciones del dispositivo (el disco duro, por ejemplo) y de qué forma
transferirá los datos del mismo al microprocesador y/o viceversa. Esta norma aparece
desde el diseño del modelo AT de la IBM PC, basado en el procesador 80286 de la
firma Intel. Con el avance tecnológico, las especificaciones ATA han evolucionado, y
sus revisiones se han denominado ATA-2 (ATA revisión 2) ATA-3 (ATA revisión 3),
etc.
Comúnmente se habla de unidades IDE o EIDE, pero esto sólo identifica una
modalidad constructiva, más que una especificación detallada. IDE corresponde a
Integrated Drive Electronics, que significa electrónica de manejo integrada, y EIDE
(Enhanced IDE - IDE mejorado-) a un nombre dado por la firma Western Digital en el
año 1994 a la norma ATA-2. Pero estos no son más que nombres o formas de llamar
al dispositivo ya que no corresponde a ninguna norma formal de fabricación de
dispositivos. Dicho de otra forma, mientras ATA es el nombre propio de la norma, IDE
es el apodo. Se pueden usar ambos términos, haciendo referencia a la misma cosa. A
veces es necesario referirse a IDE, en lugar de ATA, para no generar controversias
en las nomenclaturas utilizadas por los fabricantes de dispositivos.
Los discos actuales incorporan en la electrónica integrada (de allí su nombre IDE),
toda la lógica necesaria para controlar los motores y control de la codificación de la
información que se graba en la superficie de los platos. Por lo tanto el cambiar un
disco IDE desde una PC a otra, implica mover al disco y la controladora
simultáneamente, solucionando el inconveniente mencionado anteriormente.
Soporte de Unidades
La interfaz ATA está diseñada para soportar dos dispositivos (típicamente discos
duros) en un solo cable plano a través de un conector de 40 pines desde la placa
base o una placa de interfaz. Se conecta a través de una controladora y no
directamente a los buses, simplemente por la normalización de los conexionados y
adaptación de algunas señales. Los motherboards y placas de interfaz pueden tener
un segundo conector ATA para soportar dos dispositivos adicionales. De manera que
la primera interfaz se las conoce como IDE primaria y la segunda como IDE
secundaria: a estas se las denomina también como canales IDE. De tener una sola,
esta será únicamente una IDE primaria. Decimos dispositivos ATA y no discos duros
porque se pueden conectar otros dispositivos como por ejemplo:
Hoy día por la estandarización y simpleza de las interfaces ATA los fabricantes las
incluyen dentro de los motherboards. La gran mayoría de ellos incluía hasta hace
poco dos canales (o interfaces) ATA. Actualmente con la aparición de las unidades S-
ATA, solo se incluye 1 solo canal ATA.
Los datos almacenados en las unidades deben ser transferidos hacia la memoria
principal de la PC, para ser utilizados. Del mismo modo, si se desea almacenar
información en la unidad, el flujo debe ser desde la memoria principal hasta la unidad.
Para complementar estas tareas, se han desarrollado distintas técnicas de
transferencia, que han permitido lograr a lo largo de la evolución de las unidades ATA,
mejorar los rendimientos y brindar flexibilidad a las aplicaciones. Básicamente se
puede hablar de transferencias modo PIO y modo DMA.
Modo PIO
El modo PIO (Programmed Input Output - entrada y salida programada) es una forma
de transferencia que necesita a la CPU como intermediario. En este modo, cuando
una transferencia debe realizarse, la CPU, siguiendo las instrucciones de un
programa, debe acceder al puerto de entrada/salida (IO, Input / Output - Entrada
Salida) de la unidad ATA, leer un dato (típicamente dos Bytes; o cuatro Bytes, si están
habilitadas las transferencias de 32 bits) y guardarlo transitoriamente en un registro
interno de la CPU, luego grabarlo en alguna posición de memoria RAM, y repetir el
procedimiento hasta completar la transferencia. Si bien con este modo se han logrado
velocidades de transferencias de hasta 16,6 MB/s con el modo PIO 4, esta forma de
transferencia no es la más eficiente, ya que mantiene ocupada la CPU, degradando
su rendimiento general.
Dispositivos ATA
Configuración de Dispositivos
Cada canal IDE (primario, secundario, etc.) acepta como máximo dos dispositivos.
Uno de ellos debe ser Master (maestro) y el otro debe ser Slave (esclavo). No se
permite la existencia de dos dispositivos esclavos o dos dispositivos master en el
Master single, es la configuración normal para la mayoría de las instalaciones con una
sola unidad en el canal IDE, o con dos unidades en un canal, si no tienen problemas
de compatibilidad entre sí. La segunda opción, maestro con esclavo presente, debe
emplearse cuando se experimentan problemas operativos o de reconocimiento, con la
unidad slave. Esta opción, fuerza la detección de la unidad esclava durante el
encendido de la PC. Generalmente no es recomendable usar esta opción de
configuración, si la unidad esclava no está presente, porque demora el arranque y
hasta puede provocar problemas en la inicialización de la unidad master.
Modos de Configuración
Para configurar un dispositivo como Master, Master with slave present, o Slave, la
configuración se realiza mediante jumpers. Los jumpers son pequeños conectores de
plástico con un puente conductor, que al ponerlo entre dos Pines, los conecta
cerrando un circuito. El fabricante del dispositivo indica mediante una tabla de
configuración, cómo deben colocarse los jumpers para que el dispositivo se comporte
como Master o Slave. Esta tabla generalmente es una etiqueta autoadhesiva que
viene pegada al dispositivo, o un estampado en la carcasa del mismo), con
indicaciones para la configuración en todos los modos posibles.
La norma ATA, hace referencia a dos modelos de conectores unificados, que incluyen
pines adicionales para las configuraciones. En este caso, el modo de configuración
del dispositivo está normalizado. En las tablas se muestran las configuraciones de los
conectores unificados modelo 1 y 2 respectivamente.
Conflictos
En determinadas ocasiones surgen problemas de compatibilidad, impidiendo que dos
discos determinados puedan trabajar en conjunto, como Master/Slave: sobre todo
cuando se mezclan discos de generaciones diferentes. Si el Master es un disco ATA
viejo y el Slave es un disco ATA de reciente fabricación (Ultra ATA), lo más probable
es que la interfaz del dispositivo viejo se vea afectada e interfiera con las
transferencias de alta velocidad con la unidad esclava. Ante este inconveniente una
solución es intercambiar las posiciones de Master/Slave, haciendo que el disco nuevo
sea el Master y el antiguo el Slave (en muchos casos esto resuelve el conflicto). De
no ser así, se pueden poner ambos como Master y conectar uno en el canal primario
Conexionado
Todos los dispositivos ATA deben tener como mínimo dos conectores. Uno de 4
contactos (o vías), que será el encargado tomar la energía necesaria para el
funcionamiento del mismo: 12 voltios para los motores y 5 voltios para la electrónica o
lógica; y otro conector de 40 vías, que es el encargado de conectar el dispositivo a la
interfaz del motherboard a través de un cable del tipo cinta plana, como se ve en la
figura.
Hasta ATA 4 en modo ultra DMA a 33 MB/seg el cable plano de interconexión entre
unidades y la interfaz, está limitado a 45 cm de largo. Este es un cable tipo cinta plana
de 40 hilos y puede contener hasta tres conectores. ATA 4 en modo ultra DMA2 a 66
MB/seg y ATA 5 modo ultra DMA 100 MB/seg, requieren el empleo de cable tipo cinta
plana de 80 conductores.
Serial ATA viene a solucionar el cuello de botella producido por la interfaz que la
precede, ofreciendo un ancho de banda inicial de 150 MB/s, estando totalmente
preparada para futuras mejoras de velocidad sin cambios significativos en la interfaz.
Los cables planos de los dispositivos P-ATA, son difíciles de acomodar y además
interrumpen la correcta circulación interna de aireen una PC, por lo tanto S-ATA
también ayuda a mejorar esta circulación, usando cables de datos muy angostos y
flexibles, que además pueden tener hasta 1 m. de longitud. Otra mejora introducida es
la reducción en el consumo de energía de los dispositivos y perfeccionamiento en el
manejo de los datos, ofreciendo chequeo de errores más seguro y eficiente que
PATA.
Nota: En ningún momento de su vida útil, será necesario abrir un disco rígido, y de
hacerlo, ingresaría a la unidad aire húmedo y con partículas de polvo que lo dañaría
irreversiblemente.
Descubrimos además, algo que no resulta evidente desde afuera. Al usar un disco
duro, percibimos una unidad con determinada capacidad de almacenamiento. Pero al
destaparla, observamos la existencia de varios platos, que en conjunto se comportan
como una sola cosa. El número de platos
varía de acuerdo a la capacidad, velocidad y
diseño del fabricante. Un factor de diseño a
considerar es el volumen de la unidad. La
cantidad de platos que incluya, influye
directamente en la altura del dispositivo.
Generalmente las unidades delgadas,
incluyen sólo uno o dos platos.
Por cada cara de cada plato de una unidad, hay por lo menos una cabeza de
lectura/escritura. Es decir que los platos son utilizados de ambas caras. Las cabezas
de lectura/escritura tienen una superficie pulida. Cuando los platos están detenidos,
las cabezas descansan sobre su superficie sin rayarla. Pero si la unidad recibe un
golpe en estas condiciones, la vibración puede dañar permanentemente a la pintura
magnética del plato o a la cabeza misma. Por eso las unidades de disco son muy
frágiles, y deben ser siempre manejadas con mucho cuidado.
Los Motores
Una rápida observación al interior del disco duro, nos muestra la presencia de dos
motores: uno para el movimiento de rotación de los platos, y otro para el movimiento
del conjunto de las cabezas.
El giro del eje del motor, arrastraba por medio de un zuncho al pivote del brazo de las
cabezas. Las ventajas de estos motores son la sencillez de su control y su
versatilidad. Con una electrónica poco compleja, se los puede controlar fácilmente.
Las desventajas de este tipo de motores son dos: son ruidosos y lentos.
Otro de los problemas presentes con estos motores, es que siempre están en una
posición de descanso, aun cuando no tienen energía. Esto significa que si un disco
rígido está operando con las cabezas en la zona de datos, y ya sea que voluntaria o
involuntariamente cortemos la energía de alimentación de la unidad, las cabezas
aterrizan en la zona de trabajo dejando a la unidad en una situación de máximo
riesgo, ya que frente a una vibración o golpe leve puede haber pérdida de información
almacenada. En los años en que se usaban estos discos, el problema se evitaba
ejecutando un programa llamado Park (estacionar en inglés), antes de apagarla PC,
que movía las cabezas fuera de la zona de trabajo.
Las Pistas
Las cabezas de lectura/escritura se desplazan por la superficie ferro magnética de los
platos, gracias al motor de las cabezas. Este último, ubica a las cabezas en distintas
posiciones con respecto al eje de rotación. En cada una de estas posiciones de
descanso, las cabezas pueden grabar o leer datos de la superficie de los platos,
completando una vuelta completa. Es decir, que si pudiéramos ver la información que
queda grabada en los platos de los discos, veríamos que forma pistas circulares
concéntricas. Para ilustrar esto, a un plato de un disco rígido le trazamos las pistas
(imaginarias) con un marcador. En realidad, en la ilustración, sólo pudimos trazar
algunas, ya que en realidad un disco actual usa más de cinco mil pistas en cada cara
de cada plato. Pero para darnos una idea de lo que es una pista, basta con las pocas
que hemos trazado.
Los Sectores
Para organizar mejor aún la información, cada pista no se graba íntegra de una vez,
sino que se graba de a tramos, conocidos como sectores. Para poder ilustrar qué es
un sector, en la figura siguiente, se muestra otro plato con pistas (imaginarias)
pintadas en la superficie, donde además se han trazado líneas diametrales que
muestran la forma y ubicación de los sectores en el disco. En este caso, cada pista ha
sido fraccionada en 16 sectores. Desde el diseño del primer PC con disco rígido,
hasta la actualidad, se ha normalizado el uso de sectores con capacidad de 512
Bytes. Si analizamos un poco el aprovechamiento de la superficie, vemos que los
sectores de las pistas cercanas al eje del disco, tienen menor tamaño que los
sectores de las pistas lejanas al eje del disco.
La conclusión final de este razonamiento, nos lleva a pensar que un disco con
muchas cabezas es más eficiente que un disco con pocas. O analizado desde otro
punto de vista, si dos discos tienen la misma capacidad total, es más eficiente el que
tenga menor cantidad de cilindros. Esto es realmente así, y eso explica por ejemplo:
por qué un disco de 40 Gigabytes que tiene 20 cabezas (tiene diez platos), y lo hace
mucho más rápido que una unidad común de cuatro cabezas (y seguramente más
caro).
En conclusión, por lo que estamos viendo, la geometría de los discos actuales que
publican los fabricantes, es una geometría lógica (ficticia) para mantener la
compatibilidad con las PCs, y poco tiene que ver con la geometría real interna de los
discos. La única forma de saber realmente cuántos cilindros o cabezas tiene una
unidad actual, como para compararla con otra y evaluar sus características, es
leyendo información específica de ese modelo, obtenida directamente del fabricante,
o (algo ciertamente no recomendado) quitándole la tapa a la unidad.
Del lado de la PC, las cosas han evolucionado también. Actualmente para instalar un
disco rígido están habilitadas varias modalidades de configuración. La más moderna
ignora absolutamente la geometría de los discos, y sólo necesita saber cuántos
sectores en total tiene la unidad. Posiblemente en el futuro esta última modalidad de
configuración sea la única forma de declararlas unidades, quedando oculta para
siempre la estructura física real del disco. Considerando que los traductores le dan
libertad absoluta a los fabricantes de hacer lo que deseen en el interior de las
unidades, tal vez en un futuro los discos dejen de ser lo que conocemos hoy en día.
Tal vez en el mañana, si destapamos una unidad, nos encontremos con un cubo
cristalino, controlado por un par de láseres, sin partes móviles. Y por ese entonces,
será tal vez más extraño y sofisticado hablar del concepto cilindro.
8 x 1000 x 63 = 504.000
Luego si cada sector tiene 512 bytes, la capacidad total será de:
Si se desea obtener ese valor expresado en Kilobytes, dividimos el valor por 1024
Configuración de un Disco en la PC
Ya hemos mencionado la necesidad de declarar al disco, en la PC que se está
instalando. Esa declaración se realiza en el setup <-setap-> (puesta operativa) de la
máquina. El procedimiento de setup completo, va a ser estudiado en detalle en una
tarea posterior. Solamente veremos cómo se accede a esta configuración, y los
detalles pertinentes a la declaración de los discos rígidos. Además, esta será una
tarea práctica en clase, de modo que aquí sólo veremos algunos detalles
conceptuales. Ya que dependiendo de la generación a la cual pertenezca la PC y el
disco, nos encontraremos con distintas modalidades de configuración, es necesario
entender qué implica cada una de ellas.
Modos de Direccionamiento
Cuando deseamos acceder a una zona del disco, ya sea para grabar o leer
información, lo lógico y natural es especificar un cilindro, una cabeza y por último un
sector. Por ejemplo para guardar un dato, alguien le debe decir al motor de las
cabezas que viaje hasta el cilindro C, que una vez allí active la cabeza H, y que una
vez allí, localice el sector S. Este modo de direccionamiento se conoce como CHS y
es el acrónimo de Cylinder Head Sector (en inglés significa cilindro, cabeza, sector).
Desde las unidades más primitivas hasta la más moderna, en última instancia, el
direccionamiento CHS siempre está presente en algún lado, y se mantendrá mientras
las unidades sigan teniendo uno o más platos, con pistas grabadas y fraccionadas en
sectores como los conocemos hoy en día.
En las primitivas unidades de disco rígido instaladas en las PCs originales, los valores
CHS1, CHS2 y CHSF son idénticos, ya que no había traducción alguna en el camino.
La demanda constante del mercado de unidades de mayor capacidad, ha hecho que
los fabricantes se apartaran del CHS tradicional, y buscaran soluciones como las
planteadas anteriormente. Sin embargo tanto el BIOS como el software seguían
manejando la geometría tradicional. En ese tiempo, el cambio fue mínimo, y se limitó
introducción de un traductor desde una geometría lógica (CHS1 y CHS2) a una
geometría física (CHSF). Es decir que mientras el software y el BIOS seguían usando
al disco sin modificaciones aparentes, la traducción necesaria se realizaba en la
electrónica del disco.
Estas unidades utilizan memorias no volátiles tales como flash, o memorias volátiles
como la SDRAM, para almacenar los datos. En comparación con los discos duros
tradicionales, los SSD son menos susceptibles a golpes, son prácticamente inaudibles
y tienen un menor tiempo de acceso y de latencia.
Los SSD hacen uso de la misma interfaz que los discos duros, por lo tanto son
fácilmente intercambiables sin tener que recurrir a adaptadores o tarjetas de
expansión para compatibilizarlos con el equipo.
Discos Híbridos
Se han desarrollado dispositivos que combinan ambas tecnologías, es decir discos
duros y memorias flash, se denominan discos duros híbridos. Este sistema es
completamente autónomo por lo que el propio disco es el que gestiona que archivos
son los que utilizamos más a menudo y por tanto quedan “almacenados” en la parte
flash del disco la cual ofrece sobretodo mejores tiempos de acceso.
En consecuencia tendremos un disco duro con mejores tiempos de arranque tanto del
sistema como de nuestras aplicaciones más utilizadas pero igual de rápido en la
grabación o transferencia de archivos.
SSD VS HDD:
Ventajas
Los dispositivos de estado sólido basados en Flash tienen varias ventajas únicas
frente a los Discos Duros mecánicos:
Arranque más rápido, al no tener platos que necesiten coger una velocidad
constante.
Gran velocidad de escritura.
Mayor rapidez de lectura - Incluso más de 10 veces más que los discos duros
tradicionales más rápidos gracias a RAIDs internos en un mismo SSD.
Baja latencia de lectura y escritura, cientos de veces más rápido que los
discos mecánicos.
Lanzamiento y arranque de aplicaciones en menor tiempo - Resultado de la
mayor velocidad de lectura y especialmente del tiempo de búsqueda. Pero
solo si la aplicación reside en flash y es más dependiente de la velocidad de
lectura que de otros aspectos.
Menor consumo de energía y producción de calor - Resultado de no tener
elementos mecánicos.
Sin ruido - La misma carencia de partes mecánicas los hace completamente
inaudibles.
Mejorado el tiempo medio entre fallos, superando 2 millones de horas, muy
superior al de los discos duros.
Seguridad - permitiendo una muy rápida "limpieza" de los datos almacenados.
Rendimiento determinístico - a diferencia de los discos duros mecánicos, el
rendimiento de los SSD es constante y determinístico a través del
almacenamiento entero. El tiempo de "búsqueda" constante.
El rendimiento no se deteriora mientras el medio se llena.
Menor peso y tamaño que un disco duro tradicional de similar capacidad.
Resistente - Soporta caídas, golpes y vibraciones sin estropearse y sin des
calibrarse como pasaba con los antiguos discos duros, gracias a carecer de
elementos mecánicos.
Borrado más seguro e irrecuperable de datos; es decir, no es necesario hacer
uso del Algoritmo Gutmann para cerciorarse totalmente del borrado de un
archivo.
Limitaciones
Los dispositivos de estado sólido basados en flash tienen también varias desventajas:
Precio - Los precios de las memorias flash son considerablemente más altos
en relación Precio/GB, la principal razón de su baja demanda. Sin embargo,
ésta no es una desventaja técnica. Según se establezcan en el mercado irá
mermando su precio y comparándose a los discos duros mecánicos, que en
teoría son más caros de producir al llevar piezas metálicas.
Menor recuperación - Después de un fallo mecánico los datos son
completamente perdidos pues la celda es destruida, mientras que en un disco
duro normal que sufre daño mecánico los datos son frecuentemente
recuperables usando ayuda de expertos.
Capacidad - A día de hoy, tienen menor capacidad máxima que la de un disco
duro convencional, que llega a superar los 3 Terabytes.
El número de ciclos de lectura y escritura de éstas unidades, se reduce a
medida que se reduce el tamaño de los transistores de memoria, por lo que
las más recientes tienen un menor tiempo de vida total. Se espera que este
problema se solucione próximamente
ACTIVIDAD
TAREA 9: Instalación
de Tarjetas de Expansión
Introducción:
En esta tarea se realizara la instalación de diferentes tarjetas
de expansión usadas en el computador considerando normas
básicas de seguridad. Un técnico de mantenimiento de
computadoras, debe conocer las diferentes tarjetas de
expansión disponibles, identificar sus características con la
finalidad de re potenciar un sistema o integrarlo desde cero.
En esta tarea examinará las diferentes tarjetas de expansión
disponibles actualmente, sus características, evolución y su
correcta instalación.
Equipos y Materiales:
Placas base Pentium 4,equivalente o superior
Tarjetas de expansión diversas
Orden de Ejecución:
1. Reconocer características de las tarjetas de expansión
2. Realizar la Instalación física de las tarjetas de expansión
Operación 1:
Reconocer características de las tarjetas de expansión
Se identificaran las especificaciones y/o características de las tarjetas controladoras
externas.
Se identifican las controladoras integradas en la placa base, especificaciones y/o
características.
Proceso de Ejecución:
1. Usando las tarjetas controladoras externas, de práctica, identifique sus
principales características y el lugar donde se instala en la placa base
(Motherboard). Elabore un cuadro con sus observaciones. La imagen y el
cuadro son referenciales.
Características
Conector Incluido Tipo de Controladora
(Versión, Velocidad, Chip, etc.)
USB
SATA
IDE
…..
Observación:
Las controladoras permiten el uso de dispositivos periféricos.
Operación 2:
Realizar la Instalación física de las tarjetas de expansión
Se procede a instalar las tarjetas de expansión en la placa tomando las precauciones
del caso.
Proceso de Ejecución:
1. Antes de manipular las tarjetas de expansión, tome las medidas de precaución
para evitar descarga electroestática.
2. Proceda a la instalación de las tarjetas de expansión en la placa base, use los
tornillos adecuados. Las imágenes son referenciales
Observación:
Se debe instalar los controladores lógicos (driver) para poder usar los
controladores físicos (tarjetas de expansión o controladoras integradas).
FUNDAMENTO TEÓRICO:
Tarjetas Controladoras
Los dispositivos periféricos, empleados en el computador, tanto internos como
externos, necesitan de un medio para comunicarse entre ellos y con el computador.
Algunas veces se les llaman controladores, interfaces, puertos o adaptadores a estos
medios. Básicamente un controlador es un traductor entre la CPU y el dispositivo
periférico como discos duros, disquete, teclado, monitor, etc. Básicamente los
controladores ejecutan las siguientes funciones:
Aíslan el equipo de los programas.
Adecuan las velocidades entre los dispositivos que operan a diferentes
velocidades.
Convierten datos de un formato a otro.
Las tarjetas controladoras o tarjetas de expansión son tarjetas electrónicas, que,
insertadas en sus correspondientes ranuras de expansión, sirven para ampliar las
capacidades de un computador. Por lo general, se suelen utilizar indistintamente los
términos placa y tarjeta para referirse a todas las tarjetas de expansión.
ATA-1.
ATA-2: soporta transferencias rápidas en bloque y multiword DMA.
ATA-3: es el ATA-2 revisado y mejorado. Todos los anteriores soportan
velocidades de 16 MB/s.
ATA-4: conocido como Ultra-DMA o ATA-33, que soporta transferencias en 33
MB/s.
ATA-5 o Ultra ATA/66: originalmente propuesta por Quantum para
transferencias en 66 MB/s.
ATA-6 o Ultra ATA/100: soporte para velocidades de 100 MB/s.
ATA-7 o Ultra ATA/133: soporte para velocidades de 133 MB/s.
ATA-8 o Ultra ATA/166: soporte para velocidades de 166 MB/s.
Inicialmente, las controladoras IDE iban como tarjetas de expansión, con bus ISA, y
sólo se integraban en la placa madre de equipos de marca como IBM, Dell o
Comodore. Su versión más extendida eran las tarjetas multi I/O, que agrupaban las
controladores IDE y de disquete, así como los puertos RS-232 y el puerto paralelo.
La integración de dispositivos trajo consigo que un solo chip fuera capaz de
desempeñar todo el trabajo.
Con la aparición del bus PCI, las controladoras IDE casi siempre están incluidas en la
placa base, inicialmente como un chip, para pasar a formar parte del chipset. Suele
presentarse como dos conectores para dos dispositivos cada uno. De los dos discos
duros, uno tiene que estar como esclavo y el otro como maestro para que la
controladora sepa a y de qué dispositivo mandar y recibir los datos. La configuración
se realiza mediante jumpers. Habitualmente, un disco duro puede estar configurado
de una de estas tres formas:
Velocidad SATA:
Topología SATA:
Además de la tarea de serializar/paralelizar los datos, una parte importante del trabajo
del controlador está relacionada con los protocolos de conexión y desconexión del
periférico, que son bastante sofisticados en este tipo de interfaz, ya que está prevista
la capacidad de conexión en caliente. El protocolo de conexión es capaz de
identificar el tipo de dispositivo conectado; detectar si funciona correctamente;
negociar la velocidad de la conexión, etc. La interfaz Serial ATA guarda ciertas
similitudes con la interfaz USB, aunque SATA es mucho más rápida que aquella, y los
dispositivos no se alimentan del propio bus.
Cables y Conexiones
Los conectores y los cables son la diferencia más visible entre las unidades SATA y
las PATA. Al contrario que los PATA se usa el mismo conector en las Unidades de
almacenamiento de equipos de escritorio o servidores (3,5 pulgadas) y los de los
portátiles (2,5 pulgadas). Esto permite usar las unidades de 2,5 pulgadas en los
sistemas de escritorio sin necesidad de usar adaptadores.
Por otra parte los dispositivos SATA tienen dos tipos de cables de conexión, de señal
y de energía. La forma concreta depende de la posición relativa del dispositivo
respecto al controlador host. A este respecto caben tres posibilidades:
SATA Externo
Velocidad de SATA en los discos externos: se han medido hasta 115 MB/s
Actualmente, las placas bases han empezado a incluir conectores eSATA, también es
posible usar adaptadores de bus o tarjetas PC-Card y CardBus para portátiles que
aun no integran el conector.
Controladoras de Video:
También llamada: tarjeta gráfica, tarjeta de video, tarjeta aceleradora de pantalla o
adaptador de pantalla. Es un componente electrónico requerido para generar una
señal de video que se envía a un dispositivo de salida (monitores, proyectores,
televisores) por medio de un cable. La tarjeta de video se encuentra normalmente en
la placa de sistema de la computadora o en una tarjeta de expansión. La tarjeta de
video reúne toda la información que debe visualizarse y actúa como interfaz entre el
procesador y el monitor. La información es enviada al monitor la tarjeta, luego de
haberla recibido a través del sistema de buses.
Componentes de la tarjeta de video:
Una tarjeta gráfica se compone, básicamente, de un GPU (unidad de procesamiento
gráfico), de la memoria de video de acceso aleatorio RAM de video, y el conversor
análogo/digital de memoria RAM (RAMDAC). El controlador de video va leyendo a
intervalos la información almacenada en la RAM video y la transfiere al monitor en
forma de señal de video; el número de veces por segundo que el contenido de la
RAM video es leído y transmitido al monitor en forma de señal de video se conoce
como frecuencia de refresco de la pantalla. Entonces, la frecuencia depende en gran
medida de la calidad de la tarjeta de video.
GPU
Por ejemplo, tenemos una tarjeta gráfica con 256 bits de interfaz de memoria y 4200
MHz de frecuencia efectiva y necesitamos hallar su ancho de banda:
RAMDAC
El espacio que ocupa una imagen representada en el monitor viene dado en función
de su resolución y su profundidad de color, es decir, una imagen sin comprimir en
formato estándar Full HD con 1920x1080 píxeles y 32 bits de profundidad de color
ocuparía 66.355.200 bits, es decir, 8,294 MiB
Salidas de Video
Los sistemas de conexión más habituales entre la tarjeta gráfica y el dispositivo
visualizador (como un monitor o un televisor) son:
Dispositivos refrigerantes
Conjunto de disipador y ventilador.
Debido a las cargas de trabajo a las que son sometidas, las tarjetas gráficas alcanzan
temperaturas muy altas. Si no es tenido en cuenta, el calor generado puede hacer
fallar, bloquear o incluso averiar el dispositivo. Para evitarlo, se incorporan
dispositivos refrigerantes que eliminen el calor excesivo de la tarjeta. Se distinguen
dos tipos:
Aunque diferentes, ambos tipos de dispositivo son compatibles entre sí y suelen ser
montados juntos en las tarjetas gráficas; un disipador sobre la GPU (el componente
que más calor genera en la tarjeta, y en muchas ocasiones, de todo el PC) extrae el
calor, y un ventilador sobre él aleja el aire caliente del conjunto.
Alimentación
Hasta ahora la alimentación eléctrica de las tarjetas gráficas no había supuesto un
gran problema, sin embargo, la tendencia actual de las nuevas tarjetas es consumir
cada vez más energía. Aunque las fuentes de alimentación son cada día más
potentes, la insuficiencia energética se encuentra en la que puede proporcionar el
puerto PCIe que sólo es capaz de aportar una potencia por sí sólo de 75 W. Por este
motivo, las tarjetas gráficas con un consumo superior al que puede suministrar PCIe
incluyen un conector (PCIe power connector) que permite una conexión directa entre
la fuente de alimentación y la tarjeta, sin tener que pasar por la placa base, y, por
tanto, por el puerto PCIe.
Aun así, se pronostica que no dentro de mucho tiempo las tarjetas gráficas podrían
necesitar una fuente de alimentación propia, convirtiéndose dicho conjunto en
dispositivos externos.
Efectos gráficos
Algunas de las técnicas o efectos habitualmente empleados o generados mediante
las tarjetas gráficas pueden ser:
La implementación de nVIDA requiere una tarjeta madre con dos puertos PCIe x16.
Las dos tarjetas se interconectan por un pequeño conector de circuito impreso. El
software distribuye la carga de dos formas posibles. La primera, conocida como Split
El 3-Way SLI, es una de las opciones para crear un sistema SLI en relación costo-
rendimiento. Se trata de 3 tarjetas gráficas de un sólo núcleo unificadas mediante un
conector de 6 entradas (dos por tarjeta, a diferencia del SLI clásico que sólo hacía
uso de uno por tarjeta). Sin embargo, los requerimientos energéticos de esta
configuración puede ser una gran desventaja. Por ejemplo, en las tarjetas 9800 GTX,
se requieren dos conectores periféricos adicionales aptos para proporcionar la
energía consumida que el simple zócalo PCI Express no puede proporcionar, dando
como resultado la increíble necesidad de 6 conectores periféricos para el 3-Way que
solo fuentes de poder de más de 1000W pueden proporcionar. En respuesta a este
problema, nVIDIA lanzó en paralelo el sistema SLI Híbrido, que desactiva
aleatoriamente las tarjetas que componen el SLI a fin de ahorrar en consumo, sin
embargo esta tecnología se encuentra disponible sólo para un limitado número de
placas madre y tarjetas.
El Quad-SLI es otra opción de SLI implementada que realmente deja mucho que
desear. Se trata de una unificación de dos tarjetas GeForce 9800 GX2, que si bien a
simple vista parece ser un simple SLI clásico de dos tarjetas, en realidad resulta en
ser una combinación explosiva de 4 núcleos, debido a que cada tarjeta posee ya dos
de estos unificados en su interior por una tecnología muy similar al SLI, sólo que
requiere del uso de un solo PCI Express. Se da como resultado entonces un sistema
SLI de 4 núcleos, que se puede interpretar como 4 tarjetas mononúcleo unificadas,
siendo en realidad dos "dos en uno".
CrossFire
CrossFire es el nombre que
ATI/AMD a dado a su sistema de
doble GPU, diseñado como
respuesta al sistema SLI de NVidia.
Aunque la finalidad de ambos
sistemas es el mismo y tienen
muchas cosas en común, el
sistema para lograrlo difiere de un
sistema a otro. Sobre todo tienen
en común que solo funcionan en
gráficas PCIe, en el caso de
CrossFire en placas base y tarjetas
gráficas certificadas CrossFire.
En principio esta tecnología lo
único que posibilita es que ambas tarjetas compartan la carga de trabajo de la
En cuanto al sistema de conexión de las tarjetas también hay diferencia entre ambos
sistemas. En el sistema CrossFire se utilizan hasta tres sistemas diferentes para
realizar esta conexión:
La utilizada para las tarjetas de la gama baja consiste en utilizar el propio bus
PCIe para transmitir los datos visuales entre las dos GPUs. Este sistema fue
desechado para las tarjetas de gama superior, debido al excesivo consumo de
ancho de banda de PCIe para resoluciones muy grandes, lo que significa un
descenso en el rendimiento total del sistema.
La forma más utilizada de montar CrossFire en el resto de tarjeta de ATI es
utilizando una tarjeta CrossFire Master y otra CrossFire Slave. La primera
sustituye una de sus conexiones DVI por una conexión especial que mediante un
cable externo nos permite enlazar ambas tarjetas gráficas entre sí y a la vez con
el monitor.
Uno de los mayores problemas de este sistema es que tener que buscar una
gráfica CrossFire Master, que son muy escasas. Esto significa que para montar un
sistema crossFire no solo tenemos que montar dos tarjetas exactamente iguales,
sino que además una de ellas tiene que ser una versión Master.
Esta tarjeta puede ser de tipo PCI (descontinuadas), AGP y PCIe o bien un dispositivo
externo que se conecta al puerto USB. Los modelos externos codifican la grabación
por software; es decir, que es el procesador del computador es quien realmente hace
todo el trabajo.
Estas tarjetas también pueden ser usadas para captar señales de alguna fuente de
video como cámaras filmadoras, reproductores de DVD o VHS, etc. y a su vez ser
difundidas a través de codificador de video (como Windows Encoder) para trasmitirse
por Internet. Las sintonizadoras se distribuyen junto a sus driver y un software que
permite la sintonización, memorizado, visualización y grabación directa o programada
de los canales. También existe software gratuito de terceros que funciona con
cualquier tarjeta sintonizadora y que en muchos casos mejora la calidad de la
visualización y de la grabación obtenida por el software original de la sintonizadora:
Ej.: Discaler, kastor TV, TVtime, etc. Las sintonizadoras permiten la visualización de
teletexto y disponen de mando a distancia por infrarrojos. Adjuntan un receptor para
dicho mando, que se conecta a un puerto del computador. Es posible utilizar el mando
para manejar otras aplicaciones del computador mediante software específico (ej.:
LIRC) que convierte los botones pulsados en el mando en códigos de teclado. Por
ejemplo el software puede convertir la pulsación de la tecla "Play" del mando en la
pulsación de la tecla "P" del teclado del computador.
Tipos
Analógicas: Sintonizan los canales analógicos recibidos por antena (la televisión
"de toda la vida") y/o por cable.
Digitales: Las de tipo DVB-T (las más habituales) sintonizan los canales de la
televisión digital terrestre (TDT), que se recibe por antena.
Satélite: Sintonizan los canales de la televisión recibidos por antena parabólica
(por ejemplo, del satélite Hispasat).
También existen modelos híbridos, que son capaces de sintonizar al mismo tiempo
dos o más de estos tipos de emisión. Algunos modelos añaden también sintonización
de radio FM.
Controladora de Red
Las controladoras de red (también llamadas adaptadores de red, tarjetas de red,
tarjetas de interfaz o NIC) actúan como la interfaz entre un computador y el medio de
transmisión (cableado o inalámbrico) que permite la comunicación con otro equipo en
una red informática.
Una tarjeta de red permite compartir recursos entre dos o más computadoras (discos
duros, CD-ROM, impresoras, etc.). También se les llama NIC (por network interface
card; en español "tarjeta de interfaz de red"). Hay diversos tipos de adaptadores en
función del tipo de cableado o arquitectura que se utilice en la red (coaxial fino,
coaxial grueso, Token Ring, etc.), el más común es del tipo Ethernet utilizando una
interfaz o conector RJ-45.
Aunque el término tarjeta de red se suele asociar a una tarjeta de expansión insertada
en una ranura interna de un computador o impresora, también se suele utilizar para
referirse también a dispositivos integrados en la placa base del equipo, como las
interfaces presentes en las videoconsolas Xbox o las computadoras portátiles.
Para preparar los datos que se deben enviar, la tarjeta de red utiliza un transceptor,
que transforma a su vez los datos paralelos en datos en serie. Cada tarjeta posee una
dirección única denominada dirección MAC, asignada por el fabricante de la tarjeta, lo
que la diferencia de las demás tarjetas de red del mundo. Esta dirección consta de un
número de identificación único de 48 bits, se representa en hexadecimal. Estas
direcciones hardware únicas son administradas por el Institute of Electronic and
Electrical Engineers (IEEE). Los tres primeros octetos del número MAC son conocidos
como OUI e identifican a proveedores específicos y son designados por la IEEE.
Muchas tarjetas de red traen un zócalo vacío rotulado BOOT ROM, para incluir una
ROM opcional que permite que el equipo arranque desde un servidor de la red con
una imagen de un medio de arranque, lo que permite usar equipos sin disco duro . El
que algunas placas madre ya incorporen esa ROM en su BIOS y la posibilidad de
usar tarjetas CompactFlash en lugar del disco duro con sólo un adaptador, hace que
comience a ser menos frecuente, principalmente en tarjetas de perfil bajo.
Antes de que la tarjeta de red que envía los datos los transmita, dialoga
electrónicamente con la tarjeta de recepción con el objetivo de solucionar los
siguientes temas:
El firmware del cliente trata de encontrar un servicio de redirección PXE en la red para
recabar información sobre los servidores de arranque PXE disponibles. Tras analizar
la respuesta, el firmware solicitará al servidor de arranque apropiado el file path de un
network bootstrap program (NBP), lo descargará en la memoria RAM del computador
mediante TFTP, probablemente lo verificará, y finalmente lo ejecutará. Si se utiliza un
único NBP para todos los clientes PXE se puede especificar mediante BOOTP sin
necesidad de un proxy DHCP, pero aún será necesario un servidor TFTP.
También se pueden encontrar otros conectores como: BNC (10Mbps), AUI (10Mbps),
MII (100 Mbps), GMII (1000 Mbps). El caso más habitual es el de la tarjeta o con un
conector RJ45, aunque pueden tener más de un conector RJ-45. Durante la transición
del uso mayoritario de cable coaxial (10 Mbps) a par trenzado (100 Mbps) abundaron
las tarjetas con conectores BNC y RJ-45 e incluso BNC / AUI / RJ-45 (en muchas de
ellas se pueden ver serigrafiados los conectores no usados). Con la entrada de las
redes Gigabit y el hecho, que en las casas sea frecuente la presencias de varios
computadores comienzan a verse tarjetas y placas base (con NIC integradas) con 2 y
hasta 4 puertos RJ-45, algo antes reservado a los servidores.
Las velocidades especificadas por los fabricantes son teóricas, por ejemplo las de 100
Mbps (13,1 MB/s) realmente pueden llegar como máximo a unos 78,4Mbps (10,3
MB/s).
Wi-Fi
También son NIC las tarjetas inalámbricas o wireless, las cuales vienen en diferentes
variedades dependiendo de la norma a la cual se ajusten, usualmente son 802.11a,
802.11b y 802.11g. Las más populares son la 802.11b que transmite a 11 Mbps
(1,375 MB/s) con una distancia teórica de 100 metros y la 802.11g que transmite a 54
Mbps (6,75 MB/s).
La velocidad real de transferencia que llega a alcanzar una tarjeta WiFi con protocolo
11.b es de unos 4Mbps (0,5 MB/s) y las de protocolo 11.g llegan como máximo a
unos 20Mbps (2,6 MB/s). Actualmente el protocolo que se viene utilizando es 11.n
que es capaz de transmitir 600 Mbps. Actualmente la capa física soporta una
velocidad de 300Mbps, con el uso de dos flujos espaciales en un canal de 40 MHz.
Dependiendo del entorno, esto puede traducirse en un rendimiento percibido por el
usuario de 100Mbps.
Adaptador de Audio
Casi todas las tarjetas de sonido se han adaptado al estándar PC 99 de Microsoft que
consiste en asignarle un color a cada conector externo, de este modo:
Los conectores más utilizados para las tarjetas de sonido a nivel de usuario son los
minijack al ser los más económicos. Con los conectores RCA se consigue mayor
calidad ya que utilizan dos canales independientes, el rojo y el blanco, uno para el
canal derecho y otro para el izquierdo. A nivel profesional se utilizan las entradas y
salidas S/PDIF, también llamadas salidas ópticas digitales, que trabajan directamente
con sonido digital eliminando las pérdidas de calidad en las conversiones. Para poder
trabajar con dispositivos MIDI se necesita la entrada y salida MIDI.
Las operaciones básicas que permiten las tarjetas de sonido convencionales son las
siguientes:
Aparte de esto, las tarjetas suelen permitir cierto procesamiento de la señal, como
compresión o introducción de efectos. Estas opciones se pueden aplicar a las tres
operaciones.
Muestreo de sonido
Para producir un sonido el parlante necesita una posición donde golpear, que genera,
dependiendo del lugar golpeado, una vibración del aire diferente que es la que capta
el oído humano. Para determinar esa posición se necesita una codificación. Por lo
tanto cuanto mayor número de bits se tenga, mayor número de posiciones diferentes
se es capaz de representar.
Por ejemplo, si la muestra de sonido se codifica con 8 bits se tienen 256 posiciones
diferentes donde golpear. Sin embargo con 16 bits se conseguirían 65536 posiciones.
No se suelen necesitar más de 16 bits, a no ser que se quiera trabajar con un margen
de error que impida que la muestra cambie significativamente.
Frecuencia de muestreo
Las tarjetas de sonido y todos los dispositivos que trabajan con señales digitales lo
pueden hacer hasta una frecuencia límite, mientras mayor sea esta mejor calidad se
puede obtener. Las tarjetas de sonido que incluían los primeros modelos de Apple
Macintosh tenían una frecuencia de muestreo de 22050 Hz (22,05 KHz) de manera
que su banda de frecuencias para grabar sonido y reproducirlo estaba limitada a 10
KHz con una precisión de 8 bits que proporciona una relación señal sobre ruido
básica de solo 40 dB, las primeras tarjetas estereofónicas tenían una frecuencia de
muestreo de 44100 Hz (igual que los reproductores de CD) con lo que la banda útil se
extendió hasta los 20 KHz (alta calidad) pero se obtiene un sonido más claro cuando
se eleva un poco esta frecuencia pues hace que los circuitos de filtrado funcionen
mejor, por lo que los DAT (digital audio tape) tienen una frecuencia de conversión en
sus convertidores de 48 KHz, con lo cual la banda se extiende hasta los 22 KHz.
Debe recordarse que la audición humana está limitada a los 16 ó 17 KHz, pero si los
equipos se extienden más allá de este límite se tiene una mejor calidad, también que
la frecuencia de muestreo (del convertidor) debe ser de más del doble que la banda
que se pretende utilizar (teorema de Nyquist en la práctica). Finalmente los nuevos
formatos de alta definición usan frecuencias de muestreo de 96 KHz (para tener una
banda de 40 KHz) y hasta 192 KHz, no porque estas frecuencias se puedan oír, sino
porque así es más fácil reproducir las que si se oyen.
ACTIVIDAD