Sei sulla pagina 1di 215

Concepto de Red Local

La idea de las redes existe desde hace mucho tiempo, y ha tomado muchos significados. Si consulta el
término «red» en su diccionario, podría encontrar cualquiera de las siguientes definiciones:

• Malla, arte de pesca.


• Un sistema de líneas, caminos o canales entrelazados.
• Cualquier sistema interconectado; por ejemplo, una red de difusión de televisión.
• Un sistema en el que se conectan entre sí varias equipos independientes para compartir
datos y periféricos, como discos duros e impresoras.

En la definición, la palabra clave es «compartir». El propósito de las redes de equipos es compartir. La


capacidad de compartir información de forma eficiente es lo que le da a las redes de equipos su potencia y
atractivo. Y en lo que respecta a compartir información, los seres humanos actúan en cierto modo como los
equipos. Así como los equipos son poco más que el conjunto de información que se les ha introducido, en
cierto modo, nosotros somos el conjunto de nuestras experiencias y la información que se nos ha dado.
Cuando queremos incrementar nuestros conocimientos, ampliamos nuestra experiencia y recogemos más
información. Por ejemplo, para aprender más sobre los equipos, podríamos hablar informalmente con
amigos de la industria informática, volver a la escuela e ir a clase, o seguir un curso de autoaprendizaje.
Independientemente de la opción seleccionada, cuando buscamos compartir el conocimiento y la experiencia
de los demás, estamos trabajando en red.

Otra forma de pensar en las redes es imaginarse una red como un equipo. Puede ser un equipo deportivo,
como un equipo de fútbol, o un equipo de proyecto. Mediante el esfuerzo conjunto de todos los implicados
(compartiendo tiempo, talento y recursos) se alcanza una meta o se termina un proyecto. De forma similar,
gestionar una red de equipos no es muy distinto de dirigir un equipo de personas. La comunicación y
compartición puede ser fácil y simple (un jugador que pide a otro la pelota) o compleja (un equipo de un
proyecto virtual localizado en diferentes zonas horarias del mundo que se comunica mediante
teleconferencia, correo electrónico y presentaciones multimedia por Internet para llevar a cabo un proyecto).

Introducción a las redes de equipos

En su nivel más elemental, una red de equipos consiste en dos equipos conectados entre sí con un cable
que les permite compartir datos. Todas las redes de equipos, independientemente de su nivel de
sofisticación, surgen de este sistema tan simple. Aunque puede que la idea de conectar dos equipos con un
cable no parezca extraordinaria, al mirar hacia atrás se comprueba que ha sido un gran logro a nivel de
comunicaciones.

Las redes de equipos surgen como respuesta a la necesidad de compartir datos de forma rápida. Los
equipos personales son herramientas potentes que pueden procesar y manipular rápidamente grandes
cantidades de datos, pero no permiten que los usuarios compartan los datos de forma eficiente. Antes de la
aparición de las redes, los usuarios necesitaban imprimir sus documentos o copiar los archivos de
documentos en un disco para que otras personas pudieran editarlos o utilizarlos. Si otras personas
realizaban modificaciones en el documento, no existía un método fácil para combinar los cambios. A este
sistema se le llamaba, y se le sigue llamando, «trabajo en un entorno independiente» .

En ocasiones, al proceso de copiar archivos en disquetes y dárselos a otras personas para copiarlos en sus
equipos se le denomina «red de alpargata» (sneakernet). Esta antigua versión de trabajo en red la hemos
usado muchos de nosotros, y puede que sigamos usándola
actualmente.

Este sistema funciona bien en ciertas situaciones, y presenta sus


ventajas (nos permite tomar un café o hablar con un amigo mientras
intercambiamos y combinamos datos), pero resulta demasiado lento e
ineficiente para cubrir las necesidades y expectativas de los usuarios
informáticos de hoy en día. La cantidad de datos que se necesitan
compartir y las distancias que deben cubrir los datos superan con
creces las posibilidades del intercambio de disquetes.
¿Pero qué
sucedería si un
equipo estuviera
conectado a
otros? Entonces podría compartir datos con otros equipos, y enviar documentos a otras impresoras. Esta
interconexión de equipos y otros dispositivos se llama una red, y el concepto de conectar equipos que
comparten recursos es un sistema en red.

¿Por que usar una red de equipos?

Con la disponibilidad y la potencia de los equipos personales actuales, puede que se pregunte por qué son
necesarias las redes. Desde las primeras redes hasta los equipos personales actuales de altas prestaciones,
la respuesta sigue siendo la misma: las redes aumentan la eficiencia y reducen los costes. Las redes de
equipos alcanzan estos objetivos de tres formas principales:

• Compartiendo información (o datos).


• Compartiendo hardware y software.
• Centralizando la administración y el soporte.

De forma más específica, los equipos que forman parte de una red pueden compartir:

• Documentos (informes, hojas de cálculo, facturas, etc.).


• Mensajes de correo electrónico.
• Software de tratamiento de textos.
• Software de seguimiento de proyectos.
• Ilustraciones, fotografías, vídeos y archivos de audio.
• Transmisiones de audio y vídeo en directo.
• Impresoras.
• Faxes.
• Módems.
• Unidades de CD-ROM y otras unidades removibles, como unidades Zip y Jaz.
• Discos duros.

Y existen más posibilidades para compartir. Las prestaciones de las redes crecen constantemente, a
medida que se encuentran nuevos métodos para compartir y comunicarse mediante los equipos.

Compartir información (o datos)

La capacidad de compartir información de forma rápida y económica ha demostrado ser uno de los usos
más populares de la tecnología de las redes. Hay informes que afirman que el correo electrónico es, con
diferencia, la principal actividad de las personas que usan Internet. Muchas empresas han invertido en redes
específicamente para aprovechar los programas de correo electrónico y planificación basados en red.

Al hacer que la información esté disponible para compartir, las redes pueden reducir la necesidad de
comunicación por escrito, incrementar la eficiencia y hacer que prácticamente cualquier tipo de dato esté
disponible simultáneamente para cualquier usuario que lo necesite. Los directivos pueden usar estas
utilidades para comunicarse rápidamente de forma eficaz con grandes grupos de personas, y para organizar
y planificar reuniones con personas de toda una empresa u organización de un modo mucho más fácil de lo
que era posible anteriormente.

Compartir hardware y software


Antes de la aparición de las redes, los usuarios
informáticos necesitaban sus propias impresoras,
trazadores y otros periféricos; el único modo en que los
usuarios podían compartir una impresora era hacer
turnos para sentarse en el equipo conectado a la
impresora.

Las redes hacen posible que varias personas


compartan simultáneamente datos y periféricos. Si
muchas personas necesitan usar una impresora, todos
pueden usar la impresora disponible en la red.

Las redes pueden usarse para compartir y estandarizar aplicaciones, como tratamientos de texto, hojas
de cálculo, bases de datos de existencias, etc., para asegurarse de que todas las personas de la red utilizan
las mismas aplicaciones y las mismas versiones de estas aplicaciones. Esto permite compartir fácilmente los
documentos, y hace que la formación sea más eficiente: es más fácil que los usuarios aprendan a usar bien
una aplicación de tratamiento de textos que intentar aprender cuatro o cinco aplicaciones distintas de
tratamiento de textos.

Centralización de la administración y el soporte

La conexión en red de los equipos también puede facilitar las tareas de soporte. Para el personal técnico,
es mucho más eficiente dar soporte a una versión de un sistema operativo o aplicación y configurar todas los
equipos del mismo modo que dar soporte a muchos sistemas y configuraciones individuales y diferentes.

Los dos tipos principales de redes: LAN y WAN

Las redes de equipos se clasifican en


dos grupos, dependiendo de su tamaño y
función. Una red de área local (LAN, Local
Area Network) es el bloque básico de
cualquier red de equipos. Una LAN puede
ser muy simple (dos equipos conectados
con un cable) o compleja (cientos de
equipos y periféricos conectados dentro
de una gran empresa). La característica
que distingue a una LAN es que está
confinada a un área geográfica limitada.

Por otra parte, una red de área extensa


(WAN, Wide Area Network), no tiene limitaciones geográficas. Puede conectar equipos y otros dispositivos
situados en extremos opuestos del planeta. Una WAN consta de varias LAN interconectadas. Podemos ver
Internet como la WAN suprema.

Configuración de redes
En general, todas las redes tienen ciertos componentes, funciones y características comunes. Éstos
incluyen:

• Servidores: Equipos que ofrecen recursos compartidos a los usuarios de la red.


• Clientes: Equipos que acceden a los recursos compartidos de la red ofrecidos por los
servidores.
• Medio: Los cables que mantienen las conexiones físicas.
• Datos compartidos: Archivos suministrados a los clientes por parte de los servidores a
través de la red.
• Impresoras y otros periféricos compartidos: Recursos adicionales ofrecidos por los
servidores.
• Recursos: Cualquier servicio o dispositivo, como archivos, impresoras u otros elementos,
disponible para su uso por los miembros de la red.
Aun con estas similitudes, las redes se dividen en dos categorías principales.

• Redes Trabajo en Grupo.


• Redes basadas en servidor.

La diferencia entre las redes Trabajo en Grupo y las redes basadas en servidor es importante, ya que cada
tipo presenta distintas capacidades. El tipo de red seleccionado para su instalación dependerá de factores
tales como:

• El tamaño de la organización.
• El nivel de seguridad requerido.
• El tipo de negocio.
• El nivel de soporte administrativo disponible.
• La cantidad de tráfico de la red.
• Las necesidades de los usuarios de la red.
• El presupuesto de la red.

Redes Trabajo en Grupo

En una red Trabajo en Grupo, no hay


servidores dedicados, y no existe una
jerarquía entre los equipos. Todos los
equipos son iguales, y por tanto son
«pares» (peers). Cada equipo actúa como
cliente y servidor, y no hay un
administrador responsable de la red
completa. El usuario de cada equipo
determina los datos de dicho equipo que
van a ser compartidos en la red.

• Tamaño: Las redes Trabajo en Grupo (peer-to-peer) se llaman también grupos de trabajo
(workgroups). El término "grupo de trabajo" implica un pequeño grupo de personas. Generalmente,
una red Trabajo en Grupo abarca un máximo de diez equipos.
• Coste: Las redes Trabajo en Grupo son relativamente simples. Como cada equipo funciona
como cliente y servidor, no hay necesidad de un potente servidor central o de los restantes
componentes de una red de alta capacidad. Las redes Trabajo en Grupo pueden ser más
económicas que las redes basadas en servidor.
• Sistemas operativos: En una red punto a punto, el software de red no requiere el mismo
tipo de rendimiento y nivel de seguridad que el software de red diseñado para servidores dedicados.
Los servidores dedicados sólo funcionan como servidores, y no como clientes o estaciones.
• Las redes Trabajo en Grupo están incorporadas en muchos sistemas operativos. En estos
casos, no es necesario software adicional para configurar una red Trabajo en Grupo.
• Implementación: En entornos típicos de red, una implementación Trabajo en Grupo
ofrece las siguientes ventajas:
o Los equipos están en las mesas de los usuarios.
o Los usuarios actúan como sus propios administradores, y planifican su propia
seguridad.
o Los equipos de la red están conectados por un sistema de cableado simple,
fácilmente visible.

Cuándo resulta adecuada una red Trabajo en Grupo

Las redes Trabajo en Grupo resultan una buena elección para entornos en los cuales:

• Hay como máximo 10 usuarios.


• Los usuarios comparten recursos, tales como archivos e impresoras, pero no existen
servidores especializados.
• La seguridad no es una cuestión fundamental.
• La organización y la red sólo van a experimentar un crecimiento limitado en un futuro
cercano.

Cuando se dan estos factores, puede que una red Trabajo en Grupo sea una mejor opción que una red
basada en servidor.

Consideraciones sobre una red Trabajo en Grupo

Aunque puede que una red Trabajo en Grupo pueda cubrir las necesidades de pequeñas organizaciones,
no resulta adecuada para todos los entornos. El resto de esta sección describe alguna de las consideraciones
que un planificador de redes necesita tener en cuenta antes de seleccionar el tipo de red a implementar.

Administración

Las tareas de administración de la red incluyen:

• Gestionar los usuarios y la seguridad.


• Asegurar la disponibilidad de los recursos.
• Mantener las aplicaciones y los datos.
• Instalar y actualizar software de aplicación y de sistema operativo.

En una red típica Trabajo en Grupo, no hay un responsable del sistema que supervise la administración de
toda la red. En lugar de esto, los usuarios individuales administran sus propios equipos.

Compartir recursos

Todos los usuarios pueden compartir cualquiera de sus recursos de la forma que deseen. Estos recursos
incluyen datos en directorios compartidos, impresoras, tarjetas de fax, y demás.

Requerimientos del servidor

En una red Trabajo en Grupo, cada equipo necesita:

• Utilizar un amplio porcentaje de sus recursos para dar soporte al usuario sentado frente a
el equipo, denominado usuario local.
• Usar recursos adicionales, como el disco duro y la memoria, para dar soporte a los usuarios
que acceden a recursos desde la red, denominados usuarios remotos.

Aunque una red basada en servidor libera al usuario local de estas demandas, necesita, como mínimo, un
potente servidor dedicado para cubrir las demandas de todos los clientes de la red.

Seguridad

En una red de equipos, la seguridad (hacer que los equipos y los datos almacenados en ellos estén a salvo
de daños o accesos no autorizados) consiste en definir una contraseña sobre un recurso, como un directorio,
que es compartido en la red. Todos los usuarios de una red Trabajo en Grupo definen su propia seguridad, y
puede haber recursos compartidos en cualquier equipo, en lugar de únicamente en un servidor centralizado;
de este modo, es muy difícil mantener un control centralizado. Esta falta de control tiene un gran impacto en
la seguridad de la red, ya que puede que algunos usuarios no implementen ninguna medida de seguridad. Si
la seguridad es importante, puede que sea mejor usar una red basada en servidor.

Formación

Como cada equipo de un entorno Trabajo en Grupo puede actuar como servidor y cliente, los usuarios
necesitan formación antes de que puedan desenvolverse correctamente como usuarios y administradores de
sus equipos.
Redes basadas en servidor

En un entorno con más de 10 usuarios, una red


Trabajo en Grupo (con equipos que actúen a la vez
como servidores y clientes) puede que no resulta
adecuada. Por tanto, la mayoría de las redes tienen
servidores dedicados. Un servidor dedicado es
aquel que funciona sólo como servidor, y no se
utiliza como cliente o estación, Los servidores se
llaman «dedicados» porque no son a su vez
clientes, y porque están optimizados para dar
servicio con rapidez a peticiones de clientes de la
red, y garantizar la seguridad de los archivos y
directorios. Las redes basadas en servidor se han
convertido en el modelo estándar para la definición
de redes.

A medida que las redes incrementan su tamaño (y el número de equipos conectados y la distancia física y
el tráfico entre ellas crece), generalmente se necesita más de un servidor. La división de las tareas de la red
entre varios servidores asegura que cada tarea será realizada de la forma más eficiente posible.

Servidores especializados

Los servidores necesitan realizar tareas complejas y variadas. Los servidores para grandes redes se han
especializado para adaptarse a las necesidades de los usuarios. A continuación se dan ejemplos de los
diferentes tipos de servidores incluidos en muchas redes de gran tamaño.

• Servidores de archivos e impresión: Los servidores de archivos e impresión gestionan


el acceso de los usuarios y el uso de recursos de archivos e impresión. Por ejemplo, al ejecutar una
aplicación de tratamiento de textos, la aplicación de tratamiento de textos se ejecuta en su equipo.
El documento de tratamiento de textos almacenado en el servidor de archivos e impresión se carga
en la memoria de su equipo, de forma que pueda editarlo o modificarlo de forma local. En otras
palabras, los servidores de archivos e impresión se, utilizan para el almacenamiento de archivos y
datos.
• Servidores de aplicaciones: Los servidores de aplicaciones constituyen el lado servidor
de las aplicaciones cliente/servidor, así como los datos, disponibles para los clientes. Por ejemplo,
los servidores almacenan grandes cantidades de datos organizados para que resulte fácil su
recuperación. Por tanto, un servidor de aplicaciones es distinto de un servidor de archivos e
impresión. Con un servidor de archivos e impresión, los datos o el archivo son descargados al
equipo que hace la petición. En un servidor de aplicaciones, la base de datos permanece en el
servidor y sólo se envían los resultados de la petición al equipo que realiza la misma.
Una aplicación cliente que se ejecuta de forma local accede a los datos del servidor de aplicaciones.
Por ejemplo, podría consultar la base de datos de empleados buscando los empleados que han
nacido en noviembre. En lugar de tener la base de datos completa, sólo se pasará el resultado de la
consulta desde el servidor a su equipo local.
• Servidores de correo: Los servidores de correo funcionan como servidores de
aplicaciones, en el sentido de que son aplicaciones servidor y cliente por separado, con datos
descargados de forma selectiva del servidor al cliente.
• Servidores de fax: Los servidores de fax gestionan el tráfico de fax hacia el exterior y el
interior de la red, compartiendo una o más tarjetas módem fax.
• Servidores de comunicaciones: Los servidores de comunicaciones gestionan el flujo de
datos y mensajes de correo electrónico entre las propias redes de los servidores y otras redes,
equipos mainframes, o usuarios remotos que se conectan a los servidores utilizando módems y
líneas telefónicas.
• Servidores de servicios de directorio: Los servidores de servicios de directorio permiten
a los usuarios localizar, almacenar y proteger información en la red. Por ejemplo, cierto software
servidor combina los equipos en grupos locales (llamados dominios) que permiten que cualquier
usuario de la red tenga acceso a cualquier recurso de la misma.

La planificación para el uso de servidores especializados es importante con una red grande. El planificador
debe tener en cuenta cualquier crecimiento previsto de la red, para que el uso de ésta no se vea perjudicado
si es necesario cambiar el papel de un servidor específico.
El papel del software en un entorno basado en servidor

Un servidor de red y su sistema operativo trabajan conjuntamente como una unidad. Independientemente
de lo potente o avanzado que pueda ser un servidor, resultará inútil sin un sistema operativo que pueda
sacar partido de sus recursos físicos. Los sistemas operativos avanzados para servidor, como los de
Microsoft y Novell, están diseñados para sacar partido del hardware de los servidores más avanzados.

Ventajas de las redes basadas en servidor

Aunque resulta más compleja de instalar, gestionar y configurar, una red basada en servidor tiene
muchas ventajas sobre una red simple Trabajo en Grupo.

• Compartir recursos: Un servidor está diseñado para ofrecer acceso a muchos archivos e
impresoras manteniendo el rendimiento y la seguridad de cara al usuario.
• La compartición de datos basada en servidor puede ser administrada y controlada de forma
centralizada. Como estos recursos compartidos están localizados de forma central, son más fáciles
de localizar y mantener que los recursos situados en equipos individuales.
• Seguridad: La seguridad es a menudo la razón primaria para seleccionar un enfoque
basado en servidor en las redes. En un entorno basado en servidor, hay un administrador que
define la política y la aplica a todos los usuarios de la red, pudiendo gestionar la seguridad.
• Copia de seguridad: Las copias de seguridad pueden ser programadas varias veces al día
o una vez a la semana, dependiendo de la importancia y el valor de los datos. Las copias de
seguridad del servidor pueden programarse para que se produzcan automáticamente, de acuerdo
con una programación determinada, incluso si los servidores están localizados en sitios distintos de
la red.
• Redundancia: Mediante el uso de métodos de copia de seguridad llamados sistemas de
redundancia, los datos de cualquier servidor pueden ser duplicados y mantenidos en línea. Aun en
el caso de que ocurran daños en el área primaria de almacenamiento de datos, se puede usar una
copia de seguridad de los datos para restaurarlos.
• Número de usuarios: Una red basada en servidor puede soportar miles de usuarios. Este
tipo de red sería, imposible de gestionar como red Trabajo en Grupo, pero las utilidades actuales de
monitorización y gestión de la red hacen posible disponer de una red basada en servidor para
grandes cifras de usuarios.
• Hardware: El hardware de los equipos cliente puede estar limitado a las necesidades del
usuario, ya que los clientes no necesitan la memoria adicional (RAM) y el almacenamiento en disco
necesarios para los servicios de servidor.

Diseño de una topología de red


La topología física está íntimamente ligada a los mecanismos de control de acceso al medio utilizados,
estableciéndose una gran dependencia entre estos dos elementos.

Naturalmente que cuando un diseñador de una red se plantea la topología a utilizar lo primero que debe
de analizar son los objetivos que se persiguen, y que pueden incluir aspectos como:

• La fiabilidad de la red. Es decir, utilizar una topología que haga que la red sea lo más
fiable posible, que responda a lo que el usuario le pide.
• Con frecuencia otro objetivo será el poder tener caminos alternativos para el caso de
que algunos caminos de la red queden indisponibles.
• Igualmente deberá de considerar la posibilidad de que los fragmentos de los mensajes que
se transmitan (en el caso de que se puedan fragmentar por eficiencia de la red) puedan llegar
desordenados y se precisen mecanismos de reordenamiento.
• Como en toda red, un objetivo básico deberá ser la detección y, en su caso, recuperación
de los errores en la transmisión.
• La topología de las redes puede llegar a ser muy compleja y un objetivo, con frecuencia,
podrá ser el encontrar el camino más económico en la red para llegar al destino.
• Finalmente en todo diseño, igualmente en el de la topología, intervendrán en gran medida
factores de coste.
De otro lado, los objetivos de la topología deberán estar relacionados con requisitos que se precisan en la
red para la cual se está diseñando la topología.

Estos requisitos con frecuencia cubrirán aspectos como:

• Buscar la longitud mínima real en el canal de comunicaciones. Al final la topología se


plasmará en enlaces de comunicaciones que hay que establecer y se pretenderá con frecuencia la
longitud mínima, ya que éste será un factor importante del coste.
• La red se va a establecer para una serie de actividades concretas y se pretenderá el canal
de comunicaciones más económico para esas actividades.
• Como toda red trataremos de que nos de el mejor servicio y para ello trataremos de
optimizar el tiempo de respuesta en función de los requerimientos del servicio.

Uno de los aspectos que podría intervenir en el tiempo de respuesta es el tiempo físico de transmisión y
recepción y por tanto pretenderemos acortar al máximo los retardos en transmisión y en recepción.

Topologías

Las topologías físicas más frecuentes en el mundo de las redes (no sólo las redes de área local) son:

• Jerárquica
• Bus.
• Estrella.
• Anillo.
• Malla.

Éstas se pueden combinar obteniendo una variedad de topologías híbridas más complejas.

Jerárquica

Fué una de las primeras topologías diseñadas para redes locales (red inicial de PC's de IBM) y una de las
más utilizadas en redes WAN.

Consiste en la distribución jerárquica de las unidades en un bus donde la información tiene que llegar
siempre a la cabecera de jerarquía.

Algunas de las ventajas y desventajas más interesantes de este tipo de topologías, son:

• Entre las ventajas destacan la facilidad para cubrir áreas extensas (lo que la faculta para
establecer entornos de redes WAN) y las facilidades que ofrece para establecer funciones de gestión
de red al disponer de nodos jerárquicos que pueden conocer e informa: de lo subordinado.
• Entre las desventajas o inconvenientes destacan la posibilidad de cuellos de botella en un
nodo jerárquico por el que pase un tráfico elevado o las dificultades para la descentralización de
responsabilidades, que en última instancia nos llevarían a un alto grado de centralización en el nodo
de jerarquía superior.

Bus

La topología en bus, a menudo, recibe el nombre de «bus lineal», porque los equipos se conectan en línea
recta. Éste es el método más simple y común utilizado en las redes de equipos. Consta de un único cable
llamado segmento central (trunk; también llamado backbone o segmento) que conecta todos los equipos de
la red en una única línea.

Comunicación en el bus
Los equipos de una red con topología en bus se comunican enviando datos a un equipo particular,
mandando estos datos sobre el cable en forma de señales electrónicas. Para comprender cómo se comunican
los equipos en un bus necesita estar familiarizado con tres conceptos:

• Envío de la señal. Los datos de red en forma de señales electrónicas se envían a todos los
equipos de la red. La información sólo es aceptada por aquel equipo cuya dirección coincida con la
dirección codificada en la señal original. Los restantes equipos rechazan los datos. En cada
momento, sólo puede haber un equipo enviando mensajes.
Como en cada momento sólo puede haber un equipo enviando datos en una red en bus, el número
de equipos conectados al bus afectará al rendimiento de la red. Cuantos más equipos haya en un
bus, más equipos estarán esperando para transmitir datos por el bus y la red será más lenta.
No existe un método estándar para medir el impacto de un número determinado de equipos en la
velocidad de cualquier red dada. El efecto sobre el rendimiento no sólo está relacionado con el
número de equipos. Algunos de los factores que afectarán al rendimiento de una red (además del
número de equipos conectados en red) son:
o Características hardware de los equipos de la red.
o Número total de órdenes emitidas esperando a ser ejecutadas.
o Tipos de aplicaciones (por ejemplo, cliente-servidor o compartición del sistema de
archivos) que se están ejecutando en la red.
o Tipo de cable usado en la red.
o Distancias entre los equipos en la red.

Los equipos conectados a un bus o transmiten datos a otros equipos de la red o están escuchando
datos procedentes de otros equipos de la red. No son responsables de pasar datos de un equipo al
siguiente. Por consiguiente, si falla una equipo, esto no afecta al resto de la red.

• Rebote de la señal. Como los datos, o la señal electrónica, se envían a toda la red, viajan
de un extremo a otro del cable. Si se permite a la señal que continúe ininterrumpidamente,
rebotará una vez y otra por el cable, y evitará que otros equipos envíen señales. Por tanto, la señal
debe ser detenida una vez que haya tenido la oportunidad de alcanzar la dirección de destino
correcta.
• Terminador. Para detener el rebote o eco de la señal, se coloca un componente
denominado terminador en cada uno de los extremos del cable para absorber las señales libres. Al
absorber la señal se libera el cable para que otros equipos puedan enviar datos. Todos los extremos
de cada segmento de la red deben estar conectados a un terminador.

Interrupción de la comunicación en la red

Si el cable es separado físicamente en dos partes o se desconecta un extremo del mismo, se produce una
rotura en el cable. En cualquiera de estos casos, uno o ambos extremos del cable no tendrán un terminador,
la señal rebotará y la actividad de la red se detendrá. Ésta es una de las posibles razones por las que una
red puede «caer».

Los equipos de la red seguirán pudiendo funcionar como equipos aislados; sin embargo, mientras el
segmento esté interrumpido, no podrán comunicarse entre sí ni acceder a los recursos compartidos. Los
equipos del segmento caído intentarán establecer una conexión; mientras lo hagan, el rendimiento de las
estaciones será más lento.

Expansión de la red

A medida que crece el tamaño físico de la instalación, la red también necesitará crecer. El cable de la
topología en bus puede alargarse utilizando uno de los dos métodos siguientes:

• Existe un componente denominado acoplador (barrel connector) que puede conectar dos
segmentos de cable entre sí para constituir un segmento de cable más largo. No obstante, los
conectores debilitan la señal y deben con moderación. Es preferible tener un cable continuo a
conectar varios más pequeños con conectores. El uso de demasiados conectores puede evitar que la
señal sea recibida correctamente.
• Se puede utilizar un dispositivo llamado repetidor para conectar dos cables. Un repetidor
amplifica la señal antes de reenviarla por el cable. Un repetidor resulta mejor que un conector o un
tramo de cable más largo, ya que permite que una señal viaje más lejos y siga siendo recibida
correctamente.

Estrella

En la topología en estrella, los segmentos de cable de cada equipo están conectados a un componente
centralizado llamado hub. Las señales son transmitidas desde el equipo emisor a través del hub a todos los
equipos de la red. Esta topología surgió en los albores de la informática, cuando se conectaban equipos a un
gran equipo central o mainframe.

La red en estrella ofrece la ventaja de centralizar los recursos y la gestión. Sin embargo, como cada
equipo está conectado a un punto central, esta topología requiere una gran cantidad de cables en una gran
instalación de red. Además, si el punto central falla, cae toda la red.

En una red en estrella, si falla un equipo (o el cable que lo conecta al hub), el equipo afectado será el
único que no podrá enviar o recibir datos de la red. El resto de la red continuará funcionando normalmente.

Anillo

La topología en anillo conecta equipos en un único círculo de cable. A diferencia de la topología en bus, no
existen finales con terminadores. La señal viaja a través del bucle en una dirección, y pasa a través de cada
equipo que puede actuar como repetidor para amplificar la señal y enviarla al siguiente equipo. El fallo de un
equipo puede tener impacto sobre toda la red.

La topología física de una red es el propio cable. La topología lógica de una red es la
forma en la que se transmiten las señales por el cable.

Pase de testigo

Uno de los métodos para transmitir datos alrededor de un anillo es el llamado pase de testigo (un testigo
es una secuencia especial de bits que viajan alrededor de una red Token Ring. Cada red tiene únicamente un
testigo). El testigo es pasado de equipo en equipo hasta que llega a un equipo que tiene datos que enviar. El
equipo emisor modifica el testigo, pone una dirección electrónica en los datos y los envía por el anillo.

Los datos pasan por cada equipo hasta llegar al que tiene la dirección que coincide con la dirección
implantada en los datos. El equipo receptor devuelve un mensaje al equipo emisor, indicando que los datos
han sido recibidos, Después de la verificación, el equipo emisor crea un nuevo testigo y lo libera en la red. El
testigo circula por el anillo hasta que una estación necesita enviar datos.

Puede parecer que el pase de testigo requiere mucho tiempo, pero el testigo viaja realmente a una
velocidad cercana a la de la luz. Un testigo puede circular por un anillo de 200 metros de diámetro alrededor
de unas 477.376 veces por segundo.

Malla

Una red con topología en malla ofrece una redundancia y fiabilidad superiores. En una topología en malla,
cada equipo está conectado a todos los demás equipos mediante cables separados. Esta configuración ofrece
caminos redundantes por toda la red, de modo que si falla un cable, otro se hará cargo del tráfico. Aunque la
facilidad de solución de problemas y el aumento de la fiabilidad son ventajas muy interesantes, estas redes
resultan caras de instalar, ya que utilizan mucho cableado. En muchas ocasiones, la topología en malla se
utiliza junto con otras topologías para formar una topología híbrida.

Hubs

Uno de los componentes de las redes que se ha convertido en un dispositivo estándar en las mismas es el
hub.
• Hubs activos: La mayoría de los hubs son activos; es decir, regeneran y retransmiten las
señales del mismo modo que un repetidor. Como generalmente los hubs tienen de ocho a doce
puertos para conexión de equipos de la red, a menudo se les llama repetidores multipuerto. Los
hubs activos requieren corriente eléctrica para su funcionamiento.
• Hubs pasivos: Algunos tipos de hubs son pasivos; como ejemplos están los paneles de
conexión o los bloques de conexión (punch-down blocks). Actúan como puntos de conexión y no
amplifican o regeneran la señal; la señal pasa a través del hub. Los hubs pasivos no necesitan
corriente eléctrica para funcionar.
• Hubs híbridos: Los hubs híbridos son hubs avanzados que permiten conectar distintos
tipos de cables.

Consideraciones sobre hubs

Los sistemas basados en hubs son versátiles y ofrecen varias ventajas sobre los sistemas que no utilizan
hubs.

En la topología estándar de bus lineal, una rotura en el cable hará caer toda la red. Sin embargo,
utilizando hubs, una rotura en cualquiera de los cables conectados al hub sólo afecta a un segmento limitado
de la red. Un cable roto o desconectado sólo afecta a una estación, mientras el resto de la red sigue
funcionando.

Las topologías basadas en hubs incluyen los siguientes beneficios:

• Los sistemas de cableado pueden ser modificados o ampliados a medida que sea necesario.
• Se pueden usar puertos diferentes para adaptarse a diversos sistemas de cableado.
• Se puede centralizar la monitorización de la actividad y el tráfico de la red.

Muchos hubs activos tienen capacidades de diagnóstico que pueden indicar si una
conexión está funcionando o no.

Variaciones sobre las topologías estándar

Muchas topologías existentes son combinaciones híbridas de las topologías en bus, estrella, anillo y malla.

Estrella-bus

La topología estrella-bus es una combinación de las topologías en bus y estrella. En una topología en
estrella-bus, varias redes con topología en estrella están conectadas entre sí con segmentos de bus lineales.

Si una equipo cae, esto no afectará al resto de la red. Los restantes equipos pueden seguir
comunicándose. Si un hub deja de funcionar, todos los equipos conectados a dicho hub no podrán
comunicarse. Si un hub está conectado a otros hubs, estas conexiones también se interrumpirán.

Estrella-anillo

La estrella-anillo (en ocasiones llamada anillo cableado en estrella) parece ser similar a la topología
estrella-bus. Tanto la estrella-anillo como la estrella-bus están centradas en un hub que contiene el anillo o
bus real. En una red en estrella-bus hay segmentos lineales que conectan los hubs, mientras que los hubs de
una red estrella-anillo están conectados en forma de estrella al hub principal.

Trabajo en Grupo

Muchas pequeñas oficinas utilizan una red Trabajo en Grupo, una red de este tipo puede
configurarse con una topología física de estrella o bus. Sin embargo, como todos los
equipos de la red son iguales (cada una puede actuar como cliente y servidor), la topología
lógica puede resultar distinta.

Cableado de una red


Principales tipos de cables

Actualmente, la gran mayoría de las redes están conectadas por algún tipo de cableado, que actúa como
medio de transmisión por donde pasan las señales entre los equipos. Hay disponibles una gran cantidad de
tipos de cables para cubrir las necesidades y tamaños de las diferentes redes, desde las más pequeñas a las
más grandes.

Existe una gran cantidad de tipos de cables. Algunos fabricantes de cables publican un catálogos con más
de 2.000 tipos diferentes que se pueden agrupar en tres grupos principales que conectan la mayoría de las
redes:

• Cable coaxial.
• Cable de par trenzado (apantallado y no apantallado).
• Cable de fibra óptica.

Cable coaxial

Hubo un tiempo donde el cable coaxial fue el más utilizado. Existían dos importantes razones para la
utilización de este cable: era relativamente barato, y era ligero, flexible y sencillo de manejar.

Un cable coaxial consta de un núcleo de hilo de cobre rodeado por un aislante, un apantallamiento de
metal trenzado y una cubierta externa.

El término apantallamiento hace referencia al


trenzado o malla de metal (u otro material) que
rodea algunos tipos de cable. El apantallamiento
protege los datos transmitidos absorbiendo las
señales electrónicas espúreas, llamadas ruido, de
forma que no pasan por el cable y no distorsionan
los datos. Al cable que contiene una lámina aislante
y una capa de apantallamiento de metal trenzado se
le denomina cable apantallado doble. Para entornos
que están sometidos a grandes interferencias, se
encuentra disponible un apantallamiento cuádruple.
Este apantallamiento consta de dos láminas
aislantes, y dos capas de apantallamiento de metal
trenzado,

El núcleo de un cable coaxial transporta señales electrónicas que forman los datos. Este núcleo puede ser
sólido o de hilos. Si el núcleo es sólido, normalmente es de cobre.

Rodeando al núcleo hay una capa aislante dieléctrica que la separa de la malla de hilo. La malla de hilo
trenzada actúa como masa, y protege al núcleo del ruido eléctrico y de la intermodulación (la
intermodulación es la señal que sale de un hilo adyacente).

El núcleo de conducción y la malla de hilos deben estar separados uno del otro. Si llegaran a tocarse, el
cable experimentaría un cortocircuito, y el ruido o las señales que se encuentren perdidas en la malla
circularían por el hilo de cobre. Un cortocircuito eléctrico ocurre cuando dos hilos de conducción o un hilo y
una tierra se ponen en contacto. Este contacto causa un flujo directo de corriente (o datos) en un camino no
deseado. En el caso de una instalación eléctrica común, un cortocircuito causará el chispazo y el fundido de
un fusible o del interruptor automático. Con dispositivos electrónicos que utilizan bajos voltajes, el resultado
no es tan dramático, y a menudo casi no se detecta. Estos cortocircuitos de bajo voltaje generalmente
causan un fallo en el dispositivo y lo habitual es que se pierdan los datos.

Una cubierta exterior no conductora (normalmente hecha de goma, Teflón o plástico) rodea todo el cable.

El cable coaxial es más resistente a interferencias y atenuación que el cable de par trenzado.

La malla de hilos protectora absorbe las señales electrónicas perdidas, de forma que no afecten a los
datos que se envían a través del cable de cobre interno. Por esta razón, el cable coaxial es una buena opción
para grandes distancias y para soportar de forma fiable grandes cantidades de datos con un equipamiento
poco sofisticado.

Tipos de cable coaxial

Hay dos tipos de cable coaxial:

• Cable fino (Thinnet).


• Cable grueso (Thicknet).

El tipo de cable coaxial más apropiado depende de 1as necesidades de la red en particular.

Cable Thinnet (Ethernet fino). El cable Thinnet es un cable coaxial flexible de unos 0,64 centímetros de
grueso (0,25 pulgadas). Este tipo de cable se puede utilizar para la mayoría de los tipos de instalaciones de
redes, ya que es un cable flexible y fácil de manejar.

El cable coaxial Thinnet puede transportar una señal hasta una distancia aproximada de 185 metros (unos
607 pies) antes de que la señal comience a sufrir atenuación.

Los fabricantes de cables han acordado denominaciones específicas para los diferentes tipos de cables. El
cable Thinnet está incluido en un grupo que se denomina la familia RG-58 y tiene una impedancia de 50
ohm. (La impedancia es la resistencia, medida en ohmios, a la corriente alterna que circula en un hilo.)

La característica principal de la familia RG-58 es el núcleo central de cobre y los diferentes tipos de cable
de esta familia son:

• RG-58/U: Núcleo de cobre sólido.


• RG-58 A/U: Núcleo de hilos trenzados.
• RG-58 C/U: Especificación militar de RG-58 A/U.
• RG-59: Transmisión en banda ancha, como el cable de televisión.
• RG-60: Mayor diámetro y considerado para frecuencias más altas que RG-59, pero
también utilizado para transmisiones de banda ancha.
• RG-62: Redes ARCnet.

Cable Thicknet (Ethernet grueso). El cable Thicknet es un cable coaxial relativamente rígido de
aproximadamente 1,27 centímetros de diámetro. Al cable Thicknet a veces se le denomina Ethernet estándar
debido a que fue el primer tipo de cable utilizado con la conocida arquitectura de red Ethernet. El núcleo de
cobre del cable Thicknet es más grueso que el del cable Thinnet.

Cuanto mayor sea el grosor del núcleo de cobre, más lejos puede transportar las señales. El cable
Thicknet puede llevar una señal a 500 metros. Por tanto, debido a la capacidad de Thicknet para poder
soportar transferencia de datos a distancias mayores, a veces se utiliza como enlace central o backbone para
conectar varias redes más pequeñas basadas en Thinnet.

Un transceiver conecta el cable coaxial Thinnet a un cable coaxial Thicknet mayor. Un transceiver
diseñado para Ethernet Thicknet incluye un conector conocido como «vampiro» o «perforador» para
establecer la conexión física real con el núcleo Thicknet. Este conector se abre paso por la capa aislante y se
pone en contacto directo con el núcleo de conducción. La conexión desde el transceiver a la tarjeta de red se
realiza utilizando un cable de transceiver para conectar el conector del puerto de la interfaz de conexión de
unidad (AUI) a la tarjeta. Un conector de puerto AUI para Thicknet también recibe el nombre de conector
Digital Intel Xerox (DIX) (nombre dado por las tres compañías que lo desarrollaron y sus estándares
relacionados) o como conector dB-15.

Cable Thinnet frente a Thicknet. Como regla general, los cables más gruesos son más difíciles de
manejar. El cable fino es flexible, fácil de instalar y relativamente barato. El cable grueso no se dobla
fácilmente y, por tanto, es más complicado de instalar. Éste es un factor importante cuando una instalación
necesita llevar el cable a través de espacios estrechos, como conductos y canales. El cable grueso es más
caro que el cable fino, pero transporta la señal más lejos.

Hardware de conexión del cable coaxial

Tanto el cable Thinnet como el Thicknet utilizan un componente de conexión llamado conector BNC, para
realizar las conexiones entre el cable y los equipos. Existen varios componentes importantes en la familia
BNC, incluyendo los siguientes:

• El conector de cable BNC. El conector de cable BNC está soldado, o incrustado, en el


extremo de un cable.
• El conector BNC T. Este conector conecta la tarjeta de red (NIC) del equipo con el cable
de la red.
• Conector acoplador (barrel) BNC. Este conector se utiliza para unir dos cables Thinnet
para obtener uno de mayor longitud.
• Terminador BNC. El terminador BNC cierra el extremo del cable del bus para absorber las
señales perdidas.

El origen de las siglas BNC no está claro, y se le han atribuido muchos nombres, desde
«British Naval Connector» a «Bayonet Neill-Councelman». Haremos referencia a esta
familia hardware simplemente como BNC, debido a que no hay consenso en el nombre
apropiado y a que en la industria de la tecnología las referencias se hacen simplemente
como conectores del tipo BNC.

Tipos de cable coaxial y normas de incendios

El tipo de cable que se debe utilizar depende del lugar donde se vayan a colocar los cables en la oficina.
Los cables coaxiales pueden ser de dos tipos:

• Cloruro de polivinilo (PVC).


• Plenum.

El cloruro de polivinilo (PVC) es un tipo de plástico utilizado para construir el aíslante y la clavija del
cable en la mayoría de los tipos de cable coaxial. El cable coaxial de PVC es flexible y se puede instalar
fácilmente a través de la superficie de una oficina. Sin embargo, cuando se quema, desprende gases tóxicos.

Un plenum. Es el espacio muerto que hay en muchas construcciones entre el falso techo y el piso de
arriba; se utiliza para que circule aire frío y caliente a través del edificio. Las normas de incendios indican
instrucciones muy específicas sobre el tipo de cableado que se puede mandar a través de esta zona, debido
a que cualquier humo o gas en el plenum puede mezclarse con el aire que se respira en el edificio.

El cableado de tipo plenum contiene materiales especiales en su aislamiento y en 1a clavija del cable.
Estos materiales están certificados como resistentes al fuego y producen una mínima cantidad de humo;
esto reduce los humos químicos tóxicos. El cable plenum se puede utilizar en espacios plenum y en sitios
verticales (en una pared, por ejemplo) sin conductos. Sin embargo, el cableado plenum es más caro y
menos flexible que el PVC.

Para instalar el cable de red en la oficina sería necesario consultar las normas de la zona
sobre electricidad y fuego para la regulación y requerimientos específicos.

Consideraciones sobre el cable coaxial


En la actualidad es difícil que tenga que tomar una decisión sobre cable coaxial, no obstante, considere las
siguientes características del cable coaxial.

Utilice el cable coaxial si necesita un medio que pueda:

• Transmitir voz, vídeo y datos.


• Transmitir datos a distancias mayores de lo que es posible con un cableado menos caro
• Ofrecer una tecnología familiar con una seguridad de los datos aceptable.

Cable de par trenzado

En su forma más simple, un cable de par trenzado consta de dos hilos de cobre aislados y entrelazados.
Hay dos tipos de cables de par trenzado: cable de par trenzado sin apantallar (UTP) y par trenzado
apantallado (STP).

A menudo se agrupan una serie de hilos de par trenzado y se encierran en un revestimiento protector
para formar un cable. El número total de pares que hay en un cable puede variar. El trenzado elimina el
ruido eléctrico de los pares adyacentes y de otras fuentes como motores, relés y transformadores.

Cable de par trenzado sin apantallar (UTP)

El UTP, con la especificación 10BaseT, es el tipo más conocido de cable de par trenzado y ha sido el
cableado LAN más utilizado en los últimos años. El segmento máximo de longitud de cable es de 100 metros.

El cable UTP tradicional consta de dos hilos de cobre aislados. Las especificaciones UTP dictan el número
de entrelazados permitidos por pie de cable; el número de entrelazados depende del objetivo con el que se
instale el cable.

La especificación 568A Commercial Building Wiring Standard de la Asociación de Industrias Electrónicas e


Industrias de la Telecomunicación (EIA/TIA) especifica el tipo de cable UTP que se va a utilizar en una gran
variedad de situaciones y construcciones. El objetivo es asegurar la coherencia de los productos para los
clientes. Estos estándares definen cinco categorías de UTP:

• Categoría 1. Hace referencia al cable telefónico UTP tradicional que resulta adecuado para
transmitir voz, pero no datos. La mayoría de los cables telefónicos instalados antes de 1983 eran
cables de Categoría 1.
• Categoría 2. Esta categoría certifica el cable UTP para transmisión de datos de hasta 4
megabits por segundo (mbps), Este cable consta de cuatro pares trenzados de hilo de cobre.
• Categoría 3. Esta categoría certifica el cable UTP para transmisión de datos de hasta 16
mbps. Este cable consta de cuatro pares trenzados de hilo de cobre con tres entrelazados por pie.
• Categoría 4. Esta categoría certifica el cable UTP para transmisión de datos de hasta 20
mbps. Este cable consta de cuatro pares trenzados de hilo de cobre.
• Categoría 5. Esta categoría certifica el cable UTP para transmisión de datos de hasta 100
mbps. Este cable consta de cuatro pares trenzados de hilo de cobre.
• Categoría 5a. También conocida como Categoría 5+ ó Cat5e. Ofrece mejores prestaciones
que el estándar de Categoría 5. Para ello se deben cumplir especificaciones tales como una
atenuación al ratio crosstalk (ARC) de 10 dB a 155 Mhz y 4 pares para la comprobación del Power
Sum NEXT. Este estándar todavía no está aprobado
• Nivel 7. Proporciona al menos el doble de ancho de banda que la Categoría 5 y la
capacidad de soportar Gigabit Ethernet a 100 m. El ARC mínimo de 10 dB debe alcanzarse a 200
Mhz y el cableado debe soportar pruebas de Power Sum NEXT, más estrictas que las de los cables
de Categoría 5 Avanzada.

La mayoría de los sistemas telefónicos utilizan uno de los tipos de UTP. De hecho, una razón por la que
UTP es tan conocido es debido a que muchas construcciones están preparadas para sistemas telefónicos de
par trenzado. Como parte del proceso previo al cableado, se instala UTP extra para cumplir las necesidades
de cableado futuro. Si el cable de par trenzado preinstalado es de un nivel suficiente para soportar la
transmisión de datos, se puede utilizar para una red de equipos. Sin embargo, hay que tener mucho
cuidado, porque el hilo telefónico común podría no tener entrelazados y otras características eléctricas
necesarias para garantizar la seguridad y nítida transmisión de los datos del equipo.

La intermodulación es un problema posible que puede darse con todos los tipos de cableado (la
intermodulación se define como aquellas señales de una línea que interfieren con las señales de otra línea.)

UTP es particularmente susceptible a la intermodulación, pero cuanto mayor sea el número de


entrelazados por pie de cable, mayor será la protección contra las interferencias.

Cable de par trenzado apantallado (STP)

El cable STP utiliza una envoltura con cobre trenzado, más protectora y de mayor calidad que la usada en
el cable UTP. STP también utiliza una lámina rodeando cada uno de los pares de hilos. Esto ofrece un
excelente apantallamiento en los STP para proteger los datos transmitidos de intermodulaciones exteriores,
lo que permite soportar mayores tasas de transmisión que los UTP a distancias mayores.

Componentes del cable de par trenzado

Aunque hayamos definido el cable de par trenzado por el número de hilos y su posibilidad de transmitir
datos, son necesarios una serie de componentes adicionales para completar su instalación. Al igual que
sucede con el cable telefónico, el cable de red de par trenzado necesita unos conectores y otro hardware
para asegurar una correcta instalación.

Elementos de conexión

El cable de par trenzado utiliza conectores telefónicos RJ-45 para conectar a un equipo. Éstos son
similares a los conectores telefónicas RJ11. Aunque los conectores RJ-11 y RJ-45 parezcan iguales a primera
vista, hay diferencias importantes entre ellos.

El conector RJ-45 contiene ocho conexiones de cable, mientras que el RJ-11 sólo contiene cuatro.

Existe una serie de componentes que ayudan a organizar las grandes instalaciones UTP y a facilitar su
manejo.

Armarios y racks de distribución. Los armarios y los racks de distribución pueden crear más sitio para
los cables en aquellos lugares donde no hay mucho espacio libre en el suelo. Su uso ayuda a organizar una
red que tiene muchas conexiones.

Paneles de conexiones ampliables. Existen diferentes versiones que admiten hasta 96 puertos y
alcanzan velocidades de transmisión de hasta 100 Mbps.

Clavijas. Estas clavijas RJ-45 dobles o simples se conectan en paneles de conexiones y placas de pared y
alcanzan velocidades de datos de hasta 100 Mbps.

Placas de pared. Éstas permiten dos o más enganches.

Consideraciones sobre el cableado de par trenzado

El cable de par trenzado se utiliza si:

• La LAN tiene una limitación de presupuesto.


• Se desea una instalación relativamente sencilla, donde las conexiones de los equipos sean
simples.

No se utiliza el cable de par trenzado si:


• La LAN necesita un gran nivel de seguridad y se debe estar absolutamente seguro de la
integridad de los datos.
• Los datos se deben transmitir a largas distancias y a altas velocidades.

Diferencia entre las Categorías de cable UTP.

El estándar TIA/EIA 568 especifica el cable le Categoría 5 como un medio para la transmisión de datos a
frecuencias de hasta 100 MHz. El Modo de Transmisión Asíncrona (Asynchronous Transfer Mode ATM),
trabaja a 155 MHz. La Gigabit Ethernet a 1 GHz.

La necesidad de incrementar el ancho de banda nunca cesa, cuanto más se tenga, más se necesita. Las
aplicaciones cada vez se vuelven más complejas, y los ficheros cada vez son más grandes. A medida que su
red se vaya congestionando con más datos, la velocidad se va relentizando y no volverá a ser rápida nunca
más. Las buenas noticias son que la próxima generación de cableado está en marcha. Sin embargo, tendrá
que tener cuidado con el cableado que esté instalado hoy, y asegurarse que cumplirá con sus necesidades
futuras.

Categoría 5. La TIA/EIA 568A especifica solamente las Categorías para los cables de pares trenzados sin
apantallar (UTP). Cada una se basa en la capacidad del cable para soportar prestaciones máximas y
mínimas. Hasta hace poco, la Categoría 5 era el grado superior especificado por el estándar TIA/EIA. Se
definió para ser capaz de soportar velocidades de red de hasta 100 Mbps en transmisiones de voz/datos a
frecuencias de hasta100 MHz. Las designaciones de Categoría están determinadas por las prestaciones UTP.
El cable de Categoría 5 a100 MHz, debe tener el NEXT de 32 dB/304,8 mts. y una gama de atenuación de
67dB/304,8 mts, Para cumplir con el estándar, los cables deben cumplir solamente las mínimos estipulados,
Con cable de Categoría 5 debidamente instalado, podrá esperar alcanzar las máximas prestaciones, las
cuales, de acuerdo con los estándares, alcanzarán la máxima velocidad de traspaso de Mbps,

Categoría 5a. La principal diferencia entre la Categoría 5 (568A) y Categoría 5a (568A-5) es que algunas
de las especificaciones han sido realizadas de forma más estricta en la versión más avanzada. Ambas
trabajan a frecuencias de 100 MHz. Pero la Categoría 5e cumple las siguientes especificaciones: NEXT: 35
dB; PS-NEXT: 32 dB, ELFEXT: 23.8 dB; PS-ELFEXT: 20.8 dB, Pérdida por Retorno: 20.1 dB, y Retardo: 45
ns, Con estas mejoras, podrá tener transmisiones Ethernet con 4 pares, sin problemas, full-duplex, sobre
cable UTP. En el futuro, la mayoría de las instalaciones requerirán cableado de Categoría 5e así como sus
componentes.

Categoría 6 y posteriores. Ahora ya puede obtener un cableado de Categoría 6, aunque el estándar no


ha sido todavía creado. Pero los equipos de trabajo que realizan los estándares están trabajando en ello. La
Categoría 6 espera soportar frecuencias de 250 MHz, dos veces y media más que la Categoría 5. En un
futuro cercano, la TIA/EIA está estudiando el estándar para la Categoría 7, para un ancho de banda de hasta
600 MHz. La Categoría 7, usará un nuevo y aún no determinado tipo de conector.

Cable de fibra óptica

En el cable de fibra óptica las


señales que se transportan son
señales digitales de datos en forma
de pulsos modulados de luz. Esta es
una forma relativamente segura de
enviar datos debido a que, a
diferencia de los cables de cobre que
llevan los datos en forma de señales
electrónicas, los cables de fibra óptica
transportan impulsos no eléctricos. Esto significa que el cable de fibra óptica no se puede pinchar y sus datos
no se pueden robar.

El cable de fibra óptica es apropiado para transmitir datos a velocidades muy altas y con grandes
capacidades debido a la carencia de atenuación de la señal y a su pureza.

Composición del cable de fibra óptica


Una fibra óptica consta de un cilindro de vidrio extremadamente delgado, denominado núcleo, recubierto
por una capa de vidrio concéntrica, conocida como revestimiento. Las fibras a veces son de plástico. El
plástico es más fácil de instalar, pero no puede llevar los pulsos de luz a distancias tan grandes como el
vidrio.

Debido a que los hilos de vidrio


pasan las señales en una sola
dirección, un cable consta de dos
hilos en envolturas separadas. Un
hilo transmite y el otro recibe. Una
capa de plástico de refuerzo
alrededor de cada hilo de vidrio y las
fibras Kevlar ofrecen solidez. En el conector de fibra óptica, las fibras de Kevlar se colocan entre los dos
cables. Al igual que sus homólogos (par trenzado y coaxial), los cables de fibra óptica se encierran en un
revestimiento de plástico para su protección.

Las transmisiones del cable de fibra óptica no están sujetas a intermodulaciones eléctricas y son
extremadamente rápidas, comúnmente transmiten a unos 100 Mbps, con velocidades demostradas de hasta
1 gigabit por segundo (Gbps). Pueden transportar una señal (el pulso de luz) varios kilómetros.

Consideraciones sobre el cable de fibra óptica

El cable de fibra óptica se utiliza si:

• Necesita transmitir datos a velocidades muy altas y a grandes distancias en un medio muy
seguro.

El cable de fibra óptica no se utiliza si:

• Tiene un presupuesto limitado.


• No tiene el suficiente conocimiento para instalar y conectar los dispositivos de forma
apropiada.

El precio del cable de fibra óptica es competitivo con el precio del cable de cobre alto de
gama. Cada vez se hace más sencilla la utilización del cable de fibra óptica, y las técnicas
de pulido y terminación requieren menos conocimientos que hace unos años.

Transmisión de la señal

Se pueden utilizar dos técnicas para transmitir las señales codificadas a través de un cable: la transmisión
en banda base y la transmisión en banda ancha.

Transmisión en banda base

Los sistemas en banda base utilizan señalización digital en un único canal. Las señales fluyen en forma de
pulsos discretos de electricidad o luz. Con la transmisión en banda base, se utiliza la capacidad completa del
canal de comunicación para transmitir una única señal de datos. La señal digital utiliza todo el ancho de
banda del cable, constituyendo un solo canal. El término ancho de banda hace referencia a la capacidad de
transferir datos, o a la velocidad de transmisión, de un sistema de comunicaciones digital, medido en bits
por segundo (bps).

La señal viaja a lo largo del cable de red y, por tanto, gradualmente va disminuyendo su intensidad, y
puede llegar a distorsionarse. Si la longitud del cable es demasiado larga, la señal recibida puede no ser
reconocida o puede ser tergiversada.

Como medida de protección, los sistemas en banda base a veces utilizan repetidores para recibir las
señales y retransmitirlas a su intensidad y definición original. Esto incrementa la longitud útil de un cable.
Transmisión en banda ancha

Los sistemas de banda ancha utilizan señalización analógica y un rango de frecuencias. Con la transmisión
analógica, las señales son continuas y no discretas. Las señales circulan a través del medio físico en forma
de ondas ópticas o electromagnéticas. Con la transmisión en banda ancha, el flujo de la señal es
unidireccional.

Si el ancho de banda disponible es suficiente, varios sistemas de transmisión analógica, como la televisión
por cable y transmisiones de redes, se pueden mantener simultáneamente en el mismo cable.

A cada sistema de transmisión se le asigna una parte del ancho de banda total. Todos los dispositivos
asociados con un sistema de transmisión dado, por ejemplo, todas los equipos que utilicen un cable LAN,
deben ser configuradas, de forma que sólo utilicen las frecuencias que están dentro del rango asignado.

Mientras que los sistemas de banda base utilizan repetidores, los sistemas de banda ancha utilizan
amplificadores para regenerar las señales analógicas y su intensidad original.

En la transmisión en banda ancha, las señales circulan en una sola dirección, de forma que debe existir
dos caminos para el flujo de datos para que una señal alcance todos los dispositivos. Hay dos formas
comunes de realizar esto:

• A través de una configuración de banda ancha con división del medio, el ancho de banda se
divide en dos canales, cada uno usando una frecuencia o rango de frecuencias diferentes. Un canal
transmite señales y el otro las recibe.
• Configuración en banda ancha con doble cable, a cada dispositivo se unen dos cables. Un
cable se utiliza para enviar y el otro para recibir.

Incremento del rendimiento del ancho de banda

El incremento de la velocidad de transmisión de datos es tan importante como el aumento del tamaño de
la red y del tráfico de los datos. Maximizando el uso del canal de datos, podemos intercambiar más datos en
menos tiempo. Al formato más básico de transmisión de datos o de información se le denomina
unidireccional o simplex. Esto significa que los datos se envían en una única dirección, desde el emisor al
receptor. Ejemplos de transmisiones unidireccionales son la radio y la televisión. Con la transmisión
unidireccional, los problemas que se encuentran durante la transmisión no se detectan ni corrigen. Incluso el
emisor no tiene seguridad de que los datos son recibidos.

En el siguiente nivel de transmisión de datos, llamado transmisión alterna o half-duplex, los datos se
envían en ambas direcciones, pero en un momento dado sólo se envían en una dirección. Ejemplos de
tecnología que utilizan la comunicación alterna son las radios de onda corta y los walkie-talkies. Con la
transmisión alterna se puede incorporar detección de errores y peticiones para reenvío de datos erróneos.

La World Wide Web es una forma de transmisión de datos alterna. Se envía una petición a una página
Web y se espera mientras la está devolviendo. La mayoría de las comunicaciones por módem utilizan
transmisión de datos alterna.

El método más eficiente para la transmisión de datos consiste en la utilización de la transmisión


bidireccional o full-duplex, donde los datos pueden ser transmitidos y recibidos al mismo tiempo. Un buen
ejemplo es una conexión de cable que no sólo permite que se reciban canales de televisión, sino que además
soporta el teléfono y la conexión a Internet. Un teléfono es una conexión bidireccional porque permite hablar
al mismo tiempo a las dos partes. Los módems, por diseño, son dispositivos alternos. Éstos envían o reciben
datos, conmutando entre el modo de transmisión y el modo de recepción. Se puede crear un canal de
módem bidireccional usando dos módems y dos líneas telefónicas. Lo único que se necesita es que los dos
equipos estén conectados y configurados para soportar este tipo de comunicación.

El sistema de cableado de IBM

IBM ha desarrollado su propio sistema de cableado completo con sus propios números, estándares,
especificaciones y denominaciones. Sin embargo, muchos de estos parámetros son similares a
especificaciones diferentes de las de IBM.

IBM introdujo su sistema de cableado en 1984. El objetivo de este sistema era asegurar que el cableado y
los conectores pudieran satisfacer las especificaciones de sus equipos. La especificación de IBM incluye los
siguientes componentes:

• Conectores de cable.
• Placas.
• Paneles de distribución.
• Tipos de cables.

El único componente del cableado de IBM que es totalmente distinto de los demás es el conector, que es
diferente del BNC estándar y de otros conectores. Hay conectores de IBM tipo A, conocidos como conectores
de datos universales. No son ni machos ni hembras; se pueden conectar a otros colocando uno sobre otro.
Estos conectores de IBM necesitan paneles de distribución y placas especiales para adaptar su configuración
única.

El sistema de cableado de IBM clasifica el cable en varios tipos. Por ejemplo, en el sistema de IBM, al
cable de categoría 3 (cable UTP de voz) se le denomina de Tipo 3. Las definiciones del cable especifican cuál
es el cable más apropiado para un entorno o aplicación dada. El hilo indicado en el sistema se ajusta a los
estándares American Wire Gauge (AWG).

AWG: La medida estándar del cable

A menudo, las medidas del cable se expresan con un número seguido de las iniciales AWG (AWG es un
sistema de medida para hilos que especifica su grosor). Conforme el grosor del hilo aumenta, el número
AWG disminuye. A menudo el hilo de teléfono se utiliza como punto de referencia; tiene un grosor de 22
AWG. Un hilo con un grosor de 14 AWG es más grueso que el hilo telefónico y uno de 26 AWG es más
delgado que el del teléfono.

Sistema de cableado IBM


Tipo Etiqueta estándar Descripción
IBM
Tipo 1 Cable de par trenzado Dos pares de hilos de 22 AWG rodeados
apantallado (STP). por una cubierta exterior trenzada; usado
para equipos y unidades de acceso
multiestación (MAU).
Tipo 2 Cable de voz y datos. Cable apantallado de datos y voz con
dos pares trenzados de hilos de 22 AWG
para datos, una cubierta trenzada exterior
y cuatro pares trenzados de hilos de 26
AWG para voz.
Tipo 3 Cable de voz. Consta de cuatro cables de par
trenzado no apantallados, sólidos, de 22 ó
24 AWG.
Tipo 4 No definido.
Tipo 5 Cable de fibra óptica. Dos fibras ópticas multimodo de
62,5/125 micras (el estándar de la
industria).
Tipo 6 Cable de conexión de Dos cables de par trenzado de 26 AWG
datos. con doble lámina y apantallamiento
trenzado.
Tipo 7 No definido.
Tipo 8 Cable de moqueta. Situado en una regleta del suelo para
utilizar bajo moquetas; dos cables de par
trenzado de 26 AWG; limitado a la mitad
de distancia que el cable de Tipo 1.
Tipo 9 Cable plenum Cumple las normas de incendios. Dos
cables de par trenzado apantallados.

Una Unidad de acceso multiestación (Multistation Access Unit, MAU) es un dispositivo


hub en una red Token Ring que conecta los equipos en una distribución física en estrella,
pero utiliza el anillo lógico requerido en las redes Token Ring.

Selección del cableado

Para determinar cuál es el mejor cable para un lugar determinado habrá que tener en cuenta distintos
factores:

• Carga de tráfico en la red


• Nivel de seguridad requerida en la red
• Distancia que debe cubrir el cable?
• Opciones disponibles del cable
• Presupuesto para el cable

Cuanto mayor sea la protección del cable frente al ruido eléctrico interno y externo, llevará una señal
clara más lejos y más rápido. Sin embargo, la mayor velocidad, claridad y seguridad del cable implica un
mayor coste.

Al igual que sucede con la mayoría de los componentes de las redes, es importante el tipo de cable que se
adquiera. Si se trabaja para una gran organización y se escoge el cable más barato, inicialmente los
contables estarían muy complacidos, pero pronto podrían observar que la LAN es inadecuada en la velocidad
de transmisión y en la seguridad de los datos.

El tipo de cable que se adquiera va a estar en función de las necesidades del sitio en particular. El
cableado que se adquiere para instalar una LAN para un negocio pequeño tiene unos requerimientos
diferentes del cableado necesario para una gran organización, como por ejemplo, una institución bancaria.

Logística de la instalación

En una pequeña instalación donde las distancias son pequeñas y la seguridad no es un tema importante,
no tiene sentido elegir un cable grueso, caro y pesado.

Apantallamiento

El nivel de apantallamiento requerido afectará al coste del cable. La mayoría de las redes utilizan algún
tipo de cable apantallado. Será necesario un mayor apantallamiento cuanto mayor sea el ruido del área por
donde va el cable. También el mismo apantallamiento en un cable de tipo plenum será más caro.

Intermodulación

La intermodulación y el ruido pueden causar graves problemas en redes grandes, donde la integridad de
los datos es fundamental. El cableado barato tiene poca resistencia a campos eléctricos exteriores generados
por líneas de corriente eléctrica, motores, relés y transmisores de radio. Esto lo hace susceptible al ruido y a
la intermodulación.
Características Cable Cable Cable de Cable de
coaxial coaxial par trenzado fibra óptica
Thinnet Thicknet (10Base T)1
(10Base2) (10Base5)
Coste del cable Más que Más que UTP: menos Más que
UTP Thinnet caro Thinnet, pero
STP: más que menos que
Thinnet Thicknet.
Longitud útil del 185 metros 500 metros UTP y STP: 2 kilómetros
cable2 (unos 607 (unos 1.640 100 metros (6.562 pies).
pies) pies) (unos 328
pies)
Velocidad de 4-100 Mbps 4-100 Mbps UTP:4-100 100 Mbps o
transmisión Mbps STP:16- más (>
500 Mbps 1Gbps).
Flexibilidad Bastante Menos flexible UTP: más Menos
flexible que Thinnet flexible flexible que
STP: menos Thicknet
flexible que
UTP
Facilidad de Sencillo de Medianamente UTP: muy Difícil de
instalación instalar sencillo de sencillo; a instalar.
instalar menudo
preinstalado
STP:
medianamente
sencillo
Susceptibilidad Buena Buena UTP: muy No
a interferencias resistencia a resistencia a las susceptible susceptible a
las interferencias STP: buena las
interferencias resistencia interferencias.
Características Las Las UTP: Las Soporta
especiales componentes componentes de mismas que voz, datos y
de soporte soporte los hilos vídeo.
electrónico son electrónico son telefónicos; a
menos caras menos caras que menudo
que las del las del cable de preinstaladas
cable de par par trenzado en
trenzado construcciones.
STP: Soporta
índices de
transmisión
mayores que
UTP
Usos Medio para Redes Thinnet UTP: sitios Instalación
presentados grandes sitios más pequeños de cualquier
con altas con tamaño que
necesidades de presupuesto requiera
seguridad limitado velocidad y
STP: Token una gran
Ring de integridad y
cualquier seguridad en
tamaño los datos.

1
Esta columna ofrece información sobre el cable de par trenzado sin apantallar (UPT) y para el
cable de par trenzado apantallado (STP).

2
La longitud útil del cable puede variar con instalaciones de redes especificas. Conforme la
tecnología mejora, también se incrementa la longitud útil del cable.

Velocidad de transmisión
La velocidad de transmisión se mide en megabits por segundo. Un punto de referencia estándar para la
transmisión de la LAN actual en un cable de cobre es de 100 Mbps. El cable de fibra óptica trasmite a más de
1 Gbps.

Coste

Los cables de grado más alto pueden transportar datos con seguridad a grandes distancias, pero son
relativamente caros; los cables de menor grado, los cuales proporcionan menos seguridad en los datos a
distancias más cortas, son relativamente más baratos.

Atenuación de la señal

Los diferentes tipos de cables tienen diferentes índices de atenuación; por tanto, las especificaciones del
cable recomendadas especifican límites de longitud para los diferentes tipos. Si una señal sufre demasiada
atenuación, el equipo receptor no podrá interpretarla. La mayoría de los equipos tienen sistemas de
comprobación de errores que generarán una retransmisión si la señal es demasiado tenue para que se
entienda. Sin embargo, la retransmisión lleva su tiempo y reduce la velocidad de la red.

La tarjeta de Red

La función de la tarjeta de red

Las tarjetas de red, también denominadas NIC (Network Interface Cards, tarjetas de interfaz de red),
actúan como la interfaz o conexión física entre el equipo y el cable de red. Las tarjetas están instaladas en
una ranura de expansión en cada uno de los equipos y en el servidor de la red.

Después de instalar la tarjeta de red, el cable de red se une al puerto de la tarjeta para realizar la
conexión física entre el equipo y el resto de la red.

La función de la tarjeta de red es:

• Preparar los datos del equipo para el cable de red.


• Enviar los datos a otro equipo.
• Controlar el flujo de datos entre el equipo y el sistema de cableado.
• Recibir los datos que llegan por el cable y convertirlos en bytes para que puedan ser
comprendidos por la unidad de procesamiento central del equipo (CPU).

En un nivel más técnico, la tarjeta de red contiene el hardware y la programación firmware (rutinas
software almacenadas en la memoria de sólo lectura, ROM) que implementa las funciones de Control de
acceso al medio y Control de enlace lógico en el nivel de enlace de datos del modelo OSI.

Preparación de los datos

Antes de enviar los datos por la red, la tarjeta de red debe convertirlos de un formato que el equipo
puede comprender a otro formato que permita que esos datos viajen a través del cable de red.

Los datos se mueven por el equipo a través de unos caminos denominados buses. Realmente éstos son
varios caminos de datos colocados uno al lado del otro. Como los caminos están juntos (paralelos), los datos
se pueden mover en grupos en lugar de ir de forma individual (serie).

A los buses más antiguos, como aquellos utilizados en el primer equipo personal de IBM, se les conoce
como buses de 8 bits porque en un momento dado podían mover 8 bits de datos. El equipo PC/AT utilizó un
bus de 16 bits, lo que significa que en un momento dado podía mover 16 bits de datos. Los equipos actuales
utilizan buses de 32 bits. Cuando los datos circulan en un bus del equipo, se dice que están circulando de
forma paralela porque los 32 bits se están moviendo juntos. Piense en un bus de 32 bits como en una
autovía de 32 carriles con 32 coches circulando juntos (de forma paralela), cada uno llevando un bit de
datos.

Sin embargo, en un cable de red, los datos deben circular en un solo flujo de bits. Cuando los datos
circulan en un cable de red se dice que están circulando en una transmisión en serie, porque un bit sigue a
otro. En otras palabras, el cable es una autovía de un solo carril, y los datos siempre circulan en una sola
dirección. El equipo puede estar enviando o recibiendo datos, pero nunca podrá estar haciendo las dos cosas
al mismo tiempo.

La tarjeta de red toma los datos que circulan en paralelo y los reestructura, de forma que circulen por el
cable de la red, que es un camino en serie de un bit. Esto se consigue convirtiendo las señales digitales del
equipo en señales ópticas o eléctricas que pueden circular por los cables de la red. La componente
responsable de esto es el transceptor (transmisor/receptor).

Direcciones de red

Además de la transformación de los datos, la tarjeta de red también tiene que anunciar su propia
localización, o dirección, al resto de la red para diferenciarla de las demás tarjetas de red.

Una comisión del Institute of Electrical and Electronics Engineers (IEEE) asigna bloques de direcciones a
cada fabricante de tarjetas de red. Los fabricantes graban las direcciones en los chips de la tarjeta mediante
un proceso conocido como «marcado» de la dirección en la tarjeta. Con este proceso, cada tarjeta de red (y,
por tanto, cada equipo) tiene una dirección única en la red.

La tarjeta de red también participa en otras funciones, como tomar datos del equipo y prepararlos para el
cable de la red:

1. El equipo y la tarjeta de red deben estar en comunicación para pasar datos desde el equipo
a la tarjeta. En las tarjetas que pueden utilizar acceso directo a memoria (DMA), el equipo asigna
una pequeña parte de su espacio de memoria a la tarjeta de red.
2. La tarjeta de red envía una señal al equipo, pidiendo los datos del equipo.
3. El bus del equipo traslada los datos desde la memoria del equipo a la tarjeta de red.

A menudo, los datos se mueven más deprisa por el bus o el cable de lo que la tarjeta de red puede
gestionarlos, y entonces los datos se envían al búfer de la tarjeta, una parte reservada de la RAM. Aquí se
mantienen temporalmente durante la transmisión y recepción de los datos.

Envío y control de datos

Antes de que la tarjeta de red emisora envíe datos a la red, mantiene un diálogo electrónico con la tarjeta
de red receptora, de forma que ambas tarjetas se pongan de acuerdo en lo siguiente:

• Tamaño máximo de los grupos de datos que van a ser enviados.


• Cantidad de datos que se van a enviar antes de que el receptor de su confirmación.
• Intervalos de tiempo entre las cantidades de datos enviados.
• Cantidad de tiempo que hay que esperar antes de enviar la confirmación.
• Cantidad de datos que puede tener cada tarjeta antes de que haya desbordamiento.
• Velocidad de la transmisión de datos.

Si una tarjeta de red más moderna, rápida y sofisticada necesita comunicarse con una tarjeta de red más
lenta y antigua, ambas necesitan encontrar una velocidad de transmisión común a la que puedan adaptarse.
Algunas tarjetas de red más modernas incorporan circuitos que permiten que las tarjetas más rápidas se
ajusten a la velocidad de las tarjetas más lentas.

Cada tarjeta de red le indica a la otra sus parámetros, aceptando o rechazando los parámetros de la otra
tarjeta. Después de haber determinado todos los detalles de comunicación, las dos tarjetas comienzan a
enviar y a recibir datos.
Opciones y parámetros de configuración

Las tarjetas de red a menudo tienen una serie de opciones que se deben configurar para que la tarjeta
funcione apropiadamente. Algunos de los diseños más antiguos utilizan interruptores DIP externos. Algunos
ejemplos de opciones que se pueden configurar:

• Interrupción (IRQ).

Las tarjetas de red más antiguas se configuran por medio de software, jumpers, o una
combinación de los dos; consulte la documentación de la tarjeta para ver la configuración
software o jumpers apropiados. Las tarjetas más modernas utilizan la tecnología Plug and
Play (PnP) ; como consecuencia, las tarjetas más antiguas que necesitan una configuración
manual, han quedado obsoletas.

• Dirección del puerto base de Entrada/Salida (E/S).


• Dirección base de memoria.
• Transceptor.

Líneas de petición de interrupción (IRQ)

Las líneas de petición de interrupción (IRQ) son líneas hardware por las que dispositivos como puertos de
E/S, teclado, unidades de disco y tarjetas de red, pueden enviar interrupciones o peticiones al
microprocesador del equipo.

Las líneas de petición de interrupción se incorporan en el hardware interno del equipo, y se les asignan
diferentes niveles de prioridad, de forma que el microprocesador pueda determinar la importancia de las
peticiones de servicios recibidas.

Cuando la tarjeta de red envía una petición al equipo, utiliza una interrupción (envía una señal electrónica
a la CPU del equipo). Cada dispositivo del equipo debe utilizar una línea de petición de interrupción diferente.
La línea de interrupción se especifica cuando se configura el dispositivo. Algunos ejemplos son:

IRQ Equipo con un procesador 80486 (o superior)


2 EGA/VGA (Adaptador de gráficos mejorado/adaptador de gráficos de
(9) vídeo).
3 Disponible (A menos que sea utilizado como segundo puerto serie
[COM2, COM4] o ratón de bus).
4 COM1, COM3.
5 Disponible (A menos que sea utilizado como segundo puerto paralelo
[LPT2] o como tarjeta de sonido).
6 Controlador de disquete.
7 Puerto paralelo (LPT1).
8 Reloj de tiempo real.
10 Disponible
11 Disponible
12 Ratón (PS/2).
13 Coprocesador matemático.
14 Controlador de disco duro.
15 Disponible (A menos que sea utilizado para controlador secundario de
disco duro).
Para la tarjeta de red se pueden utilizar IRQ3 o IRQ5, en la mayoría de los casos. Si se encuentra
disponible, se recomienda IRQ5, y es la que se utiliza por omisión para la mayoría de los sistemas. Para
conocer qué IRQ están siendo utilizadas, utilice una herramienta de diagnóstico del sistema.

Puerto base de E/S

El puerto base de E/S especifica un canal por donde fluye la información entre el hardware del equipo
(como la tarjeta de red) y su CPU. El puerto es para la CPU como una dirección.

Cada dispositivo hardware en un sistema debe tener un número de puerto base de E/S diferente. Los
números de puerto, en formato hexadecimal (sistema que utiliza base 16 en lugar de base 10 para su
numeración) de la tabla que se muestra a continuación, normalmente están disponibles para asignar a una
tarjeta de red, a menos que ya se estén usando. Aquellas que se muestran con un dispositivo al lado, son
direcciones que normalmente se utilizan para los dispositivos. Compruebe la documentación del equipo para
determinar las direcciones que ya están siendo utilizadas.

Configuración del puerto base de E/S

Puerto Dispositivo Puerto Dispositivo


200 a Puerto de juegos 300 a Tarjeta de red.
20F 30F
210 a 310 a Tarjeta de red.
21F 31F
220 a 320 a Controlador de disco duro
22F 32F (para Modelo 30 PS/2).
230 a Ratón de bus 330 a
23F 33F
240 a 340 a
24F 34F
250 a 350 a
25F 35F
260 a 360 a
26F 36F
270 a LPT3 370 a LPT2
27F 37F
280 a 380 a
28F 38F
290 a 390 a
29F 39F
2A0 a 3A0 a
2AF 3Af
2B0 a 3B0 a LPT1
2BF 3BF
2C0 a 3C0 a EGA/VGA.
2CF 3CF
2D0 a 3D0 a CGA/MCGA (también
2DF 3DF EGA/VGA, en modos de vídeo
en color).
2E0 a 3E0 a
2EF 3EF
2F0 a COM2 3F0 a Controlador de disquete;
2FF 3FF COM1.

Dirección de memoria base


La dirección de memoria base identifica una posición en la memoria (RAM) de un equipo. La tarjeta de red
utiliza esta posición como un área de búfer para guardar los datos que llegan y que salen. A este parámetro,
a veces se le denomina dirección de inicio RAM.

Una trama de datos es un paquete de información transmitido como una unidad en una
red. A menudo, la dirección base de memoria para una tarjeta de red es D8000. (Para
algunas tarjetas de red, el cero final se elimina de la dirección base de memoria, por
ejemplo, D8000 sería D800.) Cuando una tarjeta de red se configura, se debe seleccionar
una dirección de memoria base que no esté siendo utilizada por otro dispositivo.

Las tarjetas de red que no utilizan la RAM del sistema no tienen un parámetro para la
dirección de memoria base. Algunas tarjetas de red contienen un parámetro que permite
especificar la cantidad de memoria que hay que anular para guardar las tramas de datos.
Por ejemplo, para algunas tarjetas se pueden especificar 16 KB o 32 KB de memoria.
Cuanta más memoria se especifique, mayor será el rendimiento en la red, pero quedará
menos memoria disponible para otros usos.

Selección del transceptor

La tarjeta de red puede tener otros parámetros que deben ser definidos durante la configuración. Por
ejemplo, algunas tarjetas vienen con un transceptor externo y otro incluido en la tarjeta.

Normalmente la elección de la tarjeta se realiza con jumpers. Los jumpers son pequeños conectores que
se conectan a dos pines para determinar los circuitos que utilizará la tarjeta.

Compatibilidad de tarjetas, buses y cables

Para asegurar la compatibilidad entre el equipo y la red, la tarjeta debe tener las siguientes
características:

• Coincidir con la estructura interna del equipo (arquitectura del bus de datos).
• Tener el tipo de conector de cable apropiado para el cableado.

Por ejemplo, una tarjeta que funciona en la comunicación de un equipo Apple en una red en bus, no
funcionará en un equipo de IBM en un entorno de anillo: el anillo de IBM necesita tarjetas que son
físicamente diferentes de las utilizadas en un bus; y Apple utiliza un método de comunicación de red
diferente.

Arquitectura del bus de datos

En un entorno de equipos personales, existen cuatro tipos de arquitecturas de bus: ISA, EISA, Micro
Channel y PCI. Cada uno de los tipos es físicamente diferente a los demás. Es imprescindible que la tarjeta
de red y el bus coincidan.

Arquitectura estándar de la industria (ISA)

ISA es la arquitectura utilizada en equipos IBM PC, XT y AT, así como en sus clones. Permite incorporar al
sistema varios adaptadores por medio de conectores de placas que se encuentran en las ranuras o slots de
expansión. En 1984 ISA se amplió de 8 bits a 16 bits cuando IBM introdujo el equipo IBM PC/AT. ISA hace
referencia a la propia ranura de expansión (una ranura de 8 bits o de 16 bits). Las ranuras de 8 bits son más
pequeñas que las de 16 bits, que realmente constan de dos ranuras o conectores, una junto a la otra. Una
tarjeta de 8 bits podría estar en un slot de 16 bits, pero una de 16 bits no podría estar en una de 8 bits.

ISA fue la arquitectura estándar de equipos personales hasta que Compaq y otras compañías
desarrollaron el bus EISA.

Arquitectura estándar ampliada de la industria (EISA)


Es el estándar de bus introducido en 1988 por una asociación de nueve compañías de la industria de los
equipos: AST Research, Compaq, Epson, Hewlett-Packard, NEC, Olivetti, Tandy, Wyse Technology y Zenith.

EISA ofrece un camino de datos de 32 bits y mantiene la compatibilidad con ISA, además de ofrecer una
serie de características adicionales introducidas por IBM en su Bus de Arquitectura Micro Channel.

Arquitectura Micro Channel

En 1988, IBM introdujo este estándar al tiempo que se anunció su equipo PS/2. La arquitectura Micro
Channel es física y eléctricamente incompatible con el bus ISA. A diferencia del bus ISA, las funciones Micro
Channel son buses de 16 o 32 bits y se pueden controlar de forma independiente por varios procesadores de
control (master) del bus.

Interconexión de componentes periféricos (PCI)

Es un bus local de 32 bits utilizado en la mayoría de los equipos Pentium y en las Apple Power Macintosh.
La arquitectura de bus PCI actual posee la mayoría de los requerimientos para ofrecer la funcionalidad Plug
and Play. Plug and Play es una filosofía de diseño y un conjunto de especificaciones de la arquitectura de un
equipo personal. El objetivo de Plug and Play es permitir los cambios realizados en la configuración de un
equipo personal, sin intervención del usuario.

Conectores y cableado de red

La tarjeta de red realiza tres funciones importantes coordinando las actividades entre el equipo y el
cableado:

• Realiza la conexión física con el cable.


• Genera las señales eléctricas que circulan por el cable.
• Controla el acceso al cable siguiendo unas reglas específicas.

Para seleccionar la tarjeta de red apropiada para la red, primero es necesario determinar el tipo de cable
y los conectores que tendrá.

Cada tipo de cable tiene características físicas diferentes, a las que la tarjeta de red debe adaptarse. Cada
tarjeta se ha construido para aceptar al menos un tipo de cable. Actualmente el cable de par trenzado y el
de fibra óptica son los tipos de cables más comunes.

Algunas tarjetas de red tienen más de un conector de interfaz. Por ejemplo, es común que una tarjeta de
red tenga un conector Thinnet, uno Thicknet y uno para par trenzado.

Si una tarjeta tiene más de un conector de interfaz y no tiene detección de interfaz predeterminada, debe
realizar una selección configurando jumpers en la propia tarjeta o usando una opción seleccionable por
software. La documentación de la tarjeta de red debe contener información sobre cómo se puede configurar
la tarjeta de forma apropiada.

Una conexión de red Thicknet utiliza un cable de interfaz de conexión de unidad (AUI) 15-pin para
conectar el conector 15-pin (DB-15) de la parte posterior de la tarjeta de red a un transceiver externo.El
transceiver externo utiliza un conector del tipo «vampiro» para conectar el cable thicknet.

El puerto del joystick y el puerto del transceiver externo AUI son parecidos, pero
algunos pines del joystick tienen una tensión de 5 voltios, lo que podría ser perjudicial
tanto para el hardware de la red como para el equipo. Es necesario familiarizarse con la
configuración hardware específica para determinar si el conector es para un joystick o para
una tarjeta de red. De manera similar, tenga cuidado de no confundir los puertos SCSI de
25 pines con los puertos de impresora paralelos. Algunos dispositivos SCSI más antiguos
se comunicaban a través del mismo tipo de conector DB-25 que estos puertos paralelos,
pero ningún dispositivo funcionará cuando se enchufe en un conector erróneo.
Una conexión de par trenzado utiliza un conector RJ-45,. El conector RJ-45 es similar al conector
telefónico RJ-11, pero tiene un tamaño mayor y tiene ocho conductores; un RJ-11 sólo tiene cuatro
conductores.

Rendimiento de la red

Debido al efecto que causa en la transmisión de datos, la tarjeta de red produce un efecto bastante
significativo en el rendimiento de toda la red. Si la tarjeta es lenta, los datos no se moverán por la red con
rapidez. En una red en bus, donde no se puede utilizar la red hasta que el cable esté libre, una tarjeta lenta
puede incrementar el tiempo de espera para todos los usuarios.

Después de identificar los requerimientos físicos de la tarjeta de red (el bus del equipo, el tipo de conector
que necesita la tarjeta, el tipo de red donde operará), es necesario considerar otros factores que afectarán a
las posibilidades de la tarjeta.

Aunque todas las tarjetas de red se ajustan a ciertos estándares y especificaciones mínimas, algunas
características de las tarjetas mejoran de forma importante el servidor, el cliente y todo el rendimiento de la
red.

Se puede incrementar la velocidad de los datos a través de la tarjeta incorporando las siguientes mejoras:

• Acceso directo a memoria (DMA). Con este método, el equipo pasa los datos
directamente desde el búfer de la tarjeta de red a la memoria de el equipo, sin utilizar el
microprocesador del equipo.
• Memoria de tarjeta compartida. En este método, la tarjeta de red contiene RAM que
comparte con el equipo. El equipo identifica esta RAM como si realmente estuviera instalada en el
equipo.
• Memoria del sistema compartida. En este sistema, el procesador de la tarjeta de red
selecciona una parte de la memoria del equipo y la utiliza para procesar datos.
• Bus mastering (Control de bus). Con el bus mastering, la tarjeta de red toma
temporalmente el control del bus del equipo, evitando la CPU del equipo y llevando los datos
directamente a la memoria del sistema del equipo. Esto incrementa la velocidad de las operaciones
del equipo, liberando al procesador del equipo para realizar otras tareas. Las tarjetas con bus
mastering pueden ser caras, pero pueden mejorar el rendimiento de la red de un 20 a un 70 por
100. Las tarjetas de red EISA, Micro Channel y PCI ofrecen bus mastering.
• RAM buffering. A menudo el tráfico en la red va demasiado deprisa para que la mayoría
de las tarjetas de red puedan controlarlo. Los chips de RAM en la tarjeta de red sirven de búfer.
Cuando la tarjeta recibe más datos de los que puede procesar inmediatamente, el buffer de la RAM
guarda algunos de los datos hasta que la tarjeta de red pueda procesarlos. Esto acelera el
rendimiento de la tarjeta y ayuda a evitar que haya un cuello de botella en la tarjeta.
• Microprocesador de la tarjeta. Con un microprocesador, la tarjeta de red no necesita
que el equipo le ayude a procesar los datos. La mayoría de las tarjetas incorporan sus propios
procesadores que aceleran las operaciones de la red.

Servidores

Debido al alto volumen de tráfico en la red, los servidores deberían estar equipados con tarjetas del
mayor rendimiento posible.

Estaciones

Las estaciones de trabajo pueden utilizar las tarjetas de red más baratas, si las actividades principales en
la red están limitadas a aplicaciones, como procesamiento de texto, que no generan altos volúmenes de
tráfico en la red. Aunque recuerde que en una red en bus, una tarjeta de red lenta puede incrementar el
tiempo de espera para todos los usuarios. Otras aplicaciones, como las de bases de datos o ingeniería, se
vendrán abajo rápidamente con tarjetas de red inadecuadas.

Tarjetas de red especializadas


En la mayoría de las situaciones, bastará con utilizar tarjetas estándar para conectar el equipo con la red
física, pero existen algunas situaciones que requieren el uso de conexiones de red especializadas y, por
tanto, necesitarán tarjetas de red especializadas.

Tarjetas de red sin hilos

Algunos entornos requieren una alternativa a las redes de equipo cableadas. Existen tarjetas de red sin
hilos que soportan los principales sistemas operativos de red.

Las tarjetas de red sin hilos suelen incorporar una serie de características. Éstas incluyen:

• Antena omnidireccional interior y cable de antena.


• Software de red para hacer que la tarjeta de red funcione en una red en particular.
• Software de diagnóstico para localización de errores.
• Software de instalación.

Estas tarjetas de red se pueden utilizar para crear una LAN totalmente sin hilos, o para incorporar
estaciones sin hilos a una LAN cableada.

Normalmente, estas tarjetas de red se utilizan para comunicarse con una componente llamada
concentrador sin hilos que actúa como un transceptor para enviar y recibir señales.

Un concentrador es un dispositivo de comunicaciones que combina señales de varias


fuentes, como terminales en la red, en una o más señales antes de enviarlas a su destino.

Tarjetas de red de fibra óptica

Conforme la velocidad de transmisión aumenta para acomodarse a las aplicaciones con un gran ancho de
banda y los flujos de datos multimedia son comunes en las intranets actuales, las tarjetas de red de fibra
óptica permiten conexiones directas a redes de fibra óptica de alta velocidad. Recientemente, estas tarjetas
han llegado a tener un precio competitivo, y su uso es cada vez más corriente.

PROM de inicialización remota

En algunos entornos, la seguridad es tan importante que las estaciones de trabajo no tienen unidades de
disquete individuales. Sin éstas, los usuarios no pueden copiar la información en un disquete o disco duro y,
por tanto, no pueden sacar los datos de su lugar de trabajo.

Sin embargo, como los equipos normalmente se arrancan desde una unidad de disquete o desde un disco
duro, tiene que existir otra fuente para que el software inicie (arranque) el equipo y lo conecte a la red. En
estos entornos, la tarjeta de red puede ser equipada con un chip especial llamado PROM (memoria
programable de sólo lectura) de inicialización remota que contenga el código que inicie el equipo y conecte al
usuario a la red.

Con las PROM de inicialización remota, las estaciones de trabajo sin disco se pueden unir a la red cuando
se inician.

Redes sin hilos

El entorno sin hilos

El entorno sin hilos es una opción de red, a veces apropiada y otras veces necesaria. Actualmente, los
fabricantes ofrecen más productos a precios atractivos, lo que significa que en un futuro se incrementarán
las ventas y la demanda. Conforme se incremente la demanda, el entorno sin hilos crecerá y mejorará.
La frase «entorno sin hilos» es engañosa, ya que implica una red completamente libre de cableado. En la
mayoría de los casos, esto no es cierto. Realmente la mayoría de las redes sin cables constan de
componentes sin hilos que se comunican con una red que utiliza cableado, es una red de componentes
mezclados llamada red híbrida.

Posibilidades de las redes sin hilos

Las redes sin hilos están llamando la atención porque los componentes sin hilos pueden:

• Ofrecer conexiones temporales a una red cableada existente.


• Ayudar a proporcionar respaldo a una red existente.
• Ofrecer algún grado de portabilidad.
• Extender las redes más allá de los límites de las conexiones físicas.

Utilidad de la conexión de redes sin hilos

La dificultad intrínseca en la instalación de las redes con cable es un factor que empujará a una mayor
aceptación de los entornos sin cable. La conexión sin cable puede ser especialmente útil para redes:

• En sitios concurridos, como áreas de recepción y salas de espera.


• Para usuarios que están constantemente moviéndose, como médicos y enfermeras en
hospitales.
• Áreas y edificios aislados.
• Departamentos donde la ubicación física cambia frecuentemente y de forma no predecible.
• Estructuras, como construcciones históricas, donde el cableado representa un reto.

Tipos de redes sin hilos

Las redes sin hilos se pueden dividir en tres categorías, basándose en su tecnología:

• LAN.
• LAN extendidas.
• Computación móvil.

La diferencia fundamental entre estas categorías radica en las facilidades de transmisión. Las LAN y las
LAN extendidas sin hilos utilizan transmisores y receptores propiedad de la compañía en donde funciona la
red. La computación móvil utiliza medios de transporte público, como las compañías telefónicas de servicios
de larga distancia, junto con compañías telefónicas locales y sus servicios públicos, para transmitir y recibir
señales.

LAN

Excepto por el medio utilizado, una red sin hilos típica opera de forma similar a una red cableada: en cada
una de los equipos se instala una tarjeta de red sin hilos con un transceptor, y los usuarios se comunican
con la red como si estuvieran utilizando equipos con cables.

Puntos de acceso

El transceptor, a veces llamado punto de acceso, transmite y recibe señales de los equipos circundantes y
pasa datos entre los equipos sin hilos y la red cableada.

Estas LAN sin hilos utilizan pequeños transceptores fijados en la pared para conectarse a la red con hilos.
Estos transceptores establecen contacto por radio con los dispositivos de red portátiles. Observe que esto no
es una verdadera LAN sin hilos, porque utiliza un transceptor colocado en la pared para conectarse a una
LAN cableada estándar.
Técnicas de transmisión

Las LAN sin hilos utilizan cuatro técnicas para transmitir datos:

1. Transmisión infrarroja.
2. Transmisión láser.
3. Transmisión por radio de banda estrecha (frecuencia única).
4. Transmisión por radio de amplio espectro.

Transmisión infrarroja. Todas las redes sin hilos infrarrojas operan utilizando un rayo de luz infrarroja
para llevar los datos entre los dispositivos. Estos sistemas necesitan generar señales muy fuertes, porque las
señales de transmisión débiles son susceptibles de interferencias desde fuentes de luz, como ventanas.

Este método puede transmitir señales a altas velocidades debido al gran ancho de banda de la luz
infrarroja. Una red infrarroja normalmente puede transmitir a 10 Mbps.

Hay cuatro tipos de redes infrarrojas:

• Redes de línea de visión. Como su nombre indica, esta versión de redes de infrarrojos
transmite sólo si el transmisor y el receptor tienen una línea de visión despejada entre ellos.
• Redes infrarrojas de dispersión. En esta tecnología, las transmisiones emitidas rebotan
en paredes y suelo y, finalmente, alcanzan el receptor. Éstas son efectivas en un área limitada de
unos 30,5 metros.
• Redes reflectoras. Los transceptores ópticos situados cerca de los equipos transmiten a
una posición común que redirige las transmisiones a el equipo apropiada.
• Telepunto óptico de banda ancha. Esta LAN sin hilos infrarroja ofrece servicios de
banda ancha y es capaz de ofrecer requerimientos multimedia de alta calidad que pueden alcanzar
los ofrecidos por una red cableada.

Aunque su velocidad y conveniencia están despertando interés, los infrarrojos tienen dificultad para
transmitir a distancias mayores de 30,5 metros (100 pies). También están supeditados a interferencias de la
fuerte luz ambiental que se encuentra en los entornos comerciales.

Trasmisión láser. La tecnología láser es similar a la infrarroja, ya que necesita una línea de visión
directa y cualquier persona o cosa que interfiera el rayo láser bloqueará la transmisión.

Transmisión por radio de banda estrecha (frecuencia única). Este método es similar a la
transmisión desde una estación de radio. El usuario sintoniza el transmisor y el receptor a una cierta
frecuencia. Ésta no necesita situarse en la línea de visión, porque el rango de transmisión es de 3.000
metros (9.842 pies). Sin embargo, como la señal es de alta frecuencia, está supeditada a la atenuación del
acero y los muros.

La radio de banda estrecha es un servicio de suscripción. Los suministradores de este servicio tienen
todos los requerimientos de licencia de la FCC u organismo nacional equivalente. Este método es
relativamente lento; la transmisión está en el rango de los 4,8 Mbps.

Transmisión por radio de amplio espectro. La radio de amplio espectro transmite señales en un rango
de frecuencias. Esto ayuda a evitar los problemas de las comunicaciones de banda estrecha.

Las frecuencias disponibles se dividen en canales, conocidos como hops o saltos, que se pueden comparar
con una etapa de un viaje que incluye la intervención de una serie de paradas entre el punto de inicio y el
destino. Los adaptadores de amplio espectro sintonizan en un hop específico por una cantidad de tiempo
predeterminada, y después pasan a un hop diferente. Una secuencia de saltos determina la coordinación. los
equipos de la red están todas sincronizadas para coordinar el hop. Este tipo de señalización ofrece una cierta
seguridad incorporada, ya que el algoritmo de salto de frecuencia de la red tendría que conocerse para
obtener el flujo de datos.

Para aumentar la seguridad y evitar que los usuarios no autorizados escuchen la emisión, el emisor y el
receptor pueden cifrar la transmisión.
La tecnología de radio de amplio espectro ofrece una red realmente sin hilos. Por ejemplo, dos o más
equipos equipados con adaptadores de red de amplio espectro y un sistema operativo con capacidades de
red predeterminadas puede actuar como una red Trabajo en Grupo sin cables de conexión. Además, las
redes sin hilos se pueden vincular a una red existente añadiendo una interfaz apropiada a uno de los equipos
de la red.

Aunque algunas implementaciones de radio de amplio espectro pueden ofrecer velocidades de transmisión
de 4Mbps a distancias de unos 3,22 kilómetros (dos millas) en exteriores y 244 metros (800 pies) en
interiores, la velocidad típica de 250 Kbps (Kilobits por segundo) hace que este método sea bastante más
lento que otras opciones de red sin hilos.

Transmisión punto a punto

El método punto a punto de comunicación de datos no entra claramente dentro de las presentes
definiciones de redes. Utiliza una tecnología punto a punto que transfiere datos desde una equipo a otro en
lugar de comunicarse entre varios equipos y periféricos. Sin embargo, los componentes adicionales como
transceptores de host y transceptores únicos están disponibles. Éstos se pueden implementar en equipos
individuales o en equipos que ya están en una red para formar una red de transferencia de datos sin hilos.

Esta tecnología implica la transferencia de datos serie sin hilos con estas características:

• Utiliza un enlace de radio punto a punto para la transmisión de datos rápida y libre de
errores.
• Atraviesa paredes, techos y suelos.
• Soporta índices de datos desde 1,2 a 38,4 Kbps hasta 61 metros (200 pies) en interiores o
unos 0,5 kilómetros (0.30 millas) con transmisión a la vista.

Este tipo de sistema transfiere datos entre equipos, o entre equipos y otros dispositivos como impresoras
o lectores de código de barras.

LAN extendidas

Otros tipos de componentes sin hilos pueden funcionar en un entorno LAN extendido, de forma similar a
su contrapartida cableada. Por ejemplo, un bridge LAN sin hilos puede conectar redes separadas hasta 4,8
kilómetros (tres millas).

Conexión sin hilos multipunto

Un bridge sin hilos es un componente que ofrece una forma sencilla de poder conectar edificios sin utilizar
cables. De la misma forma que un puente ofrece un camino entre dos puntos, un bridge sin hilos ofrece una
camino de datos entre dos edificaciones. Con variaciones que dependen de condiciones atmosféricas y
geográficas, esta distancia puede ser superior a 4,8 kilómetros (tres millas).

Aunque es costoso, tal componente se podría justificar porque elimina el gasto de las líneas alquiladas.

Bridge sin hilos de gran alcance

Si los bridges sin hilos no llegan lo suficientemente lejos, otra alternativa a considerar son los bridges sin
hilos de gran alcance. Éstos también utilizan tecnología de radio de amplio espectro para ofrecer bridges
Ethernet y Token Ring, pero para una distancia superior a 40 kilómetros (unas 25 millas).

Como con los bridge sin hilos originales, el coste de los bridge de gran alcance se podría justificar porque
elimina la necesidad de la línea T1 o enlaces de microondas.

Una línea T1 es una línea de comunicaciones de alta velocidad que puede tener
comunicaciones digitales y acceso a Internet a una velocidad de 1,544 Mbps.
Computación móvil

Las redes móviles sin hilos utilizan servicios telefónicos y servicios públicos para recibir y transmitir
señales utilizando:

• Comunicación de paquetes vía radio.


• Redes celulares.
• Estaciones de satélite.

Los empleados que están de viaje pueden utilizar esta tecnología con equipos portátiles o asistentes
digitales personales (PDA) para intercambiar mensajes de correo electrónico, archivos u otra información.

Aunque esta forma de comunicación tiene sus ventajas, es lenta. La velocidad de transmisión oscila entre
los 8 kbps y los 19,2 kbps. La velocidad es menor cuando se incluye la corrección de errores.

La computación móvil incorpora adaptadores sin hilos que utilizan tecnología telefónica celular para
conectar equipos portátiles con redes cableadas. Los equipos portátiles utilizan pequeñas antenas para
comunicarse con las torres de radio en áreas circundantes. Los satélites en órbita cercanos a la tierra
recogen las señales de baja potencia de los dispositivos de red móviles y portátiles.

Comunicación de paquetes vía radio

Este sistema divide una transmisión en paquetes.

Un paquete es una unidad de información transmitida como un todo de un dispositivo a


otro en la red.

Estos paquetes de radio son similares a otros paquetes de la red. Éstos incluyen:

• La dirección fuente.
• La dirección destino.
• Información de corrección de errores.

Los paquetes se conectan a un satélite que los transmite. Sólo los dispositivos con la dirección correcta
pueden recibir los paquetes transmitidos.

Redes celulares

Los datos de paquetes celulares digitales (Cellular Digital Packet Data, CDPD) utilizan la misma tecnología
y algunos de los sistemas de los teléfonos móviles celulares. Ofrecen transmisiones de datos de equipo sobre
redes de voz analógicas, siempre y cuando el sistema no esté ocupado. Ésta es una tecnología muy rápida
que sufre retrasos de sólo unos segundos, haciéndola suficientemente fiable para transmisiones en tiempo
real.

Como en las restantes redes sin hilos, debe haber una forma de enlazar la red celular con una red
cableada existente. Una unidad de interfaz Ethernet (EIU) puede ofrecer esta conexión.

Estaciones de satélite

Los sistemas de microondas son una buena opción para la interconexión de edificios en sistemas
pequeños y con cortas distancias, como un campus o un parque industrial.

La transmisión de microondas es actualmente el método de transmisión a larga distancia más utilizado. Es


excelente para la comunicación entre dos puntos a la vista como:

• Enlaces de satélite a tierra.


• Entre dos edificios.
• A través de grandes áreas uniformes y abiertas, como extensiones de agua o desiertos.

Un sistema de microondas consta de:

• Dos transceptores de radio: uno para generar (estación de transmisión) y otro para recibir
(estación de recepción) la transmisión.
• Dos antenas orientables apuntadas frente a frente para realizar la comunicación de la
transmisión de señales por los transceptores. Estas antenas, a menudo, se instalan en torres para
ofrecer un mayor rango y para evitar todo aquello que pudiera bloquear sus señales.

Métodos de acceso
La función de los métodos de acceso

Se denomina método de acceso al conjunto de reglas que definen la forma en que un equipo coloca los
datos en la red y toma los datos del cable. Una vez que los datos se están moviendo en la red, los métodos
de acceso ayudan a regular el flujo del tráfico de la red.

Control del tráfico en el cable

Una red es de alguna forma como la vía de un tren, por la que circulan varios trenes. Además de la vía,
suele haber estaciones de tren. Cuando un tren está en la vía, el resto de los trenes deben respetar un
procedimiento que gobierna cómo y cuándo entran en el flujo de tráfico. Sin dicho procedimiento, la entrada
de un tren podría colisionar con otro que ya estuviese en la vía.

Sin embargo, hay diferencias importantes entre un sistema de vías de tren y una red de equipos. En una
red, parece que todo el tráfico se mueve simultáneamente, sin interrupción. No obstante, esta apariencia es
una ilusión; en realidad, los equipos toman turnos para acceder a la red durante breves períodos de tiempo.
La mayor diferencia está en la mayor velocidad en la que se mueve el tráfico de la red.

Varios equipos pueden compartir el acceso al cable. Sin embargo, si dos equipos tratasen de colocar datos
en el cable a la vez, los paquetes de datos de un equipo podrían colisionar con los paquetes de datos del otro
equipo, y ambos conjuntos de paquetes de datos podrían dañarse.

Si un usuario va a enviar los datos a otro usuario a través de la red, o se va a acceder a los datos de un
servidor, tiene que haber una forma para que los datos puedan acceder al cable sin interferirse entre ellos. Y
el equipo de destino debe tener una garantía para que los datos no se destruyan en una colisión durante la
transmisión.

Los métodos de acceso tienen que ser consistentes en la forma de manipular los datos. Si los equipos
utilizasen métodos de acceso distintos, la red podría tener problemas, debido a que unos métodos podrían
dominar el cable.

Los métodos de acceso previenen que los equipos accedan simultáneamente al cable. Al asegurar que
sólo un equipo coloca los datos en el cable de la red, los métodos de acceso aseguran que el envío y
recepción de datos de la red se realiza de forma ordenada.

Principales métodos de acceso


Los tres métodos diseñados para prevenir el uso simultáneo del medio de la red incluyen:

• Métodos de acceso múltiple por detección de portadora


o Por detección de colisiones
o Con anulación de colisiones.
• M
étodos
de paso
de testigo que permiten una única oportunidad para el envío de datos.
• Métodos de prioridad de demandas.

Método de acceso múltiple por detección de portadora por detección de


colisiones (CSMA/CD)

Al utilizar el método conocido como acceso múltiple por detección de portadora por detección de colisiones
(CSMA/CD), cada uno de los equipos de la red, incluyendo a los clientes y a los servidores, comprueban el
cable para detectar el tráfico de la red.

Los equipos sólo pueden transmitir datos si el cable está libre.

Un equipo sólo puede enviar datos cuando «detecta» que el cable está libre y que no hay tráfico en el
cable. Una vez que el equipo haya trasmitido los datos al cable, ningún equipo puede transmitir datos hasta
que éstos hayan llegado a su destino y el cable vuelva a estar libre. Recuerde que si dos o más equipos
tratan de enviar datos en el mismo instante de tiempo, habrá una colisión de datos. Cuando eso ocurre, los
dos equipos implicados dejarán de transmitir datos durante un período de tiempo aleatorio y volverán a
transmitir los datos. Cada equipo determina su propio período de espera, por lo que se reduce la posibilidad
de que los dos equipos vuelvan a transmitir simultáneamente.

Teniendo esto en cuenta, comprenderá el nombre del método de acceso, acceso múltiple por detección de
portadora por detección de colisiones (CSMA/CD). Los equipos oyen o «detectan» el cable (detección de
portadora). Normalmente, muchos equipos de la red intentan transmitir datos (acceso múltiple); primero,
cada uno oye para detectar posibles colisiones. Si un equipo detecta una posible colisión, espera un período
de tiempo aleatorio antes de volver a intentar transmitir (detección de colisiones).

La posibilidad de detección de colisiones es el parámetro que impone una limitación en cuanto a distancia
en CSMA/CD. Debido a la atenuación, el debilitamiento de una señal transmitida a medida que se aleja del
origen, el mecanismo de detección de colisiones no es apropiado a partir de 2.500 metros (1.5 millas). Los
segmentos no pueden detectar señales a partir de esa distancia y, por tanto, no se puede asegurar que un
equipo del otro extremo esté transmitiendo. Si más de un equipo transmite datos en la red al mismo tiempo,
se producirá una colisión de datos y los datos se estropearán.

Método de contención

CSMA/CD es conocido como un método de contención debido a que se contiene, o retiene, a los equipos
de la red hasta que haya una oportunidad para enviar los datos.

Puede verlo como una forma pesada de colocar los datos en la red, pero las implementaciones actuales de
CSMA/CD son tan rápidas que los usuarios no perciben que se está utilizando este método.

Consideraciones sobre CSMA/CD

A mayor cantidad de equipos en la red, mayor tráfico de red. A medida que aumenta el tráfico, tienden a
aumentar la anulación de colisiones y las colisiones, que ralentizan la red, de forma que CSMA/CD puede
convertirse en un método de acceso lento.

Después de cada colisión, ambos equipos tendrán que retransmitir sus datos. Si la red está muy saturada,
es posible que los intentos de ambos equipos produzcan colisiones en la red con los paquetes de otros
equipos. Si ocurre esto, tendremos cuatro equipos (los dos originales y los dos equipos cuyos paquetes han
colisionado con los paquetes retransmitidos) que tienen que volver a transmitir. Este aumento de las
retransmisiones puede hacer que la red quede paralizada.

La ocurrencia de este problema depende del numero de usuarios que intenten utilizar la red y de las
aplicaciones que estén utilizando. Las aplicaciones de bases de datos tienen a colocar en la red más datos
que las aplicaciones de procesamiento de textos.
Dependiendo de los componentes hardware, del cableado y del
software de red, la utilización de una red CSMA/CD con muchos
usuarios utilizando aplicaciones de bases de datos puede llegar a ser
frustrante, debido al elevado tráfico de la red.

Método de acceso múltiple por detección de


portadora con anulación de colisiones (CSMA/CA)

El acceso múltiple por detección de portadora con anulación de


colisiones (CSMA/CA) es el método de acceso menos popular. En
CSMA/CA, cada equipo indica su intención de transmitir antes de
transmitir los datos. De esta forma, los equipos detectan cuándo puede
ocurrir una colisión; esto permite evitar transmitir colisiones. Al
informar de la intención de transmitir datos aumenta el tráfico en el
cable y ralentiza el rendimiento de la red.

Método de acceso paso de testigo

En el método de acceso conocido como paso de testigo, circula por el cable del anillo equipo en equipo un
paquete especial denominado testigo. Cuando un equipo del anillo necesita enviar datos a través de la red,
tiene que esperar a un testigo libre. Cuando se detecta un testigo libre, el equipo se apodera de él si tiene
datos que enviar.

Ahora el equipo puede enviar datos. Los datos se transmiten en tramas junto con información adicional
como cabeceras y finales (trailers).

Mientras un equipo está utilizando el testigo, los otros equipos no pueden transmitir datos. Debido a que
sólo puede haber un equipo utilizando el testigo, no se producen colisiones ni contención y no se pierde
tiempo esperando a que los equipos vuelvan a enviar los testigos debido al tráfico de la red.

Método de acceso prioridad de demandas

La prioridad de demandas es un método de acceso relativamente nuevo y está diseñado para el estándar
Ethernet 100 Mbps conocido como 100VG-AnyLAN. Ha sido estandarizado por el Instituto de ingenieros
eléctricos y electrónicos (IEEE) como la especificación 802.12.

Este método de acceso está basado en el hecho de que los nodos repetidores y finales son los dos
componentes que forman todas las redes 100VG-AnyLAN. Los repetidores gestionan el acceso a la red
haciendo búsquedas round-robin de peticiones de envío de todos los nodos de red. El repetidor o hub es el
responsable de conocer todas las direcciones, enlaces y nodos finales, y de comprobar que todos están
funcionando. De acuerdo con la definición de 100VG-AnyLAN, un nodo final puede ser un equipo, un bridge,
un router o un switch.

Contención de la prioridad de demandas

Al igual que en CSMA/CD, dos equipos que utilicen el método de acceso con prioridad de demandas
pueden causar contención si transmiten exactamente en el mismo instante. Sin embargo, con prioridad de
demandas, es posible implementar un esquema en que ciertos tipos de datos tengan prioridad si existe
contención. Si el hub o repetidor recibe dos peticiones al mismo tiempo, primero se servirá la petición que
tenga mayor prioridad. Si las dos peticiones tienen la misma prioridad, ambas peticiones se servirán
alternando entre las dos.

En una red con prioridad de demandas, los equipos pueden recibir y transmitir al mismo tiempo debido al
esquema de cableado definido por este método de acceso. En este método se utilizan cuatro pares de hilos,
que permiten dividir por cuatro las transmisiones, transmitiendo cada uno de los hilos del cable señales a 25
MHz.

Consideraciones sobre la prioridad de demandas


En una red con prioridad de demandas, sólo hay comunicación entre el equipo que envía, el hub y el
equipo que recibe. Esto es más eficiente que CSMA/CD, que transmite avisos a toda la red. En prioridad de
demandas, cada hub conoce los nodos finales y los repetidores que están conectados a él directamente,
mientras que en el entorno CSMA/CD, cada hub conoce la dirección de cada nodo de la red.

La prioridad de demandas tiene varias ventajas respecto a CSMA/CD, entre las que se incluyen:

• El uso de cuatro pares de hilos. Al utilizar cuatro pares de hilos, los equipos pueden
enviar y recibir al mismo tiempo.
• Las transmisiones se realizan a través del hub. Las transmisiones no se envían a
todos los equipos de la red. Los equipos no compiten por acceder al cable, pero trabajan bajo el
control centralizado del hub.

Características de los distintos métodos de acceso

Característica Paso de Prioridad


CSMA/CD CSMA/CA
o función testigo de demandas
Basado en Basado en
Tipo de Basado en Basado en
envíos a todos envíos a todos
comunicación testigo hub.
los equipos los equipos
Tipo de
Sin
método de Contención Contención Contención
contención
acceso
Tipo de
Token Ring 100VG-
método de Ethernet LocalTalk
ArcNet AnyLAN.
acceso

Envío de datos en una red


Inicialmente, se puede pensar que los datos se envían desde un equipo a otro como una serie continua de
unos y ceros. De hecho, los datos se dividen en paquetes pequeños y manejables, cada uno dividido con la
información esencial para ir desde el origen hasta el destino. Los paquetes son bloques básicos que
constituyen la comunicación de datos por la red.

La función de los paquetes en las comunicaciones en red

Normalmente los datos existen como archivos de gran tamaño. En cambio, las redes no podrían funcionar
si los equipos colocasen a la vez grandes cantidades de datos en la red. Un equipo que envíe grandes
cantidades de datos hace que otros equipos tengan que esperar (incrementando la frustración de los otros
usuarios) mientras se transmiten los datos. Esto no es lo que se llama «compartir»; esto es «monopolizar la
red». Hay dos razones por las que la colocación de grandes bloques de datos en el cable ralentiza la red:

• Las grandes cantidades de datos enviados como un único bloque colapsan la red y hacen
imposible la interacción y comunicación apropiada debido a que un equipo está desbordando el
cable con datos.
• El impacto de la retransmisión de grandes bloques de datos multiplica el tráfico de la red.

Estos efectos se minimizan cuando estos grandes bloques de datos se dividen en paquetes más pequeños
para una mejor gestión del control de errores en la transmisión. De esta forma, sólo se afecta a una
pequeña cantidad de datos, y por tanto, sólo se tienen que volver a transmitir pequeñas cantidades de
datos, facilitando la recuperación de un error.

Para que varios usuarios puedan transmitir a la vez datos por la red de forma rápida y sencilla, hay que
dividir los datos en bloques pequeños y manejables. De esta forma, los usuarios pueden compartir su acceso
a la red. Estos bloques se denominan paquetes, o tramas. Aunque los términos de «paquete» y «trama» se
suelen utilizar indistintamente, hay algunas diferencias dependiendo del tipo de red.
Utilizaremos el término «paquete» para hacer referencia a «una unidad de información transmitida como
una entidad desde un dispositivo a otro de la red».

«Dispositivo» es un término genérico utilizado para un subsistema informático.


Normalmente a las impresoras, puertos serie y unidades de disco se les conoce como
dispositivos; tales subsistemas suelen necesitar su propio software controlador,
denominado controladores del dispositivo. Los paquetes son las unidades básicas de la
comunicación en la red. Cuando se dividen datos en paquetes, se aceleran las
transmisiones individuales de forma que cada equipo de la red tenga más oportunidades
de transmitir y recibir datos. En el equipo de destino (receptor), se reúnen los paquetes y
se reorganizan en el orden de los datos originales.

Cuando el sistema operativo de la red del equipo de origen divide los datos en paquetes, añade a cada
trama una información de control especial. Esto hace posible:

• El envío de los datos originales en pequeños paquetes.


• La reorganización de los datos en el orden apropiado cuando lleguen a su destino.
• La comprobación de errores una vez que se hayan reorganizado los datos.

Estructura de un paquete

Los paquetes pueden contener datos de varios tipos incluyendo:

• Información, como mensajes o archivos.


• Ciertos tipos de datos de control y comandos, como peticiones de servicio.
• Códigos de control de sesión, como la corrección de errores, que indica la necesidad de una
retransmisión.

Componentes de un paquete

Todos los paquetes tienen varias propiedades en común. Entre ellas se incluyen:

• Una dirección de origen que identifica al equipo que realiza el envío.


• Los datos que se quieren transmitir.
• Una dirección de destino que identifica al destinatario.
• Instrucciones que indican a los componentes de la red cómo pasar los datos.
• Información que indica al equipo de destino cómo conectar el paquete con el resto de los
paquetes para reorganizar el bloque completo de datos.
• Información de comprobación de errores que asegura que los datos lleguen intactos.

Los componentes de un paquete se agrupan en tres secciones: cabecera, datos y final.

Cabecera

La cabecera incluye:

• Una señal de alerta que indica que el paquete se está transmitiendo.


• La dirección del origen.
• La dirección del destino.
• Información de reloj para sincronizar la transmisión.

Datos
Esta parte describe los datos que se están enviando actualmente. Dependiendo de la red, esta parte del
paquete tiene un tamaño variable. La sección de datos en la mayoría de las redes varía entre 512 bytes o
0.5 kilobytes (KB) y 4 KB.

Debido a que la mayoría de los datos de origen suelen tener más de 4 KB, hay que dividir los datos en
bloques más pequeños para que puedan ser colocados en paquetes. Para realizar la transmisión de un
archivo grande, habrá que enviar muchos paquetes.

Final

El contenido exacto del final varía en función del método de comunicación o protocolo. Sin embargo, el
final suele tener un componente de comprobación de errores denominado código de redundancia cíclica
(CRC). El CRC es un número generado en el origen por un cálculo matemático sobre el paquete. Cuando el
paquete llega al destino se vuelve a realizar el cálculo. Si el resultado de los dos cálculos coincide, indica que
los datos del paquete se han mantenido estables. Si el cálculo del destino es distinto del cálculo del origen,
significa que los datos han cambiado durante la transmisión. En dicho caso, la rutina de CRC indica al equipo
origen que vuelva a transmitir los datos.

Un protocolo es un conjunto de reglas o estándares diseñado para permitir que los


equipos puedan conectarse entre sí e intercambiar datos reduciendo los errores en la
medida de lo posible.

Las redes tienen distintos formatos para los paquetes y permiten paquetes de distintos tamaños. El límite
del tamaño del paquete determina cuántos paquetes puede crear el sistema operativo de red para un
conjunto de datos de gran tamaño.

Ethernet
Con el paso del tiempo, Ethernet se ha convertido en el medio de acceso más conocido para equipos de
sobremesa y se utiliza en entornos de red pequeños y grandes. Ethernet es un estándar que no pertenece a
ninguna industria, y que ha tenido una gran aceptación por los fabricantes de hardware de red. Casi no
existen problemas relacionados con la utilización de productos hardware para Ethernet de distintos
fabricantes.

Orígenes de Ethernet

A finales de los sesenta la Universidad de Hawai desarrolló una WAN denominada ALOHA. (Una WAN
extiende la tecnología de una LAN sobre un área geográfica más grande. La universidad ocupaba un área
extensa y buscaba cómo conectar los equipos que estaban dispersos en el campus. Una de las características
fundamentales de la red de la universidad era que utilizaba CSMA/CD como método de acceso.

Esta red fue la base para la arquitectura de red Ethernet actual. En 1972, Robert Metcalfe y David Boggs
inventaron un esquema de cableado y comunicación en el Centro de Investigación de Xerox en Palo Alto
(PARC) y en 1975 introdujeron el primer producto Ethernet. La versión original de Ethernet estaba diseñada
como un sistema de 2.94 megabits por segundo (Mbps) para conectar unos 100 equipos sobre un cable de 1
kilómetro (0.62 millas).

La Ethernet de Xerox tuvo tanto éxito que Xerox, Intel Corporation y Digital Equipment Corporation
diseñaron un estándar para Ethernet a 10 Mbps.

Especificaciones de Ethernet

En 1978, la Organización internacional de normalización (ISO) creó un conjunto de especificaciones para


la conexión de dispositivos diferentes. Este conjunto de estándares se conoce como modelo de referencia
OSI (OSI quiere decir Interconexión de Sistemas Abiertos). La especificación Ethernet realiza las mismas
funciones que los niveles físico y de enlace de datos de este modelo. Estas especificaciones afectan a cómo
se conecta el hardware y a cómo se intercambia la información. En la década de los ochenta el IEEE publicó
el Proyecto 802. Este proyecto generó estándares para el diseño y compatibilidad de componentes hardware
que operaban en los niveles físico y de enlace de datos. El estándar que pertenecía a
Ethernet es la especificación 802.3 de IEEE.

Características de Ethernet

Actualmente, Ethernet es la arquitectura de red más popular. Esta arquitectura de banda base utiliza una
topología en bus, normalmente transmite a 10 Mbps y utiliza CSMA/CD para regular el segmento de cable
principal.

El medio Ethernet es pasivo, lo que significa que no requiere una fuente de alimentación, por lo que no
fallará a no ser que el medio esté cortado físicamente o no esté terminado correctamente.

Aspectos básicos de Ethernet

Características básicas de Ethernet

• Topologías: Bus lineal o bus en estrella


• Tipo de arquitectura: Banda base.
• Método de acceso: CSMA/CD.
• Especificación: IEEE 802.3.
• Velocidad de transferencia: 10 Mbps ó 100 Mbs.
• Tipo de cable: Grueso, fino, UTP y STP

El formato de trama de Ethernet

Ethernet divide los datos en paquetes en un formato que es diferente al de los paquetes de otras redes:
Ethernet divide los datos en tramas. Se pueden utilizar los términos de «paquete» y «trama» de forma
indistinta; en el contexto de Ethernet se utiliza el término de «trama». Una trama es un paquete de
información transmitido como una unidad. Una trama Ethernet puede tener entre 64 y 1.518 bytes, pero la
propia trama Ethernet necesita utilizar al menos 18 bytes; así pues, el tamaño de los datos de una trama
Ethernet está entre 46 y 1.500 bytes. Cada trama contiene información de control y tiene la misma
estructura básica.

Por ejemplo, la trama Ethernet II, utilizada por el Protocolo de control de transmisión/Protocolo Internet
(TCP/IP), que se transmite a través de la red, consta de las secciones que aparecen en la siguiente tabla
(TCP/IP se ha convertido en el estándar de hecho para la transmisión de datos en redes, incluyendo a
Internet):

Componentes de una trama Ethernet II

• Preámbulo: Indica el principio de la trama.


• Destino y origen: Las direcciones de origen y destino.
• Tipo: Se utiliza para identificar el protocolo del nivel de red, normalmente, IP o IPX
(Intercambio de paquetes entre redes de Novell).
• Comprobación de redundancia cíclica (CRC): Campo de comprobación de errores para
determinar si la trama ha llegado sin errores.

Los estándares IEEE a 10 Mbps

Las redes Ethernet incluyen una variedad de alternativas de cableado y topologías. Existen cuatro
topologías Ethernet de 10 Mbps:

• 10BaseT.
• 10Base2.
• 10Base5.
• 10BaseFL.
• 10Broad36

Estándar 10BaseT

En 1990, el comité IEEE publicó la especificación 802.3 para Ethernet en par trenzado. El resultado,
10BaseT (10 Mbps, Banda base sobre par trenzado), es una red Ethernet que suele utilizar cable de par
trenzado sin apantallar (UTP) para la conexión de equipos. Normalmente 10BaseT suele utilizar UTP, pero
también se puede utilizar cable de par trenzado apantallado (STP) sin cambiar ninguno de los parámetros de
10BaseT.

La mayoría de las redes de este tipo están configuradas en forma de estrella, pero internamente utilizan
un sistema de comunicación en bus como el de otras configuraciones Ethernet. Normalmente, el hub de una
red 10BaseT sirve como un repetidor multipuerto y se suele situar en los armarios de conexiones del edificio.
Cada equipo está colocado en el extremo de un cable que está conectado al hub. Cada equipo tiene dos
pares de hilos; un par se utiliza para recibir datos y otro par se utiliza para transmitir datos.

La longitud máxima de un segmento 10BaseT es 100 metros (328 pies). Se pueden utilizar repetidores
para aumentar esta limitación. La longitud mínima del cable entre equipos es de 2,5 metros (unos 8 pies).
Una LAN 10BaseT puede gestionar 1.024 equipos.

El cable UTP permite la transmisión de datos a 10 Mbps. Es fácil realizar cambios cambiando un cable en
el panel de conexiones. Un cambio en el panel de conexiones no afectará a otros dispositivos de la red; esto
difiere de una red con bus Ethernet tradicional.

Los hubs más recientes permiten la conexión a tipos de cable Ethernet fino y grueso. De esta forma,
también es fácil convertir el cable Ethernet grueso a cable 10BaseT conectando un transceiver mini 10BaseT
al puerto AUI de la tarjeta de red.

Resumen de las especificaciones de 10BaseT:

• Cable: UTP Categoría 3, 4 ó 5.


• Conectores: RJ-45 al final del cable.
• Transceiver: Cada equipo necesita uno; algunas tarjetas lo tienen incorporado.
• Distancia del transceiver al hub: Máximo de 100 metros (328 pies).
• Backbones para los hubs: Cable coaxial o de fibra óptica para unir grandes redes locales
o para cargar con el tráfico entre redes más pequeñas.
• Número total de equipos por LAN sin componentes de conectividad: 1024 por
especificación.

Estándar 10Base2

Otra topología es 10Base2, y se da este nombre a la especificación 802.3 de IEEE porque transmite a 10
Mbps en un hilo de banda base y puede llevar una señal hasta casi el doble de 100 metros (la distancia
actual es de 185 metros).

Este tipo de red utiliza cable coaxial fino, que tiene un segmento de red máximo de 185 metros (607 pies)
y una longitud mínima de 0,5 metros entre estaciones. También existe la limitación de hasta 30 equipos por
segmento de 185 metros.

Entre los componentes del cableado con cable fino están:

• Conectores BNC de barril.


• Conectores BNC T.
• Terminadores BNC.
El cableado con cable fino normalmente utiliza una topología de bus local.
Los estándares de IEEE para cable fino no permiten la utilización de un cable
transceiver del conector T del bus al equipo. En su lugar, se conecta
directamente el conector T a la NIC.

Se puede utilizar un conector BNC de barril para conectar los segmentos


de cable fino y poder extender la longitud del cable. Por ejemplo, si necesita
una longitud de cable para nueve metros de largo, pero sólo tiene uno de 7,5
metros y otro de 1,5 metros de cable fino, puede unir los dos segmentos de
cable con un conector BNC de barril. Sin embargo, la utilización de
conectores de barril debe evitarse en la medida de lo posible ya que cada
conexión reduce la calidad de la señal y añade el riesgo de la separación y
desconexión.

Una red de cable fino es una forma económica de dar soporte a un departamento pequeño o a un grupo
de trabajo. El cable que se utiliza para este tipo de redes es:

• Relativamente barato.
• Fácil de instalar.
• Fácil de configurar.

Una red de cable fino puede soportar hasta 30 nodos (equipos y repetidores) por segmento de cable,
como por la especificación 802.3.

La regla 5-4-3

Una red de cable fino puede combinar hasta cinco segmentos de cable conectados por cuatro repetidores;
pero sólo puede hacer tres segmentos con estaciones conectadas. A los dos segmentos que no se pueden
utilizar se les conoce como «enlaces entre repetidores». Esto se conoce como la regla 5-4-3.

Debido a que los límites de Ethernet son demasiado estrictos para proyectos de cierta envergadura, se
pueden utilizar repetidores para unir segmentos Ethernet y ampliar la longitud total de la red a 925 metros.

Resumen de las especificaciones 10Base2

• Longitud máxima del segmento: 185 metros.


• Conexión a la tarjeta de red: Conector BNC T.
• Segmentos y repetidores: Se pueden unir cinco segmentos utilizando cuatro repetidores.
• Equipos por segmento: 30 equipos por segmento por especificación.
• Segmentos que pueden tener equipos: Se pueden utilizar equipos en tres de los cinco
segmentos.
• Longitud máxima total de la red: 925 metros.

Estándar 10Base5

La especificación de IEEE para esta topología es de 10 Mbps y segmentos de 500 metros (cinco veces 100
metros). También se denomina Ethernet estándar.

Esta topología hace uso del cable coaxial grueso. Normalmente, el cable grueso utiliza una topología en
bus y puede soportar hasta 100 nodos (estaciones, repetidores y demás) por segmento backbone. El
backbone, o segmento principal, es el cable principal desde el que se conectan los cables de los transceivers
a las estaciones y repetidores. Las distancias y tolerancias para cable grueso son mayores que las de cable
fino: un segmento de cable grueso puede tener hasta 500 metros y una longitud máxima de la red de 2.500
metros.

Entre los componentes de un cableado con cable grueso se incluyen:


• Transceivers. Se trata de dispositivos que pueden enviar y recibir, proporcionar
comunicación entre el equipo y el cable principal de la LAN, y están situados en las conexiones de
los vampiros sobre el cable.
• Cables de transceiver. El cable que conecta el transceiver a la NIC.
• Conectores DIX (o AUI). Estos son los conectores del cable del transceiver.
• Conectores serie, incluyendo N conectores de barril y N terminales serie. Los
componentes del cable grueso funcionan de la misma forma que los componentes del cable fino.

AUI son unas siglas que significan Interfaz de conexión de unidad y es un conector de
15 pines (DB-15) que se suele utilizar para conectar una tarjeta de red a un cable
Ethernet.

La regla 5-4-3 para cable grueso

En una red Ethernet con cable grueso puede tener un máximo de cinco segmentos backbone conectados
utilizando repetidores (basados en la especificación IEEE 802.3), de los cuales sólo tres pueden tener
equipos conectados. La longitud de los cables de los transceivers no se utiliza para medir la distancia
permitida por el cable grueso; sólo se utiliza la propia longitud del cable grueso desde un extremo hasta el
otro.

Entre dos conexiones, la longitud mínima del segmento de cable es de 2,5 metros. El cable grueso se
diseñó para soportar un backbone para un departamento grande en un edificio.

Resumen de las especificaciones 10base5

• Longitud máxima del segmento: 500 metros.


• Transceivers: Conectados al segmento (en la conexión).
• Distancia máxima entre el equipo y el transceiver: 50 metros.
• Distancia mínima entre transceivers: 2,5 metros.
• Segmentos y repetidores: Se pueden unir cinco segmentos utilizando cuatro repetidores.
• Segmentos que pueden tener equipos: Se pueden conectar equipos en tres de los cinco
segmentos.
• Longitud total máxima de los segmentos unidos: 2.500 metros.
• Número máximo de equipos por segmento: 100 por especificación.

Combinación de cable grueso y cable fino

En redes de tamaño considerable es frecuente combinar cables Ethernet grueso y fino. El cable grueso es
bueno para backbones, mientras que el cable fino se suele utilizar para segmentos secundarios o ramas.
Esto significa que el cable grueso es el cable que se suele utilizar para distancias largas. El cable grueso
tiene un núcleo de cobre más grueso y puede, por tanto, llevar señales a una distancia mayor que el cable
fino. El transceiver se conecta al cable grueso y el conector AUI del cable del transceiver se conecta a un
repetidor. Las ramas de cable fino se conectan al repetidor y conectan los equipos a la red.

Estándar 10BaseFL

El comité de IEEE publicó una especificación para Ethernet en cable de fibra óptica El resultado, 10 BaseFL
(10 Mbps, banda base sobre cable de fibra óptica) es una red Ethernet que suele utilizar cable de fibra óptica
para conectar los equipos y los repetidores.

La principal razón para utilizar 10BaseFL es para trabajar con cables largos entre repetidores, como puede
ser entre edificios.

• Longitud máxima del segmento: 2.000 metros.


• Número máximo de nodos por segmento: 2
• Atenuación máxima: 3,75 dB/km para las transmisiones con una longitud de onda de
850 nm; 1,5 dB/km para transmisiones en 1300 nm
• Número máximo de segmentos: 1.024
• Número máximo de segmentos con nodos: 1.024
• Número máximo de concentradores (hub) encadenados: 4

Estándar 10Broad36

10Broad36 soporta un ratio de transmisión de 10 Mb/s y utiliza un cable de banda ancha. 36 hace
referencia a la distancia máxima en metros (3600) soportada entre dos estaciones. El cable de banda ancha
usado con 10Broad36 es el mismo cable coaxial usado por el sistema de televisión por cable (CATV).

El sistema de cable de banda ancha soporta la transmisión de múltiples servicios sobre un sólo cable
dividiendo cada banda por frecuencias separadas, asignando cada frecuencia a un servicio. Esta es la técnica
es la utilizada en el sistema de transmisión de TV por cable donde cada canal usa una frecuencia distinta.
Esta capacidad es la que permite a 10Broad36 compartir el cable con otro tipo de servicio como el vídeo.

Otra de las ventajas de 10Broad36 es que soporta distancias de transmisión de la señal mayores que
otro tipo de señales de banda base sobre cable coaxial como 10Base5 y 10Base2. Un sólo segmento de
10Broad36 puede tener 1800 m. de longitud. Todas las redes basadas en 10Broad36 tienen que tener un
terminador (head end). El terminador puede estar al final de de un único segmento o al principio de
múltiples segmentos. Si unimos varios segmentos podemos alcanzar una distancia total de 3600 m.

10Broad36 conecta las estaciones de trabajo al cable central a través de conectores AUI y la distancia
máxima al Back-Bone es de 50 m. por lo que técnicamente es posible obtener una distancia máxima de
3700 m..

El sistema de transmisión en banda ancha se diferencia del sistema de transmisión en banda base en el
flujo de transmisión de la señal. La señal en banda ancha viaja en un sólo sentido, el flujo es unidireccional,
al contrario que en banda base que es bidireccional. Para que las señales alcancen todos los dispositivos en
la red, debe haber dos caminos para el flujo de los datos. Esto puede lograrse a través de un solo "cable" o
de una configuración de "cable dual".

• En la configuración de un sólo cable, la transmisión se produce sobre dos canales, cada


uno con un rango de frecuencia distinto. Un canal se utiliza para transmitir la señal y otro para
recibirla. Cuando la señal se transmite viaja hasta el terminador. El terminador incluye un conversor
de frecuencia que cambia la frecuencia de la señal y la re-transmite en la dirección opuesta a lo
largo del mismo cable. La señal se recibe entonces por todos los dispositivos en el cable.
• En una configuración de cable dual, cada estación se conecta a dos cables, uno de ellos
se utiliza para transmitir y la señal llega hasta el terminador por donde continua hasta el otro cable
sin cambiar la frecuencia,. La señal puede recibirse por todos los dispositivos a través de este
segundo cable.

Cuando se introdujo 10Broad36 ofrecía la ventaja de soportar una mayor longitud de segmentos que
10Base5 y 10Base2. Pero esta ventaja disminuyó con la introducción de la fibra FOIRL y del estándar
10Base-F, ya que 10Broad36 no soporta el sistema de trabajo Full-duplex.

Características de 10Broad36:

• Ratio de transmisión: 10 Mb/s (no soporta full-duplex)


• Tipo de cable: coaxial 75 Ohmios (Cable banda ancha CATV)
• Longitud máxima del segmento: 1.800 metros.
• Longitud máxima de múltiples segmentos: 3.600 m.
• Sistema de señal: Frecuencia modulada (RF)

Los estándares IEEE a 100 Mbps

En la actualidad los estándares IEEE a 10 Mbps se están viendo rápidamente reemplazados por los
estándares IEEE a 100 Mbps, que incluyen la posibilidad de atender a aplicaciones que requieren un ancho
de banda elevado como:
• Diseño asistido por equipo (CAD).
• Fabricación asistida por equipo (CAM).
• Vídeo.
• Almacenamiento de imágenes y documentos.

Dos estándares Ethernet que se ajustan a estas nuevas demandas son:

• Ethernet 100BaseVG-AnyLAN.
• Ethernet 100BaseX (Fast Ethernet).

Tanto Ethernet 100BaseVG-AnyLAN como Fast Ethernet son entre 5 y 10 veces más rápidos que las
Ethernet estándar. Además, son bastante compatibles con el cableado de 10Base T. Esto significa permitir
actualizaciones plug and play a instalaciones 10BaseT existentes.

Estándar 100VG-AnyLAN

El 100VG (calidad de voz) AnyLAN es una tecnología de red emergente que combina elementos de las
arquitecturas Ethernet y Token Ring. Originalmente fue desarrollada por Hewlett-Packard, y ahora está
siendo refinada y comprobada por el comité 802.12 de la IEEE. La especificación 802.12 es un estándar para
la transmisión de tramas Ethernet 802.3 y paquetes Token Ring 802.5.

A esta tecnología se la conoce con cualquiera de los nombres siguientes y todos se refieren al mismo tipo
de red:

• 100VG-AnyLAN.
• 100Base VG.
• VG.
• AnyLAN.

Especificaciones

Algunas de las especificaciones actuales de la 100VG-AnyLAN incluyen:

• Una tasa mínima de 100 Mbps.


• La posibilidad de soportar topologías en estrella en cascada con cables de par trenzado de
Categoría 3, 4 y 5 y con fibra óptica.
• El método de acceso de prioridad de demandas que permita dos niveles de prioridad (alta y
baja).
• La posibilidad de permitir una opción de filtrado de tramas en hub para aumentar la
privacidad.
• Soporte para tramas Ethernet y paquetes Token Ring.

Topología

Una red 100VG-AnyLAN está construida en una topología en estrella en la que todos los equipos están
conectados a un hub y estos a un hub padre o central. Si añadimos hubs hijo al hub central podemos
ampliar la red. Los hubs hijo actúan como equipos para los hubs padre. Los hubs padre controlan la
transmisión de los equipos conectados a sus hijos.

Consideraciones

Esta topología requiere sus propios hubs y sus propias tarjetas. Además, las longitudes de los cables
100BaseVG están limitadas respecto a 10BaseVG y otras implementaciones de Ethernet. La longitud máxima
de cable desde el hub 100BaseVG a un equipo no puede superar los 250 metros (unos 820 pies). Si
queremos aumentar este límite necesitamos un equipamiento especial que se utiliza para aumentar el
tamaño de una LAN. Estos límites de longitud de cable se traducen en que 100BaseVG necesita más
armarios de conexiones que 10BaseVG.

Estándar Ethernet 100BaseX

Este estándar, a veces denominado Fast Ethernet, es una extensión del estándar Ethernet existente.
Utiliza cable UTP de Categoría 5 y utiliza CSMA/CD en una topología de bus en estrella, similar a 10BaseT,
donde todos los cables están conectados a un hub.

Especificaciones del medio

100BaseX incorpora tres especificaciones para el medio:

• 100BaseT4 (UTP de Categoría 3, 4, o 5 de 4 pares).


• 100BaseTX (UTP de Categoría 5 de 2 pares o STP).
• 100BaseFX (cable de fibra óptica de dos hilos).

Especificaciones del medio 100BaseX


Valor Representa Significado actual
100 Velocidad de transmisión 100 Mbps.
Base Tipo de señal Banda base.
T4 Tipo de cable Indica que se trata de cable de par
trenzado utilizando cuatro pares de los
utilizados en transmisión telefónica.
TX Tipo de cable Indica que se trata de cable de par
trenzado utilizando dos pares de los
utilizados en transmisión de datos.
FX Tipo de cable Indica que se trata de un enlace de
fibra óptica que utiliza un cable de fibra
óptica de dos hilos de fibra.

Consideraciones de rendimiento

La arquitectura Ethernet puede utilizar varios protocolos de comunicación y puede conectar entornos de
computación diversos como NetWare, UNIX, Windows y Macintosh.

Segmentación

Se puede aumentar el rendimiento de Ethernet dividiendo un segmento con muchas conexiones en dos
segmentos con menos conexiones y uniéndolos con un bridge o con un router. Esto reduce el tráfico en cada
segmento. Debido a que en cada segmento hay menos equipos intentando transmitir, aumenta el
rendimiento.

Considere la división en segmentos si aumenta el número de equipos conectados a la red o si hay nuevas
aplicaciones que demandan un ancho de banda elevado, como son los programas de bases de datos o de
vídeo.

Sistemas operativos de red en Ethernet

Ethernet trabaja con los sistemas operativos de red más populares:

• Microsoft Windows 95, Windows 98 y Windows ME.


• Microsoft Windows NT Workstation y Windows NT Server.
• Microsoft Windows 2000 Professional y Windows 2000 Server.
• Microsoft LAN Manager.
• Microsoft Windows para trabajo en grupo.
• Novell NetWare.
• IBM LAN Server.
• AppleShare.
• UNIX.

Especificaciones Ethernet (IEEE 802.3)

10Base2 10Base5 10BaseT


Topología Bus Bus Bus en estrella.
Tipo de cable RG-58 (Cable Cable grueso; Cable de par
coaxial fino) cable del transceiver trenzado sin
apantallado de un apantallar de
centímetro (3/8 Categoría 3, 4 o 5.
pulgada)
Conexión a la Conector BNC T Conector DIX o RJ-45.
NIC AUI
Resistencia del 50 50 No se aplica
terminador, Ώ
(ohmios)
Impedancia, Ώ 50± 2 50± 2 85-115 en par
trenzado sin
apantallar; 135-165
en par trenzado
apantallado.
Distancia 0.5 metros entre 2,5 metros (8 100 metros (328
equipos (23 pies) entre pies) entre el
pulgadas) conexiones y un transceiver (el
máximo de 50 equipo) y el hub.
metros (164 pies)
entre la conexión y
el equipo
Longitud 185 metros (607 500 metros 100 metros (328
máxima de un pies) (1.640 pies) pies).
segmento de cable
Número 5 (utilizando 4 5 (utilizando 4 No se aplica.
máximo de repetidores); sólo repetidores) ; sólo
segmentos puede haber 3 puede haber 3
conectados segmentos con segmentos con
equipos conectados equipos conectados
Longitud total 925 metros 2.460 metros No se aplica.
máxima de la red (3.035 pies) (8.000 pies)
Número 30 (En la red 100 1 (Cada estación
máximo de puede llegar a haber tiene su propio cable
equipos por un máximo de 1.024 al hub. Puede haber
segmento equipos) hasta 12 equipos
por hub y un
máximo de 1.024
transceivers por LAN
sin ningún tipo de
conectividad).

Token Ring
La arquitectura Token Ring fue desarrollada a mediados de los ochenta por IBM. Es el método preferido
de IBM y es el que se suele encontrar en instalaciones de minis y mainframes. Aunque la popularidad en el
mercado ha descendido en favor de Ethernet, sigue jugando
un papel importante en el mercado de las redes.

Introducción

La versión de Token Ring de IBM se introdujo en 1984 en todo el entorno de IBM incluyendo:

• Equipos personales.
• Equipos de tamaño medio.
• Mainframes y en el entorno de Arquitectura de sistemas en red (SNA). SNA es la
arquitectura de red de IBM.

El objetivo de la versión de Token Ring de IBM era facilitar una estructura de cableado sencilla utilizando
cable de par trenzado que conectase un equipo a la red mediante un enchufe de pared, y en el que el
cableado principal se encontrase localizado en un lugar centralizado.

En 1985, la Token Ring de IBM se convirtió en un estándar del Instituto de estandarización nacional
americano (ANSI)/IEEE. (ANSI es una organización que se creó en Estados Unidos en 1918 para el desarrollo
y adopción de estándares comerciales y de comunicación; ANSI es el equivalente americano del ISO.)

Características de Token Ring

Una red Token Ring es una implementación del estándar IEEE 802.5. Sus métodos de acceso de paso de
testigo a través del anillo, además de su cableado físico, permite distinguir unas redes Token Ring de otras.

Arquitectura

La arquitectura de una red Token Ring típica comienza con un anillo físico. Sin embargo, en su
implementación de IBM, un anillo cableado en estrella, los equipos de la red se conectan a un hub central. El
anillo lógico representa el sentido de circulación para los testigos entre equipos. El anillo de cable físico
actual está en el hub. Los usuarios son parte de un anillo, pero se conectan a él a través de un hub.

Características básicas de Token Ring

Una red Token Ring incluye estas características:

• Topología del cableado del anillo en estrella.


• Método de acceso de paso de testigo.
• Cableado de par trenzado apantallado y sin apantallar (Tipos 1, 2 y 3 de IBM).
• Velocidades de transferencia entre 4 y 16 Mbps.
• Transmisión banda base.
• Especificaciones 802.5.

Formatos de trama

El formato básico de la trama de datos de Token Ring consta de cabecera, datos y final. El campo de
datos suele formar la mayor parte de la trama.

Componentes de una trama de datos de Token Ring

• Delimitador de inicio: Indica el inicio de la trama.


• Control de acceso: Indica la prioridad de la trama y se trata de un testigo o de una trama
de datos.
• Control de trama: Contiene información sobre el Control de acceso al medio para todos
los equipos o información de «estación final» para un solo equipo.
• Dirección de destino: Indica la dirección del equipo
que recibe la trama.
• Dirección de origen: Indica el equipo que envió la
trama.
• Información o datos: Contiene los datos enviados.
• Secuencia de control de la trama: Contiene
información de comprobación de errores CRC.
• Delimitador de fin: Indica el final de la trama.
• Estado de la trama: Indica si la trama fue
reconocida, copiada, o si la dirección de destino estaba
disponible.

Funcionamiento de una red Token Ring

Cuando el primer equipo de Token Ring entra en línea, la red genera un testigo. El anillo es una formación
de bits predeterminada (una serie de datos) que permite a un equipo colocar datos en los cables. El testigo
viaja a través de la red preguntando a cada equipo hasta que un equipo indica que quiere transmitir datos y
se apodera del testigo y ningún equipo puede transmitir hasta que no tome el control del testigo.

Una vez que una equipo se apodera del token, envía una trama de datos a través de la red. La trama
viaja por la red hasta que alcanza el equipo con una dirección que coincida con la dirección de destino de la
trama. El equipo de destino copia la trama en su búfer de recepción y marca la trama en el campo de estado
de la trama para indicar que se ha recibido la información.

La trama continúa por el anillo hasta que llegue al equipo que la envió, de forma que se valida la
transmisión. A continuación, el equipo que envía retira la trama del anillo y transmite un testigo nuevo a
éste.

En la red sólo puede haber un testigo activo y el testigo puede viajar sólo en una dirección del anillo.

¿Circula el testigo en el sentido de las agujas del reloj o en sentido contrario?


Realmente, la respuesta no importa. La dirección depende de las conexiones del hardware.
Se puede hacer que el testigo viaje en el orden que desee. Los diseñadores de los hubs
determinan el orden en que direcciona cada puerto y usted puede determinar el orden en
que se conectan los equipos al hub. El estándar IEEE 802.5 dice que es en el sentido de las
agujas del reloj, y la sección 3 de la publicación SC30-3374 de IBM dice que es en el
sentido contrario de las agujas del reloj.

El paso de testigos es determinante, lo que significa que un equipo no puede imponer su turno en la red,
tal y como ocurre en un entorno CSMA/CD. Si el testigo está disponible, el equipo puede utilizarlo para
enviar datos. Cada equipo actúa como un repetidor unidireccional, regenera el testigo y lo continúa pasando.

Control del sistema

El primer equipo que se active queda designado por el sistema Token Ring para controlar la actividad de
la red. El equipo encargado del control asegura que las tramas se están entregando y recibiendo
correctamente. Esto se realiza comprobando las tramas que circulan por el anillo más de una vez y asegura
que sólo hay un testigo en la red.

El proceso de monitorización se denomina de baliza (beaconing). El equipo encargado del control envía
una baliza cada siete segundos. La baliza pasa de equipo en equipo por todo el anillo. Si un equipo no recibe
la baliza de su vecino, notifica a la red su falta de conexión. Envía un mensaje que contiene su dirección y la
dirección del vecino que no le ha enviado la baliza y el tipo de baliza. A partir de esta información, se intenta
diagnosticar el problema y tratar de repararlo sin dividir la red. Si no se puede realizar la reconfiguración de
forma automática es necesaria la intervención manual.

Reconocimiento de un equipo
Cuando un equipo de la red entra en línea, el sistema Token Ring lo inicializa de forma que pueda formar
parte del anillo. Esta inicialización incluye:

• Comprobación de direcciones duplicadas.


• Notificación a otros equipos de la red de su existencia.

Componentes hardware

El hardware para redes Token Ring está basado en el hub, que es el que forma el anillo. Una red Token
Ring puede tener varios hubs. El cableado que se utiliza para conectar los equipos a los hubs es STP o UTP;
para extender las conexiones se pueden utilizar cables adaptadores. El cable de fibra óptica es
especialmente apropiado para redes Token Ring. Junto con los repetidores, el cable de fibra óptica puede
extender enormemente el rango de las redes Token Ring. El cableado para componentes se realiza con
cuatro tipos de conectores. Otro tipo de hardware para Token Ring incluye a los filtros, paneles de
conexiones y tarjetas de red.

El hub

En una red Token Ring, el hub es conocido con varios nombres y todos con el mismo significado. Entre
estos están:

• MAU (Unidad de acceso multiestación).


• MSAU (Unidad de acceso multiestación).
• SMAU (Unidad de acceso multiestación inteligente).

Los cables conectan los clientes y los servidores a la MSAU, que funciona como otros hubs pasivos. El
anillo interno se convierte automáticamente en un anillo externo por cada conexión que se realice.

Capacidad del hub

Una MSAU IBM tiene 10 puertos de conexión. Puede conectar hasta 8 equipos. En cambio, una red Token
Ring no está limitada a un anillo (hub). Cada anillo puede tener hasta 33 hubs.

Cada red basada en MSAU puede soportar hasta 72 equipos que utilicen cable sin apantallar o hasta 260
equipos que utilicen cable apantallado.

Otros fabricantes ofrecen hubs con más capacidad; la capacidad depende del fabricante y del modelo de
hub.

Cuando se llena un Token Ring, es decir, cuando cada puerto de la MSAU tiene una equipo conectada,
podemos añadir otro anillo (MSAU) para ampliar la red.

La única regla que hay que seguir es que cada MSAU tiene que estar conectada de forma que se convierta
en parte del anillo. Los puntos de conexión de entrada y de salida utilizan cables adaptadores para conectar
varias MSAU de forma que sigan formando un anillo.

Tolerancia a fallos incorporada

En una red con paso de testigo pura, un equipo que falle detiene la continuación del testigo. De hecho,
esto detiene la red. Las MSAU se diseñaron para detectar la ocurrencia de fallos de una NIC. Este
procedimiento salta el equipo que falla de forma que el testigo pueda continuar.

En las MSAU de IBM, las conexiones o los equipos que no funcionen correctamente se saltan
automáticamente y se desconectan del anillo. Así pues, un fallo en un equipo o en una conexión no afectará
al resto de la red Token Ring.
Cableado

El cable STP o UTP conecta los equipos con los hubs en una red Token Ring. El cableado para Token Ring
es IBM del Tipo 1, 2 y 3. La mayoría de las redes utilizan cableado UTP de Tipo 3 del sistema de cableado
IBM.

El cable conexión entre el equipo y la MSAU no puede tener más de 101 metros (330 pies) si es del Tipo
1. Cuando se utiliza cable STP, el equipo puede llegar a estar a una distancia máxima de 100 metros (unos
328 pies) de la MSAU. En cambio esta distancia es de 45 metros (unos 148 pies) cuando se utilice cable UTP.
La longitud mínima para cable con o sin apantallar es de 2,5 metros (unos 8 pies).

De acuerdo con IBM, la longitud máxima del cable de Tipo 3 desde una MSAU hasta un equipo o un
servidor de archivos es de 46 metros (150 pies). Sin embargo, algunos fabricantes afirman que la
transmisión de datos entre MSAU y equipo es fiable hasta 152 metros (500 pies).

La longitud máxima entre una MSAU y otra está limitada a 152 metros (500 pies). Cada red Token Ring
sólo puede acomodar a 260 equipos con cable STP y 72 equipos con UTP.

Cables de conexión (patch cables)

Los cables de conexión (patch cables) realizan la conexión entre un equipo y una MSAU. También pueden
unir dos MSAU. En el sistema de cableado de IBM, estos cables son del Tipo 6, y sólo pueden llegar a medir
46 metros (150 pies). Un cable de conexión sólo permite 46 metros entre un equipo y una MSAU.

El sistema de cableado de IBM también recomienda el cable de conexión de Tipo 6 para:

• Incrementar la longitud de cables de Tipo 3.


• Conectar directamente los equipos a las MSAU.

Conectores

Las redes Token Ring suelen utilizar estos tipos de conectores para conectar los cables a los
componentes:

• Conectores de medios (MIC) para conectar cables de Tipo 1 y de Tipo 2. Éstos son los
conectores de Tipo A de IBM, conocidos universalmente como conectores de datos universales. No
son ni macho ni hembra; para conectar uno a otro basta con girarlo.
• Conectores de teléfono RJ-45 (8 pines) para cable de Tipo 3.
• Conectores de teléfono RJ-11 (4 pines) para cable de Tipo 3.
• Filtros para realizar la conexión entre una NIC Token Ring y un conector de teléfono
estándar RJ-11/RJ-45.

Filtros

Los filtros son necesarios en equipos que utilizan cable telefónico de par trenzado de Tipo 3, ya que tienen
que convertir los conectores del cable y reducen el ruido de la línea.

Paneles de conexiones (patch panel)

Una panel de conexión (patch panel) se utiliza para organizar los cables que hay entre una MSAU y un
módulo de conexiones telefónicas. (Un módulo de conexiones es un tipo de hardware que proporciona
conexiones terminales para conectar los extremos del cable de red.)

Repetidores
La utilización de repetidores puede aumentar las distancias de los cables Token Ring. Un repetidor vuelve
a generar y a temporizar la señal Token Ring para aumentar las distancias entre MSAU en la red. Si utiliza
un par de repetidores, puede llegar a separar las MSAU hasta 365 metros (1.200 pies) si utiliza cable de Tipo
3, o 730 metros (2.400 pies) si utiliza cable de Tipo 1 o de Tipo 2.

Tarjetas de red

Las tarjetas de red para Token Ring están disponibles en los modelos 4 Mbps y 16 Mbps. Las tarjetas de
16 Mbps permiten una trama de mayor longitud que realiza menos transmisiones para la misma cantidad de
datos.

La implementación de tarjetas para Token Ring necesita una atención especial, ya que una red Token Ring
sólo puede funcionar a dos velocidades: 4 Mbps o 16 Mpbs. Si la red es una red a 4 Mbps, puede utilizar las
tarjetas de 16 Mbps ya que pueden trabajar en el modo de 4 Mbps. Sin embargo, una red a 16 Mbps no
aceptará las tarjetas de 4 Mbps, ya que no pueden aumentar su velocidad.

Aunque hay varios fabricantes que fabrican NIC y componentes para Token Ring, la mayoría son vendidas
por IBM.

Cable de fibra óptica

Debido a la mezcla de las series de datos (las series son un flujo de datos byte a byte), a las altas
velocidades y a la transmisión de datos en una única dirección, las redes Token Ring son muy apropiadas
para utilizar cable de fibra óptica. Aunque es más caro, el cable de fibra óptica puede aumentar
enormemente el rango de una red Token Ring (hasta 10 veces de lo que permite el cable de cobre).

El futuro de las redes Token Ring

Aunque Ethernet es más popular, la tecnología Token Ring sigue activa y continúa creciendo. Muchas
grandes compañías están eligiendo Token Ring para aplicaciones de misión crítica. Estas redes son redes
conectadas con bridges que permiten protocolos como la Arquitectura de sistemas en red (SNA), NetBIOS,
Protocolo de control de transmisión/Protocolo Internet (TCP/IP) e IPX. Las aplicaciones basadas en redes
locales como correo electrónico, distribución de software e imágenes influyen en su crecimiento. Una vez
conocidas las necesidades de ampliación de una compañía basta con añadir nuevos anillos unidos con
bridges. Normalmente cada anillo permite entre 50 y 80 usuarios. Los usuarios actuales de Token Ring se
enfrentan a estos desafíos:

• Requerimientos de complejidad, manejabilidad, costes y espacio para varios bridges de dos


puertos.
• Congestión de los bridges.
• Congestión de los segmentos.
• Actualización a las tecnologías de alta velocidad.

Un concepto reciente y relativamente nuevo para las redes Token Ring es el de la utilización de switches
para proporcionar alternativas de alto rendimiento y de bajo coste utilizando bridges y routers. La idea de los
switches es mover un dispositivo de una Token Ring a otra de forma electrónica. Estos conmutadores
funcionan como los de un panel de conexiones. Los vendedores de hubs ofrecen una variedad de estos
nuevos conmutadores para Token Ring.

Especificaciones para Token Ring

• Topología: Anillo.
• Tipo de cable: Cable de par trenzado apantallado o sin apantallar.
• Resistencia del terminador, Ώ (ohmios): No se aplica.
• Impedancia (Ώ): 100-120 UTP, 150 STP.
• Longitud máxima del segmento de cable: Entre 45 y 400 metros, dependiendo del
cable.
• Distancia mínima entre equipos: 2,5 metros.
• Número máximo de segmentos conectados: 33 unidades de acceso multiestación
(MSAU).
• Número máximo de equipos por segmento:
o Sin apantallar: 72 equipos por hub;
o Apantallado: 260 equipos por hub.

AppleTalk y ArcNet
La arquitectura AppleTalk se utiliza en el entorno de Apple Macintosh, mientras que la arquitectura ArcNet
se utiliza en entornos basados en equipos personales. Con la llegada de Ethernet, la popularidad de ArcNet
descendió.

El entorno AppleTalk

Apple Computer, Inc. introdujo AppleTalk en 1983 como una arquitectura de red para grupos pequeños.
Las funciones de la red están incorporadas en los equipos Macintosh, lo que hace de la configuración de una
red Apple Talk una tarea muy sencilla respecto a las otras redes.

Los términos básicos que se utilizan en entorno de Apple pueden llegar a confundirse porque suenan de
forma similar a los términos que se utilizan en otros entornos, pero se refieren a otros aspectos de una red
Apple.

AppleTalk

AppleTalk es la arquitectura de red de Apple y está incluida en el software del sistema operativo de
Macintosh. Esto quiere decir, que las capacidades de la red están incluidas en cada Macintosh. AppleTalk
Phase 1 está anticuada. AppleTalk Phase 2 es la versión actual de AppleTalk. La arquitectura es una
colección de protocolos que se corresponden con el modelo de referencia OSI.

Cuando un dispositivo conectado a una red Apple Talk entra en línea, ocurren tres cosas en este orden:

1. El dispositivo comprueba si hay guardada una dirección de una sesión de red anterior. Si
no es así, el dispositivo se asigna una dirección aleatoria entre un rango de direcciones permitidas.
2. El dispositivo informa de la dirección para comprobar si hay otro dispositivo utilizándola.
3. Si no hay otro dispositivo utilizando la dirección, el dispositivo guarda la dirección para
utilizarla la próxima vez en la que el dispositivo entre en línea.

LocalTalk

A las redes Apple Talk se las suele denominar como redes LocalTalk. LocalTalk utiliza CSMA/CD como
método de acceso en un bus o en una topología de árbol con cable de par trenzado apantallado, aunque
también acepta cable de fibra óptica y UTP, LocalTalk no es caro, ya que está incorporado en el hardware de
Macintosh. Pero debido a su modesto rendimiento (la tasa máxima de LocalTalk es 230,4 Kbps) y debido a
que las NIC de LocalTalk para PC son obsoletas, LocalTalk no está tan difundido como Ethernet o Token
Ring.

LocalTalk también hace referencia a los componentes del cableado físico, así como al protocolo de nivel de
enlace de datos. Entre ellos se incluyen:

• Cables.
• Módulos conectores.
• Cables alargadores.

El cable más utilizado es el STP y se suele utilizar en bus o en estrella. Una red LocalTalk permite hasta
un máximo de 32 dispositivos.
Debido a las limitaciones de LocalTalk, otros fabricantes prefieren otros cableados. Por ejemplo, Farallon
PhoneNet puede gestionar 254 dispositivos. PhoneNet utiliza cable y conectores telefónicos y se puede
implementar como una red en bus o conectado a un hub central para formar una topología en estrella.

AppleShare

AppleShare es el servidor de archivos en una red AppleTalk. El software del cliente se incluye con cada
copia del sistema operativo de Apple. También hay un servidor de impresión AppleShare, que está basado en
un gestor de impresión basado en servidor.

Zonas

Las redes LocalTalk se pueden unir en una red más grande utilizando agrupaciones lógicas denominadas
zonas. Cada subred conectada está identificada por un nombre de zona. Los usuarios en una red LocalTalk
pueden acceder a los servicios en otra red seleccionando dicha zona. Esto es de utilidad para acceder a
servidores de archivos en varias redes pequeñas, de forma que se amplíe el tamaño de la red. Las redes que
utilicen otras arquitecturas, como Token Ring, también se pueden unir de esta forma a una red AppleTalk.

De la misma forma, los grupos de trabajo de una red LocalTalk se pueden dividir en zonas para aliviar la
congestión de una red saturada. Por ejemplo, cada zona tendría su propio servidor de impresión.

EtherTalk

EtherTalk permite que los protocolos de red AppleTalk funcionen en cable coaxial Ethernet.

La tarjeta EtherTalk permite a un equipo Macintosh conectarse a una red Ethernet 802.3. El software de
EtherTalk se incluye con la tarjeta y es compatible con AppleTalk Phase 2.

TokenTalk

La tarjeta TokenTalk es una tarjeta de expansión que permite conectar un Macintosh a una red Token
Ring 802.5. El software de Token Talk se incluye con la tarjeta y es compatible con Apple Talk Phase 2.

Consideraciones sobre AppleTalk

Los equipos de otras marcas también pueden utilizar AppleTalk. Entre ellas se incluyen:

• Equipos personales IBM y compatibles.


• Mainframes IBM.
• Equipos VAX de Digital Equipment Corporation.
• Algunos equipos UNIX.

El entorno ArcNet

Datapoint Corporation desarrolló la Attached Resource Computer Network (ArcNet) en 1977. Se trata de
una arquitectura de red sencilla, barata y flexible desarrollada para redes del tamaño de un grupo de
trabajo. Las primeras tarjetas ArcNet se vendieron en 1983.

La tecnología ArcNet es anterior a los estándares del Proyecto 802 de IEEE y no se ajusta demasiado al
documento 802.4. Éste especifica los estándares para redes en bus con paso de testigo utilizando cable de
banda ancha. Una red ArcNet puede tener una topología en bus o en estrella.

Funcionamiento de ArcNet
ArcNet utiliza un método de acceso de paso de testigo en una topología de bus en estrella con una tasa de
transmisión de 2,5 Mbps. ArcNet Plus, una sucesora de la ArcNet original, permite una tasa de transmisión
de 20 Mbps.

Debido a que ArcNet es una arquitectura de paso de testigo, para que un equipo en una red ArcNet pueda
transmitir datos tiene que tener el testigo. El testigo se mueve de un equipo a otro de acuerdo con el orden
en que estén conectados en el hub, independientemente de cómo estén situados físicamente. Esto significa
que el testigo se mueve en orden del equipo 1 al equipo 2 (en las conexiones del hub), aunque el equipo 1
esté en un extremo del edificio y el equipo esté en el otro extremo del edificio.

El paquete ArcNet estándar contiene:

• Una dirección de destino


• Una dirección de origen
• Hasta 508 bytes de datos (o 4.096 bytes de datos en ArcNet Plus).

Hardware

Cada equipo está conectado por cable a un hub. Los hubs pueden ser pasivos, activos o inteligentes.

El cableado estándar utilizado para ArcNet es cable coaxial de 93 ohmios RG-62 A/U. ArcNet también
permite par trenzado y fibra óptica. Las distancias entre equipos varían en función del cableado y de la
topología.

Si se utiliza cable coaxial con conectores BNC y hubs activos para una topología en estrella, la longitud
máxima de un cable entre una estación y el hub es de 610 metros (2.000 pies). En cambio, en un segmento
de bus lineal, la distancia máxima es de 305 metros (1.000 pies).

Cuando se utiliza cable de par trenzado sin apantallar con conectores RJ-11 o RJ-45, la longitud máxima
del cable entre dispositivos es de 244 metros (800 pies) en topologías en estrella y en bus.

Especificaciones de ArcNet

• Topología: Serie o estrella.


• Tipo de cable: RG-62 o RG-59 (coaxial).
• Resistencia del terminador, Ώ (ohmios): No se aplica.
• Impedancia, Ώ: RG-62: 93; RG-59: 75.
• Longitud máxima del cable con cable coaxial, topología en estrella: 610 metros
(2.000 pies).
• Longitud máxima del cable con cable coaxial, topología en bus: 305 metros (1.000
pies).
• Longitud máxima del cable con cable de par trenzado: 244 metros (800 pies).
• Distancia mínima entre equipos: Depende del cable.
• Número máximo de segmentos conectados: No se permite la conexión de segmentos.
• Número máximo de equipos por segmento: Depende del cable utilizado.

Introducción a los Sistemas Operativos de


Red
Al igual que un equipo no puede trabajar sin un sistema operativo, una red de equipos no puede funcionar
sin un sistema operativo de red. Si no se dispone de ningún sistema operativo de red, los equipos no pueden
compartir recursos y los usuarios no pueden utilizar estos recursos.

Dependiendo del fabricante del sistema operativo de red, tenemos que el software de red para un equipo
personal se puede añadir al propio sistema operativo del equipo o integrarse con él.
NetWare de Novell es el ejemplo más familiar y famoso de sistema operativo de red donde el software de
red del equipo cliente se incorpora en el sistema operativo del equipo. El equipo personal necesita ambos
sistema operativos para gestionar conjuntamente las funciones de red y las funciones individuales.

El software del sistema operativo de red se integra en un número importante de sistemas operativos
conocidos, incluyendo Windows 2000 Server/Professional, Windows NT Server/Workstation, Windows
95/98/ME y Apple Talk.

Cada configuración (sistemas operativos de red y del equipo separados, o sistema operativo combinando
las funciones de ambos) tiene sus ventajas e inconvenientes. Por tanto, nuestro trabajo como especialistas
en redes es determinar la configuración que mejor se adapte a las necesidades de nuestra red.

Coordinación del software y del hardware

El sistema operativo de un equipo coordina la interacción entre el equipo y los programas (o aplicaciones)
que está ejecutando. Controla la asignación y utilización de los recursos hardware tales como:

• Memoria.
• Tiempo de CPU.
• Espacio de disco.
• Dispositivos periféricos.

En un entorno de red, los servidores proporcionan recursos a los clientes de la red y el software de red del
cliente permite que estos recursos estén disponibles para los equipos clientes. La red y el sistema operativo
del cliente están coordinados de forma que todos los elementos de la red funcionen correctamente.

Multitarea

Un sistema operativo multitarea, como su nombre indica, proporciona el medio que permite a un equipo
procesar más de una tarea a la vez. Un sistema operativo multitarea real puede ejecutar tantas tareas como
procesadores tenga. Si el número de tareas es superior al número de procesadores, el equipo debe ordenar
los procesadores disponibles para dedicar una cierta cantidad de tiempo a cada tarea, alternándolos hasta
que se completen las citadas tareas. Con este sistema, el equipo parece que está trabajando sobre varias
tareas a la vez.

Existen dos métodos básicos de multitarea:

• Con prioridad. En una multitarea con prioridad, el sistema operativo puede tomar el
control del procesador sin la cooperación de la propia tarea.
• Sin prioridad (cooperativo). En una multitarea sin prioridad, la propia tarea decide
cuándo deja el procesador. Los programa escritos para sistemas de multitarea sin prioridad deben
incluir algún tipo de previsión que permita ejercer el control del procesador. No se puede ejecutar
ningún otro programa hasta que el programa sin prioridad haya abandonado el control del
procesador.

El sistema multitarea con prioridad puede proporcionar ciertas ventajas dada la interacción entre el
sistema operativo individual y el Sistema Operativo de Red (sistema operativo de red). Por ejemplo, cuando
la situación lo requiera, el sistema con prioridad puede conmutar la actividad de la CPU de una tarea local a
una tarea de red.

Componentes software

El software cliente de red debe instalarse sobre el sistema operativo existente, en aquellos sistemas
operativos de equipo que no incluyan funciones propias de red. Otros sistemas operativos, como Windows
NT/2000, integran el sistema operativo de red y sistema operativo del equipo. A pesar de que estos sistema
integrados tienen algunas ventajas, no evitan la utilización de otros Sistema Operativo de Red. Es
importante considerar la propiedad de interoperabilidad cuando se configuran entornos de red
multiplataforma. Se dice que los elementos o componentes de los sistemas operativos «interoperan» cuando
pueden funcionar en diferentes entornos de trabajo. Por ejemplo, un servidor NetWare puede interoperar (es
decir, acceder a los recursos) con servidores NetWare y servidores Windows NT/2000.

Un sistema operativo de red:

• Conecta todos los equipos y periféricos.


• Coordina las funciones de todos los periféricos y equipos.
• Proporciona seguridad controlando el acceso a los datos y periféricos.

Las dos componentes principales del software de red son:

• El software de red que se instala en los clientes.


• El software de red que se instala en los servidores.

Software de cliente

En un sistema autónomo, cuando un usuario escribe un comando que solicita el equipo para realizar una
tarea, la petición circula a través del bus local del equipo hasta la CPU del mismo. Por ejemplo, si quiere ver
un listado de directorios de uno de los discos duros locales, la CPU interpreta y ejecuta la petición y, a
continuación, muestra el resultado del listado de directorios en una ventana.

Sin embargo, en un entorno de red, cuando un usuario inicia una petición para utilizar un recurso que
está en un servidor en otra parte de la red, el comportamiento es distinto. La petición se tiene que enviar, o
redirigir, desde el bus local a la red y desde allí al servidor que tiene el recurso solicitado. Este envío es
realizado por el redirector.

Redirector

Un redirector procesa el envío de peticiones. Dependiendo del software de red, este redirector se conoce
como «Shell» o «generador de peticiones». El redirector es una pequeña sección del código de un Sistema
Operativo de Red que:

• Intercepta peticiones en el equipo.


• Determina si la peticiones deben continuar en el bus del equipo local o deben redirigirse a
través de la red a otro servidor

La actividad del redirector se inicia en un equipo cliente cuando el usuario genera la petición de un
recurso o servicio de red. El equipo del usuario se identifica como cliente, puesto que está realizando una
petición a un servidor. El redirector intercepta la petición y la envía a la red.

El servidor procesa la conexión solicitada por los redirectores del cliente y les proporciona acceso a los
recursos solicitados. En otras palabras, los servicios del servidor solicitados por el cliente.

Designadores

Normalmente, el sistema operativo proporcionará diferentes opciones para acceder al directorio cuando
necesite acceder a un directorio compartido y tenga los correspondientes permisos para realizarlo. Por
ejemplo, con Windows NT/2000, podría utilizar el icono Conectar a unidad de red del Explorador de Windows
NT/2000 para conectarse a la unidad de red. También, puede asignar una unidad. La asignación de unidades
consiste en asignar una letra o nombre a una unidad de disco, de forma que el sistema operativo o el
servidor de la red puede identificarla y localizarla. El redirector también realiza un seguimiento de los
designadores de unidades asociados a recursos de red.

Periféricos
Los redirectores pueden enviar peticiones a los periféricos, al igual que se envían a los directorios
compartidos. La petición se redirige desde el equipo origen y se envía a través de la red al correspondiente
destino. En este caso, el destino es el servidor de impresión para la impresora solicitada.

Con el redirector, podemos referenciar como LPT1 o COM1 impresoras de red en lugar de impresoras
locales. El redirector intercepta cualquier trabajo de impresión dirigido a LPT1 y lo envía a la impresora de
red especificada.

La utilización del redirector permite a los usuarios no preocuparse ni de la ubicación actual de los datos o
periféricos ni de la complejidad del proceso de conexión o entrada. Por ejemplo, para acceder a los datos de
un ordenador de red, el usuario sólo necesita escribir el designador de la unidad asignado a la localización
del recurso y el redirector determina el encaminamiento actual.

Software de servidor

El software de servidor permite a los usuarios en otras máquinas, y a los equipos clientes, poder
compartir los datos y periféricos del servidor incluyendo impresoras, trazadores y directorios.

Si un usuario solicita un listado de directorios de un disco duro remoto compartido. El redirector envía la
petición por la red, se pasa al servidor de archivos que contiene el directorio compartido. Se concede la
petición y se proporciona el listado de directorios.

Compartir recursos

Compartir es el término utilizado para describir los recursos que públicamente están disponibles para
cualquier usuario de la red. La mayoría de los sistemas operativos de red no sólo permiten compartir, sino
también determinar el grado de compartición. Las opciones para la compartición de recursos incluyen:

• Permitir diferentes usuarios con diferentes niveles de acceso a los recursos.


• Coordinación en el acceso a los recursos asegurando que dos usuarios no utilizan el mismo
recurso en el mismo instante.

Por ejemplo, un administrador de una oficina quiere que una persona de la red se familiarice con un cierto
documento (archivo), de forma que permite compartir el documento. Sin embargo, se controla el acceso al
documento compartiéndolo de forma que:

• Algunos usuarios sólo podrán leerlo.


• Algunos usuarios podrán leerlo y realizar modificaciones en él.

Gestión de usuarios

Los sistemas operativos de red permiten al administrador de la red determinar las personas, o grupos de
personas, que tendrán la posibilidad de acceder a los recursos de la red. El administrador de una red puede
utilizar el Sistema Operativo de Red para:

• Crear permisos de usuario, controlados por el sistema operativo de red, que indican quién
puede utilizar la red.
• Asignar o denegar permisos de usuario en la red.
• Eliminar usuarios de la lista de usuarios que controla el sistema operativo de red.

Para simplificar la tarea de la gestión de usuarios en una gran red, el sistema operativo de red permite la
creación de grupos de usuarios. Mediante la clasificación de los individuos en grupos, el administrador puede
asignar permisos al grupo. Todos los miembros de un grupo tendrán los mismos permisos, asignados al
grupo como una unidad. Cuando se une a la red un nuevo usuario, el administrador puede asignar el nuevo
usuario al grupo apropiado, con sus correspondientes permisos y derechos.

Gestión de la red
Algunos sistemas operativos de red avanzados incluyen herramientas de gestión que ayudan a los
administradores a controlar el comportamiento de la red. Cuando se produce un problema en la red, estas
herramientas de gestión permiten detectar síntomas de la presencia del problema y presentar estos
síntomas en un gráfico o en otro formato. Con estas herramientas, el administrador de la red puede tomar la
decisión correcta antes de que el problema suponga la caída de la red.

Selección de un sistema operativo de red

El sistema operativo de red determina estos recursos, así como la forma de compartirlos y acceder a
ellos.

En la planificación de una red, la selección del sistema operativo de red se puede simplificar de forma
significativa, si primero se determina la arquitectura de red (cliente/servidor o Trabajo en Grupo) que mejor
se ajusta a nuestras necesidades. A menudo, esta decisión se basa en los tipos de seguridad que se
consideran más adecuados. La redes basadas en servidor le permiten incluir más posibilidades relativas a la
seguridad que las disponibles en una red Trabajo en Grupo. Por otro lado, cuando la seguridad no es una
propiedad a considerar, puede resultar más apropiado un entorno de red Trabajo en Grupo.

Después de identificar las necesidades de seguridad de la red, el siguiente paso es determinar los tipos de
interoperabilidad necesaria en la red para que se comporte como una unidad. Cada sistema operativo de red
considera la interoperabilidad de forma diferente y, por ello, resulta muy importante recordar nuestras
propias necesidades de interoperabilidad cuando se evalúe cada Sistema Operativo de Red. Si la opción es
Trabajo en Grupo, disminuirán las opciones de seguridad e interoperabilidad debida a las limitaciones propias
de esta arquitectura. Si la opción seleccionada se basa en la utilización de un servidor, es necesario realizar
estimaciones futuras para determinar si la interoperabilidad va a ser considerada como un servicio en el
servidor de la red o como una aplicación cliente en cada equipo conectado a la red. La interoperabilidad
basada en servidor es más sencilla de gestionar puesto que, al igual que otros servicios, se localiza de forma
centralizada. La interoperabilidad basada en cliente requiere la instalación y configuración en cada equipo.
Esto implica que la interoperabilidad sea mucho más difícil de gestionar.

No es raro encontrar ambos métodos (un servicio de red en el servidor y aplicaciones cliente en cada
equipo) en una misma red. Por ejemplo, un servidor NetWare, a menudo, se implementa con un servicio
para los equipos Apple, mientras que la interoperabilidad de las redes de Microsoft Windows se consigue con
una aplicación cliente de red en cada equipo personal.

Cuando se selecciona un sistema operativo de red, primero se determinan los servicios de red que se
requieren. Los servicios estándares incluyen seguridad, compartición de archivos, impresión y mensajería;
los servicios adicionales incluyen soporte de interoperabilidad para conexiones con otros sistemas
operativos. Para cualquier Sistema Operativo de Red, es necesario determinar los servicios de
interoperabilidad o clientes de red a implementar para adecuarse mejor a las necesidades.

Los sistemas operativos de red basados en servidor más importantes son Microsoft Windows NT 4,
Windows 2000 Server y Novell NetWare 3.x, 4.x y 5.x. Los sistemas operativos de red Trabajo en Grupo más
importantes son AppleTalk, Windows 95 y 98 y UNIX (incluyendo Linux y Solaris).

Sistemas operativos de Novell

Introducción a NetWare

El sistema operativo de red NetWare está formado por aplicaciones de servidor y cliente. La aplicación
cliente se diseña para ejecutarse sobre una variedad importante de los sistemas operativos que residen en
los clientes. Los usuarios clientes pueden acceder a la aplicación servidor a partir de ordenadores que
ejecuten MS-DOS, Microsoft Windows (versiones 3.x, 95 y 98 y Windows NT), OS/2, Apple Talk o UNIX. A
menudo, NetWare es la opción que se utiliza como sistema operativo en entornos de múltiples sistemas
operativos mezclados.

La versión 3.2 de NetWare es un Sistema Operativo de Red de 32 bits que admite entornos Windows
(versiones 3.x, 95 y 98 y Windows NT), UNIX, Mac OS y MS-DOS. Con la versión NetWare 4.11, también
denominada IntranetWare, Novell introdujo su nuevo Sistema Operativo de Red, los Servicios de directorios
de Novell (NDS). La versión 5, última versión distribuida, se centra en la integración de LAN, WAN,
aplicaciones de red, intranets e Internet en una única red global.

Los Servicios de directorios de Novell (NDS) proporcionan servicios de nombre y seguridad,


encaminamiento, mensajería, publicación Web y servicios de impresión y de archivos. Mediante la utilización
de la arquitectura de directorios X.500, organiza todos los recursos de red, incluyendo usuarios, grupos,
impresoras, servidores y volúmenes. NDS también proporciona una entrada única para el usuario, que
permite a éste poder entrar en cualquier servidor de la red y tener acceso a todos sus permisos y derechos
habituales.

Otros Sistema Operativo de Red proporcionan software de cliente para la interoperabilidad con servidores
NetWare. Por ejemplo, Windows NT proporciona Servicios de enlace para NetWare (Gateway Services
GSNW). Con este servicio, un servidor Windows NT puede obtener acceso a servicios de archivo e impresión
NetWare.

Servicios NetWare

Con el Cliente NetWare instalado, cualquier estación cliente puede obtener todas las ventajas de los
recursos proporcionados por un servidor NetWare. Algunos de los servicios más importantes que
proporciona, son:

Servicios de archivos

Los servicios de archivos de NetWare forman parte de la base de datos NDS. NDS proporciona un único
punto de entrada para los usuarios y permite a los usuarios y administradores ver de la misma forma los
recursos de la red. Dependiendo del software de cliente instalado, podrá ver la red completa en un formato
conocido para el sistema operativo de la estación de trabajo. Por ejemplo, un cliente Microsoft Windows
puede asignar una unidad lógica a cualquier volumen o directorio de un servidor de archivos de NetWare, de
forma que los recursos de NetWare aparecerán como unidades lógicas en sus equipos. Estas unidades
lógicas funcionan igual que cualquier otra unidad en sus equipos.

Seguridad

NetWare proporciona seguridad de gran alcance, incluyendo:

• Seguridad de entrada. Proporciona verificación de autenticación basada en el nombre de


usuario, contraseña y restricciones de cuentas y de tiempo.
• Derechos de Trustee. Controla los directorios y archivos a los que puede acceder un
usuario y lo que puede realizar el usuario con ellos.
• Atributos de archivos y directorios. Identifica los tipos de acciones que se pueden llevar
a cabo en un archivo (visualizarlo, escribir en él, copiarlo, buscarlo u ocultarlo o suprimirlo).

Servicios de impresión

Los servicios de impresión son transparentes (invisibles) al usuario de un equipo cliente. Cualquier
petición de impresión por parte de un cliente es redirigida al servidor de archivos, donde se envía al servidor
de impresión y, finalmente, a la impresora. El mismo equipo puede actuar como servidor de archivos y
servidor de impresión. Permite compartir dispositivos de impresión que se conectan al servidor, a la estación
de trabajo o, directamente, a la red por medio de las propias tarjetas de red (NIC) de los dispositivos. Los
servicios de impresión de NetWare pueden admitir hasta 256 impresoras.

Envío de mensajes a otros

Por medio de algunos comandos sencillos, los usuarios pueden enviar un breve mensaje a otros usuarios
de la red. Los mensajes se pueden enviar a grupos o de forma individual. Si todos los receptores pertenecen
al mismo grupo, es conveniente enviar el mensaje al grupo en lugar de enviarlo de forma individual. Los
usuarios también pueden activar o desactivar este comando para sus estaciones de trabajo. Cuando un
usuario desactiva este comando, no recibirá ningún mensaje enviado.
Los mensaje también se pueden controlar a través del Servicio de control de mensajes (Message Handling
Service – MHS). MHS se puede instalar en cualquier servidor y configurarse como una infraestructura de
mensajes completamente interconectada para una distribución de correo electrónico. MHS admite los
programas más habituales de correo electrónico.

Interoperabilidad

No siempre se puede conseguir la interoperabilidad completa de un Sistema Operativo de Red. Es


especialmente cierta cuando se conectan dos redes diferentes, como NetWare y Windows NT. Un entorno
NetWare, caracterizado por sus servicios de directorio y Windows NT que trabaja sobre la base de un modelo
de dominio, son esencialmente incompatibles. Para solucionar este problema, Windows NT desarrolló NWLink
y GSNW que le permiten interoperar. Estos servicios permiten a un servidor en una red Windows NT actuar
como un enlace a la red NetWare. Cualquier estación en la red Windows NT puede solicitar recursos o
servicios disponibles en la red NetWare, pero deben realizar la petición a través del servidor Windows NT. A
continuación, el servidor actuará como cliente en la red NetWare, pasando las peticiones entre las dos redes.

Sistemas operativos de red de Microsoft

Introducción a Windows NT

A diferencia del sistema operativo NetWare, Windows NT combina el sistema operativo del equipo y de
red en un mismo sistema. Windows NT Server configura un equipo para proporcionar funciones y recursos
de servidor a una red, y Windows NT Workstation proporciona las funciones de cliente de la red.

Windows NT trabaja sobre un modelo de dominio. Un dominio es una colección de equipos que comparten
una política de seguridad y una base de datos común. Cada dominio tiene un nombre único. Dentro de cada
dominio, se debe designar un servidor como Controlador principal de dominio (PDC, Primary Domain
Controller). Este servidor mantiene los servicios de directorios y autentifica cualquier usuario que quiera
entrar en el sistema. Los servicios de directorios de Windows NT se pueden implementar de varias formas
utilizando la base de datos de seguridad y de las cuentas.

Existen cuatro modelos de dominio diferentes.

• Dominio único. Un único servidor mantiene la base de datos de seguridad y de las


cuentas.
• Maestro único. Una red con maestro único puede tener diferentes dominios, pero se
designa uno como el maestro y mantiene la base de datos de las cuentas de usuario.
• Maestro múltiple. Una red con maestro múltiple incluye diferentes dominios, pero la base
de datos de las cuentas se mantiene en más de un servidor. Este modelo se diseña para
organizaciones muy grandes.
• Confianza-completa. «Confianza completa» significa que existen varios dominios, pero
ninguno está designado como maestro. Todos los dominios confían completamente en el resto.

Servicios de Windows NT

Los servicios más importantes que Windows NT Server y Workstation proporcionan a una red:

Servicios de archivos

Existen dos mecanismos que permiten compartir archivos en una red Windows NT. El primero se basa en
un proceso sencillo de compartición de archivos, como puede ser una red Trabajo en Grupo. Cualquier
estación o servidor puede publicar un directorio compartido en la red y especificar los atributos de los datos
(sin acceso, lectura, agregar, cambio, control total). La gran diferencia entra los sistemas operativos
Windows NT y Windows 95 /98 es que para compartir un recurso de Windows NT debe tener permisos de
administrador. El siguiente nivel de compartición obtiene las ventajas completas de las características de
seguridad de Windows NT. Puede asignar permisos a nivel de directorio y a nivel de archivos. Esto le permite
restringir el acceso a grupos o usuarios determinados. Para poder obtener las ventajas de un proceso de
compartición de archivos más avanzado, es necesario utilizar el sistema de archivos de Windows NT (NTFS).
Durante la instalación de Windows NT, puede seleccionar entre un sistema de archivos NTFS o un sistema
FAT-16 bits (MS-DOS). Puede instalar ambos sistemas sobre unidades fijas diferentes o sobre particiones
distintas de un mismo disco duro, pero cuando el equipo esté trabajando en modo MS-DOS, no estarán
disponibles los directorios de NTFS. Cualquier cliente que no utilice NTFS puede compartir la red, pero está
limitado para publicar recursos compartidos y no puede utilizar las ventajas de las utilidades de seguridad de
NTFS.

Seguridad

Al igual que los Sistema Operativo de Red más importantes, Windows NT proporciona seguridad para
cualquier recurso de la red. El servidor de dominio en una red Windows NT mantiene todos los registros de
las cuentas y gestiona los permisos y derechos de usuario. Para acceder a cualquier recurso de la red, el
usuario debe tener los derechos necesarios para realizar la tarea y los permisos adecuados para utilizar el
recurso.

Impresión

En una red Windows NT, cualquier servidor o cliente puede funcionar como servidor de impresión.
Compartir una impresora de red implica que esté disponible para cualquier usuario de red (sujeto a las
reglas de compartición). Cuando se instala una impresora, primero se pregunta si la impresora está
designada como impresora local (Mi PC) o como impresora de red. Si se selecciona como impresora de red,
aparece un cuadro de diálogo mostrando todas las impresoras de red disponibles. Todo lo que tiene que
hacer es seleccionar aquella que desea utilizar. Recuerde que puede instalar más de una impresora en una
máquina.

Además, si está instalando una impresora local, se preguntará si quiere compartir la impresora con otros
usuarios de la red.

Servicios de red

Windows NT proporciona diferentes servicios de red que ayudan a facilitar una red de ejecución uniforme.
Algunos servicios son:

• Servicio de mensajería. Monitoriza la red y recibe mensajes emergentes para el usuario.


• Servicio de alarma. Envía las notificaciones recibidas por el servicio de mensajería.
• Servicio de exploración. Proporciona una lista de servidores disponibles en los dominios
y en los grupos de trabajo.
• Servicio de estación. Se ejecuta sobre una estación de trabajo y es responsable de las
conexiones con el servidor. Además, se conoce como el redirector.
• Servicio de Servidor. Proporciona acceso de red a los recursos de un equipo.

Interoperabilidad

El protocolo de red NWLink se diseña para que Windows NT sea compatible con NetWare. Los servicios
disponibles son:

• Servicios de enlace para NetWare (Gateway Services for NetWare GSNW). Todos
los clientes de Windows NT, dentro de un dominio, deben conectarse con un servidor NetWare a
través de una única fuente. GSNW proporciona la conexión basada en gateway entre un dominio de
Windows NT y un servidor NetWare. Esto funciona correctamente en condiciones de bajo volumen,
pero provocará una bajada en el rendimiento cuando se incremente el número de peticiones.
• Servicios de cliente para NetWare (Client Services for NetWare CSNW). Este
servicio activa una estación Windows NT para acceder a los servicios de archivo e impresión de un
servidor NetWare. Se incluye como parte de GSNW.
• Servicios de archivos e impresión para NetWare (File and Print Services for
NetWare FPNW). Esta utilidad permite a los clientes de NetWare acceder a los servicios de archivo
e impresión de Windows NT. No forma parte del paquete de Windows NT y debe adquirirse por
separado.
• Gestor de los servicios de directorio para NetWare (Directory Service Manager for
NetWare DSMN). Esta utilidad adicional integra la información de cuentas de los grupos y de
usuarios de Windows NT y NetWare. No forma parte del paquete de Windows NT y debe adquirirse
por separado.
• Herramienta de migración para NetWare. Esta herramienta la utilizan los
administradores que están convirtiendo NetWare en Windows NT. Envía la información de las
cuentas de un servidor NetWare a un controlador de dominio de Windows NT.

Otros sistemas operativos de red


Aunque Windows NT y NetWare constituyen los sistemas operativos de red más habituales del mercado,
no son los únicos disponibles. Incluir también algunos de los sistemas operativos menos conocidos como
AppleTalk, Unix y Banyan Vines. Además, veremos la utilización de Windows para Grupos de trabajo,
Windows 95 y Windows 98 para configurar redes Trabajo en Grupo, o como clientes en otras redes.

Muchas compañías de software han desarrollado software LAN Trabajo en Grupo. Realizar una búsqueda
en Internet le ayudará a localizar estas posibles opciones.

Sistema operativo de red AppleTalk

El sistema operativo de red AppleTalk está completamente integrado en el sistema operativo de cada
equipo que ejecuta el Mac OS. Su primera versión, denominada LocalTalk, era lenta en comparación con los
estándares de hoy en día, pero trajo consigo la interconexión de los usuarios que rápidamente hicieron uso
de ella. Todavía forma parte del Apple Sistema Operativo de Red una forma de interconexión por el puerto
de serie de LocalTalk.

La implementación actual de AppleTalk permite posibilidades de interconexión Trabajo en Grupo de alta


velocidad entre equipos Apple, así como interoperabilidad con otros equipos y sistemas operativos de red.
No obstante, esta interoperabilidad no forma parte, obviamente, del sistema operativo de Apple; En su
lugar, los usuarios de equipos distintos de Apple pueden conectar más fácilmente sus recursos a un sistema
operativo de red de Apple mediante Apple IP, la implementación Apple del protocolo de red TCP/IP. Apple IP
permite a usuarios no Apple acceder a los recursos de Apple, como pueden ser archivos de bases de datos.

Los equipos que forman parte del sistema operativo en red de Apple pueden conectarse a otras redes
utilizando servicios proporcionados por los fabricantes de los Sistema Operativo de Red que se están
ejecutando en los correspondientes servidores de red. Toda la comunidad Windows NT Server, Novell
NetWare y Linux proporcionan servicios de interoperabilidad Apple para sus respectivas plataformas. Esto
permite a los usuarios de Apple, conectados en red, hacer uso de los recursos disponibles en estos
servidores de red.

El formato de los servicios de directorio de AppleTalk se basa en las características denominadas «zonas».
Se trata de grupos lógicos de redes y recursos (una red Apple Talk Fase 1 está formada por no más de una
zona, mientras que una red de Fase 2 puede tener hasta 255 zonas. Sin embargo, las dos son incompatibles
y no resulta sencillo mantenerlas en la misma estructura de cableado de red). Estas zonas proporcionan un
medio de agrupamiento de los recursos de una red en unidades funcionales.

En el entorno actual de escritorio, los usuarios de Windows y Apple pueden beneficiarse de un alto grado
de interoperabilidad presente en el software de aplicaciones. Las colecciones de productividad (aplicaciones
estándar, por ejemplo, hojas de cálculo, bases de datos, tratamiento de textos y correo electrónico) pueden,
a menudo, intercambiar información directamente. AppleShare permite a los usuarios de un equipo Apple
compartir con otros usuarios Apple aquellos recursos para los que tienen asignados los permisos apropiados
para permitir su acceso. Con la interoperabilidad a nivel de sistema operativo y a nivel de aplicación, el
Sistema Operativo de Red de Apple puede proporcionar a los clientes, y a otros Sistema Operativo de Red,
una gama completa de posibilidades de interconexión.

Redes UNIX
UNIX es un sistema operativo de propósito general, multiusuario y multitarea. La dos versiones más
conocidas son Linux y Solaris de Sun Microsystem. Normalmente, un sistema UNIX está constituido por un
equipo central y múltiples terminales para los usuarios. Este sistema operativo incluye las prestaciones de
red, diseñado específicamente para grandes redes, pero también presenta algunas aplicaciones para equipos
personales. UNIX trabaja bien sobre un equipo autónomo y, como consecuencia de sus posibilidades de
multitarea, también lo hace perfectamente en un entorno de red.

UNIX es altamente adaptable al entorno cliente/servidor. Se puede transformar en un servidor de archivos


instalando el correspondiente software del servidor de archivos. A continuación, como host UNIX, puede
responder a peticiones realizadas en las estaciones de trabajo. El software del servidor de archivos es,
simplemente, una aplicación más que se está ejecutando en el equipo multitarea.

Un cliente de un host UNIX puede ser otro equipo UNIX o cualquier otro equipo que ejecute MS-DOS,
OS/2, Microsoft Windows o Macintosh (System 7 u 8). Un redirector de archivos activará la estación para
almacenar y recuperar archivos UNIX cuando éstos están en su formato original.

Servicios virtuales de red integrados Banyan (Vines)

Otro sistema de conexión es el Servicio virtual de red integrados Banyan (Vines). Vines es un Sistema
Operativo de Red basado en una arquitectura cliente/servidor derivado de los protocolos Xerox Network
System (XNS) de la Corporación Xerox.

En la versión actual de Banyan Vines destaca la mensajería mediante la integración con el software
Intelligent Messaging (Mensajería inteligente) y BeyondMail de Banyan. La creación y gestión de los servicios
de red se realizan a través de la última versión de StreetTalk Explorer de Banyan. Esta interfaz trabaja con
los perfiles de usuario de Windows, aceptando las configuraciones de los usuarios en cualquier parte de la
red. Algunas características presentes en Vines:

• Soporte cliente para Windows NT y Windows 95 y 98.


• Banyan Intranet Connect, que proporciona acceso a cliente remoto con un navegador Web
estándar.
• Software servidor a servidor TCP/IP (Protocolo de control de transmisión/Protocolo de
Internet).
• Banyan Networker, una familia de productos de almacenamiento en red.
• Soporte multiprocesador de hasta cuatro procesadores.

Redes locales Trabajo en Grupo

En muchas oficinas y pequeñas empresas existe la necesidad de crear una red Trabajo en Grupo sencilla.
Una red Trabajo en Grupo podría ser la opción más económica cuando la seguridad no es importante y el
número de equipos dentro de un área relativamente pequeña es 10 o un número menor. En estas redes
todas las estaciones son iguales y cada una de ellas actúa como servidor o cliente. En muchos casos, estas
redes compartirán sólo los archivos e impresoras. La mayoría de los sistemas operativos de red incluyen el
software necesario para configurar una red Trabajo en Grupo.

Windows para Grupos de trabajo

Windows para Grupos de trabajo (Windows 3.11) funciona de forma muy similar a su predecesor,
Windows 3.1, pero incluye un Sistema Operativo de Red Trabajo en Grupo, una aplicación de correo
electrónico y una aplicación de anotaciones. Un grupo de equipos conectados a través de una red pueden
compartir impresoras y archivos. Sólo se pueden enviar a otros miembros aquellos elementos que aparezcan
designados como compartidos. Todos los archivos e impresoras aparecen ocultos para todos los usuarios,
excepto para el equipo local. Cuando se comparte un directorio del disco o una impresora de una estación de
trabajo, se le asigna un nombre al recurso compartido que pueden utilizar el resto de usuarios para
referenciarlo. Durante el proceso de conexión se asigna una letra de unidad al directorio compartido y el
redirector redirige el puerto LPT a través de la LAN a la impresora correcta.

Aunque todavía se utiliza Windows para Grupos de trabajo, resulta prácticamente imposible que se
requieran sus servicios para instalar una nueva red utilizando este sistema operativo.
Windows 95/98/ME

Los sistemas operativos Windows 95/98/ME incluyen el software necesario para crear una red Trabajo en
Grupo y activar la compartición de archivos e impresoras.

Los equipos que ejecutan Windows 95 y 98 también trabajarán como clientes en una LAN Windows NT o
NetWare. Tendrá que instalar el software de cliente (generador de peticiones) correspondiente. Los usuarios
de Windows 95 y 98 no pueden utilizar las ventajas completas que proporciona Windows NT con respecto a
las características de seguridad. Estas características requieren la utilización del formato de archivos NTFS
que no es compatible con Windows 95 y 98.

Warp Connect

Warp Connect combina OS/2 Warp y las posibilidades de interconexión Trabajo en Grupo de WIN-OS/2.
Proporciona posibilidades de interconexión a nivel de cliente y Trabajo en Grupo similares a las que
proporciona Windows para Grupos de trabajo. Con la utilidad predefinida de conexión Trabajo en Grupo
incluida en Warp Connect, puede compartir aplicaciones, impresoras, módems y archivos, sin necesidad de
instalar hardware especial.

Sistemas operativos de red en entornos


multiplataforma
Normalmente, los Sistema Operativo de Red tienen que integrar los productos hardware y software
fabricados por diferentes fabricantes. Las propiedades y problemas a tener en cuenta en una red
multiplataforma, son:

El entorno multiplataforma

Hoy en día, la mayoría de la redes se encuentran un entornos multiplataforma. A pesar de que pueden
plantear retos importantes, funcionan correctamente cuando se implementan y se planifican de forma
apropiada.

El carácter de una red cambia cuando los componentes software de diferentes plataformas deben operar
en la misma red. Los problemas pueden aumentar cuando la red está ejecutando más de un tipo de sistema
operativo de red.

Para que una red funcione de forma apropiada en un entorno de trabajo heterogéneo, deben ser
compatibles el redirector, el sistema operativo del servidor y del cliente. En un entorno multiplataforma, es
necesario encontrar un lenguaje común que permita a todos los equipos comunicarse.

Implementación de soluciones multiplataforma

Garantizar la interoperabilidad en entornos multiplataforma se puede conseguir a nivel de servidor


(también conocido como el «final de regreso») o a nivel de cliente (también conocido como el «final de
inicio»). La opción depende de los fabricantes que se estén utilizando.

Interoperabilidad de cliente

En las situaciones que se incluyen múltiples Sistema Operativo de Red, el redirector se convierte en la
clave de la interoperabilidad. Sólo cuando se utiliza más de un proveedor de servicios telefónicos para
comunicarse con diferente gente, se tiene que el equipo puede tener más de un redirector para comunicarse
a través de la red con servidores de red distintos.

Cada redirector maneja sólo los paquetes enviados en el lenguaje o protocolo que puede entender. Si
conoce el destino y el recurso al que se quiere acceder, puede implementar el redirector apropiado y éste
reenviará su petición al destino adecuado.
Si un cliente Windows NT necesita acceder al servidor Novell, para conseguirlo, el administrador de la red
carga el redirector de Microsoft, instalado en el cliente, sobre Windows NT para el acceso a los servidores
Novel.

lnteroperabilidad del servidor

La segunda forma de implementar la comunicación entre un cliente y un servidor es instalar los servicios
de comunicaciones en el servidor, enfoque utilizado para incluir un Apple Macintosh en un entorno Windows
NT. Microsoft suministra los Servicios para Macintosh. Este software permite a un servidor Windows NT
Server comunicarse con el cliente Apple.

Gracias a esta interoperabilidad, un usuario Macintosh puede seguir el procedimiento estándar de un


Macintosh y visualizar los iconos propios del sistema, como puede ser Chooser and Finder, incluso cuando el
usuario está accediendo a los recursos de Windows NT Server.

Opciones de fabricantes

Los tres fabricantes más importantes de productos de redes son:

• Microsoft.
• Novell.
• Apple.

Cada una de estas plataformas proporcionan utilidades que:

• Hacen posible que sus sistemas operativos se puedan comunicar con servidores de las
otras dos plataformas.
• Ayudan a sus servidores a reconocer clientes de las otras dos plataformas.

Microsoft

Microsoft ha desarrollado un redirector que reconoce redes Microsoft dentro de los siguientes sistemas
operativos de Microsoft:

• Windows NT/2000
• Windows 95/98/ME.
• Windows para Grupos de trabajo.

Los redirectorios se implementan, de forma automática, durante la instalación del sistema operativo. Una
utilidad de instalación carga los controladores requeridos y, a continuación, edita los archivos de inicio, de
forma que el redirector se active la próxima vez que el usuario encienda el equipo.

El software redirector de Microsoft no sólo permite a los clientes acceder a los recursos, sino también
proporciona cada cliente Windows para Grupos de trabajo y Windows NT con la posibilidad de compartir sus
propios recursos.

Microsoft en un entorno Novell. Los productos Microsoft y Novell pueden trabajar juntos.

• Para conectar un cliente con Windows NT Workstation a una red Novell NetWare 3.x o 4.x
se requiere NWLink y Servicio de Cliente para NetWare (CSNW) o el Cliente NetWare de Novell para
Windows NT.
• Para conectar un servidor Windows NT Server a una red NetWare se requiere NWLink y el
Servicio de Enlace para NetWare (GSNW). NWLink es la implementación de Microsoft del protocolo
de intercambio de paquetes entre redes/Intercambio de paquetes secuenciados (IPX/SPX). CSNW
es la implementación en Microsoft de un generador de peticiones de NetWare (terminología para el
redirector en Novell).
• Para conectar un cliente Windows 95 o 98 a una red NetWare se requiere IPX/SPX y redes
CSNW de Microsoft.

El Servicio de Microsoft para los Servicios de directorios de Novell (NDS) es el software de cliente para
NetWare que incorpora soporte para Novell Network 4.x y Servicios de Directorios 5.x. Microsoft NDS
proporciona a los usuarios con entrada y exploración soporte para servicios de enlace en NetWare 3.x y
NetWare 4.x como servidores NDS NetWare 4.x y 5.x.

Clientes basados en MS-DOS. Los fabricantes de los sistemas operativos de servidor ofrecen utilidades
que permiten a los clientes que utilizan MS-DOS, acceder a los servidores de estos tres fabricantes. Todas
estas utilidades pueden residir en una máquina, de forma que el cliente con MS-DOS puede acceder a los
servidores correspondientes de los tres entornos.

Novell

Los servidores Novell reconocen los siguientes clientes para los servicios de archivos e impresión. Los
clientes NetWare que ejecutan MS-DOS pueden conectarse a:

• Servidores NetWare de Novell.


• Equipos con Windows NT Server.

Los clientes Windows NT que ejecutan el generador de peticiones de NetWare y el redirector de Windows
NT pueden conectarse a:

• Servidores NetWare de Novell.


• Equipos con Windows NT Server y Windows NT Workstation.

Novell proporciona generadores de peticiones para sistemas operativos de clientes incluyendo:

• MS-DOS.
• OS/2.
• Cliente NetWare para Windows NT.

Apple

En el entorno de Macintosh, el redirector para la conexión AppleShare se incluye con el sistema operativo
AppleTalk y proporciona la función de compartir archivos. El software de cliente se incluye con cada copia del
sistema operativo de Apple. Además, se incluye un servidor de impresión de AppleShare, que gestiona las
colas de impresión. Por tanto, tenemos que los Macintosh están equipados para formar parte de la redes
Apple.

Cliente basado en MS-DOS. El software de conexión AppleShare ofrece a los clientes que utilizan MS-
DOS acceso a los servidores de archivos e impresión de AppleShare. Con el software de ordenador personal
LocalTalk y una tarjeta de equipo personal LocalTalk instalada en los equipos, los usuarios pueden acceder a
los volúmenes (almacenamiento de archivos) del servidor de archivos e impresoras de una red AppleTalk. La
tarjeta de equipo personal LocalTalk controla el enlace entre la red AppleTalk y el equipo personal. El
software del controlador LocalTalk para el equipo personal implementa muchos de los protocolos de
AppleTalk e interactúa con la tarjeta para enviar y recibir paquetes.

Servicios para Macintosh. A través de los Servicios para Macintosh, un servidor Windows NT puede
estar disponible para los clientes Macintosh. Este producto hace posible que los clientes de MS-DOS y
Macintosh puedan compartir archivos e impresoras. Los Servicios para Macintosh incluyen las versiones 2.0 y
2.1 de Apple Talk Protocol, LocalTalk, Ether Talk, Token Talk y FDDITalk. Además, los Servicios para
Macintosh admiten la impresora LaserWriter versión 5.2 o posterior.
Introducción a los Sistemas Operativos de
Red
Al igual que un equipo no puede trabajar sin un sistema operativo, una red de equipos no puede funcionar
sin un sistema operativo de red. Si no se dispone de ningún sistema operativo de red, los equipos no pueden
compartir recursos y los usuarios no pueden utilizar estos recursos.

Dependiendo del fabricante del sistema operativo de red, tenemos que el software de red para un equipo
personal se puede añadir al propio sistema operativo del equipo o integrarse con él.

NetWare de Novell es el ejemplo más familiar y famoso de sistema operativo de red donde el software de
red del equipo cliente se incorpora en el sistema operativo del equipo. El equipo personal necesita ambos
sistema operativos para gestionar conjuntamente las funciones de red y las funciones individuales.

El software del sistema operativo de red se integra en un número importante de sistemas operativos
conocidos, incluyendo Windows 2000 Server/Professional, Windows NT Server/Workstation, Windows
95/98/ME y Apple Talk.

Cada configuración (sistemas operativos de red y del equipo separados, o sistema operativo combinando
las funciones de ambos) tiene sus ventajas e inconvenientes. Por tanto, nuestro trabajo como especialistas
en redes es determinar la configuración que mejor se adapte a las necesidades de nuestra red.

Coordinación del software y del hardware

El sistema operativo de un equipo coordina la interacción entre el equipo y los programas (o aplicaciones)
que está ejecutando. Controla la asignación y utilización de los recursos hardware tales como:

• Memoria.
• Tiempo de CPU.
• Espacio de disco.
• Dispositivos periféricos.

En un entorno de red, los servidores proporcionan recursos a los clientes de la red y el software de red del
cliente permite que estos recursos estén disponibles para los equipos clientes. La red y el sistema operativo
del cliente están coordinados de forma que todos los elementos de la red funcionen correctamente.

Multitarea

Un sistema operativo multitarea, como su nombre indica, proporciona el medio que permite a un equipo
procesar más de una tarea a la vez. Un sistema operativo multitarea real puede ejecutar tantas tareas como
procesadores tenga. Si el número de tareas es superior al número de procesadores, el equipo debe ordenar
los procesadores disponibles para dedicar una cierta cantidad de tiempo a cada tarea, alternándolos hasta
que se completen las citadas tareas. Con este sistema, el equipo parece que está trabajando sobre varias
tareas a la vez.

Existen dos métodos básicos de multitarea:

• Con prioridad. En una multitarea con prioridad, el sistema operativo puede tomar el
control del procesador sin la cooperación de la propia tarea.
• Sin prioridad (cooperativo). En una multitarea sin prioridad, la propia tarea decide
cuándo deja el procesador. Los programa escritos para sistemas de multitarea sin prioridad deben
incluir algún tipo de previsión que permita ejercer el control del procesador. No se puede ejecutar
ningún otro programa hasta que el programa sin prioridad haya abandonado el control del
procesador.
El sistema multitarea con prioridad puede proporcionar ciertas ventajas dada la interacción entre el
sistema operativo individual y el Sistema Operativo de Red (sistema operativo de red). Por ejemplo, cuando
la situación lo requiera, el sistema con prioridad puede conmutar la actividad de la CPU de una tarea local a
una tarea de red.

Componentes software

El software cliente de red debe instalarse sobre el sistema operativo existente, en aquellos sistemas
operativos de equipo que no incluyan funciones propias de red. Otros sistemas operativos, como Windows
NT/2000, integran el sistema operativo de red y sistema operativo del equipo. A pesar de que estos sistema
integrados tienen algunas ventajas, no evitan la utilización de otros Sistema Operativo de Red. Es
importante considerar la propiedad de interoperabilidad cuando se configuran entornos de red
multiplataforma. Se dice que los elementos o componentes de los sistemas operativos «interoperan» cuando
pueden funcionar en diferentes entornos de trabajo. Por ejemplo, un servidor NetWare puede interoperar (es
decir, acceder a los recursos) con servidores NetWare y servidores Windows NT/2000.

Un sistema operativo de red:

• Conecta todos los equipos y periféricos.


• Coordina las funciones de todos los periféricos y equipos.
• Proporciona seguridad controlando el acceso a los datos y periféricos.

Las dos componentes principales del software de red son:

• El software de red que se instala en los clientes.


• El software de red que se instala en los servidores.

Software de cliente

En un sistema autónomo, cuando un usuario escribe un comando que solicita el equipo para realizar una
tarea, la petición circula a través del bus local del equipo hasta la CPU del mismo. Por ejemplo, si quiere ver
un listado de directorios de uno de los discos duros locales, la CPU interpreta y ejecuta la petición y, a
continuación, muestra el resultado del listado de directorios en una ventana.

Sin embargo, en un entorno de red, cuando un usuario inicia una petición para utilizar un recurso que
está en un servidor en otra parte de la red, el comportamiento es distinto. La petición se tiene que enviar, o
redirigir, desde el bus local a la red y desde allí al servidor que tiene el recurso solicitado. Este envío es
realizado por el redirector.

Redirector

Un redirector procesa el envío de peticiones. Dependiendo del software de red, este redirector se conoce
como «Shell» o «generador de peticiones». El redirector es una pequeña sección del código de un Sistema
Operativo de Red que:

• Intercepta peticiones en el equipo.


• Determina si la peticiones deben continuar en el bus del equipo local o deben redirigirse a
través de la red a otro servidor

La actividad del redirector se inicia en un equipo cliente cuando el usuario genera la petición de un
recurso o servicio de red. El equipo del usuario se identifica como cliente, puesto que está realizando una
petición a un servidor. El redirector intercepta la petición y la envía a la red.

El servidor procesa la conexión solicitada por los redirectores del cliente y les proporciona acceso a los
recursos solicitados. En otras palabras, los servicios del servidor solicitados por el cliente.

Designadores
Normalmente, el sistema operativo proporcionará diferentes opciones para acceder al directorio cuando
necesite acceder a un directorio compartido y tenga los correspondientes permisos para realizarlo. Por
ejemplo, con Windows NT/2000, podría utilizar el icono Conectar a unidad de red del Explorador de Windows
NT/2000 para conectarse a la unidad de red. También, puede asignar una unidad. La asignación de unidades
consiste en asignar una letra o nombre a una unidad de disco, de forma que el sistema operativo o el
servidor de la red puede identificarla y localizarla. El redirector también realiza un seguimiento de los
designadores de unidades asociados a recursos de red.

Periféricos

Los redirectores pueden enviar peticiones a los periféricos, al igual que se envían a los directorios
compartidos. La petición se redirige desde el equipo origen y se envía a través de la red al correspondiente
destino. En este caso, el destino es el servidor de impresión para la impresora solicitada.

Con el redirector, podemos referenciar como LPT1 o COM1 impresoras de red en lugar de impresoras
locales. El redirector intercepta cualquier trabajo de impresión dirigido a LPT1 y lo envía a la impresora de
red especificada.

La utilización del redirector permite a los usuarios no preocuparse ni de la ubicación actual de los datos o
periféricos ni de la complejidad del proceso de conexión o entrada. Por ejemplo, para acceder a los datos de
un ordenador de red, el usuario sólo necesita escribir el designador de la unidad asignado a la localización
del recurso y el redirector determina el encaminamiento actual.

Software de servidor

El software de servidor permite a los usuarios en otras máquinas, y a los equipos clientes, poder
compartir los datos y periféricos del servidor incluyendo impresoras, trazadores y directorios.

Si un usuario solicita un listado de directorios de un disco duro remoto compartido. El redirector envía la
petición por la red, se pasa al servidor de archivos que contiene el directorio compartido. Se concede la
petición y se proporciona el listado de directorios.

Compartir recursos

Compartir es el término utilizado para describir los recursos que públicamente están disponibles para
cualquier usuario de la red. La mayoría de los sistemas operativos de red no sólo permiten compartir, sino
también determinar el grado de compartición. Las opciones para la compartición de recursos incluyen:

• Permitir diferentes usuarios con diferentes niveles de acceso a los recursos.


• Coordinación en el acceso a los recursos asegurando que dos usuarios no utilizan el mismo
recurso en el mismo instante.

Por ejemplo, un administrador de una oficina quiere que una persona de la red se familiarice con un cierto
documento (archivo), de forma que permite compartir el documento. Sin embargo, se controla el acceso al
documento compartiéndolo de forma que:

• Algunos usuarios sólo podrán leerlo.


• Algunos usuarios podrán leerlo y realizar modificaciones en él.

Gestión de usuarios

Los sistemas operativos de red permiten al administrador de la red determinar las personas, o grupos de
personas, que tendrán la posibilidad de acceder a los recursos de la red. El administrador de una red puede
utilizar el Sistema Operativo de Red para:

• Crear permisos de usuario, controlados por el sistema operativo de red, que indican quién
puede utilizar la red.
• Asignar o denegar permisos de usuario en la red.
• Eliminar usuarios de la lista de usuarios que controla el sistema operativo de red.

Para simplificar la tarea de la gestión de usuarios en una gran red, el sistema operativo de red permite la
creación de grupos de usuarios. Mediante la clasificación de los individuos en grupos, el administrador puede
asignar permisos al grupo. Todos los miembros de un grupo tendrán los mismos permisos, asignados al
grupo como una unidad. Cuando se une a la red un nuevo usuario, el administrador puede asignar el nuevo
usuario al grupo apropiado, con sus correspondientes permisos y derechos.

Gestión de la red

Algunos sistemas operativos de red avanzados incluyen herramientas de gestión que ayudan a los
administradores a controlar el comportamiento de la red. Cuando se produce un problema en la red, estas
herramientas de gestión permiten detectar síntomas de la presencia del problema y presentar estos
síntomas en un gráfico o en otro formato. Con estas herramientas, el administrador de la red puede tomar la
decisión correcta antes de que el problema suponga la caída de la red.

Selección de un sistema operativo de red

El sistema operativo de red determina estos recursos, así como la forma de compartirlos y acceder a
ellos.

En la planificación de una red, la selección del sistema operativo de red se puede simplificar de forma
significativa, si primero se determina la arquitectura de red (cliente/servidor o Trabajo en Grupo) que mejor
se ajusta a nuestras necesidades. A menudo, esta decisión se basa en los tipos de seguridad que se
consideran más adecuados. La redes basadas en servidor le permiten incluir más posibilidades relativas a la
seguridad que las disponibles en una red Trabajo en Grupo. Por otro lado, cuando la seguridad no es una
propiedad a considerar, puede resultar más apropiado un entorno de red Trabajo en Grupo.

Después de identificar las necesidades de seguridad de la red, el siguiente paso es determinar los tipos de
interoperabilidad necesaria en la red para que se comporte como una unidad. Cada sistema operativo de red
considera la interoperabilidad de forma diferente y, por ello, resulta muy importante recordar nuestras
propias necesidades de interoperabilidad cuando se evalúe cada Sistema Operativo de Red. Si la opción es
Trabajo en Grupo, disminuirán las opciones de seguridad e interoperabilidad debida a las limitaciones propias
de esta arquitectura. Si la opción seleccionada se basa en la utilización de un servidor, es necesario realizar
estimaciones futuras para determinar si la interoperabilidad va a ser considerada como un servicio en el
servidor de la red o como una aplicación cliente en cada equipo conectado a la red. La interoperabilidad
basada en servidor es más sencilla de gestionar puesto que, al igual que otros servicios, se localiza de forma
centralizada. La interoperabilidad basada en cliente requiere la instalación y configuración en cada equipo.
Esto implica que la interoperabilidad sea mucho más difícil de gestionar.

No es raro encontrar ambos métodos (un servicio de red en el servidor y aplicaciones cliente en cada
equipo) en una misma red. Por ejemplo, un servidor NetWare, a menudo, se implementa con un servicio
para los equipos Apple, mientras que la interoperabilidad de las redes de Microsoft Windows se consigue con
una aplicación cliente de red en cada equipo personal.

Cuando se selecciona un sistema operativo de red, primero se determinan los servicios de red que se
requieren. Los servicios estándares incluyen seguridad, compartición de archivos, impresión y mensajería;
los servicios adicionales incluyen soporte de interoperabilidad para conexiones con otros sistemas
operativos. Para cualquier Sistema Operativo de Red, es necesario determinar los servicios de
interoperabilidad o clientes de red a implementar para adecuarse mejor a las necesidades.

Los sistemas operativos de red basados en servidor más importantes son Microsoft Windows NT 4,
Windows 2000 Server y Novell NetWare 3.x, 4.x y 5.x. Los sistemas operativos de red Trabajo en Grupo más
importantes son AppleTalk, Windows 95 y 98 y UNIX (incluyendo Linux y Solaris).

Sistemas operativos de Novell

Introducción a NetWare
El sistema operativo de red NetWare está formado por aplicaciones de servidor y cliente. La aplicación
cliente se diseña para ejecutarse sobre una variedad importante de los sistemas operativos que residen en
los clientes. Los usuarios clientes pueden acceder a la aplicación servidor a partir de ordenadores que
ejecuten MS-DOS, Microsoft Windows (versiones 3.x, 95 y 98 y Windows NT), OS/2, Apple Talk o UNIX. A
menudo, NetWare es la opción que se utiliza como sistema operativo en entornos de múltiples sistemas
operativos mezclados.

La versión 3.2 de NetWare es un Sistema Operativo de Red de 32 bits que admite entornos Windows
(versiones 3.x, 95 y 98 y Windows NT), UNIX, Mac OS y MS-DOS. Con la versión NetWare 4.11, también
denominada IntranetWare, Novell introdujo su nuevo Sistema Operativo de Red, los Servicios de directorios
de Novell (NDS). La versión 5, última versión distribuida, se centra en la integración de LAN, WAN,
aplicaciones de red, intranets e Internet en una única red global.

Los Servicios de directorios de Novell (NDS) proporcionan servicios de nombre y seguridad,


encaminamiento, mensajería, publicación Web y servicios de impresión y de archivos. Mediante la utilización
de la arquitectura de directorios X.500, organiza todos los recursos de red, incluyendo usuarios, grupos,
impresoras, servidores y volúmenes. NDS también proporciona una entrada única para el usuario, que
permite a éste poder entrar en cualquier servidor de la red y tener acceso a todos sus permisos y derechos
habituales.

Otros Sistema Operativo de Red proporcionan software de cliente para la interoperabilidad con servidores
NetWare. Por ejemplo, Windows NT proporciona Servicios de enlace para NetWare (Gateway Services
GSNW). Con este servicio, un servidor Windows NT puede obtener acceso a servicios de archivo e impresión
NetWare.

Servicios NetWare

Con el Cliente NetWare instalado, cualquier estación cliente puede obtener todas las ventajas de los
recursos proporcionados por un servidor NetWare. Algunos de los servicios más importantes que
proporciona, son:

Servicios de archivos

Los servicios de archivos de NetWare forman parte de la base de datos NDS. NDS proporciona un único
punto de entrada para los usuarios y permite a los usuarios y administradores ver de la misma forma los
recursos de la red. Dependiendo del software de cliente instalado, podrá ver la red completa en un formato
conocido para el sistema operativo de la estación de trabajo. Por ejemplo, un cliente Microsoft Windows
puede asignar una unidad lógica a cualquier volumen o directorio de un servidor de archivos de NetWare, de
forma que los recursos de NetWare aparecerán como unidades lógicas en sus equipos. Estas unidades
lógicas funcionan igual que cualquier otra unidad en sus equipos.

Seguridad

NetWare proporciona seguridad de gran alcance, incluyendo:

• Seguridad de entrada. Proporciona verificación de autenticación basada en el nombre de


usuario, contraseña y restricciones de cuentas y de tiempo.
• Derechos de Trustee. Controla los directorios y archivos a los que puede acceder un
usuario y lo que puede realizar el usuario con ellos.
• Atributos de archivos y directorios. Identifica los tipos de acciones que se pueden llevar
a cabo en un archivo (visualizarlo, escribir en él, copiarlo, buscarlo u ocultarlo o suprimirlo).

Servicios de impresión

Los servicios de impresión son transparentes (invisibles) al usuario de un equipo cliente. Cualquier
petición de impresión por parte de un cliente es redirigida al servidor de archivos, donde se envía al servidor
de impresión y, finalmente, a la impresora. El mismo equipo puede actuar como servidor de archivos y
servidor de impresión. Permite compartir dispositivos de impresión que se conectan al servidor, a la estación
de trabajo o, directamente, a la red por medio de las propias tarjetas de red (NIC) de los dispositivos. Los
servicios de impresión de NetWare pueden admitir hasta 256 impresoras.

Envío de mensajes a otros

Por medio de algunos comandos sencillos, los usuarios pueden enviar un breve mensaje a otros usuarios
de la red. Los mensajes se pueden enviar a grupos o de forma individual. Si todos los receptores pertenecen
al mismo grupo, es conveniente enviar el mensaje al grupo en lugar de enviarlo de forma individual. Los
usuarios también pueden activar o desactivar este comando para sus estaciones de trabajo. Cuando un
usuario desactiva este comando, no recibirá ningún mensaje enviado.

Los mensaje también se pueden controlar a través del Servicio de control de mensajes (Message Handling
Service – MHS). MHS se puede instalar en cualquier servidor y configurarse como una infraestructura de
mensajes completamente interconectada para una distribución de correo electrónico. MHS admite los
programas más habituales de correo electrónico.

Interoperabilidad

No siempre se puede conseguir la interoperabilidad completa de un Sistema Operativo de Red. Es


especialmente cierta cuando se conectan dos redes diferentes, como NetWare y Windows NT. Un entorno
NetWare, caracterizado por sus servicios de directorio y Windows NT que trabaja sobre la base de un modelo
de dominio, son esencialmente incompatibles. Para solucionar este problema, Windows NT desarrolló NWLink
y GSNW que le permiten interoperar. Estos servicios permiten a un servidor en una red Windows NT actuar
como un enlace a la red NetWare. Cualquier estación en la red Windows NT puede solicitar recursos o
servicios disponibles en la red NetWare, pero deben realizar la petición a través del servidor Windows NT. A
continuación, el servidor actuará como cliente en la red NetWare, pasando las peticiones entre las dos redes.

Sistemas operativos de red de Microsoft

Introducción a Windows NT

A diferencia del sistema operativo NetWare, Windows NT combina el sistema operativo del equipo y de
red en un mismo sistema. Windows NT Server configura un equipo para proporcionar funciones y recursos
de servidor a una red, y Windows NT Workstation proporciona las funciones de cliente de la red.

Windows NT trabaja sobre un modelo de dominio. Un dominio es una colección de equipos que comparten
una política de seguridad y una base de datos común. Cada dominio tiene un nombre único. Dentro de cada
dominio, se debe designar un servidor como Controlador principal de dominio (PDC, Primary Domain
Controller). Este servidor mantiene los servicios de directorios y autentifica cualquier usuario que quiera
entrar en el sistema. Los servicios de directorios de Windows NT se pueden implementar de varias formas
utilizando la base de datos de seguridad y de las cuentas.

Existen cuatro modelos de dominio diferentes.

• Dominio único. Un único servidor mantiene la base de datos de seguridad y de las


cuentas.
• Maestro único. Una red con maestro único puede tener diferentes dominios, pero se
designa uno como el maestro y mantiene la base de datos de las cuentas de usuario.
• Maestro múltiple. Una red con maestro múltiple incluye diferentes dominios, pero la base
de datos de las cuentas se mantiene en más de un servidor. Este modelo se diseña para
organizaciones muy grandes.
• Confianza-completa. «Confianza completa» significa que existen varios dominios, pero
ninguno está designado como maestro. Todos los dominios confían completamente en el resto.

Servicios de Windows NT
Los servicios más importantes que Windows NT Server y Workstation proporcionan a una red:

Servicios de archivos

Existen dos mecanismos que permiten compartir archivos en una red Windows NT. El primero se basa en
un proceso sencillo de compartición de archivos, como puede ser una red Trabajo en Grupo. Cualquier
estación o servidor puede publicar un directorio compartido en la red y especificar los atributos de los datos
(sin acceso, lectura, agregar, cambio, control total). La gran diferencia entra los sistemas operativos
Windows NT y Windows 95 /98 es que para compartir un recurso de Windows NT debe tener permisos de
administrador. El siguiente nivel de compartición obtiene las ventajas completas de las características de
seguridad de Windows NT. Puede asignar permisos a nivel de directorio y a nivel de archivos. Esto le permite
restringir el acceso a grupos o usuarios determinados. Para poder obtener las ventajas de un proceso de
compartición de archivos más avanzado, es necesario utilizar el sistema de archivos de Windows NT (NTFS).
Durante la instalación de Windows NT, puede seleccionar entre un sistema de archivos NTFS o un sistema
FAT-16 bits (MS-DOS). Puede instalar ambos sistemas sobre unidades fijas diferentes o sobre particiones
distintas de un mismo disco duro, pero cuando el equipo esté trabajando en modo MS-DOS, no estarán
disponibles los directorios de NTFS. Cualquier cliente que no utilice NTFS puede compartir la red, pero está
limitado para publicar recursos compartidos y no puede utilizar las ventajas de las utilidades de seguridad de
NTFS.

Seguridad

Al igual que los Sistema Operativo de Red más importantes, Windows NT proporciona seguridad para
cualquier recurso de la red. El servidor de dominio en una red Windows NT mantiene todos los registros de
las cuentas y gestiona los permisos y derechos de usuario. Para acceder a cualquier recurso de la red, el
usuario debe tener los derechos necesarios para realizar la tarea y los permisos adecuados para utilizar el
recurso.

Impresión

En una red Windows NT, cualquier servidor o cliente puede funcionar como servidor de impresión.
Compartir una impresora de red implica que esté disponible para cualquier usuario de red (sujeto a las
reglas de compartición). Cuando se instala una impresora, primero se pregunta si la impresora está
designada como impresora local (Mi PC) o como impresora de red. Si se selecciona como impresora de red,
aparece un cuadro de diálogo mostrando todas las impresoras de red disponibles. Todo lo que tiene que
hacer es seleccionar aquella que desea utilizar. Recuerde que puede instalar más de una impresora en una
máquina.

Además, si está instalando una impresora local, se preguntará si quiere compartir la impresora con otros
usuarios de la red.

Servicios de red

Windows NT proporciona diferentes servicios de red que ayudan a facilitar una red de ejecución uniforme.
Algunos servicios son:

• Servicio de mensajería. Monitoriza la red y recibe mensajes emergentes para el usuario.


• Servicio de alarma. Envía las notificaciones recibidas por el servicio de mensajería.
• Servicio de exploración. Proporciona una lista de servidores disponibles en los dominios
y en los grupos de trabajo.
• Servicio de estación. Se ejecuta sobre una estación de trabajo y es responsable de las
conexiones con el servidor. Además, se conoce como el redirector.
• Servicio de Servidor. Proporciona acceso de red a los recursos de un equipo.

Interoperabilidad

El protocolo de red NWLink se diseña para que Windows NT sea compatible con NetWare. Los servicios
disponibles son:
• Servicios de enlace para NetWare (Gateway Services for NetWare GSNW). Todos
los clientes de Windows NT, dentro de un dominio, deben conectarse con un servidor NetWare a
través de una única fuente. GSNW proporciona la conexión basada en gateway entre un dominio de
Windows NT y un servidor NetWare. Esto funciona correctamente en condiciones de bajo volumen,
pero provocará una bajada en el rendimiento cuando se incremente el número de peticiones.
• Servicios de cliente para NetWare (Client Services for NetWare CSNW). Este
servicio activa una estación Windows NT para acceder a los servicios de archivo e impresión de un
servidor NetWare. Se incluye como parte de GSNW.
• Servicios de archivos e impresión para NetWare (File and Print Services for
NetWare FPNW). Esta utilidad permite a los clientes de NetWare acceder a los servicios de archivo
e impresión de Windows NT. No forma parte del paquete de Windows NT y debe adquirirse por
separado.
• Gestor de los servicios de directorio para NetWare (Directory Service Manager for
NetWare DSMN). Esta utilidad adicional integra la información de cuentas de los grupos y de
usuarios de Windows NT y NetWare. No forma parte del paquete de Windows NT y debe adquirirse
por separado.
• Herramienta de migración para NetWare. Esta herramienta la utilizan los
administradores que están convirtiendo NetWare en Windows NT. Envía la información de las
cuentas de un servidor NetWare a un controlador de dominio de Windows NT.

Otros sistemas operativos de red


Aunque Windows NT y NetWare constituyen los sistemas operativos de red más habituales del mercado,
no son los únicos disponibles. Incluir también algunos de los sistemas operativos menos conocidos como
AppleTalk, Unix y Banyan Vines. Además, veremos la utilización de Windows para Grupos de trabajo,
Windows 95 y Windows 98 para configurar redes Trabajo en Grupo, o como clientes en otras redes.

Muchas compañías de software han desarrollado software LAN Trabajo en Grupo. Realizar una búsqueda
en Internet le ayudará a localizar estas posibles opciones.

Sistema operativo de red AppleTalk

El sistema operativo de red AppleTalk está completamente integrado en el sistema operativo de cada
equipo que ejecuta el Mac OS. Su primera versión, denominada LocalTalk, era lenta en comparación con los
estándares de hoy en día, pero trajo consigo la interconexión de los usuarios que rápidamente hicieron uso
de ella. Todavía forma parte del Apple Sistema Operativo de Red una forma de interconexión por el puerto
de serie de LocalTalk.

La implementación actual de AppleTalk permite posibilidades de interconexión Trabajo en Grupo de alta


velocidad entre equipos Apple, así como interoperabilidad con otros equipos y sistemas operativos de red.
No obstante, esta interoperabilidad no forma parte, obviamente, del sistema operativo de Apple; En su
lugar, los usuarios de equipos distintos de Apple pueden conectar más fácilmente sus recursos a un sistema
operativo de red de Apple mediante Apple IP, la implementación Apple del protocolo de red TCP/IP. Apple IP
permite a usuarios no Apple acceder a los recursos de Apple, como pueden ser archivos de bases de datos.

Los equipos que forman parte del sistema operativo en red de Apple pueden conectarse a otras redes
utilizando servicios proporcionados por los fabricantes de los Sistema Operativo de Red que se están
ejecutando en los correspondientes servidores de red. Toda la comunidad Windows NT Server, Novell
NetWare y Linux proporcionan servicios de interoperabilidad Apple para sus respectivas plataformas. Esto
permite a los usuarios de Apple, conectados en red, hacer uso de los recursos disponibles en estos
servidores de red.

El formato de los servicios de directorio de AppleTalk se basa en las características denominadas «zonas».
Se trata de grupos lógicos de redes y recursos (una red Apple Talk Fase 1 está formada por no más de una
zona, mientras que una red de Fase 2 puede tener hasta 255 zonas. Sin embargo, las dos son incompatibles
y no resulta sencillo mantenerlas en la misma estructura de cableado de red). Estas zonas proporcionan un
medio de agrupamiento de los recursos de una red en unidades funcionales.

En el entorno actual de escritorio, los usuarios de Windows y Apple pueden beneficiarse de un alto grado
de interoperabilidad presente en el software de aplicaciones. Las colecciones de productividad (aplicaciones
estándar, por ejemplo, hojas de cálculo, bases de datos, tratamiento de textos y correo electrónico) pueden,
a menudo, intercambiar información directamente. AppleShare permite a los usuarios de un equipo Apple
compartir con otros usuarios Apple aquellos recursos para los que tienen asignados los permisos apropiados
para permitir su acceso. Con la interoperabilidad a nivel de sistema operativo y a nivel de aplicación, el
Sistema Operativo de Red de Apple puede proporcionar a los clientes, y a otros Sistema Operativo de Red,
una gama completa de posibilidades de interconexión.

Redes UNIX

UNIX es un sistema operativo de propósito general, multiusuario y multitarea. La dos versiones más
conocidas son Linux y Solaris de Sun Microsystem. Normalmente, un sistema UNIX está constituido por un
equipo central y múltiples terminales para los usuarios. Este sistema operativo incluye las prestaciones de
red, diseñado específicamente para grandes redes, pero también presenta algunas aplicaciones para equipos
personales. UNIX trabaja bien sobre un equipo autónomo y, como consecuencia de sus posibilidades de
multitarea, también lo hace perfectamente en un entorno de red.

UNIX es altamente adaptable al entorno cliente/servidor. Se puede transformar en un servidor de archivos


instalando el correspondiente software del servidor de archivos. A continuación, como host UNIX, puede
responder a peticiones realizadas en las estaciones de trabajo. El software del servidor de archivos es,
simplemente, una aplicación más que se está ejecutando en el equipo multitarea.

Un cliente de un host UNIX puede ser otro equipo UNIX o cualquier otro equipo que ejecute MS-DOS,
OS/2, Microsoft Windows o Macintosh (System 7 u 8). Un redirector de archivos activará la estación para
almacenar y recuperar archivos UNIX cuando éstos están en su formato original.

Servicios virtuales de red integrados Banyan (Vines)

Otro sistema de conexión es el Servicio virtual de red integrados Banyan (Vines). Vines es un Sistema
Operativo de Red basado en una arquitectura cliente/servidor derivado de los protocolos Xerox Network
System (XNS) de la Corporación Xerox.

En la versión actual de Banyan Vines destaca la mensajería mediante la integración con el software
Intelligent Messaging (Mensajería inteligente) y BeyondMail de Banyan. La creación y gestión de los servicios
de red se realizan a través de la última versión de StreetTalk Explorer de Banyan. Esta interfaz trabaja con
los perfiles de usuario de Windows, aceptando las configuraciones de los usuarios en cualquier parte de la
red. Algunas características presentes en Vines:

• Soporte cliente para Windows NT y Windows 95 y 98.


• Banyan Intranet Connect, que proporciona acceso a cliente remoto con un navegador Web
estándar.
• Software servidor a servidor TCP/IP (Protocolo de control de transmisión/Protocolo de
Internet).
• Banyan Networker, una familia de productos de almacenamiento en red.
• Soporte multiprocesador de hasta cuatro procesadores.

Redes locales Trabajo en Grupo

En muchas oficinas y pequeñas empresas existe la necesidad de crear una red Trabajo en Grupo sencilla.
Una red Trabajo en Grupo podría ser la opción más económica cuando la seguridad no es importante y el
número de equipos dentro de un área relativamente pequeña es 10 o un número menor. En estas redes
todas las estaciones son iguales y cada una de ellas actúa como servidor o cliente. En muchos casos, estas
redes compartirán sólo los archivos e impresoras. La mayoría de los sistemas operativos de red incluyen el
software necesario para configurar una red Trabajo en Grupo.

Windows para Grupos de trabajo

Windows para Grupos de trabajo (Windows 3.11) funciona de forma muy similar a su predecesor,
Windows 3.1, pero incluye un Sistema Operativo de Red Trabajo en Grupo, una aplicación de correo
electrónico y una aplicación de anotaciones. Un grupo de equipos conectados a través de una red pueden
compartir impresoras y archivos. Sólo se pueden enviar a otros miembros aquellos elementos que aparezcan
designados como compartidos. Todos los archivos e impresoras aparecen ocultos para todos los usuarios,
excepto para el equipo local. Cuando se comparte un directorio del disco o una impresora de una estación de
trabajo, se le asigna un nombre al recurso compartido que pueden utilizar el resto de usuarios para
referenciarlo. Durante el proceso de conexión se asigna una letra de unidad al directorio compartido y el
redirector redirige el puerto LPT a través de la LAN a la impresora correcta.

Aunque todavía se utiliza Windows para Grupos de trabajo, resulta prácticamente imposible que se
requieran sus servicios para instalar una nueva red utilizando este sistema operativo.

Windows 95/98/ME

Los sistemas operativos Windows 95/98/ME incluyen el software necesario para crear una red Trabajo en
Grupo y activar la compartición de archivos e impresoras.

Los equipos que ejecutan Windows 95 y 98 también trabajarán como clientes en una LAN Windows NT o
NetWare. Tendrá que instalar el software de cliente (generador de peticiones) correspondiente. Los usuarios
de Windows 95 y 98 no pueden utilizar las ventajas completas que proporciona Windows NT con respecto a
las características de seguridad. Estas características requieren la utilización del formato de archivos NTFS
que no es compatible con Windows 95 y 98.

Warp Connect

Warp Connect combina OS/2 Warp y las posibilidades de interconexión Trabajo en Grupo de WIN-OS/2.
Proporciona posibilidades de interconexión a nivel de cliente y Trabajo en Grupo similares a las que
proporciona Windows para Grupos de trabajo. Con la utilidad predefinida de conexión Trabajo en Grupo
incluida en Warp Connect, puede compartir aplicaciones, impresoras, módems y archivos, sin necesidad de
instalar hardware especial.

Sistemas operativos de red en entornos


multiplataforma
Normalmente, los Sistema Operativo de Red tienen que integrar los productos hardware y software
fabricados por diferentes fabricantes. Las propiedades y problemas a tener en cuenta en una red
multiplataforma, son:

El entorno multiplataforma

Hoy en día, la mayoría de la redes se encuentran un entornos multiplataforma. A pesar de que pueden
plantear retos importantes, funcionan correctamente cuando se implementan y se planifican de forma
apropiada.

El carácter de una red cambia cuando los componentes software de diferentes plataformas deben operar
en la misma red. Los problemas pueden aumentar cuando la red está ejecutando más de un tipo de sistema
operativo de red.

Para que una red funcione de forma apropiada en un entorno de trabajo heterogéneo, deben ser
compatibles el redirector, el sistema operativo del servidor y del cliente. En un entorno multiplataforma, es
necesario encontrar un lenguaje común que permita a todos los equipos comunicarse.

Implementación de soluciones multiplataforma

Garantizar la interoperabilidad en entornos multiplataforma se puede conseguir a nivel de servidor


(también conocido como el «final de regreso») o a nivel de cliente (también conocido como el «final de
inicio»). La opción depende de los fabricantes que se estén utilizando.
Interoperabilidad de cliente

En las situaciones que se incluyen múltiples Sistema Operativo de Red, el redirector se convierte en la
clave de la interoperabilidad. Sólo cuando se utiliza más de un proveedor de servicios telefónicos para
comunicarse con diferente gente, se tiene que el equipo puede tener más de un redirector para comunicarse
a través de la red con servidores de red distintos.

Cada redirector maneja sólo los paquetes enviados en el lenguaje o protocolo que puede entender. Si
conoce el destino y el recurso al que se quiere acceder, puede implementar el redirector apropiado y éste
reenviará su petición al destino adecuado.

Si un cliente Windows NT necesita acceder al servidor Novell, para conseguirlo, el administrador de la red
carga el redirector de Microsoft, instalado en el cliente, sobre Windows NT para el acceso a los servidores
Novel.

lnteroperabilidad del servidor

La segunda forma de implementar la comunicación entre un cliente y un servidor es instalar los servicios
de comunicaciones en el servidor, enfoque utilizado para incluir un Apple Macintosh en un entorno Windows
NT. Microsoft suministra los Servicios para Macintosh. Este software permite a un servidor Windows NT
Server comunicarse con el cliente Apple.

Gracias a esta interoperabilidad, un usuario Macintosh puede seguir el procedimiento estándar de un


Macintosh y visualizar los iconos propios del sistema, como puede ser Chooser and Finder, incluso cuando el
usuario está accediendo a los recursos de Windows NT Server.

Opciones de fabricantes

Los tres fabricantes más importantes de productos de redes son:

• Microsoft.
• Novell.
• Apple.

Cada una de estas plataformas proporcionan utilidades que:

• Hacen posible que sus sistemas operativos se puedan comunicar con servidores de las
otras dos plataformas.
• Ayudan a sus servidores a reconocer clientes de las otras dos plataformas.

Microsoft

Microsoft ha desarrollado un redirector que reconoce redes Microsoft dentro de los siguientes sistemas
operativos de Microsoft:

• Windows NT/2000
• Windows 95/98/ME.
• Windows para Grupos de trabajo.

Los redirectorios se implementan, de forma automática, durante la instalación del sistema operativo. Una
utilidad de instalación carga los controladores requeridos y, a continuación, edita los archivos de inicio, de
forma que el redirector se active la próxima vez que el usuario encienda el equipo.

El software redirector de Microsoft no sólo permite a los clientes acceder a los recursos, sino también
proporciona cada cliente Windows para Grupos de trabajo y Windows NT con la posibilidad de compartir sus
propios recursos.
Microsoft en un entorno Novell. Los productos Microsoft y Novell pueden trabajar juntos.

• Para conectar un cliente con Windows NT Workstation a una red Novell NetWare 3.x o 4.x
se requiere NWLink y Servicio de Cliente para NetWare (CSNW) o el Cliente NetWare de Novell para
Windows NT.
• Para conectar un servidor Windows NT Server a una red NetWare se requiere NWLink y el
Servicio de Enlace para NetWare (GSNW). NWLink es la implementación de Microsoft del protocolo
de intercambio de paquetes entre redes/Intercambio de paquetes secuenciados (IPX/SPX). CSNW
es la implementación en Microsoft de un generador de peticiones de NetWare (terminología para el
redirector en Novell).
• Para conectar un cliente Windows 95 o 98 a una red NetWare se requiere IPX/SPX y redes
CSNW de Microsoft.

El Servicio de Microsoft para los Servicios de directorios de Novell (NDS) es el software de cliente para
NetWare que incorpora soporte para Novell Network 4.x y Servicios de Directorios 5.x. Microsoft NDS
proporciona a los usuarios con entrada y exploración soporte para servicios de enlace en NetWare 3.x y
NetWare 4.x como servidores NDS NetWare 4.x y 5.x.

Clientes basados en MS-DOS. Los fabricantes de los sistemas operativos de servidor ofrecen utilidades
que permiten a los clientes que utilizan MS-DOS, acceder a los servidores de estos tres fabricantes. Todas
estas utilidades pueden residir en una máquina, de forma que el cliente con MS-DOS puede acceder a los
servidores correspondientes de los tres entornos.

Novell

Los servidores Novell reconocen los siguientes clientes para los servicios de archivos e impresión. Los
clientes NetWare que ejecutan MS-DOS pueden conectarse a:

• Servidores NetWare de Novell.


• Equipos con Windows NT Server.

Los clientes Windows NT que ejecutan el generador de peticiones de NetWare y el redirector de Windows
NT pueden conectarse a:

• Servidores NetWare de Novell.


• Equipos con Windows NT Server y Windows NT Workstation.

Novell proporciona generadores de peticiones para sistemas operativos de clientes incluyendo:

• MS-DOS.
• OS/2.
• Cliente NetWare para Windows NT.

Apple

En el entorno de Macintosh, el redirector para la conexión AppleShare se incluye con el sistema operativo
AppleTalk y proporciona la función de compartir archivos. El software de cliente se incluye con cada copia del
sistema operativo de Apple. Además, se incluye un servidor de impresión de AppleShare, que gestiona las
colas de impresión. Por tanto, tenemos que los Macintosh están equipados para formar parte de la redes
Apple.

Cliente basado en MS-DOS. El software de conexión AppleShare ofrece a los clientes que utilizan MS-
DOS acceso a los servidores de archivos e impresión de AppleShare. Con el software de ordenador personal
LocalTalk y una tarjeta de equipo personal LocalTalk instalada en los equipos, los usuarios pueden acceder a
los volúmenes (almacenamiento de archivos) del servidor de archivos e impresoras de una red AppleTalk. La
tarjeta de equipo personal LocalTalk controla el enlace entre la red AppleTalk y el equipo personal. El
software del controlador LocalTalk para el equipo personal implementa muchos de los protocolos de
AppleTalk e interactúa con la tarjeta para enviar y recibir paquetes.
Servicios para Macintosh. A través de los Servicios para Macintosh, un servidor Windows NT puede
estar disponible para los clientes Macintosh. Este producto hace posible que los clientes de MS-DOS y
Macintosh puedan compartir archivos e impresoras. Los Servicios para Macintosh incluyen las versiones 2.0 y
2.1 de Apple Talk Protocol, LocalTalk, Ether Talk, Token Talk y FDDITalk. Además, los Servicios para
Macintosh admiten la impresora LaserWriter versión 5.2 o posterior.

Muchos fabricantes de software y hardware proporcionan productos para la conexión de equipos en red.
Fundamentalmente, las redes son un medio de comunicación, de ahí que, la necesidad de los fabricantes de
tomar medidas para asegurar que sus productos pudieran interactuar, llegó a ser aparentemente prematura
en el desarrollo de la tecnología de redes. Como las redes y los proveedores de productos para redes se han
extendido por todo el mundo, la necesidad de una estandarización se ha incrementado. Para dirigir los
aspectos concernientes a la estandarización, varias organizaciones independientes han creado
especificaciones estándar de diseño para los productos de redes de equipos. Cuando se mantienen estos
estándares, es posible la comunicación entre productos hardware y software de diversos vendedores.

El modelo de referencia de Interconexión de sistemas


abiertos (OSI, Open System Interconnection)
El modelo OSI representa los siete niveles de proceso mediante el cual los datos se empaquetan y se
transmiten desde una aplicación emisora a través de cables físicos hacia la aplicación receptora.

Comunicaciones en red

La actividad de una red incluye el envío de datos de un equipo a otro. Este proceso complejo se puede
dividir en tareas secuenciales discretas. El equipo emisor debe:

1. Reconocer los datos.


2. Dividir los datos en porciones manejables.
3. Añadir información a cada porción de datos para determinar la ubicación de los datos y
para identificar al receptor.
4. Añadir información de temporización y verificación de errores.
5. Colocar los datos en la red y enviarlos por su ruta.

El software de cliente de red trabaja a muchos niveles diferentes dentro de los equipos emisores y
receptores. Cada uno de estos niveles, o tareas, es gestionado por uno o más protocolos. Estos protocolos, o
reglas de comportamiento, son especificaciones estándar para dar formato a los datos y transferirlos.
Cuando los equipos emisores y receptores siguen los mismos protocolos se asegura la comunicación. Debido
a esta estructura en niveles, a menudo es referido como pila del protocolo.

Con el rápido crecimiento del hardware y el software de red, se hizo necesario que los protocolos estándar
pudieran permitir la comunicación entre hardware y software de distintos vendedores. Como respuesta, se
desarrollaron dos conjuntos primarios de estándares: el modelo OSI y una modificación de ese estándar
llamado Project 802.

El modelo de referencia OSI

En 1978, la International Standards Organization, ISO (Organización internacional de estándares) divulgó


un conjunto de especificaciones que describían la arquitectura de red para la conexión de dispositivos
diferentes. El documento original se aplicó a sistemas que eran abiertos entre sí, debido a que todos ellos
podían utilizar los mismos protocolos y estándares para intercambiar información.

En 1984, la ISO presentó una revisión de este modelo y lo llamó modelo de referencia de Interconexión
de Sistemas Abiertos (OSI) que se ha convertido en un estándar internacional y se utiliza como guía para las
redes.

El modelo OSI es la guía mejor conocida y más ampliamente utilizada para la visualización de entornos de
red. Los fabricantes se ajustan al modelo OSI cuando diseñan sus productos para red. Éste ofrece una
descripción del funcionamiento conjunto de hardware y software de red por niveles para posibilitar las
comunicaciones. El modelo también ayuda a localizar problemas proporcionando un marco de referencia que
describe el supuesto funcionamiento de los componentes.

Una arquitectura por niveles

La arquitectura del modelo de referencia OSI divide la comunicación en red en siete niveles. Cada
nivel cubre diferentes actividades, equipos o protocolos de red. El modelo OSI define cómo se comunica y
trabaja cada nivel con los niveles inmediatamente superior e inferior. Por ejemplo, el nivel de sesión se
comunica y trabaja con los niveles de presentación y de transporte.

Cada nivel proporciona algún servicio o acción que prepara los datos para entregarlos a través de la red a
otro equipo. Los niveles inferiores (1 y 2) definen el medio físico de la red y las tareas relacionadas, como la
colocación de los bits de datos sobre las placas de red (NIC, Network Interface Cards) y el cable. Los niveles
superiores definen la forma en que las aplicaciones acceden a los servicios de comunicación. Cuanto más
alto es el nivel, más compleja es su tarea.

Los niveles están separados entre sí por fronteras llamadas interfaces. Todas las demandas se pasan
desde un nivel, a través de esta interfaz, hacia el siguiente. Cada nivel se basa en los estándares y
actividades del nivel inferior.

Relaciones entre los niveles del modelo OSI

Cada nivel proporciona servicios al nivel inmediatamente superior y lo protege de los detalles de
implementación de los servicios de los niveles inferiores. Al mismo tiempo, cada nivel parece estar en
comunicación directa con su nivel asociado del otro equipo. Esto proporciona una comunicación lógica, o
virtual, entre niveles análogos. En realidad, la comunicación real entre niveles adyacentes tiene lugar sólo en
un equipo. En cada nivel, el software implementa las funciones de red de acuerdo con un conjunto de
protocolos.

Antes de pasar los datos de un nivel a otro, se dividen en paquetes, o unidades de información, que se
transmiten como un todo desde un dispositivo a otro sobre una red. La red pasa un paquete de un nivel
software a otro en el mismo orden de los niveles. En cada nivel, el software agrega información de formato o
direccionamiento al paquete, que es necesaria para la correcta transmisión del paquete a través de la red.

En el extremo receptor, el paquete pasa a través de los niveles en orden inverso. Una utilidad software en
cada nivel lee la información del paquete, la elimina y pasa el paquete hacia el siguiente nivel superior.
Cuando el paquete alcanza el nivel de aplicación, la información de direccionamiento ha sido eliminada y el
paquete se encuentra en su formato original, con lo que es legible por el receptor.

Con la excepción del nivel más bajo del modelo de redes OSI, ningún nivel puede pasar información
directamente a su homólogo del otro equipo. En su lugar, la información del equipo emisor debe ir
descendiendo por todos los niveles hasta alcanzar el nivel físico. En ese momento, la información se desplaza
a través del cable de red hacia el equipo receptor y asciende por sus niveles hasta que alcanza el nivel
correspondiente. Por ejemplo, cuando el nivel de red envía información desde el equipo A, la información
desciende hacia los niveles de enlace de datos y físico de la parte emisora, atraviesa el cable y asciende los
niveles físico y de enlace de datos de la parte receptora hasta su destino final en el nivel de red del equipo B.
En un entorno cliente/servidor, un ejemplo del tipo de información enviada desde el nivel de red de un
equipo A, hacia el nivel de red de un equipo B, debería ser una dirección de red, posiblemente con alguna
información de verificación de errores agregada al paquete.

La interacción entre niveles adyacentes ocurre a través de una interfaz. La interfaz define los servicios
ofrecidos por el nivel inferior para el nivel superior y, lo que es más, define cómo se accede a dichos
servicios. Además, cada nivel de un equipo aparenta estar en comunicación directa con el mismo nivel de
otro equipo.

Nivel o Capa de aplicación

La capa de aplicación proporciona los servicios utilizados por las aplicaciones para que los usuarios se
comuniquen a través de la red. Algunos ejemplos de servicios, son:

• Transporte de correo electrónico. Gran variedad de aplicaciones pueden utilizar un


protocolo para gestionar el correo electrónico. Los diseñadores de aplicaciones que recurren al
correo electrónico no necesitan desarrollar sus propios programas para gestionar el correo. Además,
las aplicaciones que comparten una misma interfaz de correo pueden intercambiar mensajes
utilizando el gestor de correo electrónico.
• Acceso a archivos remotos. Las aplicaciones locales pueden acceder a los archivos
ubicados en los nodos remotos.
• Ejecución de tareas remotas. Las aplicaciones locales pueden iniciar y controlar
procesos en otros nodos.
• Directorios. La red puede ofrecer un directorio de recursos, incluyendo nombres de nodos
lógicos. El directorio permite que las aplicaciones accedan a los recursos de la red utilizando
nombres lógicos en lugar de identificaciones numéricas abstractas.
• Administración de la red. Los protocolos de administración de la red permiten que varias
aplicaciones puedan acceder a la información administrativa de la red.

Es frecuente encontrar el término interfaz de programa de aplicación (API) asociado a los servicios de la
capa de aplicación. Un API es un conjunto de reglas que permiten que las aplicaciones escritas por los
usuarios puedan acceder a los servicios de un sistema de software. Los diseñadores de programas y
protocolos suelen proporcionar varias API para que los programadores puedan adaptar fácilmente sus
aplicaciones y utilizar los servicios disponibles en sus productos. Un API habitual de UNIX es Berkeley
Sockets; Microsoft lo ha implementado denominándolo Windows Sockets.

Nivel o Capa de presentación

La capa de presentación se responsabiliza de presentar los datos a la capa de aplicación. En ciertos casos,
la capa de presentación traduce los datos directamente de un formato a otro. Las grandes computadoras
IBM utilizan una codificación de caracteres denominada EBCDIC, mientras que las computadoras restantes
utilizan el conjunto de caracteres ASCII. Por ejemplo, si se transmiten datos de una computadora EBCDIC a
otra ASCII, la capa de presentación podría encargarse de traducir de un conjunto de caracteres al otro.
Además, la representación de los datos numéricos varía entre distintas arquitecturas de computadoras y
debe convertirse cuando se transfieren datos de una máquina a otra.

Una técnica habitual para mejorar la transferencia de datos consiste en convertir todos los datos a un
formato estándar antes de su transmisión. Puede que este formato estándar no sea el formato nativo de
cualquier computadora, pero cualquiera de ellas puede configurarse para recibir datos en formato estándar y
convertirlos en su formato nativo. Las normas OSI definen la Abstract Syntax Representation, Revision 1
(ASN.1 -Representación de sintaxis abstracta, revisión 1) como sintaxis estándar para los datos a nivel de la
capa de presentación. Aunque el conjunto de protocolos TCP/IP no defina formalmente una capa de
presentación, el protocolo External Data Representation (XDR -Representación de datos externos), utilizado
por el sistema de archivos de red (NFS -Network File System), cumple una función similar.

Otras funciones que pueden corresponder a la capa de presentación son la encriptación/desencriptación y


compresión/descompresión de datos.
La capa de presentación es la que se implementa con menor frecuencia de las capas OSI. Se han definido
pocos protocolos para esta capa. En la mayoría de los casos, las aplicaciones de red desempeñan las
funciones asociadas con la capa de presentación.

Nivel o Capa de sesión

El control de los diálogos entre distintos nodos es competencia de la capa de sesión. Un diálogo es una
conversación formal en la que dos nodos acuerdan un intercambio de datos.

La comunicación puede producirse en tres modos de diálogo

• Simple (Simplex). Un nodo transmite de manera exclusiva mientras otro recibe de


manera exclusiva.
• Semidúplex (Half-duplex). Un solo nodo puede transmitir en un momento dado, y los
nodos se turnan para transmitir.
• Dúplex total (Full-duplex). Los nodos pueden transmitir y recibir simultáneamente. La
comunicación dúplex total suele requerir un control de flujo que asegure que ninguno de los
dispositivos envía datos a mayor velocidad de la que el otro dispositivo puede recibir.

Las sesiones permiten que los nodos se comuniquen de manera organizada. Cada sesión tiene tres fases:

1. Establecimiento de la conexión. Los nodos establecen contacto. Negocian las reglas de


la comunicación incluyendo los protocolos utilizados y los parámetros de comunicación.
2. Transferencia de datos. Los nodos inician un diálogo para intercambiar datos.
3. Liberación de la conexión. Cuando los nodos no necesitan seguir comunicados, inician la
liberación ordenada de la sesión.

Los pasos 1 y 3 representan una carga de trabajo adicional para el proceso de comunicación. Esta carga
puede no ser deseable para comunicaciones breves. Por ejemplo, considere la comunicación necesaria para
una tarea administrativa de la red. Cuando una red administra varios dispositivos, éstos envían
periódicamente un breve informe de estado que suele constar de una sola trama. Si todos estos mensajes se
enviaran como parte de una sesión formal, las fases de establecimiento y liberación de la conexión
transmitirían más datos que los del propio mensaje.

En estas situaciones, se comunica sin conexión. El nodo emisor se limita a transmitir los datos dando por
sentado que el receptor está disponible.

Una sesión con conexión es aconsejable cuando la comunicación es compleja. Imagine la transmisión de
una gran cantidad de datos de un nodo a otro. Si no se utilizaran controles formales, un solo error durante la
transferencia obligaría a enviar de nuevo todo el archivo. Una vez establecida la sesión, los nodos implicados
pueden pactar un procedimiento de comprobación. Si se produce un error, el nodo emisor sólo debe
retransmitir los datos enviados desde la última comprobación. El proceso de gestión de actividades
complejas se denomina administración de actividad.

Nivel o Capa de transporte

Todas las tecnologías de red establecen un tamaño máximo para las tramas que pueden ser enviadas a
través de la red. Por ejemplo, Ethernet limita el tamaño del campo de datos a 1.500 bytes. Este límite es
necesario por varias razones:

• Las tramas de tamaño reducido mejoran el rendimiento de una red compartida por muchos
dispositivos. Si el tamaño de las tramas fuera ilimitado, su transmisión podría monopolizar la red
durante un tiempo excesivo. Las tramas pequeñas permiten que los dispositivos se turnen a
intervalos cortos de tiempo y tengan más opciones de acceder a la red.
• Al utilizar tramas pequeñas, es necesario volver a transmitir menos datos cuando se
produce un error. Si un mensaje de 100 KB contiene un error en un solo byte, es preciso volver a
transmitir los 100 KB. Si el mensaje se divide en 100 tramas de 1 KB, basta con retransmitir una
sola trama de 1 KB para corregir el error.
Una de las responsabilidades de la capa de transporte consiste en dividir los mensajes en fragmentos que
coincidan con el límite del tamaño de la red. En el lado receptor, la capa de transporte reensambla los
fragmentos para recuperar el mensaje original.

Cuando un mensaje se divide en varios fragmentos, aumenta la posibilidad de que los segmentos no se
reciban en el orden correcto. Al recibir los paquetes, la capa de transporte debe recomponer el mensaje
reensamblando los fragmentos en el orden correcto. Para ello, la capa de transporte incluye un número de
secuencia en la cabecera del mensaje.

Muchas computadoras son multitarea y ejecutan varios programas simultáneamente. Por ejemplo, la
estación de trabajo de un usuario puede estar ejecutando al mismo tiempo un proceso para transferir
archivos a otra computadora, recuperando el correo electrónico y accediendo a una base de datos de la red.
La capa de transporte debe entregar los mensajes del proceso de una computadora al proceso
correspondiente de la computadora de destino.

Según el modelo OSI, la capa de transporte asigna una identificación de punto de acceso a servicio (SAP)
a cada paquete (puerto es el término TCP/IP correspondiente a un punto de acceso a servicio). La ID de un
SAP es una dirección que identifica el proceso que ha originado el mensaje. La ID permite que la capa de
transporte del nodo receptor encamine el mensaje al proceso adecuado.

La identificación de mensajes de distintos procesos para posibilitar su transmisión a través de un mismo


medio de red se denomina multiplexión. El procedimiento de recuperación de mensajes y de su
encaminamiento a los procesos adecuados se denomina demultiplexión. Esta práctica es habitual en las
redes diseñadas para permitir que varios diálogos compartan un mismo medio de red.

Dado que una capa puede admitir distintos protocolos, la multiplexión y demultiplexión puede producirse
en distintas capas. Algunos ejemplos:

• Transporte de distintos tipos de tramas Ethernet a través del mismo medio (capa de enlace
de datos).
• Soporte simultáneo de NWLink y de TCP/IP en computadoras Windows NT (capa de enlace
de datos).
• Mensajes de varios protocolos de transporte como TCP y UDP en un sistema TCP/IP (capa
de transporte).
• Mensajes de distintos protocolos de aplicación (como Telnet, FTP y SMTP) en un host UNIX
(capas de sesión y superiores).

Aunque las capas de enlace de datos y de red pueden encargarse de detectar errores en los datos
transmitidos, además esta responsabilidad suele recaer sobre la capa de transporte. La capa de transporte
puede realizar dos tipos de detección de errores:

• Entrega fiable. Entrega fiable no significa que los errores no puedan ocurrir, sino que los
errores se detectan cuando ocurren. La recuperación puede consistir únicamente en notificar el
error a los procesos de las capas superiores. Sin embargo, la capa de transporte suele solicitar que
el paquete erróneo se transmita nuevamente.
• Entrega no fiable. No significa que los errores puedan producirse, sino que la capa de
transporte no los verifica. Dado que la comprobación requiere cierto tiempo y reduce el rendimiento
de la red, es frecuente que se utilice la entrega no fiable cuando se confía en el funcionamiento de
la red. Este es el caso de la mayoría de redes de área local. La entrega no fiable es preferible
cuando los mensajes constan de un alto número de paquetes. Con frecuencia, se denomina entrega
de datagramas y cada paquete transmitido de este modo se denomina datagrama.

La idea de que siempre es preferible utilizar la entrega fiable puede constituir un error a la hora de
diseñar la red. La entrega no fiable es aconsejable en al menos dos situaciones: cuando la red es altamente
fiable y es necesario optimizar su rendimiento o cuando los paquetes contienen mensajes completos y la
pérdida de un paquete no plantea un problema crítico.

Nivel o Capa de red


Las redes más pequeñas normalmente constan de una sola red de
área local, pero la mayoría de las redes deben subdividirse. Una red
que consta de varios segmentos de red suele denominarse interred
(no confundir con Internet).

Las subdivisiones de una interred pueden planificarse para reducir el tráfico de los segmentos o para
aislar las redes remotas conectadas a través de medios de comunicación más lentos. Cuando las redes se
subdividen, no es posible dar por sentado que los mensajes se entregan en la red de área local. Es necesario
recurrir a un mecanismo que dirija los mensajes de una red a otra.

Para entregar mensajes en una interred, cada red debe estar identificada de manera única por una
dirección de red. Al recibir un mensaje de las capas superiores, la capa de red añade una cabecera al
mensaje que incluye las direcciones de red de origen y destino. Esta combinación de datos sumada a la capa
de red se denomina paquete. La información de la dirección de red se utiliza para entregar el mensaje a la
red correcta. A continuación, la capa de enlace de datos puede utilizar la dirección del nodo para realizar la
entrega del mensaje.

El proceso de hacer llegar los paquetes a la red correcta se denomina encaminamiento, y los dispositivos
que encaminan los paquetes se denominan encaminadores. Una interred tiene dos tipos de nodos:

• Los nodos finales proporcionan servicios a los usuarios. Utilizan una capa de red
para añadir las direcciones de red a los paquetes, pero no llevan a cabo el encaminamiento. En
ocasiones, los nodos finales se denominan sistemas finales (terminología OSI) o hosts (terminología
TCP/IP).
• Los encaminadores incorporan mecanismos especiales para realizar el
encaminamiento. Dado que se trata de una tarea compleja, los encaminadores suelen ser
dispositivos dedicados que no proporcionan servicios a los usuarios finales. En ocasiones, los
encaminadores se denominan sistemas intermedios (terminología OSI) o gateways (terminología
TCP/IP).

La capa de red opera con independencia del medio físico, que es competencia de la capa física. Dado que
los encaminadores son dispositivos de la capa de red, pueden utilizarse para intercambiar paquetes entre
distintas redes físicas. Por ejemplo, un encaminador puede enlazar una red Ethernet a una red Token Ring.
Los encaminadores también se utilizan frecuentemente para conectar una red de área local, por ejemplo
Ethernet, a un red de área extensa, por ejemplo ATM.

Nivel o Capa de enlace de datos

Los dispositivos que pueden comunicarse a través de una red suelen denominarse nodos (en ocasiones se
denominan estaciones y dispositivos). La capa de enlace de datos es responsable de proporcionar la
comunicación nodo a nodo en una misma red de área local. Para ello, la capa de enlace de datos debe
realizar dos funciones. Debe proporcionar un mecanismo de direcciones que permita entregar los mensajes
en los nodos correctos y debe traducir los mensajes de las capas superiores en bits que puedan ser
transmitidos por la capa física.

Cuando la capa de enlace de datos recibe un mensaje, le da formato pare transformarlo en una trama de
datos (denominada igualmente paquete). Las secciones de una trama de datos se denominan campos. Los
campos del ejemplo son los siguientes:

• Indicador de inicio. Un patrón de bits que indica el inicio de una trama de datos.
• Dirección de origen. La dirección del nodo que realiza el envío se incluye para poder
dirigir las respuestas al mensaje.
• Dirección de destino. Cada nodo queda identificado por una dirección. La capa de enlace
de datos del remitente añade la dirección de destino a la trama. La capa de enlace de datos del
destinatario examine la dirección de destino para identificar los mensajes que debe recibir.
• Control. En muchos casos es necesario incluir información adicional de control. Cada
protocolo determine la información específica.
• Datos. Este campo contiene todos los datos enviados a la capa de enlace de datos por las
capas superiores del protocolo.
• Control de errores. Este campo contiene información que permite que el nodo
destinatario determine si se ha producido algún error durante la transmisión. El sistema habitual es
la verificación de redundancia cíclica (CRC), que consiste
en un valor calculado que resume todos los datos de la
trama. El nodo destinatario calcula nuevamente el valor
y, si coincide con el de la trama, entiende que la trama
se ha transmitido sin errores.

La entrega de tramas resulta muy sencilla en una red de área


local. Un nodo remitente se limita a transmitir la trama. Cada
nodo de la red ve la trama y examina su dirección de destino.
Cuando coincide con su dirección, la capa de enlace de datos del
nodo recibe la trama y la envía a la siguiente capa de la pile.

Nivel o Capa física

La capa física comunica directamente con el medio de comunicación y tiene dos responsabilidades: enviar
bits y recibir bits. Un dígito binario o bit es la unidad básica de información en comunicación de datos. Un bit
sólo puede tener dos valores, 1 ó 0, representados por distintos estados en el medio de comunicación. Otras
capas se responsabilizan del agrupamiento de los bits de forma que representen datos de un mensaje.

Los bits se representan por cambios en las señales del medio de la red. Algunos cableados representan
los unos y los ceros con distintos voltajes, otros utilizan tonos de audio distintos y otros utilizan métodos
más sofisticados, por ejemplo transiciones de estado (cambios de alto a bajo voltaje y viceversa).

Se utiliza una gran variedad de medios en la comunicación de datos; entre otros, cables eléctricos, fibras
ópticas, ondas de luz o de radio y microondas. El medio empleado puede variar: para sustituirlo, basta con
utilizar un conjunto distinto de protocolos de capa física. Las capas superiores son totalmente independientes
del proceso utilizado para transmitir los bits a través del medio de la red.

Una distinción importante es que la capa física OSI no describe los medios, estrictamente hablando. Las
especificaciones de la capa física describen el modo datos en que los datos se codifican en señales del medio
y las características de la interfaz de conexión con el medio, pero no describen el medio en sí. Sin embargo,
en la práctica, la mayoría de las normas de las capas físicas incluyen las características de la capa física OSI
y del medio.

Paquetes de datos y el modelo OSI

El proceso de creación de paquetes se inicia en el nivel de aplicación del modelo OSI, donde se generan
los datos. La información a enviar a través de la red comienza en el nivel de aplicación y desciende a lo largo
de los siete niveles.

En cada nivel, se agrega a los datos información relevante de ese nivel. Esta información es utilizada por
el correspondiente nivel del equipo receptor. El nivel de enlace de datos del equipo receptor, por ejemplo,
leerá la información agregada en el nivel de enlace de datos del equipo emisor.

En el nivel de transporte, el bloque de datos original se divide en los paquetes reales. El protocolo define
la estructura de los paquetes utilizados por los dos equipos.

Cuando el paquete alcanza el nivel de transporte, se agrega una secuencia de información que guía al
equipo receptor en la desagrupación de los datos de los paquetes.

Cuando, finalmente, los paquetes pasan a través del nivel físico al cable, contienen información de cada
uno de los otros seis niveles.

Direccionamiento de paquetes

La mayoría de los paquetes de la red se dirigen a un equipo específico y, como resultado, obtienen la
atención de un único equipo. Cada tarjeta de red ve todos los paquetes enviados en su segmento de cable,
pero interrumpe el equipo sólo si la dirección del paquete coincide con la dirección individual de la tarjeta.
De forma alternativa, se puede utilizar una dirección de tipo difusión
múltiple. Los paquetes enviados con una dirección de tipo difusión
múltiple pueden recibir la atención simultánea de varios equipos de
la red.

En situaciones que envuelven grandes redes que cubren grandes


regiones (o incluso países) y ofrecen varios caminos de
comunicación posibles, la conectividad y la conmutación de
componentes de la red utilizan la información de direccionamiento del paquete para determinar el mejor
camino para los paquetes.

Cómo dirigir los paquetes

Las componentes de red utilizan la información de direccionamiento de los paquetes para dirigir los
paquetes a sus destinos o para mantenerlos alejados de las posiciones de la red a las que no pertenecen.
Las dos funciones siguientes juegan un papel principal en la dirección apropiada de paquetes:

• Reenvío de paquetes. Los equipos envían un paquete al siguiente componente de red


apropiado en base a la dirección del encabezado del paquete.
• Filtrado de paquetes. Los equipos utilizan criterios, como una dirección, para seleccionar
los paquetes específicos.

Windows NT y el modelo OSI

Los fabricantes de redes utilizan el modelo OSI en el diseño de sus productos. Cuando cada uno sigue el
modelo, existe una gran probabilidad de que diferentes sistemas puedan comunicarse. Una deficiencia del
modelo procede del hecho de que muchos fabricantes crearon sus productos antes de que el modelo fuera
aceptado; estos productos prematuros puede que no sigan el modelo exactamente.

Niveles OSI y Windows NT

Para simplificar el modelo, Windows NT comprime los siete niveles en sólo tres: controladores del sistema
de archivos, protocolos de transporte y controladores de la tarjeta de red.

Windows NT utiliza controladores para proporcionar comunicación entre el sistema operativo y la red. Un
controlador es un programa de control específico del dispositivo que permite a un equipo trabajar con un
dispositivo particular, como una impresora o una unidad de disco. Cada vez que se instala un nuevo
elemento hardware, como una impresora, tarjeta de sonido o tarjeta de red, se necesitan instalar los
controladores software que hacen funcionar la tarjeta.

Controladores del sistema de archivos

Los controladores del sistema de archivos funcionan en los niveles de aplicación, de presentación y de
sesión del modelo OSI. Cuando estos controladores detectan que una aplicación está solicitando recursos de
un sistema remoto, redirigen la demanda al sistema apropiado. Ejemplos de estos controladores incluyen el
sistema de archivos de Windows NT (NTFS) y la tabla de asignación de archivos (FAT) y las aplicaciones de
servicios instaladas en Windows NT Server y Windows NT Workstation.

Protocolos de transporte

Los protocolos de transporte operan en los niveles de transporte y de red del modelo OSI. Son los
responsables de agregar información de la dirección software a los datos y de garantizar la fiabilidad de la
transmisión. Los protocolos de transporte se vinculan con la tarjeta de red (NIC) para ofrecer comunicación.
Durante la instalación y la configuración de Windows NT, siempre se deben enlazar estos protocolos a una
tarjeta de red específica.

Controladores de la tarjeta de red (NIC)


Los controladores de la tarjeta de red (NIC) funcionan en los niveles de enlace de datos y físico del
modelo OSI. Son responsables de agregar información de la dirección hardware al paquete de datos y de dar
formato a los datos para la transmisión a través de la tarjeta de red (NIC) y el cable. Los controladores de la
tarjeta de red (NIC) son independientes de protocolo, permitiendo que los sistemas basados en Windows NT
transporten datos a una variedad de sistemas de red.

Interfaces de Windows NT

Windows NT soporta muchos redirectores, protocolos de transporte y tarjetas de red diferentes. En vista
de las numerosas combinaciones posibles, era necesario desarrollar un método de manejo de interacciones
entre ellas. Para resolver este problema, Microsoft desarrolló interfaces comunes (niveles frontera) para que
actuaran como traductores entre cada nivel. Así, siempre que se escribiera alguna componente de la red
para comunicarse con las interfaces frontera se podría utilizar con el modelo.

Interfaces de programación de aplicaciones (API, Application Programming


Intefaces)

Las interfaces de programación de aplicaciones (API) son rutinas del sistema que ofrecen a los
programadores acceso a los servicios proporcionados por el sistema operativo. Las API para redes de
Windows NT se encuentran entre las aplicaciones de usuario y los controladores y redirectores del sistema
de archivos. Estas API permiten que una aplicación controle o sea controlada por otras aplicaciones. Son
responsables de establecer una sesión entre el emisor y el receptor de la red. Windows NT admite varias API
para redes.

Interfaces de controlador de transporte (TDI, Transport Driver Interfaces)

Las interfaces del controlador de transporte (TDI) operan entre los controladores del sistema de archivos
y los protocolos de transporte. Éstos permitirán que cualquier protocolo escriba en el TDI para comunicarse
con los controladores del sistema de archivos.

Especificaciones de interfaz de controlador de red (NDIS, Network Driver


Interface Specifications)

Las especificaciones de interfaz de controlador de red (NDIS) actúan entre los protocolos de transporte y
los controladores de la tarjeta de red (NIC). Siempre que un controlador de tarjeta de red se escriba en los
estándares NDIS, se comunicará con los protocolos de transporte.

El estándar IEEE 802.x


Los dos niveles inferiores del modelo OSI están relacionados con el hardware: la tarjeta de red y el
cableado de la red. Para avanzar más en el refinamiento de los requerimientos de hardware que operan
dentro de estos niveles, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE, Institute of Electrical and
Electronics Engineers) ha desarrollado mejoras específicas para diferentes tarjetas de red y cableado. De
forma colectiva, estos refinamientos se conocen como proyecto 802.
El modelo del proyecto 802

Cuando comenzaron a aparecer las primeras redes de área local (LAN, Local Area Networks) como
herramientas potenciales de empresa a finales de los setenta, el IEEE observó que era necesario definir
ciertos estándares para redes de área local. Para conseguir esta tarea, el IEEE emprendió lo que se conoce
como proyecto 802, debido al año y al mes de comienzo (febrero de 1980).

Aunque los estándares IEEE 802 publicados realmente son anteriores a los estándares ISO, ambos
estaban en desarrollo aproximadamente al mismo tiempo y compartían información que concluyó en la
creación de dos modelos compatibles.

El proyecto 802 definió estándares de redes para las componentes físicas de una red (la tarjeta de red y
el cableado) que se corresponden con los niveles físico y de enlace de datos del modelo OSI.

Las especificaciones 802 definen estándares para:

• Tarjetas de red (NIC).


• Componentes de redes de área global (WAN, Wide Area Networks).
• Componentes utilizadas para crear redes de cable coaxial y de par trenzado.

Las especificaciones 802 definen la forma en que las tarjetas de red acceden y transfieren datos sobre el
medio físico. Éstas incluyen conexión, mantenimiento y desconexión de dispositivos de red.

La selección del protocolo a ejecutar en el nivel de enlace de datos es la decisión más


importante que se debe tomar cuando se diseña una red de área local (LAN). Este
protocolo define la velocidad de la red, el método utilizado para acceder a la red física, los
tipos de cables que se pueden utilizar y las tarjetas de red y dispositivos que se instalan.

Categorías de IEEE 802

Los estándares de redes de área local definidos por los comités 802 se clasifican en 16 categorías que se
pueden identificar por su número acompañado del 802:

Categorías de las especificaciones 802

Especificación Descripción
802.1 Establece los estándares de interconexión relacionados con la
gestión de redes.
802.2 Define el estándar general para el nivel de enlace de datos. El
IEEE divide este nivel en dos subniveles: los niveles LLC y MAC. El
nivel MAC varía en función de los diferentes tipos de red y está
definido por el estándar IEEE 802.3.
802.3 Define el nivel MAC para redes de bus que utilizan Acceso
múltiple por detección de portadora con detección de colisiones
(CSMA/CD, Carrier-Sense Multiple Access with Collision
Detection). Éste es el estándar Ethernet.
802.4 Define el nivel MAC para redes de bus que utilizan un
mecanismo de paso de testigo (red de área local Token Bus).
802.5 Define el nivel MAC para redes Token Ring (red de área local
Token Ring).
802.6 Establece estándares para redes de área metropolitana (MAN,
Metropolitan Area Networks), que son redes de datos diseñadas
para poblaciones o ciudades. En términos de extensión geográfica,
las redes de área metropolitana (MAN) son más grandes que las
redes de área local (LAN), pero más pequeñas que las redes de
área global (WAN). Las redes de área metropolitana (MAN) se
caracterizan, normalmente, por conexiones de muy alta velocidad
utilizando cables de fibra óptica u otro medio digital.
802.7 Utilizada por el grupo asesor técnico de banda ancha
(Broadband Technical Advisory Group).
802.8 Utilizada por el grupo asesor técnico de fibra óptica (Fiber-Optic
Technical Advisory Group).
802.9 Define las redes integradas de voz y datos.
802.10 Define la seguridad de las redes.
802.11 Define los estándares de redes sin cable.
802.11b Ratificado el 16 de Septiembre de 1.999, proporciona el
espaldarazo definitivo a la normativa estándar inicial, ya que
permite operar a velocidades de 11 Mbps y resuelve carencias
técnicas relativas a la falta de itinerancia, seguridad, escalabilidad,
y gestión existentes hasta ahora.
802.12 Define el acceso con prioridad por demanda (Demand Priority
Access) a una LAN, 100BaseVG-AnyLAN.
802.13 No utilizada.
802.14 Define los estándares de módem por cable.
802.15 Define las redes de área personal sin cable (WPAN, Wireless
Personal Area Networks).
802.16 Define los estándares sin cable de banda ancha.

Mejoras sobre el modelo OSI

Los dos niveles inferiores del modelo OSI, el nivel físico y el nivel de enlace de datos, definen la forma en
que múltiples equipos pueden utilizar la red simultáneamente sin que exista interferencia entre ellas.

El proyecto IEEE 802 incorporó las especificaciones a esos dos niveles para crear estándares que tengan
definidos los entornos LAN dominantes.

Mientras en las redes de conmutación sólo dos estaciones podían acceder en un momento dado al medio
físico, lo que era fácilmente controlable por los protocolos de control de enlace, en las redes de área local
(como lo son las redes de difusión) son varias las estaciones que en un momento dado pueden acceder al
medio físico en un mismo momento, complicando considerablemente los procedimietnos de control de ese
procesoTras la decisión de que se necesitaban más detalles en el nivel de enlace de datos, el comité de
estándares 802 dividió el nivel de enlace de datos en dos subniveles:

• Control de enlace lógico (LLC, Logical Link Control). Establece y finaliza los enlaces,
controla el tráfico de tramas, secuencia las tramas y confirma la recepción de las tramas.
• Control de acceso al medio (MAC, Media Access Control). Gestiona el acceso al
medio, delimita las tramas, comprueba los errores de las tramas y reconoce las direcciones de las
tramas.

Subnivel de control de enlace lógico (LLC)

El subnivel LLC gestiona la comunicación de enlace de datos y define el uso de puntos de interfaz lógicos
llamados puntos de acceso al servicio (SAP, Service Access Points). Otros equipos pueden hacer referencia y
utilizar los SAP para transferir información desde el subnivel LLC hacia los niveles superiores del modelo OSI.
La categoría 802.2 define estos estándares.
Subnivel de control de acceso al medio (MAC)

El subnivel MAC es el más bajo de los dos subniveles, proporcionando acceso compartido al nivel físico
para las tarjetas de red de los equipos. El nivel MAC se comunica directamente con la tarjeta de red y es el
responsable del envío de datos libre de errores entre dos equipos de la red.

Las categorías 802.3, 802.4, 802.5 y 802.12 definen estándares tanto para este subnivel como para el
nivel 1 del modelo OSI, el nivel físico.

Controladores de dispositivos y OSI


Las tarjetas de red juegan un papel importante en la conexión de un equipo a la parte física de la red.

Función de los controladores

Un controlador (algunas veces llamado controlador de dispositivo) es un software que permite al equipo
trabajar con un dispositivo particular. Aunque se puede instalar un dispositivo en un equipo, el sistema
operativo del equipo no puede comunicarse con el dispositivo hasta que se haya instalado y configurado el
controlador para ese dispositivo. El controlador software indica al equipo la forma de trabajar con el
dispositivo para que realice las tareas asignadas como se supone que debe hacerlas.

Existen controladores para casi todos los tipos de dispositivo y periféricos de los equipos incluyendo:

• Dispositivos de entrada, como los dispositivos de ratón y teclado.


• Controladores de disco SCSI e IDE.
• Unidades de disco duro y de disco flexible.
• Dispositivos multimedia como micrófonos, cámaras y grabadoras.
• Tarjetas de red (NIC).
• Impresoras, trazadoras, unidades de cinta, etc.

Normalmente, el sistema operativo del equipo trabaja con el controlador para hacer que el dispositivo
realice una operación. Las impresoras proporcionan una buena muestra del uso de los controladores. Las
impresoras de diferentes fabricantes tienen distintas características y funciones. Sería imposible para los
fabricantes de equipos equipar sus productos con todo el software necesario para identificar y trabajar con
todos los tipos de impresora. En su lugar, los fabricantes de impresoras disponen de controladores para cada
impresora. Antes de que un equipo pueda enviar documentos a una impresora se debe instalar el
controlador de esa impresora en el disco duro del equipo.

Como regla general, los fabricantes de componentes, como periféricos o tarjetas que se deben instalar
físicamente, son los responsables de proporcionar los controladores para sus productos. Por ejemplo, los
fabricantes de tarjetas de red son los responsables de disponer de controladores para sus tarjetas.
Generalmente, los controladores se incluyen en un disco junto con el producto en el momento de la
adquisición, se incluyen con el sistema operativo del equipo o se encuentran disponibles para descargarlos
desde la página web del fabricante.

El entorno de red

Los controladores de red ofrecen comunicación entre una tarjeta de red y el redirector de la red que se
encuentra en ejecución en el equipo. El redirector es la parte del software de red que acepta demandas de
entrada/salida (E/S) de archivos remotos y, a continuación, los envía, o redirige, sobre la red a otro equipo.
Durante la instalación, el controlador se almacena en el disco duro del equipo.

Los controladores y el modelo OSI

Los controladores de las tarjetas de red residen en el subnivel MAC del nivel de enlace de datos del
modelo OSI. El subnivel MAC es el responsable de proporcionar acceso compartido al nivel físico para las
tarjetas de red de los equipos. Los controladores de las tarjetas de red proporcionan comunicación virtual
entre el equipo y la tarjeta de red lo que proporciona un enlace entre el equipo y el resto de la red.

Los controladores y el software de red

Es común que un fabricante de tarjetas de red proporcione los controladores a los vendedores de software
de red de forma que se puedan incluir los drivers con el software de funcionamiento de la red.

La lista de compatibilidad de hardware (HCL, Hardware Compatibility List) proporcionada por los
fabricantes de sistemas operativos describen los controladores que han comprobado e incluido con su
sistema operativo. La lista de compatibilidad de hardware para un sistema operativo de red puede incluir
más de 100 controladores de la tarjeta de red. Esto no significa que un controlador que no aparezca en la
lista no funcione con ese sistema operativo; sólo quiere decir que el fabricante del sistema operativo no lo ha
comprobado.

Aun cuando el controlador de una tarjeta determinada no haya sido incluido con el sistema operativo de
red, es normal que el fabricante de la tarjeta de red incluya controladores para los sistemas operativos de
red más populares en un disco que se adjunta con la tarjeta. Antes de comprar una tarjeta, no obstante,
debe asegurarse de que la tarjeta tiene un controlador que funcionará con un sistema operativo de red
determinado.

Especificación de interfaz de controlador de red (NDIS, Network


Driver Interface Specification)

La Especificación de interfaz de controlador de red (NDIS) es un estándar que define una interfaz para la
comunicación entre el subnivel MAC y los controladores de protocolos. Permitiendo el uso simultáneo de
múltiples protocolos y controladores, NDIS considera un entorno flexible de intercambio de datos. Ésta
define la interfaz software, conocida como interfaz NDIS. Los controladores de protocolos utilizan esta
interfaz para comunicarse con las tarjetas de red. La ventaja de NDIS es que ofrece multiplexación de
protocolos, de forma que se pueden utilizar al mismo tiempo pilas de protocolos múltiples. Tres tipos de
software de red tienen interfaces descritas por NDIS :

• Pila del protocolo. Proporciona comunicaciones de red. Una pila genera y desagrupa las
tramas (información de control y datos) que se envían a la red y se reciben de ella.
• Controlador del adaptador. Controla el hardware de interfaz de red. Opera en el subnivel
MAC y transfiere las tramas entre la pila del protocolo y el hardware de interfaz.
• Gestor del protocolo. Controla la actividad entre la pila del protocolo y el MAC.

Microsoft y 3Com desarrollaron conjuntamente la especificación NDIS para su uso con Warp Server y
Windows NT Server. Todos los fabricantes de tarjetas de red hacen que sus placas funcionen con estos
sistemas operativos suministrando controladores software ajustados a NDIS.

Interfaz abierta de enlace de datos (ODI, Open Data-Link


Interface)

La interfaz abierta de enlace de datos (ODI) es una especificación adoptada por Novell y Apple para
simplificar el desarrollo de controladores para sus sistemas operativos de red. ODI proporciona soporte para
múltiples protocolos en una única tarjeta de red. De forma parecida a NDIS, ODI permite escribir los
controladores de Novell NetWare sin hacer referencia al protocolo que se utilizará por encima de ellos. Todos
los fabricantes de tarjetas de red pueden hacer que sus placas funcionen con estos sistemas operativos
proporcionando controladores software ajustados a ODI.

Conexión entre NDIS y ODI

ODI y NDIS son incompatibles. Éstos presentan interfaces de programación diferentes para los niveles
superiores del software de red. Novell, IBM y Microsoft ofrecen software de traducción de ODI a NDIS para
establecer una conexión entre las dos interfaces.
La mayoría de los fabricantes de tarjetas de red proporcionan controladores ajustados
tanto a NDIS como a ODI con sus placas.

Última actualización del tema completo: . Versión 1.1.0

Introducción a los Protocolos


La función de los protocolos

Los protocolos son reglas y procedimientos para la comunicación. El término «protocolo» se utiliza en
distintos contextos. Por ejemplo, los diplomáticos de un país se ajustan a las reglas del protocolo creadas
para ayudarles a interactuar de forma correcta con los diplomáticos de otros países. De la misma forma se
aplican las reglas del protocolo al entorno informático. Cuando dos equipos están conectados en red, las
reglas y procedimientos técnicos que dictan su comunicación e interacción se denominan protocolos.

Cuando piense en protocolos de red recuerde estos tres puntos:

• Existen muchos protocolos. A pesar de que cada protocolo facilita la comunicación


básica, cada uno tiene un propósito diferente y realiza distintas tareas. Cada protocolo tiene sus
propias ventajas y sus limitaciones.
• Algunos protocolos sólo trabajan en ciertos niveles OSI. El nivel al que trabaja un
protocolo describe su función. Por ejemplo, un protocolo que trabaje a nivel físico asegura que los
paquetes de datos pasen a la tarjeta de red (NIC) y salgan al cable de la red.
• Los protocolos también puede trabajar juntos en una jerarquía o conjunto de
protocolos. Al igual que una red incorpora funciones a cada uno de los niveles del modelo OSI,
distintos protocolos también trabajan juntos a distintos niveles en la jerarquía de protocolos. Los
niveles de la jerarquía de protocolos se corresponden con los niveles del modelo OSI. Por ejemplo,
el nivel de aplicación del protocolo TCP/IP se corresponde con el nivel de presentación del modelo
OSI. Vistos conjuntamente, los protocolos describen la jerarquía de funciones y prestaciones.

Cómo funcionan los protocolos

La operación técnica en la que los datos son transmitidos a través de la red se puede dividir en dos pasos
discretos, sistemáticos. A cada paso se realizan ciertas acciones que no se pueden realizar en otro paso.
Cada paso incluye sus propias reglas y procedimientos, o protocolo.

Los pasos del protocolo se tienen que llevar a cabo en un orden apropiado y que sea el mismo en cada
uno de los equipos de la red. En el equipo origen, estos pasos se tienen que llevar a cabo de arriba hacia
abajo. En el equipo de destino, estos pasos se tienen que llevar a cabo de abajo hacia arriba.

El equipo origen

Los protocolos en el equipo origen:

1. Se dividen en secciones más pequeñas, denominadas paquetes.


2. Se añade a los paquetes información sobre la dirección, de forma que el equipo de destino
pueda determinar si los datos le pertenecen.
3. Prepara los datos para transmitirlos a través de la NIC y enviarlos a través del cable de la
red.

El equipo de destino

Los protocolos en el equipo de destino constan de la misma serie de pasos, pero en sentido inverso.

1. Toma los paquetes de datos del cable y los introduce en el equipo a través de la NIC.
2. Extrae de los paquetes de datos toda la información transmitida eliminando la información
añadida por el equipo origen.
3. Copia los datos de los paquetes en un búfer para reorganizarlos enviarlos a la aplicación.

Los equipos origen y destino necesitan realizar cada paso de la misma forma para que los datos tengan la
misma estructura al recibirse que cuando se enviaron.

Protocolos encaminables

Hasta mediados de los ochenta, la mayoría de las redes de área local (LAN) estaban aisladas. Una LAN
servía a un departamento o a una compañía y rara vez se conectaba a entornos más grandes. Sin embargo,
a medida que maduraba la tecnología LAN, y la comunicación de los datos necesitaba la expansión de los
negocios, las LAN evolucionaron, haciéndose componentes de redes de comunicaciones más grandes en las
que las LAN podían hablar entre sí.

Los datos se envían de una LAN a otra a lo largo de varios caminos disponibles, es decir, se encaminan. A
los protocolos que permiten la comunicación LAN a LAN se les conoce como protocolos encaminables. Debido
a que los protocolos encaminables se pueden utilizar para unir varias LAN y crear entornos de red de área
extensa, han tomado gran importancia.

Protocolos en una arquitectura multinivel

En una red, tienen que trabajar juntos varios protocolos. Al trabajar juntos, aseguran que los datos se
preparan correctamente, se transfieran al destino correspondiente y se reciban de forma apropiada.

El trabajo de los distintos protocolos tiene que estar coordinado de forma que no se produzcan conflictos o
se realicen tareas incompletas. Los resultados de esta coordinación se conocen como trabajo en niveles.

Jerarquías de protocolos

Una jerarquía de protocolos es una combinación de protocolos. Cada nivel de la jerarquía especifica un
protocolo diferente para la gestión de una función o de un subsistema del proceso de comunicación. Cada
nivel tiene su propio conjunto de reglas. Los protocolos definen las reglas para cada nivel en el modelo OSI:

Nivel de Inicia o acepta una petición


aplicación
Nivel de Añade información de formato, presentación y cifrado al
presentación paquete de datos
Nivel de sesión Añade información del flujo de tráfico para determinar
cuándo se envía el paquete
Nivel de Añade información para el control de errores
transporte
Nivel de red Se añade información de dirección y secuencia al paquete
Nivel de enlace Añade información de comprobación de envío y prepara
de datos los datos para que vayan a la conexión física
Nivel físico El paquete se envía como una secuencia de bits

Los niveles inferiores en el modelo OSI especifican cómo pueden conectar los fabricantes sus productos a
los productos de otros fabricantes, por ejemplo, utilizando NIC de varios fabricantes en la misma LAN.
Cuando utilicen los mismos protocolos, pueden enviar y recibir datos entre sí. Los niveles superiores
especifican las reglas para dirigir las sesiones de comunicación (el tiempo en el que dos equipos mantienen
una conexión) y la interpretación de aplicaciones. A medida que aumenta el nivel de la jerarquía, aumenta la
sofisticación de las tareas asociadas a los protocolos.

El proceso de ligadura
El proceso de ligadura (binding process), el proceso con el que se conectan los protocolos entre sí y con la
NIC, permite una gran flexibilidad a la hora de configurar una red. Se pueden mezclar y combinar los
protocolos y las NIC según las necesidades. Por ejemplo, se pueden ligar dos jerarquías de protocolos a una
NIC, como Intercambio de paquetes entre redes e Intercambio de paquetes en secuencia (IPX/SPX). Si hay
más de una NIC en el equipo, cada jerarquía de protocolos puede estar en una NIC o en ambas.

El orden de ligadura determina la secuencia en la que el sistema operativo ejecuta el protocolo. Cuando
se ligan varios protocolos a una NIC, el orden de ligadura es la secuencia en que se utilizarán los protocolos
para intentar una comunicación correcta. Normalmente, el proceso de ligadura se inicia cuando se instala o
se inicia el sistema operativo o el protocolo. Por ejemplo, si el primer protocolo ligado es TCP/IP, el sistema
operativo de red intentará la conexión con TCP/IP antes de utilizar otro protocolo. Si falla esta conexión, el
equipo tratará de realizar una conexión utilizando el siguiente protocolo en el orden de ligadura.

El proceso de ligadura consiste en asociar más de una jerarquía de protocolos a la NIC. Las jerarquías de
protocolos tienen que estar ligadas o asociadas con los componentes en un orden para que los datos puedan
moverse adecuadamente por la jerarquía durante la ejecución. Por ejemplo, se puede ligar TCP/IP al nivel de
sesión del Sistema básico de entrada/salida en red (NetBIOS), así como al controlador de la NIC. El
controlador de la NIC también está ligado a la NIC.

Jerarquías estándar

La industria informática ha diseñado varios tipos de protocolos como modelos estándar de protocolo. Los
fabricantes de hardware y software pueden desarrollar sus productos para ajustarse a cada una de las
combinaciones de estos protocolos. Los modelos más importantes incluyen:

• La familia de protocolos ISO/OSI.


• La arquitectura de sistemas en red de IBM (SNA).
• Digital DECnet.
• Novell NetWare.
• Apple Talk de Apple.
• El conjunto de protocolos de Internet, TCP/IP.

Los protocolos existen en cada nivel de estas jerarquías, realizando las tareas especificadas por el nivel.
Sin embargo, las tareas de comunicación que tienen que realizar las redes se agrupan en un tipo de
protocolo entre tres. Cada tipo está compuesto por uno o más niveles del modelo OSI.

Antes del modelo de referencia OSI se escribieron muchos protocolos. Por tanto, no es
extraño encontrar jerarquías de protocolos que no se correspondan directamente con el
modelo OSI.

Protocolos de aplicación

Los protocolos de aplicación trabajan en el nivel superior del modelo de referencia OSI y proporcionan
interacción entre aplicaciones e intercambio de datos.

• APPC (Comunicación avanzada entre programas): Protocolo SNA Trabajo en Grupo de


IBM, mayormente utilizado en equipos AS/400. APPC se define como un protocolo de aplicación
porque trabaja en el nivel de presentación del modelo OSI. Sin embargo, también se considera un
protocolo de transporte porque APPC utiliza el protocolo LU 6.2 que trabaja en los niveles de
transporte y de sesión del modelo OSI.
• FTAM (Acceso y gestión de la transferencia de archivos): Un protocolo OSI de acceso
a archivos
• X.400: Un protocolo CCITT para las transmisiones internacionales de correo electrónico.
• X.500: Un protocolo CCITT para servicios de archivos y directorio entre sistemas.
• SMTP (Protocolo básico para la transferencia de correo): Un protocolo Internet para
las transferencias de correo electrónico.
• FTP (Protocolo de transferencia de archivos): Un protocolo para la transferencia de
archivos en Internet.
• SNMP (Protocolo básico de gestión de
red): Un protocolo Internet para el control de redes y
componentes.
• Telnet: Un protocolo Internet para la
conexión a máquinas remotas y procesar los datos
localmente.
• SMBs (Bloques de mensajes del
servidor) de Microsoft y clientes o redirectores:
Un protocolo cliente/servidor de respuesta a
peticiones.
• NCP (Protocolo básico de NetWare) y clientes o redirectores: Un conjunto de
protocolos de servicio.
• AppleTalk y AppleShare: Conjunto de protocolos de red de Apple.
• AFP (Protocolo de archivos AppleTalk): Protocolo de Apple para el acceso a archivos
remotos.
• DAP (Protocolo de acceso a datos): Un protocolo de DECnet para el acceso a archivos.

Protocolos de transporte

Los protocolos de transporte facilitan las sesiones de comunicación entre equipos y aseguran que los
datos se pueden mover con seguridad entre equipos.

• TCP: El protocolo de TCP/IP para la entrega garantizada de datos en forma de paquetes


secuenciados.
• SPX: Parte del conjunto de protocolos IPX/SPX de Novell para datos en forma de paquetes
secuenciados.
• NWLink: La implementación de Microsoft del protocolo IPX/SPX.
• NetBEUI (Interfaz de usuario ampliada NetBIOS): Establece sesiones de
comunicación entre equipos (NetBIOS) y proporciona los servicios de transporte de datos
subyacentes (NetBEUI).
• ATP (Protocolo de transacciones Apple Talk) y NBP (Protocolo de asignación de
nombres): Protocolos de Apple de sesión de comunicación y de transporte de datos.

Protocolos de red

Los protocolos de red proporcionan lo que se denominan «servicios de enlace». Estos protocolos
gestionan información sobre direccionamiento y encaminamiento, comprobación de errores y peticiones de
retransmisión. Los protocolos de red también definen reglas para la comunicación en un entorno de red
particular como es Ethernet o Token Ring.

• IP: El protocolo de TCP/IP para el encaminamiento de paquetes.


• IPX: El protocolo de Novell para el encaminamiento de paquetes.
• NWLink: La implementación de Microsoft del protocolo IPX/SPX.
• NetBEUI: Un protocolo de transporte que proporciona servicios de transporte de datos
para sesiones y aplicaciones NetBIOS.
• DDP (Protocolo de entrega de datagramas): Un protocolo de Apple Talk para el
transporte de datos.

Estándares de protocolo

El modelo OSI se utiliza para definir los protocolos que se tienen que utilizar en cada nivel. Los productos
de distintos fabricantes que se ajustan a este modelo se pueden comunicar entre sí.

La ISO, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), ANSI (Instituto de Estandarización


Nacional Americano), CCITT (Comité Consultivo Internacional de Telegrafía y Telefonía), ahora llamado ITU
(Unión Internacional de Telecomunicaciones) y otros organismos de estandarización han desarrollado
protocolos que se correspondan con algunos de los niveles del modelo OSI.
Los protocolos de IEEE a nivel físico son:

• 802.3 (Ethernet). Es una red lógica en bus


que puede transmitir datos a 10 Mbps. Los datos se
transmiten en la red a todos los equipos. Sólo los
equipos que tenían que recibir los datos informan de
la transmisión. El protocolo de acceso de múltiple
con detección de portadora con detección de
colisiones (CSMA/CD) regula el tráfico de la red
permitiendo la transmisión sólo cuando la red
esté despejada y no haya otro equipo
transmitiendo.
• 802.4 (Token Bus). Es una red en bus
que utiliza un esquema de paso de testigo. Cada
equipo recibe todos los datos, pero sólo los
equipos en los que coincida la dirección
responderán. Un testigo que viaja por la red
determina quién es el equipo que tiene que
informar.
• 802.5 (Token Ring). Es un anillo lógico
que transmite a 4 ó a 16 Mbps. Aunque se le
llama en anillo, está montada como una estrella ya que cada equipo está conectado a un hub.
Realmente, el anillo está dentro del hub. Un token a través del anillo determina qué equipo puede
enviar datos.

El IEEE definió estos protocolos para facilitar la comunicación en el subnivel de Control de acceso al medio
(MAC).

Un controlador MAC está situado en el subnivel de Control de acceso al medio; este controlador de
dispositivo es conocido como controlador de la NIC. Proporciona acceso a bajo nivel a los adaptadores de red
para proporcionar soporte en la transmisión de datos y algunas funciones básicas de control del adaptador.

Un protocolo MAC determina qué equipo puede utilizar el cable de red cuando varios equipos intenten
utilizarlo simultáneamente. CSMA/CD, el protocolo 802.3, permite a los equipos transmitir datos cuando no
hay otro equipo transmitiendo. Si dos máquinas transmiten simultáneamente se produce una colisión. El
protocolo detecta la colisión y detiene toda transmisión hasta que se libera el cable. Entonces, cada equipo
puede volver a tratar de transmitir después de esperar un período de tiempo aleatorio.

TCP/IP
El Protocolo de control de transmisión/Protocolo Internet (TCP/IP) es un conjunto de Protocolos aceptados
por la industria que permiten la comunicación en un entorno heterogéneo (formado por elementos
diferentes). Además, TCP/IP proporciona un protocolo de red encaminable y permite acceder a Internet y a
sus recursos. Debido a su popularidad, TCP/IP se ha convertido en el estándar de hecho en lo que se conoce
como interconexión de redes, la intercomunicación en una red que está formada por redes más pequeñas.

TCP/IP se ha convertido en el protocolo estándar para la interoperabilidad entre distintos tipos de equipos.
La interoperabilidad es la principal ventaja de TCP/IP. La mayoría de las redes permiten TCP/IP como
protocolo. TCP/IP también permite el encaminamiento y se suele utilizar como un protocolo de interconexión
de redes.

Entre otros protocolos escritos específicamente para el conjunto TCP/IP se incluyen:

• SMTP (Protocolo básico de transferencia de correo). Correo electrónico.


• FTP (Protocolo de transferencia de archivos). Para la interconexión de archivos entre
equipos que ejecutan TCP/IP.
• SNMP (Protocolo básico de gestión de red). Para la gestión de redes.

Diseñado para ser encaminable, robusto y funcionalmente eficiente, TCP/IP fue desarrollado por el
Departamento de Defensa de Estados Unidos como un conjunto de protocolos para redes de área extensa
(WAN). Su propósito era el de mantener enlaces de comunicación entre sitios en el caso de una guerra
nuclear. Actualmente, la responsabilidad del desarrollo de TCP/IP reside en la propia comunidad de Internet.
La utilización de TCP/IP ofrece varias ventajas:

• Es un estándar en la industria. Como un estándar de la industria, es un protocolo


abierto. Esto quiere decir que no está controlado por una única compañía, y está menos sujeto a
cuestiones de compatibilidad. Es el protocolo, de hecho, de Internet.
• Contiene un conjunto de utilidades para la conexión de sistemas operativos
diferentes. La conectividad entre un equipo y otro no depende del sistema operativo de red que
esté utilizando cada equipo.
• Utiliza una arquitectura escalable, cliente/servidor. TCP/IP puede ampliarse (o
reducirse) para ajustarse a las necesidades y circunstancias futuras. Utiliza sockets para hacer que
el sistema operativo sea algo transparente.

Un socket es un identificador para un servicio concreto en un nodo concreto de la red. El


socket consta de una dirección de nodo y de un número de puerto que identifica al
servicio.

Históricamente, TCP/IP ha tenido dos grandes inconvenientes: su tamaño y su velocidad. TCP/IP es una
jerarquía de protocolos relativamente grandes que puede causar problemas en clientes basados en MS-DOS.
En cambio, debido a los requerimientos del sistema (velocidad de procesador y memoria) que imponen los
sistemas operativos con interfaz gráfica de usuario (GUI), como Windows NT o Windows 95 y 98, el tamaño
no es un problema.

Estándares TCP/IP

Los estándares de TCP/IP se publican en una serie de documentos denominados Requests for comment
(RFC); Solicitudes de comentarios. Su objeto principal es proporcionar información o describir el estado de
desarrollo. Aunque no se crearon para servir de estándar, muchas RFC han sido aceptadas como estándares.

El desarrollo Internet está basado en el concepto de estándares abiertos. Es decir, cualquiera que lo
desee, puede utilizar o participar en el desarrollo de estándares para Internet. La Plataforma de arquitectura
Internet (IAB) es el comité responsable para la gestión y publicación de las RFC. La IAB permite a cualquier
persona o a cualquier compañía que envíe o que evalúe una RFC. Esto permite que cualquier sugerencia sea
tenida en cuenta para cambiar o crear estándares. Transcurrido un tiempo razonable para permitir la
discusión, se crea un nuevo borrador que se convertirá o no en un estándar.

TCP/IP y el modelo OSI

El protocolo TCP/IP no se corresponde exactamente con el modelo OSI. En vez de tener siete niveles, sólo
utiliza cuatro. Normalmente conocido como Conjunto de protocolos de Internet, TCP/IP se divide en estos
cuatro niveles:

• Nivel de interfaz de red.


• Nivel Internet.
• Nivel de transporte.
• Nivel de aplicación.

Cada uno de estos niveles se corresponde con uno o más niveles del modelo OSI.

Nivel de interfaz de red

El nivel de interfaz de red, que se corresponde con los niveles físico y de enlace de datos del modelo OSI
se comunica directamente con la red. Proporciona la interfaz entre la arquitectura de red (como Token Ring,
Ethernet) y el nivel Internet.

Nivel Internet
El nivel internet, que se corresponde con el nivel de red del modelo OSI, utiliza varios protocolos para
encaminar y entregar los paquetes. Los routers son dependientes del protocolo. Funcionan a este nivel del
modelo y se utilizan para enviar paquetes de una red a otra o de un segmento a otro. En el nivel de red
trabajan varios protocolos.

Protocolo Internet (IP)

El Protocolo Internet (IP) es un protocolo de conmutación de paquetes que realiza direccionamiento y


encaminamiento. Cuando se transmite un paquete, este protocolo añade una cabecera al paquete, de forma
que pueda enviarse a través de la red utilizando las tablas de encaminamiento dinámico. IP es un protocolo
no orientado a la conexión y envía paquetes sin esperar la señal de confirmación por parte del receptor.
Además, IP es el responsable del empaquetado y división de los paquetes requerido por los niveles físico y
de enlace de datos del modelo OSI. Cada paquete IP está compuesto por una dirección de origen y una de
destino, un identificador de protocolo, un checksum (un valor calculado) y un TTL (tiempo de vida, del inglés
time to live). El TTL indica a cada uno de los routers de la red entre el origen y el destino cuánto tiempo le
queda al paquete por estar en la red. Funciona como un contador o reloj de cuenta atrás. Cuando el paquete
pasa por el router, éste reduce el valor en una unidad (un segundo) o el tiempo que llevaba esperando para
ser entregado. Por ejemplo, si un paquete tiene un TTL de 128, puede estar en la red durante 128 segundos
o 128 saltos (cada parada, o router, en la red), o una combinación de los dos. El propósito del TTL es
prevenir que los paquetes perdidos o dañados (como correos electrónicos con una dirección equivocada)
estén vagando en la red. Cuando la cuenta TTL llega a cero, se retira al paquete de la red.

Otro método utilizado por IP para incrementar la velocidad de transmisión es el conocido como «ANDing».
La idea del ANDing es determinar si la dirección es de un sitio local o remoto. Si la dirección es local, IP
preguntará al Protocolo de resolución de direcciones (ARP) por la dirección hardware de la máquina de
destino. Si la dirección es remota, el IP comprueba su tabla de encaminamiento local para encaminarlo al
destino. Si existe un camino, el paquete se envía por ahí. Si no existe el camino, el paquete se envía a
través del gateway a su destino.

Un AND es una operación lógica que combina los valores de dos bits (0, 1) o dos valores
lógicos (verdadero, falso) y devuelve un 1 (verdadero) si los valores de ambas entradas
son 1 (verdadero) y devuelve 0 (falso) en caso contrario.

Protocolo de resolución de direcciones (ARP)

Antes de enviar un paquete IP a otro host se tiene que conocer la dirección hardware de la máquina
receptora. El ARP determina la dirección hardware (dirección MAC) que corresponde a una dirección IP. Si
ARP no contiene la dirección en su propia caché, envía una petición por toda la red solicitando la dirección.
Todos los hosts de la red procesan la petición y, si contienen un valor para esa dirección, lo devuelven al
solicitante. A continuación se envía el paquete a su destino y se guarda la información de la nueva dirección
en la caché del router.

Protocolo inverso de resolución de direcciones (RARP)

Un servidor RARP mantiene una base de datos de números de máquina en la forma de una tabla (o
caché) ARP que está creada por el administrador del sistema. A diferencia de ARP, el protocolo RARP
proporciona una dirección IP a una petición con dirección de hardware. Cuando el servidor RARP recibe una
petición de un número IP desde un nodo de la red, responde comprobando su tabla de encaminamiento para
el número de máquina del nodo que realiza la petición y devuelve la dirección IP al nodo que realizó la
petición.

Protocolo de mensajes de control de Internet (ICMP)

El ICMP es utilizado por los protocolos IP y superiores para enviar y recibir informes de estado sobre la
información que se está transmitiendo. Los routers suelen utilizar ICMP para controlar el flujo, o velocidad,
de datos entre ellos. Si el flujo de datos es demasiado rápido para un router, pide a los otros routers que
reduzcan la velocidad de transmisión.

Los dos tipos básicos de mensajes ICMP son el de informar de errores y el de enviar preguntas.
Nivel de transporte

El nivel de transporte, que se corresponde con el nivel de transporte del modelo OSI, es el responsable de
establecer y mantener una comunicación entre dos hosts. El nivel de transporte proporciona notificación de
la recepción, control de flujo y secuenciación de paquetes. También gestiona las retransmisiones de
paquetes. El nivel de transporte puede utilizar los protocolos TCP o el Protocolo de datagramas de usuario
(UDP) en función de los requerimientos de la transmisión.

Protocolo de control de transmisión (TCP)

El TCP es el responsable de la transmisión fiable de datos desde un nodo a otro. Es un protocolo orientado
a la conexión y establece una conexión (también conocida como una sesión, circuito virtual o enlace) entre
dos máquinas antes de transferir ningún dato. Para establecer una conexión fiable, TCP utiliza lo que se
conoce como «acuerdo en tres pasos». Establece el número de puerto y los números de secuencia de inicio
desde ambos lados de la transmisión. El acuerdo consta de tres pasos:

1. El solicitante envía al servidor un paquete especificando el número de puerto que él planea


utilizar y el número de secuencia inicial (ISN).
2. El servidor responde con su ISN, que consiste en el ISN del solicitante más uno.
3. El solicitante responde a la respuesta del servidor con el ISN del servidor más uno.

En orden a mantener una conexión fiable, cada paquete tiene que contener:

• Un número de puerto TCP origen y destino.


• Un número de secuencia para mensajes que tienen que dividirse en partes más pequeñas.
• Un checksum que asegura que la información se ha recibido sin error.
• Un número de confirmación que indica a la máquina origen qué partes de la información
han llegado.
• Ventanas deslizantes (Sliding Windows) TCP.

Puertos, sockets y ventanas deslizantes (sliding windows)

Los números de puerto del protocolo se utilizan para hacer referencia a la localización de una aplicación o
proceso en particular en cada máquina (en el nivel de aplicación). Al igual que una dirección IP identifica la
dirección de un host de la red, el número de puerto identifica la aplicación a nivel de transporte, por lo que
proporciona una conexión completa de una aplicación de un host a una aplicación de otro host. Las
aplicaciones y servicios (como servicios de archivos e impresión o telnet) pueden configurar hasta 65.536
puertos. Las aplicaciones y servicios TCP/IP suele utilizar los primeros 1.023 puertos. La Internet Assigned
Numbers Authority (IANA) los ha asignado como estándar, o puertos por omisión. Cualquier aplicación
cliente puede asignar números de puerto dinámicamente cuando sea necesario. Un puerto y una dirección de
nodo forman un socket.

Los servicios y las aplicaciones utilizan sockets para establecer conexiones con otro host. Si las
aplicaciones necesitan garantizar la entrega de datos, el socket elige el servicio orientado a conexión (TCP).
Si la aplicación no necesita garantizar la entrega de los datos, el socket elige el servicio no orientado a la
conexión (UDP).

TCP utiliza una ventana deslizante para transferir datos entre hosts. Regula cuánta información puede
pasarse a través de una conexión IP antes de que el host de destino envíe una confirmación. Cada equipo
tiene una ventana de envío y de recepción que utiliza a modo de búfer para guardar los datos y hacer más
eficiente el proceso de comunicación. Una ventana deslizante permite al equipo origen transmitir una serie
de paquetes sin tener que esperar a que le sea confirmada la llegada de cada paquete. Esto permite al
equipo de destino que pueda recibir los paquetes en otro orden al enviado, y si no se recibe una
confirmación en un período de tiempo, se reenvían los paquetes.

Protocolo de datagramas de usuario (UDP)

UDP es un protocolo no orientado a la conexión y es el responsable de la comunicación de datos extremo


a extremo. En cambio, a diferencia de TCP, UDP no establece una conexión. Intenta enviar los datos e
intenta comprobar que el host de destino recibe los datos. UDP se utiliza para enviar pequeñas cantidades de
datos que no necesitan una entrega garantizada. Aunque UDP utiliza puertos, son distintos de los puertos
TCP; así pues, pueden utilizar los mismos números sin interferirse.

Nivel de aplicación

El nivel de aplicación se corresponde con los niveles de sesión, presentación y aplicación del modelo OSI,
y conecta las aplicaciones a la red. Dos interfaces de programación de aplicaciones (API) proporcionan
acceso a los protocolos de transporte TCP/IP, los sockets de Windows y NetBIOS.

Interfaz de sockets de Windows

Los sockets de Windows (WinSock) son una API de red diseñada para facilitar la comunicación entre
aplicaciones y jerarquías de protocolos TCP/IP diferentes. Se definió para que las aplicaciones que utilizasen
TCP/IP pudiesen escribir en una interfaz estándar. WinSock se deriva de los sockets originales que creó la
API para el sistema operativo Unix BSD. WinSock proporciona una interfaz común para las aplicaciones y
protocolos que existen cerca de la cima del modelo de referencia TCP/IP. Cualquier programa o aplicación
escrito utilizando la API de WinSock se puede comunicar con cualquier protocolo TCP/IP, y viceversa.

Protocolos NetWare

Introducción a los protocolos NetWare

Al igual que TCP/IP, Novell proporciona un conjunto de protocolos desarrollados específicamente para
NetWare. Los cinco protocolos principales utilizados por NetWare son:

• Protocolo de acceso al medio.


• Intercambio de paquetes entre redes/Intercambio de paquetes en secuencia (IPX/SPX).
• Protocolo de información de encaminamiento (RIP).
• Protocolo de notificación de servicios (SAP).
• Protocolo básico de NetWare (NCP).

Debido a que estos protocolos se definieron antes de la finalización del modelo OSI, no se ajustan
exactamente al modelo OSI. Actualmente, no existe una correlación directa entre los límites de los niveles
de las dos arquitecturas. Estos protocolos siguen un patrón de recubrimiento. Concretamente, los protocolos
de nivel superior (NCP, SAP y RIP) están recubiertos por IPX/SPX. Luego, una cabecera y un final del
Protocolo de acceso al medio recubre a IPX/SPX.

Protocolos de acceso al medio


Los protocolos de acceso al medio definen el direccionamiento que permite diferenciar a los nodos de una
red NetWare. El direccionamiento está implementado en el hardware o en la NIC. Las implementaciones más
conocidas son:

• 802.5 Token Ring.


• 802.3 Ethernet.
• Ethernet 2.0.

El protocolo es responsable de colocar la cabecera al paquete. Cada cabecera incluye el código del origen
y del destino. Una vez que se haya transmitido el paquete y que está en el medio, cada tarjeta de red
comprueba la dirección; si la dirección coincide con la dirección del destino del paquete, o si el paquete es un
mensaje de difusión, la NIC copia el paquete y lo envía a la jerarquía de protocolos.

Además del direccionamiento, este protocolo proporciona un control de errores a nivel de bit como una
comprobación de redundancia cíclica (CRC). Una vez que se le añade la CRC al paquete, supuestamente los
paquetes estaban libres de errores.

La comprobación de errores CRC utiliza un cálculo complejo para generar un número


basado en los datos transmitidos. El dispositivo que realiza el envío hace el cálculo antes
de realizar la transmisión y lo incluye en el paquete que se envía al dispositivo de destino.
El dispositivo de destino vuelve a hacer este cálculo después de la transmisión. Si ambos
dispositivos obtienen el mismo resultado, se supone que no se han producido errores en la
transmisión. A este procedimiento se le conoce como comprobación de redundancia,
porque cada transmisión incluye no sólo los datos, sino que además incluye valores de
comprobación extras (redundantes).

Intercambio de paquetes entre redes/Intercambio de paquetes


en secuencia (IPX/SPX, Internetwork Packet
Exchange/Sequenced Packet Exchange)

El Intercambio de paquetes entre redes (IPX) define los esquemas de direccionamiento utilizados en una
red NetWare, e Intercambio de paquetes en secuencia (SPX) proporciona la seguridad y fiabilidad al
protocolo IPX. IPX es un protocolo a nivel de red basado en datagramas, no orientado a la conexión y no
fiable, equivalente a IP. No requiere confirmación por cada paquete enviado. Cualquier control de
confirmación o control de conexión tiene que ser proporcionado por los protocolos superiores a IPX. SPX
proporciona servicios orientados a la conexión y fiables a nivel de transporte.

Novell adoptó el protocolo IPX utilizando el Protocolo de datagramas Internet del Sistema de red de Xerox
(XNS). IPX define dos tipos de direccionamiento:

• Direccionamiento a nivel de red. La dirección de un segmento de la red, identificado por


el número de red asignado durante la instalación.
• Direccionamiento a nivel de nodo. La dirección de un proceso en un nodo que está
identificado por un número de socket.

Los protocolos IPX sólo se utilizan en redes con servidores NetWare y se suelen instalar con otro conjunto
de protocolos como TCP/IP. Incluso NetWare está empezando a utilizar TCP/IP como un estándar.

Protocolo de información de encaminamiento (RIP, Routing


Information Protocol)

RIP, al igual que IPX, facilita el intercambio de información de encaminamiento en una red NetWare y fue
desarrollado desde XNS. Sin embargo, en RIP se ha añadido al paquete un campo de datos extra para
mejorar el criterio de decisión para seleccionar la ruta más rápida hasta un destino. El hecho de realizar una
difusión de un paquete RIP permite que ocurran ciertas cosas:

• Las estaciones de trabajo pueden localizar el camino más rápido a un número de red.
• Los routers pueden solicitar información de encaminamiento a otros routers para actualizar
sus propias tablas internas.
• Los routers pueden responder a peticiones de encaminamiento de otras estaciones de
trabajo o de otros routers.
• Los routers pueden asegurarse de si otros routers conocen la configuración de la red.
• Los routers pueden detectar un cambio en la configuración de la red.

Protocolo de notificación de servicios (SAP, Service Advertising


Protocol)

El Protocolo de notificación de servicios (SAP) permite a los nodos que proporcionan servicios (incluyen a
los servidores de archivos, servidores de impresión, servidores gateway y servidores de aplicación) informar
de sus servicios y direcciones. Los clientes de la red son capaces de obtener la dirección de la red de los
servidores a los que pueden acceder. Con SAP, la incorporación y la eliminación de servicios en la red se
vuelve dinámica. Por omisión, un servidor SAP informa de su presencia cada 60 segundos. Un paquete SAP
contiene:

• Información operativa. Especifica la operación que está realizando el paquete.


• Tipo de servicio. Especifica el tipo de servicio ofrecido por el servidor.
• Nombre del servidor. Especifica el nombre del servidor que difunde los servicios.
• Dirección de red. Especifica el número de red del servidor que difunde los servicios.
• Dirección de nodo. Especifica el número de nodo del servidor que difunde los servicios.
• Dirección de socket. Especifica el número de socket del servidor que difunde los
servicios.
• Total de saltos hasta el servidor. Especifica el número de saltos que hay hasta el
servidor que difunde los servicios.
• Campo de operación. Especifica el tipo de petición.
• Información adicional. Uno o más conjuntos de campos que pueden seguir al campo de
operación con más información sobre uno o más servidores.

Protocolo básico de NetWare (NCP, NetWare Core Protocol)

El Protocolo básico de NetWare (NCP) define el control de la conexión y la codificación de la petición de


servicio que hace posible que puedan interactuar los clientes y los servidores. Éste es el protocolo que
proporciona los servicios de transporte y de sesión. La seguridad de NetWare también está proporcionada
dentro de este protocolo.

Otros protocolos habituales

Sistema básico de Entrada/Salida en red (NetBIOS, Network


Basic Input/Output System)

La mayoría de los servicios y aplicaciones que se ejecutan en el sistema operativo Windows utilizan la
interfaz NetBIOS o la Comunicación entre procesos (IPC). NetBIOS se desarrolló sobre LAN y se ha
convertido en una interfaz estándar para que las aplicaciones puedan acceder a los protocolos de red en el
nivel de transporte con comunicaciones orientadas y no orientadas a la conexión. Existen interfaces NetBIOS
para NetBEUI, NWLink y TCP/IP. Las interfaces NetBIOS necesitan una dirección IP y un nombre NetBIOS
para identificar de forma única a un equipo.

NetBIOS realiza cuatro funciones importantes:

• Resolución de nombres NetBIOS. Cada estación de trabajo de una red tienen uno o
más nombres. NetBIOS mantiene una tabla con los nombres y algunos sinónimos. El primer nombre
en la tabla es el nombre único de la NIC. Se pueden añadir nombres de usuario opcionales para
proporcionar un sistema de identificación expresivo.
• Servicio de datagramas NetBIOS. Esta función permite enviar un mensaje a un nombre,
a un grupo de nombres, o a todos los usuarios de la red. Sin embargo, debido a que no utiliza
conexiones punto a punto, no se garantiza que el mensaje llegue a su destino.
• Servicio de sesión NetBIOS. Este servicio abre una conexión punto a punto entre dos
estaciones de trabajo de una red. Una estación inicia una llamada a otra y abre la conexión. Debido
a que ambas estaciones son iguales, pueden enviar y recibir datos concurrentemente.
• Estado de la sesión/NIC NetBIOS. Esta función ofrece información sobre la NIC local,
otras NIC y las sesiones activas disponibles a cualquier aplicación que utilice NetBIOS.

Originalmente, IBM ofrecía NetBIOS como un producto separado, implementado como un programa
residente (TSR). Actualmente, este programa TSR es obsoleto; si se encuentra uno de estos sistemas,
debería sustituirlo con la interfaz NetBIOS de Windows.

NetBEUI

NetBEUI es el acrónimo de Interfaz de usuario ampliada NetBIOS. Originalmente, NetBIOS y NetBEUI


estaban casi unidos y se les consideraba como un protocolo. Sin embargo, varios fabricantes separaron
NetBIOS, el protocolo a nivel de sesión, de forma que pudiera utilizarse con otros protocolos de transporte
encaminables. NetBIOS (Sistema básico de entrada/salida de la red) es una interfaz para LAN a nivel de
sesión de IBM que actúa como una interfaz de aplicación para la red. NetBIOS proporciona a un programa
las herramientas para que establezca en la red una sesión con otro programa, y debido a que muchos
programas de aplicación lo soportan, es muy popular.

NetBEUI es un protocolo pequeño, rápido y eficiente a nivel de transporte proporcionado con todos los
productos de red de Microsoft. Está disponible desde mediados de los ochenta y se suministró con el primer
producto de red de Microsoft: MS-NET.

Entre las ventajas de NetBEUI se incluyen su pequeño tamaño (importante para los equipos que ejecuten
MS-DOS), su velocidad de transferencia de datos en el medio y su compatibilidad con todas las redes
Microsoft.

El principal inconveniente de NetBEUI es que no soporta el encaminamiento. También está limitado a


redes Microsoft. NetBEUI es una buena solución económica para una red Trabajo en Grupo donde todas las
estaciones utilizan sistemas operativos Microsoft.

Conmutación de paquetes X.25

X.25 es un conjunto de protocolos WAN para redes de conmutación de paquetes y está formado por
servicios de conmutación. Los servicios de conmutación se crearon originalmente para conectar terminales
remotos a sistemas mainframe. La red dividía cada transmisión en varios paquetes y los colocaba en la red.
El camino entre los nodos era un circuito virtual, que los niveles superiores trataban como si se tratase de
una conexión lógica continua. Cada paquete puede tomar distintos caminos entre el origen y el destino. Una
vez que llegan los paquetes, se reorganizan como los datos del mensaje original.

Un paquete típico está formado por 128 bytes de datos; sin embargo, el origen y el destino, una vez
establecida la conexión virtual, pueden negociar tamaños de paquete diferentes. El protocolo X.25 puede
soportar en el nivel físico un máximo teórico de 4.095 circuitos virtuales concurrentes entre un nodo y una
red X.25. La velocidad típica de transmisión de X.25 es de 64 Kbps.

El protocolo X.25 trabaja en los niveles físico, de enlace de datos y de red del modelo OSI. Se conoce
desde mediados de los setenta y se ha depurado muy bien, por lo que proporciona un entorno de red muy
estable. Sin embargo, tiene dos inconvenientes:

• El mecanismo de guardar y enviar causa retardos. Normalmente, el retardo es de 6


décimas de segundos y no tiene efecto en bloques de datos grandes. En cambio, en un tipo de
transmisión «flip-flop», el retraso puede ser considerable.

Un «flip-flop» es un circuito que alterna entre dos estados posibles cuando se recibe un
pulso en la entrada. Por ejemplo, si la salida de un flip-flop es un valor alto y se recibe un
pulso en la entrada, la salida cambia a un valor bajo; un segundo pulso en la entrada
vuelve a colocar en la salida un valor alto, y así sucesivamente.

• Para soportar la transferencia de guardar y enviar se requiere una gran cantidad de trabajo
con el búfer.

X.25 y TCP/IP son similares en la medida en que utilizan protocolos de conmutación de paquetes. Sin
embargo, existen algunas diferencias entre ellos:

• TCP/IP sólo tiene comprobación de errores y control de flujo extremo a extremo; X.25
tienen control de errores nodo a nodo.
• Para compensar el hecho de que una red TCP/IP sea completamente pasiva, TCP/IP tiene
un control de flujo y un mecanismo de ventana más complicado que el de X.25.
• X.25 tiene unos niveles de enlace y eléctricos muy concretos; TCP/IP está diseñado para
trabajar con distintos tipos de medios, y con servicios de enlace muy variados.

Sistema de red de Xerox (XNS, Xerox Network System)

Xerox desarrolló el Sistema de red de Xerox (XNS) para sus LAN Ethernet. XNS se utilizaba mucho en los
ochenta, pero ha sido lentamente sustituido por TCP/IP. Es un protocolo de gran tamaño, lento, ya que
genera muchos envíos a todos los dispositivos, aumentando el tráfico de la red.

Comunicación avanzada entre programas (APPC, Advanced


Program-to-Program Communication)

La Comunicación avanzada entre programas es un protocolo de transporte de IBM desarrollado como


parte de su Arquitectura de sistemas en red (SNA). Se diseñó para permitir que los programas de aplicación
que se estuviesen ejecutando en distintos equipos se pudiesen comunicar e intercambiar datos
directamente.

Apple Talk

Apple Talk es la jerarquía de protocolos de Apple Computer para permitir que los equipos Apple Macintosh
compartan archivos e impresoras en un entorno de red. Se introdujo en 1984 como una tecnología LAN
autoconfigurable. Apple Talk también está disponible en muchos sistemas UNIX que utilizan paquetes
comerciales y de libre distribución. El conjunto de protocolos AppleTalk permite compartir archivos a alto
nivel utilizando AppleShare, los servicios de impresión y gestores de impresión de LaserWriter, junto con la
secuencia de datos de bajo nivel y la entrega de datagramas básicos.

Protocolos AppleTalk

• AppleTalk: Una colección de protocolos que se corresponde con el modelo OSI. Soporta
LocalTalk, EtherTalk y TokenTalk.
• LocalTalk: Describe el cable par trenzado apantallado utilizado para conectar equipos
Macintosh con otros Macintosh o impresoras. Un segmento LocalTalk permite hasta un máximo de
32 dispositivos y opera a una velocidad de 230 Kbps.
• Ether Talk: AppleTalk sobre Ethernet. Opera a una velocidad de 10 Mbps. Fast Ethernet
opera a una velocidad de 100 Mbps.
• Token Talk: AppleTalk sobre Token Ring. Dependiendo de su hardware, TokenTalk opera a
4 o a 16 Mbps.

Conjuntos de protocolos OSI

El conjunto de protocolos OSI es una jerarquía completa de protocolos. Cada protocolo se corresponde
directamente con un único nivel del modelo OSI. El conjunto de protocolos OSI incluye protocolos de
encaminamiento y transporte, la serie de protocolos IEEE 802, un protocolo a nivel de sesión, un protocolo a
nivel de presentación y varios protocolos a nivel de aplicación diseñados para proporcionar una funcionalidad
de red, incluyendo el acceso a archivos, impresión y emulación de terminal.

DECnet

DECnet es una jerarquía de protocolos de Digital Equipment Corporation. Es un conjunto de productos


hardware y software que implementan la Arquitectura de red de Digital (DNA). Define redes de comunicación
sobre LAN Ethernet, redes de área metropolitana con Interfaz de datos distribuida de fibra (FDDI MAN) y
WAN que utilicen características de transmisión de datos privados o públicos. DECnet también puede utilizar
protocolos TCP y OSI, así como sus propios protocolos. Se trata de un protocolo encaminable.

Dispositivos para conectividad


El dispositivo de comunicación más básico de conectividad entre redes es el módem. Los módems se han
convertido en dispositivos habituales y constituyen el equipamiento estándar en la mayoría de los equipos
que se venden hoy en día. En realidad, cualquiera que haya utilizado Internet o un PC-fax, ha utilizado un
módem. Además de los módems, también se utilizan otros dispositivos para conectar pequeñas LAN en una
gran red de área extensa (WAN). Cada uno de estos dispositivos tiene su propia funcionalidad junto con
algunas limitaciones. Simplemente, se pueden utilizar para extender la longitud del medio de red o para
proporcionar acceso a una red mundial en Internet. Los dispositivos utilizados para extender las LAN
incluyen repetidores, bridges (puentes), routers (encaminadores), brouters (b-encaminadores) y gateways
(pasarelas).

Tecnología de módems

Un módem es un dispositivo que permite a los equipos comunicarse a través de una línea telefónica.

Cuando los equipos están demasiado alejados como para conectarse a través de un cable estándar, se
puede llevar a cabo la comunicación entre ellos mediante un módem. En un entorno de red, los módems
actúan como un medio de comunicación entre redes y como una forma de conectar el mundo que existe más
allá de la red local.

Funciones básicas de un módem

Los equipos no se pueden conectar a través de una línea telefónica, puesto que éstos se comunican
enviando pulsos electrónicos digitales (señales electrónicas) y una línea telefónica sólo puede enviar ondas
(sonido) analógicas.

Un señal digital tiene un formato


binario. La señal puede tener un valor de 0
ó 1. Una señal analógica se puede
representar como una curva suavizada que
puede representar un rango infinito de
valores.

El módem que se encuentra en el PC


emisor convierte las señales digitales en
ondas analógicas y transmite estas ondas
analógicas a través de la línea telefónica.
El módem que recibe la señal, convierte las
señales analógicas que le llegan en señales
digitales para que las reciba el PC.

En otras palabras, un módem emisor MOdula las señales digitales en señales analógicas y un módem
receptor DEmodula las señales que recibe en señales digitales.
Hardware del módem

Los módems se conocen como equipamiento de comunicaciones de datos (ECD) y comparten las
siguientes características:

• Una interfaz de comunicación serie (RS-232).


• Una interfaz de línea telefónica RJ-11 (enchufe telefónico de cuatro hilos).

Están disponibles tanto módems externos como internos. Un módem interno se instala en una ranura de
expansión del equipo al igual que otra tarjeta.

Un módem externo es una pequeña caja que se conecta al equipo a través un cable serie (RS-232) desde
el puerto serie del equipo hasta la conexión del cable en el módem. El módem utiliza un cable con un
conector RJ-11C para conectarse a la pared.

Estándares de módems

Los estándares son necesarios puesto que permiten a los módems de un fabricante poder conectarse con
los módems de otro fabricante.

Hayes-compatible

A principios de los años ochenta, una compañía denominada Hayes Microcomputer Products desarrolló un
módem denominado Hayes Smartmodem. Este módem se convirtió en un estándar frente a otros tipos de
módems y surgió la frase «Hayes-compatible», al igual que el PC personal de IBM generó el término «IBM-
compatible». Como la mayoría de los vendedores se ajustaron a los estándares de Hayes, casi todos los
módems de redes LAN podían comunicarse con el resto.

Los primeros módems Hayes-compatible enviaban y recibían datos a 300 bits por segundo (bps).
Actualmente, los fabricantes de módems ofrecen módems con velocidades de 56.600 bps o más.

Estándares internacionales

Desde finales de los años ochenta, el International Telecommunications Union (ITU; Unión internacional
de las telecomunicaciones) ha desarrollado estándares para los módems. Estas especificaciones, conocidas
como las series V, incluyen un número que indica el estándar. Como punto de referencia, el módem V.22bis
a 2.400 bps tardaría 18 segundos en enviar un carta de 1.000 palabras. El módem V.34 a 9.600 bps tardaría
sólo cuatro segundos en enviar la misma carta y el estándar de compresión V.42bis en un módem de 14.400
bps puede enviar la misma carta en sólo tres segundos.

En la siguiente tabla se presentan los estándares de compresión y sus correspondientes parámetros. Los
estándares de compresión y los bps tienen que estar necesariamente relacionados. El estándar se podría
utilizar con cualquier velocidad de módem.

Estándar bps Fecha Notas


V.17 14.400 Para transmisiones FAX a través de la línea
telefónica
V.21 300 Transmisiones de datos por líneas
telefónicas
V.22 1.200 Transmisiones de datos por líneas
telefónicas y líneas dedicadas
V.22bis 2.400 1984 Transmisiones de datos por líneas
telefónicas dedicadas
V.23 600/1.200 Transmisiones de datos por líneas
telefónicas y dedicadas.
V.25 Estándares de llamada y contestación
automática.
V.26 2.400 Transmisiones de datos por líneas
dedicadas.
V.26bis 1.200/2.400 Transmisiones de datos por líneas
telefónicas
V.26ter 2.400 Transmisiones de datos por líneas
telefónicas y dedicadas
V.27 4.800 Transmisiones de datos por líneas
dedicadas
V.27bis 2.400/4.800 Transmisiones de datos por líneas
dedicadas.
V.27ter 2.400/4.800 Transmisiones de datos por líneas
telefónicas
V.29 9.600 Transmisiones de datos por líneas
dedicadas
V.32 9.600 1984 Transmisiones de datos por líneas
telefónicas
V.32bis 14.400 1991 Transmisiones de datos por líneas
telefónicas utilizando comunicaciones
síncronas
V.32ter 19.200 1993 Se comunicará sólo con otro V.32ter.
V.33 14.400 1993 Transmisiones de datos por líneas
dedicadas
V.34 28.800 1994 Transmisiones de datos por líneas
telefónicas con la posibilidad de bajar la
velocidad cuando haya problemas en la línea
V.35 48.000 Transmisiones de datos por líneas
dedicadas
V.42 57.600 1995 Compatible con versiones de V.módems
anteriores. Estándar de corrección de errores
en líneas ruidosas
V.42bis 56.600 Comprensión de datos 4:1 para
transferencias de alta velocidad
V.90 56.600 1998 Estándar de módem a 56K; resolvió la
competencia para los estándares entre los
estándares U.S. Robotic X2 y Rockwell K56
Flex.

Rendimiento del módem

Inicialmente, la velocidad del módem se medía en bps o en la tasa denominada «baudios», y se asumió
erróneamente que ambas unidades eran idénticas.

«Baudios» se refiere a la velocidad de oscilación de la onda de sonido que transporta un bit de datos
sobre la línea telefónica. El término se deriva del nombre del telégrafo e ingeniero francés Jean-Maurice-
Emile Baudot. A principios de 1980, la tasa de baudios se equiparó con la velocidad de transmisión de los
módems. Hoy en día, 300 baudios equivalen a 2.300 bits por segundo.

Con el tiempo, los ingenieros de comunicaciones aprendieron a comprimir y codificar los datos, de forma
que cada modulación de la onda permitía transportar más de un bit de datos. Este desarrollo significa que la
tasa de bps puede ser superior a la tasa de baudios. Por ejemplo, un módem que modula a 28.800 baudios
puede enviar a 115.200 bps. Por tanto, el parámetro actual para controlar la velocidad de los módems es
bps.

Algunos de los estándares de la industria relativa a los módems más recientes, V.42bis/compresión de
datos MNP5, tienen velocidades de transmisión de 57.600 bps, llegando algunos hasta los 76.800 bps.
Tipos de módems

Existen tres tipos diferentes de módems, puesto que los distintos entornos de comunicación requieren
diferentes métodos de envío de datos. Estos entornos se pueden dividir en dos áreas relacionadas con el
ritmo de las comunicaciones:

• Asíncrona.
• Síncrona.

El tipo de módem que utiliza una red depende de si el entorno es asíncrono o síncrono.

Comunicación asíncrona (Async)

La comunicación asíncrona, conocida como «async», es probablemente la forma de conexión más


extendida. Esto es debido a que async se desarrolló para utilizar las líneas telefónicas.

Cada carácter (letra, número o símbolo) se introduce en una cadena de bits. Cada una de estas cadenas
se separa del resto mediante un bit de inicio de carácter y un bit de final de carácter. Los dispositivos emisor
y receptor deben estar de acuerdo en la secuencia de bit inicial y final. El equipo destino utiliza los
marcadores de bit inicial y final para planificar sus funciones relativas al ritmo de recepción, de forma que
esté preparado para recibir el siguiente byte de datos.

La comunicación no está sincronizada. No existe un dispositivo reloj o método que permita coordinar la
transmisión entre el emisor y el receptor. El equipo emisor sólo envía datos y el equipo receptor
simplemente los recibe. A continuación, el equipo receptor los comprueba para asegurarse de que los datos
recibidos coinciden con los enviados. Entre el 20 y el 27 por 100 del tráfico de datos en una comunicación
asíncrona se debe al control y coordinación del tráfico de datos. La cantidad real depende del tipo de
transmisión, por ejemplo, si se está utilizando la paridad (una forma de comprobación de errores).

Las transmisiones asíncronas en líneas telefónicas pueden alcanzar hasta 28.800 bps. No obstante, los
métodos de compresión de datos más recientes permiten pasar de 28.800 bps a 115.200 bps en sistemas
conectados directamente.

Control de errores. Debido al potencial de errores que puede presentar, async puede incluir un bit
especial, denominado bit de paridad, que se utiliza en un esquema de corrección y comprobación de errores,
denominado comprobación de paridad. En la comprobación de paridad, el número de bits enviados debe
coincidir exactamente con el número de bits recibidos.

El estándar de módem original V.32 no proporcionaba


control de errores. Para ayudar a evitar la generación de
errores durante la transmisión de datos, Microcom
desarrolló su propio estándar para el control de errores
en los datos enviados de forma asíncrona, el Microcom
Networking Protocol (MNP; Protocolo de conexión de
Microcom). El método funcionó tan bien que el resto de
compañías no sólo adoptaron la versión inicial del
protocolo, sino también las versiones posteriores, denominadas clases. Actualmente, diferentes fabricantes
de módems incorporan los estándares MNP Clases 2, 3 y 4.

En 1989, el Comité Consultatif Internationale de Telégraphie et Teléponie (CCITT; Comité internacional de


consulta telegráfica y telefónica) publicó un esquema de control de errores asíncronos denominado V.42.
Este estándar implementado en hardware caracterizó dos protocolos de control de errores. El primer
esquema de control de errores es el procedimiento de acceso por enlace (LAPM), pero también utiliza MNP
Clase 4. El protocolo LAPM se utilizó para las comunicaciones entre dos módems con estándar V.42. Si sólo
uno de los módems sigue el estándar MNP 4, se tiene que el protocolo adecuado a utilizar sería MNP 4.

Mejora del rendimiento de la transmisión. El rendimiento de las comunicaciones depende de dos


elementos:
• La velocidad de envío de señales o canales describe la rapidez de codificación de los bits en
el canal de comunicación.
• Rendimiento total que mide la cantidad de información útil que se desplaza a través del
canal.

La eliminación de elementos redundantes o secciones vacías permite en la compresión mejorar el tiempo


requerido para el envío de los datos. El Protocolo de compresión de datos MNP Clase 5 de Microcom es un
ejemplo de un estándar actual de compresión de datos. Utilizando la compresión de datos, puede mejorar el
rendimiento, duplicando, a menudo, el rendimiento total. Se puede reducir la transmisión de los datos en la
mitad cuando los dos extremos de un enlace de comunicaciones utilizan el protocolo MNP Clase 5.

El estándar V.42bis, dado que describe cómo implementar la compresión de datos en hardware, obtiene
incluso el mayor rendimiento posible. Por ejemplo, un módem a 56,6 Kbps utilizando V.90 puede conseguir
un rendimiento total de 100 Kbps.

Aunque la compresión de datos puede mejorar el rendimiento, no se trata de una


ciencia exacta. Muchos factores afectan al porcentaje actual de compresión de un
documento o archivo. Un archivo de texto, por ejemplo, se puede comprimir, de forma
más efectiva, que un archivo gráfico complejo. Es posible, incluso, tener un archivo
comprimido que sea más grande que el original. Recuerde que los porcentajes de
compresión que mencionan los distribuidores se fundamentan normalmente en el mejor de
los casos.

Coordinación de los estándares. Los módems asíncronos, o serie, son más baratos que los módems
síncronos, puesto que los asíncronos no necesitan la circuitería y los componentes necesarios para controlar
el ritmo que de las transmisiones síncronas requieren los módems síncronos.

Comunicación síncrona

La comunicación síncrona confía en un esquema temporal coordinado entre dos dispositivos para separar
los grupos de bits y transmitirlos en bloques conocidos como «tramas». Se utilizan caracteres especiales
para comenzar la sincronización y comprobar periódicamente su precisión.

Dado que los bits se envían y se reciben en un proceso controlado (sincronizado) y cronometrado, no se
requieren los bits de inicio y final. Las transmisiones se detienen cuando se alcanza el final de una trama y
comienzan, de nuevo, con una nueva. Este enfoque de inicio y final es mucho más eficiente que la
transmisión asíncrona, especialmente cuando se están transfiriendo grandes paquetes de datos. Este
incremento en eficiencia es
menos destacable cuando
se envían pequeños
paquetes.

Si aparece un error, el
esquema de corrección y
detección de errores
síncrono genera una
retransmisión.

Los protocolos síncronos


realizan un número de
tareas que no realizan los protocolos asíncronos. Principalmente son:

• Formatear los datos en bloques.


• Agregar información de control.
• Comprobar la información para proporcionar el control de errores.

Los principales protocolos de comunicaciones síncronas son:

• Control síncrono de enlace de datos (SDLC, Synchronous Data Link Control).


• Control de enlace de datos de alto nivel (HDLC, High-level Data Link Control).
• Protocolo de comunicaciones síncronas binarias (bysnc).

La comunicación síncrona se utiliza en la mayoría de todas las comunicaciones de red y digitales. Por
ejemplo, si está utilizando líneas digitales para conectar equipos remotos, debería utilizar módems síncronos,
en lugar de asíncronos, para conectar el equipo a la línea digital. Normalmente, su alto precio y complejidad
ha mantenido a los módems síncronos fuera del mercado de los equipos personales.

Línea digital abonada asimétrica (ADSL, Asymetric Digital Subscriber Line)

La última tecnología de módem disponible es una línea digital abonada asimétrica (ADSL). Esta tecnología
convierte la líneas telefónicas actuales de par trenzado en vías de acceso para las comunicaciones de datos
de alta velocidad y multimedia. Estas nuevas conexiones pueden transmitir por encima de los 8 Mbps para el
abonado y de hasta 1Mbps desde el propio abonado.

No obstante, ADSL no está exenta de inconvenientes. La tecnología requiere un hardware especial,


incluyendo un módem ADSL en cada extremo de la conexión. Además, necesita un cableado de banda
amplia, que está disponible actualmente en muy pocas localizaciones y existe un límite en la longitud de
conexión.

Expansión de una red usando componentes

A medida que crece una empresa, también lo hacen sus redes. Las LAN tienden a sobrepasar las
posibilidades de sus diseños iniciales. Comprobará que una LAN es demasiado pequeña cuando:

• El cable comience a saturarse con el tráfico de la red.


• Los trabajos de impresión tardan mucho tiempo en imprimirse.
• Las aplicaciones que generan tráfico en la red, como pueden ser las bases de datos,
experimentan tiempos de respuesta excesivos.

Normalmente, el momento llega cuando los administradores necesitan expandir el tamaño o mejorar el
rendimiento de sus redes. Pero claro, las redes no son más grandes por el hecho de añadir más PC o más
cableado. Cada topología o arquitectura tiene sus límites. No obstante, existen componentes que se pueden
instalar para incrementar el tamaño de la red dentro del entorno actual. Estos componentes son:

• Segmentos existentes de LAN, de forma que cada segmento se convierte en su propia LAN.
• Unir dos LAN separadas.
• Conectarse con otras LAN y entornos de computación para unirlos en una WAN
considerablemente más grande.

Los componentes que permiten a los ingenieros conseguir estos objetivos son:

• Hubs (concentradores).
• Repetidores.
• Bridges (puentes).
• Routers (encaminadores).
• Brouters (b-encaminadores).
• Gateways
(pasarelas).

Hubs

Es el componente hardware
central de una topología en estrella.
Además, los hubs se pueden utilizar
para extender el tamaño de una
LAN. Aunque la utilización de un hub
no implica convertir una LAN en una WAN, la conexión o incorporación de hubs a una LAN puede
incrementar, de forma positiva, el número de estaciones. Este método de expansión de una LAN es bastante
popular, pero supone muchas limitaciones de diseño.

Es importante tener cuidado cuando se conectan los hubs. Los cables de paso se
conectan de forma diferente que los cables estándares de enlace. Compruebe con los
fabricantes si se necesita un cable de enlace estándar o un cable de paso.

Repetidores

Cuando las señales viajan a través de un cable, se degradan y se distorsionan en un proceso denominado
«atenuación». Si un cable es bastante largo, la atenuación provocará finalmente que una señal sea
prácticamente irreconocible. La instalación de un repetidor permite a las señales viajar sobre distancias más
largas.

Un repetidor funciona en el nivel físico del modelo de referencia OSI para regenerar las señales de la red y
reenviarla a otros segmentos.

El repetidor toma una señal débil de un segmento, la regenera y la pasa al siguiente segmento. Para
pasar los datos de un segmento a otro a través del repetidor, deben ser idénticos en cada segmento los
paquetes y los protocolos Control lógico de enlace (LLC; Logical Link Control). Un repetidor no activará la
comunicación, por ejemplo, entre una LAN (Ethernet) 802.3 y una LAN (Token Ring) 802.5.

Los repetidores no traducen o filtran señales. Un repetidor funciona cuando los segmentos que unen el
repetidor utilizan el mismo método de acceso. Un repetidor no puede conectar un segmento que utiliza
CSMA/CD con un segmento que utiliza el método de acceso por paso de testigo. Es decir, un repetidor no
puede traducir un paquete Ethernet en un paquete Token Ring.

Los repetidores pueden desplazar paquetes de un tipo de medio físico a otro. Pueden coger un paquete
Ethernet que llega de un segmento con cable coaxial fino y pasarlo a un segmento de fibra óptica. Por tanto,
el repetidor es capaz de aceptar las conexiones físicas.

Los repetidores constituyen la forma más barata de extender una red. Cuando se hace necesario extender
la red más allá de su distancia o limitaciones relativas a los nodos, la posibilidad de utilizar un repetidor para
enlazar segmentos es la mejor configuración, siempre y cuando los segmentos no generen mucho tráfico ni
limiten los costes.

Ni aislamiento ni filtrado. Los repetidores envían cada bit de datos de un segmento de cable a otro,
incluso cuando los datos forman paquetes mal configurados o paquetes no destinados a utilizarse en la red.
Esto significa que la presencia de un problema en un segmento puede romper el resto de los segmentos. Los
repetidores no actúan como filtros para restringir el flujo del tráfico problemático.

Además, los repetidores pasarán una «tormenta» de difusión de un segmento al siguiente, y así a través
de toda la red. Una «tormenta» de difusión se produce cuando el número de mensajes de difusión que
aparece en la red es superior al límite del ancho de banda de la red. El rendimiento de la red va a disminuir
cuando un dispositivo está respondiendo a un paquete que está continuamente circulando por la red o a un
paquete que está continuamente intentando contactar con un sistema que nunca responde.

Implementación de un repetidor. Los pasos a considerar cuando se decide implementar repetidores en


la red son:

• Conectar dos segmentos de medio similar o no similar.


• Regenerar la señal para incrementar la distancia transmitida.
• Pasar todo el tráfico en ambas direcciones.
• Conectar dos segmentos de la forma más efectiva en cuanto al coste.

Los repetidores mejoran el rendimiento dividiendo la red en segmentos y, por tanto,


reduciendo el número de equipos por segmento. Cuando se utilizan repetidores para
extender la red, no olvide la regla 5-4-3.
No utilice un repetidor cuando:

• Existe un tráfico de red


altísimo.
• Los segmentos están
utilizando diferentes métodos de
acceso.
• Es necesario el filtrado de datos.

Bridges

Al igual que un repetidor, un bridge puede unir segmentos o grupos de trabajo LAN. Sin embargo, un
bridge puede, además, dividir una red para aislar el tráfico o los problemas. Por ejemplo, si el volumen del
tráfico de uno o dos equipos o de un departamento está sobrecargando la red con los datos y ralentizan
todas las operaciones, el bridge podría aislar a estos equipos o al departamento.

Los bridges se pueden utilizar para:

• Extender la longitud de un segmento.


• Proporcionar un incremento en el número de equipos de la red.
• Reducir los cuellos de botella del tráfico resultantes de un número excesivo de equipos
conectados.
• Dividir una red sobrecargada en dos redes separadas, reduciendo la cantidad de tráfico en
cada segmento y haciendo que la red sea más eficiente.
• Enlazar medios físicos diferentes como par trenzado y Ethernet coaxial.

Los bridges trabajan a nivel de enlace de datos del modelo de referencia OSI y, por tanto, toda la
información de los niveles superiores no está disponible para ellos. Más que distinguir entre un protocolo y
otro, los bridges pasan todos los protocolos que aparecen en la red. Todos los protocolos se pasan a través
de los bridges, de forma que aparecen en los equipos personales para determinar los protocolos que pueden
reconocer.

Los bridges trabajan en el nivel MAC y, por ello, algunas veces se conocen como bridges de nivel MAC.

Un bridge de nivel MAC:

• Escucha todo el tráfico.


• Comprueba la direcciones origen y destino de cada paquete.
• Construye una tabla de encaminamiento, donde la información está disponible.
• Reenvían paquetes de la siguiente forma:
o Si el destino no aparece en la tabla de encaminamiento, el bridge reenvía el
paquete a todos los segmentos.
o Si el destino aparece en la tabla de encaminamiento, el bridge reenvía el paquete
al segmento correspondiente (a menos que este segmento sea también el origen).

Un bridge funciona considerando que cada nodo de la red tiene su propia dirección. Un bridge reenvía
paquetes en función de la dirección del nodo destino.

Realmente, los bridges tienen algún grado de inteligencia puesto que aprenden a dónde enviar los datos.
Cuando el tráfico pasa a través del bridge, la información sobre las direcciones de los equipos se almacenan
en la RAM del bridge. El bridge utiliza esta RAM para generar una tabla de encaminamiento en función de las
direcciones de origen.

Inicialmente, la tabla de encaminamiento del bridge está vacía. Cuando los nodos transmiten los
paquetes, la dirección de origen se copia en la tabla de encaminamiento. Con esta información de la
dirección, el bridge identifica qué equipos están en cada segmento de la red.
Creación de la tabla de
encaminamiento. Los bridges generan sus
tablas de encaminamiento en función de las
direcciones de los equipos que han
transmitido datos en la red. Los bridges
utilizan, de forma específica, las direcciones
de origen (dirección del dispositivo que inicia
la transmisión) para crear una tabla de
encaminamiento.

Cuando el bridge recibe un paquete, la dirección de origen se compara con la tabla de encaminamiento. Si
no aparece la dirección de origen, se añade a la tabla. A continuación, el bridge compara la dirección de
destino con la base de datos de la tabla de encaminamiento.

• Si la dirección de destino está en la tabla de encaminamiento y aparece en el mismo


segmento de la dirección de origen, se descarta el paquete. Este filtrado ayuda a reducir el tráfico
de la red y aislar segmentos de la red.
• Si la dirección de destino está en la tabla de encaminamiento y no aparece en el mismo
segmento de la dirección de origen, el bridge envía el paquete al puerto apropiado que permite
alcanzar la dirección de destino.
• Si la dirección de destino no está en la tabla de encaminamiento, el bridge envía el paquete
a todos sus puertos, excepto al puerto desde donde se originó el envío.

Resumiendo, si un bridge conoce la localización del nodo de destino, envía el paquete a dicha localización.
Si no conoce el destino, envía el paquete a todos los segmentos.

Segmentación del tráfico de red. Un bridge puede segmentar el tráfico mediante su tabla de
encaminamiento. Un equipo en el segmento 1 (origen), envía datos a otro equipo (destino) también
localizado en el segmento 1. Si la dirección de destino está en la tabla de encaminamiento, el bridge puede
determinar que el equipo destino está también en el segmento 1. Dado que los equipos origen y destino
están en el mismo segmento 1, se tiene que el paquete no se reenvía a través del bridge al segmento 2.

Por tanto, los bridges pueden utilizar las tablas de encaminamiento para reducir el tráfico de la red
controlando los paquetes que se envían al resto de los segmentos. Este control (o restricción) del flujo del
tráfico de red se conoce como «segmentación del tráfico de red».

Una red grande no está limitada a un solo bridge. Se pueden utilizar múltiples bridge para combinar
diferentes redes pequeñas en una red más grande.

Los bridges tienen todas las características de los repetidores, pero también proporcionan más ventajas.
Ofrecen mejor rendimiento de red que los repetidores. Las redes unidas por bridges se han dividido y, por
tanto, un número menor de equipos compiten en cada segmento por los recursos disponibles.

Visto de otra forma, si una gran red Ethernet se dividió en dos segmentos conectados por un bridge, cada
red nueva transportaría un número menor de paquetes, tendríamos menos colisiones y operaría de forma
mucho más eficiente. Aunque cada red estaría separada, el bridge pasaría el tráfico apropiado entre ellas.

Un bridge puede constituir una pieza de equipamiento autónoma, independiente (un bridge externo) o se
puede instalar en un servidor. Si el sistema operativo de red (NOS) lo admite, puede instalar una o más
tarjetas de red (NIC) generando un bridge interno.

Su popularidad en grandes redes de debe a que:

• Son sencillos de instalar y transparentes a los usuarios.


• Son flexibles y adaptables.
• Son relativamente baratos.

Diferencias entre bridge y repetidor


Los bridges trabajan a un nivel superior del modelo OSI que los repetidores. Esto significa que los bridges
tienen más inteligencia que los repetidores y pueden tener más características relativas a los datos en las
cuentas.

Mientras que los bridges parecen repetidores en el sentido que pueden regenerar los datos, este proceso
se lleva a cabo a nivel de paquete. Esto significa que los bridges pueden enviar paquetes sobre distancias
más largas utilizando una variedad de medios de larga distancia.

Routers

En un entorno que está formado por diferentes segmentos de red con distintos protocolos y arquitecturas,
el bridge podría resultar inadecuado para asegurar una comunicación rápida entre todos los segmentos. Una
red de esta complejidad necesita un dispositivo que no sólo conozca la direcciones de cada segmento, sino
también, que sea capaz de determinar el camino más rápido para el envío de datos y filtrado del tráfico de
difusión en el segmento local. Este dispositivo se conoce como «router».

Los routers trabajan en el nivel de red del modelo de referencia OSI. Esto significa que pueden conmutar
y encaminar paquetes a través de múltiples redes. Realizan esto intercambiando información específica de
protocolos entre las diferentes redes. Los routers leen en el paquete la información de direccionamiento de la
redes complejas teniendo acceso a información adicional, puesto que trabajan a un nivel superior del modelo
OSI en comparación con los bridges.

Los routers pueden proporcionar las siguientes funciones de un bridge:

• Filtrado y aislamiento del tráfico.


• Conexión de segmentos de red.

Los routers tienen acceso a más información en los paquetes de la que tienen los bridges y utilizan esta
información para mejorar la entrega de los paquetes. Los routers se utilizan en redes complejas puesto que
proporcionan una mejor gestión del tráfico. Los routers pueden compartir con otro router el estado y la
información de encaminamiento y utilizar esta información para evitar conexiones lentas o incorrectas.

¿Cómo funcionan los routers?

Los routers mantienen sus propias tablas de encaminamiento, normalmente constituidas por direcciones
de red; también se pueden incluir las direcciones de los hosts si la arquitectura de red lo requiere. Para
determinar la dirección de destino de los datos de llegada, las tablas de encaminamiento incluyen:

• Todas las direcciones de red conocidas.


• Instrucciones para la conexión con otras redes.
• Los posibles caminos entre los routers.
• El coste de enviar los datos a través de estos caminos.

Un router utiliza sus tablas de encaminamiento de datos para seleccionar la mejor ruta en función de los
caminos disponibles y del coste.

La tabla de encaminamiento que mantiene un bridge contienen las direcciones del


subnivel MAC para cada nodo, mientras que la tabla de encaminamiento que mantiene un
router contiene números de red. Aunque los fabricantes de ambos tipos de equipamiento
han seleccionado utilizar el término «tabla de encaminamiento», tienen diferente
significado para cada uno de los dispositivos.

Los routers requieren direcciones específicas. Entienden sólo los números de red que les permiten
comunicarse con otros routers y direcciones NIC locales. Los routers no conversan con equipos remotos.

Cuando los routers reciben paquetes destinados a una red remota, los envían al router que gestiona la red
de destino. En algunas ocasiones esto constituye una ventaja porque significa que los routers pueden:
• Segmentar grandes redes en otras más pequeñas.
• Actuar como barrera de seguridad entre los diferentes segmentos.
• Prohibir las «tormentas» de difusión, puestos que no se envían estos mensajes de difusión.

Los routers son más lentos que los bridges, puesto que deben realizar funciones complejas sobre cada
paquete. Cuando se pasan los paquetes de router a router, se separan la direcciones de origen y de destino
del nivel de enlace de datos y, a continuación, se vuelven a generar. Esto activa a un router para encaminar
desde una red Ethernet TCP/IP a
un servidor en una red Token
Ring TCP/IP.

Dado que los routers sólo leen


paquetes direccionados de red,
no permiten pasar datos
corruptos a la red. Por tanto, al
no permitir pasar datos corruptos
ni tormentas de difusión de
datos, los routers implican muy
poca tensión en las redes.

Los routers no ven la dirección


del nodo de destino, sólo tienen
control de las direcciones de red.
Los routers pasarán información
sólo si conocen la dirección de la
red. Esta capacidad de controlar
el paso de datos a través del
router reduce la cantidad de
tráfico entre las redes y permite a
los routers utilizar estos enlaces de forma más eficiente que los bridges.

La utilización de un esquema de direccionamiento basado en router permite a los administradores poder


dividir una gran red en muchas redes separadas, y dado que los routers no pasan e incluso controlan cada
paquete, actúan como una barrera de seguridad entre los segmentos de la red. Esto permite reducir
bastante la cantidad de tráfico en la red y el tiempo de espera por parte de los usuarios.

Protocolos que permiten encaminar. No todos los protocolos permiten encaminar.

Los protocolos que encaminan son:

• DECnet.
• Protocolo de Internet (IP).
• Intercambio de paquetes entre redes (IPX).
• OSI.
• Sistema de red de Xerox (XNS).
• DDP (Apple Talk).

Los protocolos que no pueden encaminar son:

• Protocolo de transporte de área local (LAT), un protocolo de Digital Equipment Corporation.


• NetBEUI (Interfaz de usuario extendida NetBIOS).

Los routers pueden utilizar en la misma red múltiples protocolos.

Selección de los caminos. A diferencia de los bridges, los routers pueden establecer múltiples caminos
activos entre los segmentos LAN y seleccionar entre los caminos redundantes. Los routers pueden enlazar
segmentos que utilizan paquetes de datos y acceso al medio completamente diferentes, permitiendo utilizar
a los routers distintos caminos disponibles. Esto significa que si un router no funciona, los datos todavía se
pueden pasar a través de routers alternativos.
Un router puede escuchar una red e identificar las partes
que están ocupadas. Esta información la utiliza para
determinar el camino sobre el que envía los datos. Si un
camino está ocupado, el router identifica un camino
alternativo para poder enviar los datos.

Un router decide el camino que seguirá el paquete de datos determinando el número de saltos que se
generan entre los segmentos de red. Al igual que los bridges, los routers generan tablas de encaminamiento
y las utilizan en los siguientes algoritmos de encaminamiento:

• OSPF («Primer camino abierto más corto») es un algoritmo de encaminamiento basado en


el estado del enlace. Los algoritmos de estado de enlace controlan el proceso de encaminamiento y
permiten a los routers responder rápidamente a modificaciones que se produzcan en la red.
• RIP (Protocolo de información de encaminamiento) utiliza algoritmos con vectores de
distancia para determinar la ruta. El Protocolo de control de transmisión/Protocolo de Internet
(TCP/IP) e IPX admite RIP.
• NLSP (Protocolo de servicios de enlace NetWare) es un algoritmo de estado de enlace a
utilizar con IPX.

Tipos de routers

Los tipos principales de routers son:

• Estático. Los routers estáticos requieren un administrador para generar y configurar


manualmente la tabla de encaminamiento y para especificar cada ruta.
• Dinámico. Los routers dinámicos se diseñan para localizar, de forma automática, rutas y,
por tanto, requieren un esfuerzo mínimo de instalación y configuración. Son más sofisticados que
los routers estáticos, examinan la información de otros routers y toman decisiones a nivel de
paquete sobre cómo enviar los datos a través de la red.

Características de los dos tipos de routers

Routers estáticos Routers dinámicos


Instalación y configuración manual Configuración manual del primer
de todos los routers router. Detectan automáticamente
redes y routers adicionales.
Utilizan siempre la misma ruta, Pueden seleccionar un ruta en
determinada a partir de una entrada en función de factores tales como coste y
la tabla de encaminamiento cantidad del tráfico de enlace.
Utilizan una ruta codificada Pueden decidir enviar paquetes sobre
(designada para manejar sólo una rutas alternativas.
situación específica), no
necesariamente la ruta más corta.
Se consideran más seguros puesto Pueden mejorar la seguridad
que los administradores especifican configurando manualmente el router
cada ruta para filtrar direcciones específicas de
red y evitar el tráfico a través estas
direcciones.

Diferencias entre bridges y routers

Los bridges y los routers se configuran para realizar las mismas cosas: enviar paquetes entre redes y
enviar datos a través de los enlaces WAN, lo que plantea una cuestión importante: cuándo utilizar un bridge
o y cuando utilizar un router.

El bridge, que trabaja en el subnivel MAC del nivel de enlace de datos del modelo OSI, utiliza sólo la
dirección del nodo. Para ser más específicos, un bridge trata de localizar una dirección del subnivel MAC en
cada paquete. Si el bridge reconoce la dirección, mantiene el paquete o lo reenvía al segmento apropiado. Si
el bridge no reconoce la dirección, envía el paquete a todos los segmentos excepto al segmento del cual ha
partido el paquete.

Primero, el bridge reconoce o no la dirección del subnivel MAC del paquete y, a continuación, envía el
paquete.

Difusión. El envío de paquetes es la clave para entender las diferencias que plantean los bridges y los
routers. Con los bridges, los datos de difusión enviados se dirigen a cada equipo desde todos los puertos del
bridge, excepto desde el puerto a través del cual ha llegado el paquete. Es decir, cada equipo de todas las
redes (excepto la red local a partir de la cual se ha generado la difusión) recibe un paquete de difusión. En
las redes pequeñas esto puede que no tenga mucho impacto, pero en una red grande se puede generar el
suficiente tráfico de difusión que provoque una bajada de rendimiento de la red, incluso filtrando las
direcciones de la misma.

El router, que trabaja a nivel de red y tiene en cuenta más información que el bridge, determinando no
sólo qué enviar, sino también dónde enviarlo. El router reconoce no sólo una dirección, al igual que el bridge,
sino también un tipo de protocolo. De forma adicional, el
router puede identificar las direcciones de otros routers y
determinar los paquetes que se envían a otros routers.

Múltiples caminos. Un bridge sólo puede reconocer


un único camino entre las redes. Un router puede buscar
diferentes caminos activos y determinar en un momento
determinado cuál resulta más adecuado.

Si un router A realiza una transmisión que necesita


enviarse al router D, puede enviar el mensaje al router C
o al B, y el mensaje será enviado al router D. Los routers
tienen la posibilidad de evaluar ambos caminos y decidir
la mejor ruta para esta transmisión.

Conclusión. Cuatro son los aspectos que ayudan a


distinguir las diferencias entre un bridge y un router, y
determinar la opción más apropiada en una determinada
situación:

• El bridge reconoce sólo las direcciones locales a subnivel MAC (las direcciones de las NIC en
su propio segmento). Los routers reconocen direcciones de red.
• El bridge difunde (envía) todo lo que no reconoce y lo envía a todas las direcciones que
controla, pero sólo desde el puerto apropiado.
• El router trabaja sólo con protocolos encaminables.
• El router filtra las direcciones. Envía protocolos particulares a direcciones determinadas
(otros routers).

B-routers

Un brouter combina las cualidades de un bridge y un router. Un brouter puede actuar como un router
para un protocolo y como un bridge para el resto.

Los b-routers pueden:

• Encaminar protocolos encaminables seleccionados.


• Actuar de bridge entre protocolos no encaminables.
• Proporcionar un mejor coste y gestión de interconexión que el que proporcionan los bridges
y routers por separado.

Gateways
Los gateways activan la comunicación entre diferentes arquitecturas y entornos. Se encargan de
empaquetar y convertir los datos de un entorno a otro, de forma que cada entorno pueda entender los datos
del otro entorno. Un gateway empaqueta información para que coincida con los requerimientos del sistema
destino. Los gateways pueden modificar el formato de un mensaje para que se ajuste al programa de
aplicación en el destino de la transferencia. Por ejemplo, los gateways de correo electrónico, como el X.400,
reciben mensajes en un formato, los formatean y envían en formato X.400 utilizado por el receptor, y
viceversa.

Un gateway enlaza dos sistemas que no utilizan los mismos:

• Protocolos de comunicaciones.
• Estructuras de formateo de datos.
• Lenguajes.
• Arquitectura.

Los gateways interconectan redes heterogéneas; por ejemplo, pueden conectar un servidor Windows NT
de Microsoft a una Arquitectura de red de los sistemas IBM (SNA). Los gateways modifican el formato de los
datos y los adaptan al programa de aplicación del destino que recibe estos datos.

Los gateways son de tarea específica. Esto significa que están dedicados a un tipo de transferencia. A
menudo, se referencian por su nombre de tarea (gateway Windows NT Server a SNA).

Un gateway utiliza los datos de un entorno, desmantela su pila de protocolo anterior y empaqueta los
datos en la pila del protocolo de la red destino.

Para procesar los datos, el gateway:

• Desactiva los datos de llegada a través de la pila del protocolo de la red.


• Encapsula los datos de salida en la pila del protocolo de otra red para permitir su
transmisión.

Algunos gateways utilizan los siete niveles del modelo OSI, pero, normalmente, realizan la conversión de
protocolo en el nivel de aplicación. No obstante, el nivel de funcionalidad varía ampliamente entre los
distintos tipos de gateways.

Una utilización habitual de los gateways es actuar como traductores entre equipos personales y
miniequipos o entornos de grandes sistemas. Un gateway en un host que conecta los equipos de una LAN
con los sistemas de miniequipo o grandes entornos (mainframe) que no reconocen los equipos conectados a
la LAN.

En un entorno LAN normalmente se diseña un equipo para realizar el papel de gateway. Los programas de
aplicaciones especiales en los equipos personales acceden a los grandes sistemas comunicando con el
entorno de dicho sistema a través del equipo gateway. Los usuarios pueden acceder a los recursos de los
grandes sistemas sólo cuando estos recursos están en sus propios equipos personales.

Normalmente, los gateways se dedican en la red a servidores. Pueden utilizar un porcentaje significativo
del ancho de banda disponible para un servidor, puesto que realizan tareas que implican una utilización
importante de recursos, tales como las conversiones de protocolos. Si un servidor gateway se utiliza para
múltiples tareas, será necesario adecuar las necesidades de ancho de banda y de RAM o se producirá una
caída del rendimiento de las funciones del servidor.

Los gateways se consideran como opciones para la implementación, puesto que no implican una carga
importante en los circuitos de comunicación de la red y realizan, de forma eficiente, tareas muy específicas.

Servicios de Conexión

Proveedores de servicios (carriers)


Un módem no sirve para nada a menos que pueda comunicarse con otro equipo. Toda la comunicación vía
módem tiene lugar sobre algunos tipos de líneas o cableado de comunicaciones. Decidir el tipo de cable así
como los proveedores y sus servicios relacionados, marca la diferencia en cuanto coste y rendimiento en una
red.

Es difícil y costoso desplazar datos rápidamente sobre grandes distancias. Los tres factores que debe
tener en cuenta un administrador cuando considera la implementación de las comunicaciones vía módem
son:

• Rendimiento total.
• Distancia.
• Coste.

Necesita aplicar estos factores cuando decida qué tipo de líneas telefónicas se instalan en la red.

Líneas telefónicas

Están disponibles dos tipos de líneas telefónicas para las comunicaciones vía módem:

• Líneas de llamada: Las líneas de llamada son las líneas telefónicas habituales. Son lentas,
requieren que los usuarios realicen, de forma manual, una conexión para cada comunicación y
pueden no resultar fiables para la transmisión de datos. No obstante, para algunas empresas
resulta práctico para la transferencia de archivos y actualización de las bases de datos utilizar, de
forma temporal, un enlace de comunicación de llamada entre los sitios durante un determinado
período de tiempo al día.
Los proveedores de servicios están continuamente mejorando el servicio de las líneas de llamada.
Algunas líneas digitales admiten velocidades de transmisión de datos de hasta 56 Kbps utilizando
corrección de errores, compresión de datos y módems síncronos.
• Líneas alquiladas (dedicadas): Las líneas alquiladas o dedicadas proporcionan
conexiones dedicadas a tiempo completo y no utilizan una serie de conmutadores para completar la
conexión. La calidad de esta línea es, a menudo, superior a la calidad de la línea telefónica diseñada
para la transmisión de voz únicamente. El rango de velocidad de estas líneas va desde los 56 Kbps
hasta por encima de los 45 Mbps.
La mayoría de los proveedores de servicios de larga distancia utilizan circuitos conmutados para
proporcionar un servicio similar a una línea dedicada. Tenemos, por tanto, las «redes privadas
virtuales» (VPN; Virtual Private Network).

Servicio de acceso remoto (RAS)

Frecuentemente, las empresas necesitan poder comunicarse más allá de los límites que establece una
única red. La mayoría de los sistemas operativos de red proporcionan, para lograr este objetivo, un servicio
denominado Servicio de acceso remoto (RAS). Para establecer una conexión remota, se requieren dos
servicios: RAS y un servicio de cliente conocido como conexión de llamada (DUN; Dial-Up Networkin). El
servidor o la estación de trabajo utiliza RAS para conectar los equipos remotos a la red por medio de una
conexión de llamada a través de un módem. Los equipos remotos utilizan DUN, la otra parte del servicio,
para conectarse al servidor RAS. Estos dos servicios juntos proporcionan la capacidad de extender una red y
pueden realmente convertir una LAN en una WAN. Un servidor RAS, a menudo, actúa para su red como una
interfaz de Internet, puesto que muchos proveedores de servicios de Internet utilizan acceso por líneas
telefónicas.

Los equipos separados y las LAN se pueden conectar entre ellos a través de la red telefónica pública
conmutada, de redes de conmutación de paquetes o, a través de la red digital de servicios integrados.

Una vez que el usuario ha realizado una conexión, la línea telefónica se hace transparente (invisible al
usuario), y los usuarios en los clientes remotos pueden acceder a todos los recursos de la red de la misma
forma que accederían si estuvieran sentados delante de sus equipos en la red.

Conexiones RAS
La conexión física a un servidor RAS se puede realizar utilizando diferentes medios:

• Red telefónica pública conmutada (PSTN). Este servicio es conocido como el sistema
telefónico público.
• X.25. Este servicio de red de conmutación de paquetes se puede utilizar para realizar
conexiones de llamada o directas.
• Red digital de servicios integrados (RDSI). Este servicio proporciona acceso remoto de
alta velocidad, pero a un coste superior que una conexión de llamada. Una conexión RDSI requiere
una tarjeta RDSI en lugar de un módem.

Protocolos RAS

RAS admite tres protocolos de conexión.

• SLIP (Serial Line Interfaz Protocol). Es el primero y data de 1984. Tiene un número de
limitaciones. SLIP no admite direccionamiento IP dinámico o los protocolos NetBEUI o IPX, no puede
cifrar la información de la entrada en el sistema y sólo lo admiten los clientes RAS.
• PPP (Point to Point Protocol). superan muchas de las limitaciones de SLIP. Además de
TCP/IP, admiten los protocolos IPX, NetBEUI, Apple Talk y DECnet. Por otro lado, también admiten
contraseñas cifradas.
• PPTP (Point to Point Tuneling Protocol). El Protocolo de encapsulación punto a punto
(PPTP) constituye una parte esencial de la tecnología VPN. Al igual que PPP, no establece diferencias
entre los protocolos. PPTP proporciona transmisiones seguras a través de redes TCP/IP puesto que
las conexiones son cifradas. Esto permite activar enlaces seguros en Internet.

RAS y seguridad

Los métodos actuales que permiten garantizar la seguridad en el acceso remoto pueden variar con el
sistema operativo. Las funciones de seguridad RAS incluyen:

• Auditoria. Se puede mantener un seguimiento de auditoria que identifique los usuarios y


los momentos de conexión al sistema.
• Retrollamada. RAS se puede configurar para generar una llamada al host que está
solicitando una conexión y se puede restringir la lista de estos números de teléfonos de los host
para evitar el uso no autorizado del sistema.
• Host de seguridad. Un host de seguridad puede requerir pasos de autenticación
adicionales, además de los que existen en la red donde se encuentra el host.
• Filtrado PPTP. Este proceso de filtrado puede evitar el procesamiento de todos los
paquetes, excepto PPTP. Proporciona una transferencia segura de datos sobre VPN, evitando que los
intrusos puedan acceder al servidor.

Instalación de RAS

Para planificar una instalación RAS, comenzamos por obtener la documentación apropiada sobre la red y
sus usuarios. La información que necesitará incluye:

• Especificaciones, controladores y configuraciones del módem (necesitará un módem que


admita RAS).
• Tipo de puerto de comunicaciones a configurar.
• Si la conexión será de llamada de entrada, llamada de salida o ambas.
• Protocolos de los clientes.
• Requerimientos de seguridad.

Configuración del RAS

El RAS se tiene que configurar una vez instalado. Prepárese para configurar los puertos de
comunicaciones, protocolos de red y cifrado RAS.
Configuración de redes de llamada. Se deben configurar estas conexiones cuando el servidor se va a
utilizar para llamar a otras redes, a Internet o a otros equipos. El método de configuración depende de los
sistemas operativos de red y del equipo en uso.

Limitaciones del RAS

La utilización de una conexión RAS no constituye siempre la mejor opción para conseguir la expansión de
una red. No obstante, proporciona muchas posibilidades y oportunidades no disponibles en otros casos. Es
importante tener claro cuándo seleccionar RAS o cuándo elegir una opción diferente.

Utilice RAS si los requerimientos de ancho de banda no son superiores a 128 Kbps, si no requiere una
conexión a tiempo completo o si debe mantener costes de sistemas bajos. No utilice RAS si necesita un
ancho de banda superior al proporcionado por un módem asíncrono o si necesita una conexión a tiempo
completo dedicada.

Protocolo de encapsulación punto a punto (PPTP)

Este protocolo admite múltiples protocolos VPN. Este soporte permite a los clientes remotos conectar y
acceder a redes de organizaciones seguras vía Internet. Utilizando PPTP, el cliente remoto establece una
conexión al servidor RAS sobre Internet utilizando PPTP.

PPTP proporciona la forma de encaminar paquetes de los protocolos IP, IPX o del protocolo punto a punto
NetBEUI sobre una red TCP/IP. La encapsulación de estos paquetes de protocolos distintos, permite enviar
cualquiera de estos paquetes a través de una red TCP/IP. Esta WAN virtual se genera a partir de redes
públicas tales como Internet.

Introducción a las WAN

A pesar de que las LAN funcionan bien, tienen limitaciones físicas y de distancia. Dado que las redes LAN
no resultan adecuadas para todas las comunicaciones previstas en la empresa, éstas deben ser capaces de
conectar las LAN con otros tipos de entornos para asegurar el acceso a los servicios de comunicaciones
completos.

La utilización de componentes tales como bridges o routers, junto con los proveedores de servicios de
comunicaciones, permite que una LAN se pueda expandir a partir de un proceso de expansión que permite a
un área local poder cubrir una red de área extensa admitiendo comunicaciones a nivel de estado, de país, o
incluso, a nivel mundial. Para el usuario, la WAN es transparente y parece similar a una red de área local.
Una WAN no se puede distinguir de una LAN cuando se ha implementado de forma apropiada.

La mayoría de las WAN son combinaciones de LAN y otros tipos de componentes conectados por enlaces
de comunicaciones denominados «enlaces WAN». Los enlaces WAN pueden incluir:

• Redes de conmutación de paquetes.


• Cables de fibra óptica.
• Transmisores de microondas.
• Enlaces de satélite.
• Sistemas coaxiales de televisión por cable.

Los enlaces WAN, tales como las conexiones telefónicas de área extensa, son demasiado caros y
complejos de comprar, implementar y mantener para la mayoría de las empresas y, normalmente, se opta
por alquilar a los proveedores de servicios.

Las comunicaciones entre las LAN supondrán algunas de las siguientes tecnologías de transmisión:

• Analógica.
• Digital.
• Conmutación de paquetes.
Conectividad analógica

La misma red que utiliza nuestro teléfono está


disponible para los equipos. El nombre de esta red
mundial es la Red telefónica pública conmutada
(PSTN). En el marco de la informática, podemos pensar
en PSTN como un gran enlace WAN que ofrece líneas
telefónicas de llamada de grado de voz.

Líneas de llamada

El hecho de que PSTN fuese diseñada principalmente


para la comunicación de voz hace que sea lenta. Las líneas analógicas de llamada requieren módems que
pueden incluso hacerlas más lentas todavía. Por otro lado, la calidad de la conexión es inconsistente debido a
que PSTN es una red de circuitos conmutados. Cualquier sesión de comunicación única será tan buena como
los circuitos enlazados para esta sesión determinada. Sobre largas distancias, por ejemplo, país a país,
pueden resultar considerablemente inconsistentes en los circuitos de una sesión a la siguiente.

Líneas analógicas dedicadas

A diferencia de las líneas de llamada que deben volver a abrir la sesión cada vez que se utilizan, las líneas
analógicas dedicadas (o alquiladas) se mantienen abiertas en todo momento. Una línea analógica alquilada
es más rápida y fiable que una conexión de llamada. Sin embargo, es relativamente cara puesto que el
proveedor de servicio está dedicando recursos a la conexión alquilada, independientemente de si se está
utilizando la línea o no.

¿De llamada o dedicada?

Ningún tipo de servicio es el mejor para todos los usuarios. La mejor opción dependerá de un número de
factores destacando:

• La cantidad de tiempo de conexión que se utilizará.


• El coste del servicio.
• La importancia de tener tasas de transferencia de datos superiores y más fiable que una
línea condicionada.
• La necesidad de tener una conexión 24 horas al día.

Si no es frecuente la necesidad de establecer la conectividad, pueden resultar más adecuadas las líneas
de llamada. Si es necesario una conexión de alto nivel de fiabilidad y de utilización continua, entonces no
resulta adecuada la calidad del servicio que proporciona una línea de llamada.

Conectividad digital

En algunos casos, las líneas analógicas proporcionan conectividad suficiente. No obstante, cuando una
organización genera demasiado tráfico WAN, se tiene que el tiempo de transmisión hace que la conexión
analógica sea ineficiente y costosa.

La organizaciones que requieren un entorno más rápido y seguro que el proporcionado por las líneas
analógicas, pueden cambiar a las líneas de servicios de datos digitales (DDS). DDS proporciona
comunicación síncrona punto a punto a 2,4, 4,8, 9,6 o 56 Kbps. Los circuitos digitales punto a punto son
dedicados y suministrados por diferentes proveedores de servicio de telecomunicaciones. El proveedor de
servicio garantiza ancho de banda completo en ambas direcciones configurando un enlace permanente desde
cada punto final a la LAN.

La principal ventaja de las líneas digitales es que proporcionan una transmisión cerca del 99 por 100 libre
de errores. Las líneas digitales están disponibles de diversas formas, incluyendo DDS, T1, T3, T4 y Switched-
56.
No se requiere módem puesto que DDS utiliza comunicación
digital. En su lugar, DDS envía datos desde un bridge o router a
través de un dispositivo denominado Unidad de servicio de
canales/Unidad de servicio de datos (CSU/DSU; Channel Service
Unit/Data Service Unit). Este dispositivo convierte las señales
digitales estándar que genera el ordenador en el tipo de señales
digitales (bipolar) que forman parte del entorno de comunicación
síncrona. Además, contiene la electrónica suficiente para proteger la
red del proveedor de los servicios DDS.

Servicio T1

Para velocidades de datos muy altas, el servicio T1 es el tipo de línea digital más utilizado. Se trata de
una tecnología de transmisión punto a punto que utiliza dos pares de hilos (un par para enviar y otro para
recibir) para transmitir una señal en ambos sentidos (full-duplex) a una velocidad de 1,544 Mbps. T1 se
utiliza para transmitir señales digitales de voz, datos y vídeo.

Las líneas T1 están entre las más caras de todos los enlaces WAN. Los abonados que ni necesitan ni
pueden generar el ancho de banda de una línea T1 pueden abonarse a uno a más canales T1 con
incrementos de 64 Kbps, conocido como Fractional T-1 (FT-1).

Multiplexación. Desarrollado por los Laboratorios Bell, T1 utiliza la tecnología denominada


multiplexación. Diferentes señales de distintas fuentes se reúnen en un componente denominado multiplexor
y se envían por un cable para la transmisión. En el punto destino de recepción, los datos se convierten en su
formato original. Esta perspectiva surgió cuando se saturaban los cables telefónicos que transportaban sólo
una conversión por cable. La solución al problema, denominada red T-Portadora, permitió a los Laboratorios
Bell transportar muchas llamadas sobre un cable.

División del canal. Un canal T1 puede transportar 1,544 megabits de datos por segundo, la unidad
básica de un servicio T-Portadora. T1 la divide en 24 canales y muestrea cada canal 8.000 veces por
segundo. Con este método, T1 permite 24 transmisiones simultáneas de datos sobre cada par de dos hilos.

Cada muestra del canal incorpora ocho bits. Cada uno de los 24 canales pueden transmitir a 64 Kbps
puesto que cada canal se muestrea 8.000 veces por segundo. Este estándar de velocidad de datos se conoce
como DS-0. La velocidad de 1,544 Mbps se conoce como DS-1.

Los velocidades de DS-1 se pueden multiplexar para proporcionar incluso velocidades de transmisión
superiores, conocidas como DS-1C, DS-2, DS-3 y DS-4. La siguiente tabla muestra las correspondientes
velocidades de transmisión:

Nivel de Sistema Canales Canales Velocidad


señal de T-1 de voz de datos
portadora (Mbps)
DS-0 N/A N/A 1 0,064
DS-1 T1 1 24 1,544
DS-1C T-1C 2 48 3,152
DS-2 T2 4 96 6,312
DS-3 T3 28 672 44,736
DS-4 T4 168 4.032 274,760

Servicio T3

Los servicios de líneas alquiladas T3 y Fractional T3 proporcionan servicios de datos y voz desde 6 Mbps
hasta 45 Mbps. Ofrecen los servicios de líneas alquiladas de más altas posibilidades disponibles hoy en día.
T3 y FT-3 se diseñan para el transporte de grandes volúmenes de datos a alta velocidad entre dos puntos
fijos. Una línea T3 se puede utilizar para reemplazar diferentes líneas T1.
Servicio Switched-56

Las compañías telefónicas de larga y pequeña distancia


ofrecen el servicio Switched-56, un servicio de llamada digital LAN a LAN que transmite los datos a 56 Kbps.
Realmente, Switched-56 es una versión de circuito conmutado de una línea DDS a 56 Kbps. La ventaja de
Switched-56 es que se utiliza por demanda, eliminando, por tanto, el coste de una línea dedicada. Cada
equipo que utiliza este servicio debe estar equipado con una CSU/DSU que pueda llamar a otro sitio
Switched-56.

Redes de conmutación de paquetes

La tecnología de paquetes se utiliza para transmitir datos sobre grandes áreas como ciudades, estados o
países. Se trata de una tecnología rápida, conveniente y fiable. Las redes que envían paquetes procedentes
de diferentes usuarios con muchos posibles caminos distintos, se denominan «redes de conmutación de
paquetes» debido a la forma en la que empaquetan y encaminan los datos.

El paquete de datos original se divide en paquetes y cada paquete se etiqueta con una dirección de
destino además de otra información. Esto permite enviar cada paquete de forma separada a través de la red.

En la conmutación de paquetes, éstos se transmiten por medio de las estaciones de una red de equipos a
través de la mejor ruta existente entre el origen y destino.

Cada paquete se conmuta de forma separada. Dos paquetes de los mismos datos originales pueden seguir
caminos completamente diferentes para alcanzar el mismo destino. Los caminos de datos seleccionados por
los paquetes individuales se basan en la mejor ruta abierta en cualquier instante determinado.

El ordenador receptor es capaz de volver a generar el mensaje original, incluso cuando cada paquete viaja
a lo largo de un camino diferente y los paquetes que componen el mensaje llegan en diferentes intervalos de
tiempo o fuera de secuencia.

Los conmutadores dirigen los paquetes a través de los posibles caminos o conexiones. Estas redes, a
menudo, se denominan conexiones muchos a muchos. Los intercambios en la red leen cada paquete y los
envían utilizando la mejor ruta disponible en ese momento.

El tamaño del paquete debe ser pequeño. Si aparece un error en la transmisión, la retransmisión de un
paquete pequeño es más fácil que la retransmisión de un paquete grande. Además, los paquetes pequeños
ligan conmutadores sólo para cortos períodos de tiempo.

La utilización de las redes de conmutación de paquetes para enviar datos es similar a enviar inmensas
cantidades de mercancías mediante camiones en lugar de cargar todas las mercancías en un tren. Si se
produce un problema con la mercancía de un camión, es más fácil arreglar o recargar esta mercancía que el
problema que se puede originar si el tren descarrila. Además, los caminos no conectan cruces o
intersecciones (conmutadores) como lo hacen los trenes.

Las redes de conmutación de paquetes son rápidas y eficientes. Para gestionar las tareas de
encaminamiento del tráfico y ensamblaje y desensamblaje de los paquetes, estas redes requieren algún
componente inteligente por parte de los equipos y el software que controle la entrega. Las redes de
conmutación de paquetes resultan económicas, puesto que ofrecen líneas de alta velocidad sobre la base de
pago por transacción en lugar de hacerlo con una tarifa plana.

Circuitos virtuales

Muchas de las redes de conmutación de paquetes utilizan circuitos virtuales. Se tratan de circuitos
compuestos por una serie de conexiones lógicas entre el equipo emisor y el equipo receptor. El circuito cuyo
ancho de banda se asigna por demanda no es un cable actual o permanente entre dos estaciones. La
conexión se realiza después de que ambos equipos intercambien información y estén de acuerdo en los
parámetros de la comunicación que establecen y mantienen la conexión. Estos parámetros incluyen el
tamaño máximo de mensaje y el camino que tomarán los datos.
Los circuitos virtuales incorporan los siguientes
parámetros de comunicaciones para asegurar la
fiabilidad:

• Reconocimientos.
• Control de flujo.
• Control de errores.

Los circuitos virtuales pueden durar tanto como


dura la conversación (temporal) o como la
comunicación entre los equipos (permanente).

Circuitos virtuales conmutados (SVC). En los


circuitos virtuales conmutados (SVC), la conexión entre
los equipos de destino utiliza una ruta específica a
través de la red. Los recursos de la red se dedican al
circuito y se mantiene la ruta hasta que se termine la
conexión. Se conocen como conexiones punto a
muchos puntos.

Circuitos virtuales permanentes (PVC). Los


circuitos virtuales permanentes (PVC) son similares a las líneas alquiladas. Son, por tanto, permanentes y
virtuales, excepto que el cliente paga sólo por el tiempo que utiliza la línea.

Envío de datos a través de una WAN

Existen otros tipos de tecnología más avanzado con mayor ancho de banda, como:

• X.25.
• Frame Relay.
• Modo de transferencia asíncrono (ATM).
• Red digital de servicios integrados (RDSI).
• Interfaz de datos de fibra distribuida (FDDI).
• Red óptica síncrona (SONET).
• Servicio de datos multimegabit conmutado (SMDS).

X.25

X.25 es un conjunto de protocolos incorporados en una red de conmutación de paquetes. La red de


conmutación de paquetes se originó a partir de los servicios de conmutación inicialmente utilizados para
conectar terminales remotos a sistemas host basados en grandes entornos.

Una red de conmutación de paquetes X.25 utiliza conmutadores, circuitos y routers para proporcionar la
mejor ruta en cualquier momento. A menudo, estos componentes (conmutadores, circuitos y routers) se
describen como nubes, puesto que cambian rápidamente dependiendo de las necesidades y disponibilidad.
Estas nubes se utilizan para especificar la idea de situación cambiante o no existencia de un conjunto
estándar de circuitos.

Las primeras redes X.25 utilizaban las líneas telefónicas para transmitir los datos. Se trataba de un medio
no fiable que generaba bastantes errores, provocando que X.25 incorporase una amplia comprobación de
errores. X.25 puede parecer demasiado lenta, debido precisamente a toda la comprobación de errores y la
retransmisión.

Hoy en día, el protocolo X.25 define la interfaz entre un host u otro dispositivo en modo conmutación de
paquetes y la red pública de datos (PDN) sobre un circuito de línea alquilada o dedicada. Se trata de una
interfaz de equipamiento de terminal de datos/equipamiento de comunicaciones de datos (DTE/DCE).

Ejemplos de DTE incluyen:


• Un equipo host con una interfaz
X.25.
• Un ensamblador/desensamblador de
paquetes (PAD) que recibe caracteres
asíncronos introducidos desde un terminal a
baja velocidad y los ensambla en paquetes
para ser transmitidos a través de la red.
Además, el PAD desempaqueta los paquetes
recibidos de la red, de forma que los datos
se pueden entregar como caracteres a los
terminales.
• Un gateway entre la PDN y una LAN o WAN.

Frame Relay

Frame Relay se trata de una tecnología avanzada de conmutación de paquetes, digital y de longitud
variable en los paquetes. Con esta tecnología, los diseñadores han eliminado muchas de las funciones de
registro y comprobación que no son necesarias en un entorno de fibra óptica más seguro y fiable.

Frame Relay es un sistema punto a punto que utiliza PVC para transmitir tramas de longitud variable en el
nivel de enlace de datos. Los datos viajan desde una red sobre una línea digital alquilada hasta un
conmutador de datos en una red Frame Relay. Pasan a través de la red Frame Relay y llegan a la red de
destino.

Las redes Frame Relay se utilizan bastante puesto que realizan de forma más rápida las operaciones
básicas de conmutación de paquetes con respecto a otros sistemas de conmutación. Esto es debido a que
Frame Relay utiliza PVC, lo que permite conocer el camino completo desde el origen hasta el final. Los
dispositivos de Frame Relay no tienen la necesidad de realizar el ensamblaje y desensamblaje de los
paquetes o proporcionar la mejor ruta.

Además, las redes Frame Relay proporcionan a los abonados el ancho de banda a medida que lo
necesitan, permitiendo al cliente cualquier tipo de transmisión.

La tecnología Frame Relay requiere un router o bridge que admita Frame Relay para transmitir los datos
con éxito a través de la red. Un router Frame-Relay necesita, al menos, un puerto WAN para una conexión a
una red Frame Relay y otro puerto para la LAN.

Modo de transferencia asíncrono (ATM)

El modo de transferencia asíncrono es una implementación avanzada de conmutación de paquetes que


proporciona tasas de transmisión de datos de alta velocidad para enviar paquetes de tamaño fijo a través de
LAN o WAN de banda amplia o banda base. ATM permite:

• Voz.
• Datos.
• Fax.
• Vídeo en tiempo real.
• Audio en calidad CD.
• Imágenes.
• Transmisión de datos multimegabit.

La CCITT definió ATM en 1988 como parte de la Red digital de servicios integrados de banda amplia
(BISDN). Debido a la potencia y versatilidad de ATM, tiene una gran influencia en el desarrollo de las
comunicaciones en red. Se adapta igualmente a entornos WAN que LAN y puede transmitir datos a muy altas
velocidades (desde 155 Mbps hasta 622 Mbps o más).

Tecnología ATM
ATM es un método
de transmisión de
celdas de banda amplia
que transmite datos en
celdas de 53 bytes en
lugar de utilizar tramas
de longitud variable.
Estas celdas están
constituidas por 48
bytes de información de aplicaciones y cinco bytes adicionales que incorporan información de la cabecera
ATM. Por ejemplo, ATM dividirá un paquete de 1.000 bytes en 21 tramas de datos y colocará cada trama de
datos en una celda. El resultado es una tecnología que transmite un paquete uniforme y consistente.

El equipamiento de la red puede conmutar, encaminar y desplazar tramas de tamaño uniforme más
rápidamente que cuando se utilizan tramas de tamaño variable. La celda consistente y de tamaño estándar
utiliza, de forma eficiente, búferes y reduce el trabajo necesario relativo al procesamiento de los datos de
llegada. El tamaño uniforme de la celda también ayuda en la planificación del ancho de banda para las
aplicaciones.

Teóricamente, ATM puede ofrecer tasas de rendimiento total de hasta 1,2 gigabits por segundo.
Actualmente, no obstante, ATM mide su velocidad frente a las velocidades de la fibra óptica que pueden
alcanzar hasta los 622 Mbps.

ATM se puede utilizar con la misma velocidad aproximadamente en las WAN y en las LAN. ATM para la
implementación de una gran área, transmite sobre proveedores de servicio como AT&T y Sprint. Esto
permite crear un entorno consistente que acaba con el concepto de WAN lenta y con las diferentes
tecnologías utilizadas en los entornos LAN y WAN.

Componentes ATM

Los componentes ATM están disponibles actualmente sólo para un número limitado de fabricantes. Todo
el hardware en una red ATM debe ser compatible con ATM. La implementación de ATM en un entorno
existente requerirá un amplio reemplazamiento del equipamiento. Ésta es una razón de por qué no se ha
adoptado más rápidamente ATM.

Sin embargo, conforme madure el mercado de ATM, diferentes fabricantes serán capaces de
proporcionar:

• Routers y conmutadores para conectar servicios de portadora sobre un esquema global.


• Dispositivos de enlace central para conectar todas las LAN dentro de una gran
organización.
• Conmutadores y adaptadores que enlazan equipos personales a conexiones ATM de alta
velocidad para la ejecución de aplicaciones multimedia.

El medio ATM no se restringe, se puede utilizar cualquier tipo , incluso el medio existente diseñado para
otros sistemas de comunicaciones incluyendo:

• Cable coaxial.
• Cable de par trenzado.
• Cable de fibra óptica.

No obstante, estos medios de red tradicionales en sus formatos actuales no admiten las posibilidades de
ATM. La organización denominada ATM Forum recomienda las siguientes interfaces físicas para ATM:

• FDDI (100 Mbps).


• Fiber Channel (155 Mbps).
• OC3 SONET (155 Mbps).
• T3 (45 Mbps).
Conmutadores ATM. Los
conmutadores ATM son
dispositivos multipuerto que
pueden actuar de la siguiente forma:

• Como hubs para enviar datos desde un ordenador a otro dentro de una red.
• Como dispositivos similares a los routers para enviar datos a alta velocidad a redes
remotas.

En algunas arquitecturas de red, tales como Ethernet o Token Ring, sólo puede transmitir un equipo en
cada momento.

Consideraciones relativas a ATM

La tecnología ATM requiere un hardware especial y un ancho de banda excepcional para alcanzar su
potencial. Las aplicaciones que admiten vídeo y voz van a saturar la mayoría de los entornos de red
anteriores y frustrarán a los usuarios que intentan utilizar la red para realizar las tareas diarias. Además, la
implementación y soporte de ATM requiere un experto que no siempre está disponible.

Red digital de servicios integrados (RDSI)

La red digital de servicios integrados (RDSI) es una especificación de conectividad digital entre LAN que
permite voz, datos e imágenes. Uno de los objetivos más originales de los desarrolladores de RDSI fue
enlazar los hogares y las empresas a través de los hilos telefónicos de cobre. El plan de implementación de
RDSI inicial planificó convertir de analógicos a digitales los circuitos telefónicos existentes.

Basic Rate RDSI divide su ancho de banda disponible en tres canales de datos. Dos de ellos desplazan los
datos a 64 Kbps, mientras que el tercero lo hace a 16 Kbps.

Los canales de 64 Kbps se conocen como canales B. Éstos pueden transportar voz, datos o imágenes. El
canal más lento de 16 Kbps se denomina el canal D. El canal D transporta el muestreo de señales y los datos
de gestión del enlace. El servicio personal de Basic Rate RDSI se denomina 2B+D.

Un equipo conectado a un servicio RDSI puede utilizar los canales B juntos para un flujo de datos de 128
Kbps combinado. Se puede conseguir un rendimiento superior, si ambas estaciones de destino admiten la
compresión.

Primary Rate RDSI utiliza el ancho de banda completo de un enlace T1 proporcionando 23 canales B a 64
Kbps y un canal D a 64 Kbps. El canal D se utiliza sólo para el muestreo de señales y gestión del enlace.

Los redes que quieren utilizar los servicios RDSI deben considerar si utilizar Basic Rate o Primary Rate en
función de sus necesidades del rendimiento de los datos. RDSI es el reemplazamiento digital de PSTN y,
como tal, se trata de un servicio de llamada. No está diseñado para ser un servicio disponible las 24 horas
del día (como T1) o para constituir un servicio de ancho de banda por demanda (como puede ser Frame
Relay).

Interfaz de datos distribuidos en fibra (FDDI)

La interfaz de datos distribuidos en fibra (FDDI) es una especificación que describe una red de pase de
testigo de alta velocidad (100 Mbps) que utiliza como medio la fibra óptica. Fue diseñada por el comité
X3T9.5 del Instituto Nacional Americano de Estándares (ANSI) y distribuida en 1986. FDDI se diseñó para su
utilización con grandes equipos de destino que requerían anchos de banda superiores a los 10 Mbps de
Ethernet o 4 Mbps de las arquitecturas Token Ring existentes.

FDDI se utiliza para proporcionar conexiones de alta velocidad a varios tipos de red. FDDI se puede
utilizar para redes de área metropolitanta (MAN) que permiten conectar redes en la misma ciudad con una
conexión de fibra óptica de alta velocidad. Está limitada a una longitud máxima de anillo de 100 kilómetros
(62 millas) y, por tanto, FDDI no está diseñada realmente para utilizarse como tecnología WAN.
La redes en entornos de altos destinos utilizan FDDI para conectar
componentes, como pueden ser miniequipos grandes o pequeños, en
una tradicional habitación de equipos. A veces se denominan «redes
de destino de vuelta». Normalmente, estas redes manejan la
transferencia de archivos más allá de la comunicación interactiva.
Cuando se establece la comunicación con un gran sistema o
mainframe, los miniequipos u equipos personales, a menudo,
requieren uso constante en tiempo real del medio. Incluso podrían
necesitar, de forma exclusiva, utilizar el medio durante amplios
períodos de tiempo.

FDDI funciona con redes de enlace central (backbone) a las que se


pueden conectar LAN de baja capacidad. No resulta prudente
conectar todo el equipamiento de procesamiento de datos de una
empresa a una única LAN, puesto que el tráfico puede sobrecargar la
red y un fallo podría provocar que se detengan todas las operaciones de procesamiento de datos en la
empresa.

Las LAN que requieren altas velocidades de datos y amplios anchos de banda pueden utilizar conexiones
FDDI. Son redes formadas por equipos que desempeñan trabajos relativos a ingeniería u otros equipos que
deben admitir aplicaciones de ancho de banda amplio como vídeo, diseño asistido por PC (CAD) y fabricación
asistida por PC (CAM).

Cualquier oficina que requiera operaciones de red de alta velocidad podría considerar la utilización de
FDDI. Incluso en las oficinas de las empresas, el hecho de necesitar generar gráficos para presentaciones y
otra documentación puede saturar y ralentizar una red.

Pase de testigo

Mientras FDDI utiliza un sistema estándar de pase de testigo, existen diferencias entre FDDI y 802.5. Un
equipo en una red FDDI puede transmitir tantas tramas como produce dentro de un tiempo determinado
antes de abandonar el testigo. Tan pronto como finaliza la transmisión, el equipo libera el testigo.

Dado que un equipo libera el testigo cuando finaliza la transmisión, pueden aparecer, al mismo tiempo,
tramas circulando por el anillo. Esto explica por qué FDDI ofrece un rendimiento superior que el
proporcionado por las redes Token Ring, que sólo permiten una trama en un instante de tiempo.

Topología

FDDI opera a 100 Mbps sobre una topología de doble anillo que admite 500 equipos en una distancia de
hasta 1.000 kilómetros (62 millas).

FDDI utiliza una tecnología de red compartida. Esto significa que puede transmitir más de un equipo al
mismo tiempo. Aunque FDDI puede proporcionar servicio de 100 Mbps, el enfoque compartido puede
saturarse. Por ejemplo, si 10 equipos transmiten a 10 Mbps, la transmisión total será igual a 100 Mbps. En la
transmisión de vídeo o multimedia, incluso la tasa de transmisión de 100 Mbps puede generar un cuello de
botella.

FDDI utiliza el sistema de pase de testigo en una configuración de doble anillo. El tráfico en una red FDDI
está formado por dos flujos similares que circulan en direcciones opuestas alrededor de dos anillos que giran
en sentido contrario. Un anillo se denomina «anillo principal» y el otro «anillo secundario».

Normalmente, el tráfico sólo circula por el anillo principal. Si el anillo principal falla, automáticamente
FDDI reconfigura la red, de forma que los datos circulen por el anillo secundario en la dirección opuesta.

Una de las ventajas de la topología de anillo doble es la redundancia. Uno de los anillos se utiliza para la
transmisión y el otro actúa como anillo de seguridad o reserva. Si aparece un problema, como un fallo en el
anillo o una ruptura del cable, se reconfigura el anillo y continúa la transmisión.
La longitud total del cable de ambos anillos no
debe exceder los 200 kilómetros (124 millas) y
no puede admitir más de 100 equipos. No
obstante, por el segundo anillo, que protege
frente a fallos, se debe dividir por la mitad la
capacidad total. Por tanto, cada red FDDI estará
limitada a 500 equipos y 100 kilómetros (62
millas) de cable. Además, debe aparecer un
repetidor cada dos kilómetros (1,24 milllas) o
menos.

Los equipos pueden conectarse a uno o a


ambos cables FDDI en un anillo. Aquellos que se
conectan a ambos anillos se denominan
estaciones Clase A y aquellos que se conectan
sólo a un anillo se denominan estaciones Clase B.

Si se produce un fallo en la red, las estaciones de Clase A pueden ayudar a reconfigurar la red mientras
que las estaciones de Clase B no pueden.

FDDI en estrella. Los equipos FDDI pueden admitir enlaces punto a punto a un hub. Esto implica que se
puede implementar FDDI con una topología de anillo en estrella. Esto constituye una ventaja puesto que:

• Ayuda en la detección de problemas.


• Obtiene ventajas de las posibilidades de administración y detección de problemas de los
hubs avanzados.

Envío de señales (baliza)

Todos los equipos en una red FDDI son responsables de la monitorización del proceso de pase de testigo.
Para aislar fallos serios en el anillo, FDDI utiliza un sistema denominado envío de señales o balizas
(beaconing). Con el envío de balizas, el ordenador que detecta un fallo envía a la red una señal denominada
«baliza». El equipo continúa con el envío hasta que recibe una baliza procedente de su vecino
inmediatamente superior deteniendo, a continuación, el envío. Este proceso continúa hasta que el único
equipo que envía una baliza es el equipo que está inmediatamente por debajo del fallo.

Si el equipo 1 falla, el equipo 3 detecta el fallo, inicia la baliza y continúa con ella hasta que recibe una
baliza por parte del equipo 2. El equipo 2 continúa con el proceso hasta que recibe la baliza por parte del
equipo 1. Dado que el equipo 1 es el que tiene el fallo, el equipo 2 continuará con la baliza e identificará la
localización del fallo en el equipo 1.

Cuando el equipo que genera la baliza recibe finalmente su propia baliza, asume que se ha resuelto el
problema y se regenera un testigo. A continuación, la red vuelve a su operativa normal.

Medio

El medio principal de FDDI es el cable de fibra óptica. Esto significa que FDDI es:

• Inmune a interferencias o ruido electromagnético.


• Seguro, puesto que el cable de fibra óptica no emite una señal que puede ser monitorizada
ni intervenida.
• Capaz de transmitir sobre distancias largas antes de necesitar un repetidor.

Además, FDDI se puede utilizar sobre cable de cobre, conocido como interfaz de datos distribuidos en
cobre (CDDI), pero limitará seriamente sus posibilidades en cuanto a distancia.

Red óptica síncrona (SONET)


La Red óptica síncrona (SONET) es uno de los sistemas nuevos que aprovecha las ventajas de utilizar la
tecnología de la fibra óptica. Puede transmitir datos por encima de un gigabit por segundo (Gbps). Las redes
que se basan en esta tecnología son capaces de distribuir comunicación de voz, datos y vídeo.

SONET es un estándar para transporte óptico que fue formulado por la Asociación de estándares de
proveedores de servicio de intercambio (ECSA; Exchange Carriers Standars Association) para ANSI. Además,
SONET se ha incorporado en las recomendaciones de la Jerarquía digital síncrona de la CCITT, también
conocida como la Unión Internacional de Telecomunicaciones (ITU), que establece los estándares para las
telecomunicaciones internacionales.

SONET define los niveles de portadora-óptica (OC) y las señales de transporte síncronas equivalentes
desde un punto de vista eléctrico (STS) para la jerarquía de transmisiones basada en fibra óptica.

SONET utiliza una tasa de transmisión básica STS-1 equivalente a 51,84 Mbps. No obstante, se pueden
lograr señales de más alto nivel siendo estas señales múltiplos enteros de la tasa básica. Por ejemplo, STS-3
es tres veces la tasa de STS-1 (3 X 51,84 = 155,52 Mbps). Una STS-12 sería una tasa de 12 x 51,84 =
622,08 Mbps.

SONET proporciona suficiente flexibilidad de carga útil que se puede utilizar como nivel de transporte
fundamental para las celdas ATM de BISDN. BISDN es una red RDSI estándar que puede controlar servicios
de voz, datos y vídeo. ATM es el estándar de CCITT que admite celdas para la comunicación de voz, datos,
vídeo y multimedia en una red pública bajo BISDN. El Forum de ATM se está convirtiendo, junto con SONET,
en el nivel de transporte para el tráfico basado en celdas.

Servicio de datos multimegabit conmutado (SMDS)

El servicio de datos multimegabit conmutado (SMDS) es un servicio de conmutación proporcionado por


algunos servicios de intercambio de portadoras locales. El rango de las velocidades de transmisión va desde
1 Mbps hasta los 34 Mbps con una conectividad muchos a muchos. A diferencia de una red de malla
dedicada (una red con múltiples caminos activos), este servicio sin conexión ofrece un gran ancho de banda
con costes de red reducidos.

SMDS utiliza la misma tecnología de transmisión de celdas de longitud fija que ATM. Una línea SMDS con
el ancho de banda apropiado se conecta al proveedor de servicio local y puede proporcionar conexiones
entre todos los sitios sin necesidad de realizar una llamada o un procedimiento de arrebato. SMDS no realiza
la comprobación de errores o control del flujo, es decir, lo deja para las estaciones que están conectadas.

SMDS es compatible con el estándar MAN 802.6 de IEEE así como con BISDN, pero SMDS proporciona
servicios de administración y facturación no indicados en la especificación 802.6 de IEEE.

SMDS utiliza como interfaz y método de acceso a la red un bus doble de cola distribuida (DQDB). SMDS
constituye una topología de bus doble que forma un anillo no cerrado.

Selección de un diseño de red


Nos centraremos en el primer paso a dar para crear una red de equipos: construir los cimientos sobre los
que va a desarrollarse la red. Las decisiones que tomemos ahora pueden facilitar la vida posteriormente o
moverse en contra. Exploraremos las decisiones y pasos que se necesitan tomar para diseñar una red que
funcione.

¿Trabajo en Grupo o basada en servidor?

Una compañía que fabrica bicicletas personalizadas le ha pedido instalar una red de equipos económica,
que la ponga al día en las tecnologías de las comunicaciones, y sea suficientemente flexible como para
permitir su futura expansión.

Los objetivos de la compañía son:


• Conectar en red los equipos existentes para que puedan compartir información e
impresoras.
• Añadir dos equipos adicionales a la red: uno para el grupo de diseño de productos y otro
para el departamento de fabricación.
• Permitir la posible adición de otros tres equipos posteriormente.
• Ofrecer una conexión a Internet para el grupo de diseño de productos.

La siguiente tabla nos ofrece información básica sobre la compañía de bicicletas sobre la que vamos a
trabajar

Localización Madrid
Número de 23
empleados
Producto Bicicletas personalizadas.
Instalaciones Edificio de una planta: 245 metros cuadrados.
Número actual de Cinco equipos personales, con la siguiente distribución:
equipos Gerente: Pentium III 400 MHz.
Departamento de contabilidad: 486/200 MHz.
Departamento de ventas: 486/200.
Departamento de envíos: 286/25.
Grupo de diseño de productos: Pentium II 300.
Sistemas Gerente y grupo de diseño de productos: Windows 98.
operativos Departamentos de contabilidad y ventas: Windows 95.
Departamento de envíos: MS-DOS 5.0.
Periféricos El gerente tiene un módem, conexión a Internet y una
impresora en color de chorro de tinta.
El departamento de diseño tiene una impresora láser antigua.
Los departamentos de contabilidad y ventas comparten una
segunda impresora láser antigua con un conmutador.
El departamento de envíos tiene una impresora de matriz de
puntos.

La primera decisión que necesitamos tomar para esta nueva red es si debe ser una red Trabajo en Grupo
o una red basada en servidor. Los factores que necesitamos examinar incluyen los siguientes:

• Tamaño de la red.
• Nivel de seguridad.
• Tipo de negocio.
• Nivel de soporte administrativo disponible.
• Cantidad de tráfico en la red.
• Necesidades de los usuarios de la red.
• Presupuesto de la red.

En una red Trabajo en Grupo, todos los usuarios de la red son iguales. Todos tendrán un acceso igual a
todos los equipos de la red, siempre que el usuario de los equipos haya compartido este recurso con la red.
En una red o negocio pequeños, este sistema «uno para todos y todos para uno» a menudo funciona bien.

Es frecuente que en un pequeño negocio las personas no puedan dedicarse a tiempo completo a
administrar la red. Esto ofrece otra de las ventajas de las redes Trabajo en Grupo. En éstas, la
responsabilidad del funcionamiento de la red está distribuida entre todas las personas, y los usuarios
determinan la información o recursos de sus equipos que van a compartir.

Aunque la opción de la red Trabajo en Grupo parece ser una buena opción para nuestra compañía de
bicicletas, tiene algunos inconvenientes que deben ser considerados. Por ejemplo, imagine un usuario de la
red que tenga la impresora láser conectada a su equipo. Si desconecta su equipo y se va de la oficina, nadie
más podrá usar la impresora. Si el equipo A se bloquea o es reiniciado mientras el equipo B está intentando
usar un recurso, el equipo B será desconectado. Para resumir, generalmente en una situación de red Trabajo
en Grupo no se establece un responsable del sistema, las precauciones de seguridad son pocas, y cada
usuario es responsable de sus propios datos.

Otro inconveniente de la red Trabajo en Grupo es su rendimiento limitado. Si otro usuario está accediendo
a los recursos de su equipo, este usuario también estará usando tiempo de procesador del mismo. Por tanto,
independientemente de la velocidad del procesador de su equipo o de la memoria disponible, el rendimiento
de su equipo disminuirá cuando alguien más esté usando sus recursos.

Aun con estos inconvenientes, puede seguir pareciendo que una red Trabajo en Grupo es una buena
opción para nuestro ejemplo. Sin embargo, debemos pensar también las ventajas de usar una red basada en
servidor antes de tomar nuestra decisión. En una red basada en servidor, los recursos están generalmente
centralizados. Por ejemplo, un servidor gestiona todas las impresoras, y otro servidor gestiona todos los
archivos. Como los servidores no suelen ser desconectados, los recursos estarán siempre disponibles. Las
redes basadas en servidor también son escalables. Esto significa que su tamaño puede ser adaptado
fácilmente para responder a cambios en la carga de la red.

Las redes basadas en servidor también son más seguras que las redes Trabajo en Grupo. Con una red
Trabajo en Grupo, todos los recursos son compartidos del mismo modo en toda la red. Si el departamento
de contabilidad comparte el directorio que contiene los archivos de nóminas para que el gerente pueda
acceder a ellos, todos los demás miembros de la red también podrán acceder a dichos archivos. Por otra
parte, las redes basadas en servidor permiten una creación de cuentas y permisos que ofrecen una mayor
seguridad. Por ejemplo, una red basada en servidor puede compartir archivos individuales de un directorio
sin que el directorio en sí esté a disposición de todos los usuarios de la red.

A medida que crece, una red basada en servidor puede ser dividida en función de las necesidades de la
organización. Por ejemplo, se podría dedicar un servidor al departamento de contabilidad, y otro al
departamento de ventas. Si las necesidades de nuestra compañía de bicicletas llegaran a alcanzar este nivel,
necesitaríamos considerar el uso de una red que soporte compartir recursos a nivel de archivos y grupos de
usuarios con derechos compartidos para los recursos de la red.

Actualmente, la mejor opción para nuestra compañía es el uso de una red Trabajo en Grupo. Pero para
ofrecer una mayor flexibilidad y prepararse para una ampliación posterior, hay otra opción: crear una red
híbrida. Así, aunque nuestra red básica sea Trabajo en Grupo, instalaremos un equipo que hará la función de
servidor de archivos. Con este enfoque, el acceso al servidor de archivos requiere una cuenta y permisos,
mientras que el acceso a los demás equipos de la red será compartido.

Por tanto, tras sopesar estos factores, hemos llegado a la selección de nuestro diseño de red para esta
compañía de bicicletas: una red Trabajo en Grupo híbrida, con un nuevo equipo a instalar y configurar como
servidor de archivos, utilizada para centralizar la información de la compañía.

Hacer inventario

Tras decidirse sobre el diseño general de la red, el paso siguiente para crear una red es hacer inventario,
para determinar el hardware y software disponible y lo que necesitamos adquirir. Nuestra compañía de
bicicletas tiene equipos de tipos diversos, que van de antiguos 286 a un nuevo Pentium III, así como algunas
impresoras antiguas. Por tanto, será necesario realizar algunas actualizaciones obvias para que esta red
pueda ponerse en marcha. Hacer inventario es un punto importante, ya que define el punto de partida para
la futura ampliación de la red. Por ejemplo, si todos sus equipos ejecutan Microsoft Windows 95 o Windows
98, estará limitado a utilizar una red Trabajo en Grupo. Para pasar a una red basada en servidor en el
futuro, necesitará actualizar uno de los equipos para ejecutar NetWare o Windows NT, o agregar un nuevo
servidor que tenga instalado uno de estos sistemas operativos de red.

Para hacer inventario, necesita revisar estas cuatro categorías:

• Hardware.
• Software.
• Equipo de telecomunicaciones.
• Requerimientos de la red.

Revisión del hardware


Es un proceso simple, pero no debe tomarse a la ligera. Comience anotando las especificaciones de cada
equipo. Los detalles que recoja en esta etapa pueden ahorrarle tiempo a largo plazo. Como veremos
posteriormente, de cara a funcionar de forma efectiva, a menudo las redes requieren que el hardware y el
software cumplan ciertos estándares mínimos. Si sabe los detalles de la especificación o los equipos
disponibles por adelantado, podrá evitar muchos problemas posteriores.

Para cada equipo, necesita recoger información, incluyendo:

• Marca y modelo.
• Fabricante del procesador y velocidad.
• Cantidad de memoria (RAM) instalada.
• El tamaño y fabricante de cada disco duro.
• Detalles de cualquier otra unidad instalada, como unidades de CD-ROM y discos
removibles.
• Monitor (marca, modelo y tamaño).
• Tarjeta de vídeo (marca, modelo y cantidad de memoria).
• Cualquier periférico instalado.
• Tipo de bus (EISA, Micro Channel, ISA o PCI) del equipo y si quedan o no conectores
(slots) libres; necesitará conectores libres para instalar tarjetas de red.

Elabore una lista de los fabricantes y modelos de los dispositivos periféricos, tales como impresoras,
trazadores y digitalizadores, independientemente de que estén instalados o simplemente en una estantería.
Para cada uno de ellos, anote también si tiene los discos originales con los controladores.

Revisión del software

Tenga en cuenta todo el software que se está ejecutando en este momento en toda la futura red. Por
ejemplo, si va a pasar todos los equipos a Windows NT al instalar la nueva red, puede encontrar que algunos
de los antiguos programas utilizados a diario, ya no funcionarán. Tenga un especial cuidado al evaluar
programas personalizados y propietarios, tales como bases de datos de contabilidad, que hayan sido escritos
específicamente para la compañía. Puede que necesite contactar con el desarrollador para obtener
información sobre la ejecución de programas particulares en la red. No todos estos programas funcionarán
en un entorno de red; el contrato de licencia de un producto puede que no permita el funcionamiento en red.

Para cada programa software, recoja la siguiente información:

• Nombre del programa.


• Número de versión del programa.
• Disponibilidad de los disquetes o CD-ROM originales de instalación.
• Cualquier información sobre licencias.

Al llevar a cabo la revisión de nuestra compañía de bicicletas, anote también cualquier posible
incompatibilidad software entre los departamentos de la compañía. Por ejemplo, el departamento de
contabilidad podría estar usando Word Perfect, mientras que el departamento de ventas está usando
Microsoft Office. Si tiene previsto actualizarse algún día, ahora es el momento para realizar los cambios
necesarios y asegurarse de que se utiliza el mismo sistema en toda la compañía.

Revisión de los equipos de telecomunicaciones

Puede resultar extraño revisar los equipos de telecomunicaciones existentes al instalar una LAN, pero
actualmente éste es un elemento muy importante de la revisión, especialmente si piensa utilizar conexiones
Internet o algún tipo de servidor de acceso remoto. Pasar por alto algo tan simple como el número de líneas
telefónicas que hay en cada despacho puede tener un impacto importante posteriormente, si necesita tener
simultáneamente conexiones a módems y líneas de voz. Por ejemplo, si la compañía tiene un sistema de
teléfonos automático, aunque haya enchufes de teléfono en cada despacho, puede que no soporten la
conexión de un módem. En este caso, puede que se requiera una conexión separada para la comunicación
de voz y datos. Además, si la compañía está usando un servicio telefónico digital de alta velocidad, es
posible que no pueda conectarse con módems estándar. No suponga que un conector telefónico estándar RJ-
11 va a ser suficiente para conectar un módem y comenzar a navegar en la Web.
Requerimientos de la red

Tras examinar los recursos e instalaciones existentes, necesita definir los requerimientos de su red. Luego
adaptará estos requerimientos al hardware y software existente y a los dispositivos de telecomunicaciones
disponibles, y determinará los pasos que necesita llevar a cabo para desarrollar la red. Como mínimo,
necesitará considerar lo siguiente:

• El tamaño de las instalaciones (localizadas en una planta o varias plantas)


• El número de usuarios.
• Si la LAN se va a extender a varios edificios.
• El entorno (oficinas, fabricación, exteriores).
• El medio de red actual, si lo hay.
• Los conocimientos técnicos de los usuarios.
• El nivel de tráfico de la red (actual y previsto para un futuro).
• El nivel de seguridad.

Realización de un mapa

Ahora es el momento de esquematizar la red. Pero antes de que comience a recomendar un plano de la
red para nuestra compañía de bicicletas, primero necesitará realizar un mapa de todos los elementos
implicados. Durante este paso, debe considerar dos aspectos de la red: la distribución física, incluyendo la
localización de cada elemento hardware y cómo está conectado con los demás, y la topología física y lógica
de la red propuesta.

Utilice un plano o mapa de las instalaciones (o haga uno si no hay ninguno), y marque la posición de los
equipos existentes.

El segundo paso es crear un esquema de la topología de la red. No olvide incluir impresoras y otros
periféricos, como digitalizadores y módems.

Documentar adecuadamente una red es la clave para resolver problemas con éxito en el
futuro. Comencemos con el mapa de recursos y la revisión del equipo.

Selección del medio de la red

La selección del medio elegido no debe hacerse a la ligera. El coste de la instalación puede ser muy
elevado, especialmente si es necesario hacerlo dos veces. Generalmente, el medio elegido estará relacionado
con los requerimientos geográficos de la instalación. Por ejemplo, si varias de las estaciones están
localizadas en un entorno de fabricación, donde se genera gran cantidad de ruido eléctrico, puede que sea
necesario usar cable de fibra óptica, ya que no es afectado por señales eléctricas. Por otro lado, en una
pequeña oficina generalmente resultará adecuado usar un simple cable de par trenzado. Lo más importante
a tener en cuenta no es el coste actual, sino el coste futuro. Ser consciente del coste al principio puede
limitar la escalabilidad y, por tanto, la vida útil de la red.

En nuestra compañía de bicicletas, podemos decidir instalar nuestra red utilizando cable CAT 3 UTP. Esto
nos permitirá tener una red funcional con nuestras siete estaciones, pero limitará la velocidad de nuestra red
a 10 Mbps. Dentro de cinco años, que podríamos tener hasta 30 o 50 estaciones, una red de 10 Mbps
resultaría lenta. Sin embargo, si ahora utilizamos CAT 5 UTP, podemos actualizar nuestra red a 100 Mbps en
cualquier momento futuro, sin necesidad de recablear el edificio. Y el cable CAT 5 UTP sólo cuesta un poco
más por metro que el cable CAT 3 UTP.

Instalación del medio de la red

La instalación del medio de la red requiere habilidades especiales, y resulta recomendable dejársela a un
instalador profesional de cable si la topología es compleja. Sin embargo, con una topología simple, las
habilidades necesarias pueden estar a nuestro alcance. Siguiendo con nuestro ejemplo de la compañía de
bicicletas, a continuación vamos a ver el procedimiento de instalación de un sistema de cableado Ethernet
CAT 5. (Tenga en cuenta que en este momento nos estamos centrando en los cables y aún no estamos
preparados para conectar cualquiera de los dispositivos.)

La forma más simple de diseñar una red en nuestro entorno de oficina es utilizar una estrella física. El
punto central de la estrella será un panel de conexiones (un panel de conexiones es una batería de
conectores hembra RJ-45 que tiene terminales para conectar los cables).

En el otro extremo del cable, necesitará instalar una base CAT 5. Es similar a una base de teléfono
estándar, pero utiliza una conexión RJ-45, igual que el panel de conexiones. Observe que este conector
también tiene terminales con códigos de color.

Algunas bases CAT 5 tienen dos conjuntos de códigos de colores, uno para las
terminaciones de cables 568A y otro para 568B. Asegúrese de usar correctamente el
código de colores de la base y del panel de conexiones.

Recuerde que al instalar el cable, cualquier cable que vaya a ir sobre el techo o bajo el suelo tiene que
cumplir las normas locales de construcción y protección contra incendios. No olvide usar cable de tipo
plenum cuando sea necesario.

Si tiene previsto instalar gran cantidad de cable y conexiones (paneles de conexiones o bases CAT 5),
puede que desee adquirir una herramienta para montar conectores o crimpador (punchdown tool; es una
pequeña herramienta de mano que le permitirá asegurarse de que los cables se conectan adecuadamente al
terminal o conector).

Conexión del medio a los equipos

Una vez instalado el medio, la conexión de los equipos es un proceso simple. Todas las conexiones se
realizan mediante cables de conexión CAT 5 (cables y conectores prefabricados, disponibles en diversos
colores). Un extremo del cable es conectado a la tarjeta de red del equipo y el otro a la base RJ-45. Si está
usando un hub, verá que hay pequeños cables de conexión entre el panel de conexiones y una salida del
hub. No se preocupe si ve que no hay ningún equipo conectado a una salida y el cableado está conectado al
hub. El hub detectará que ese segmento no está ocupado y lo ignorará.

Establecimiento de un entorno cliente/servidor


Las grandes redes están basadas en el modelo cliente/servidor.

Computación centralizada frente al modelo cliente/servidor

Las primeras redes estaban basadas en el modelo de computación centralizada. Generalmente, en estas
redes un gran servidor (un equipo mainframe o gran equipo) manejaba todos los aspectos de la red,
mientras que cada usuario accedía al servidor principal desde un terminal. Como el equipo centralizado
gestionaba todas las tareas de cálculo de alto nivel, generalmente los terminales eran económicos, equipos
de bajo rendimiento. Actualmente, gracias a las mejoras obtenidas por la rápida evolución del equipo
personal, el antiguo modelo centralizado está siendo sustituido por el modelo cliente/servidor. Hoy en día los
usuarios tienen toda la potencia de un equipo mainframe al alcance de sus dedos, con la ventaja añadida de
disponer de una red interconectada.

Computación centralizada

En el entorno tradicional de grandes equipos, una aplicación tal como una base de datos se ejecuta en un
gran equipo mainframe central y potente al que se accede mediante terminales. El terminal envía una
petición de información al equipo mainframe; el mainframe recupera la información y la muestra en el
terminal.

La respuesta completa viaja desde el servidor a través de la red, y es descargada en el cliente que hace la
petición. El acceso a los archivos tiene lugar a través del sistema operativo de red (NOS; Network Operating
System) y el cable. Hay muy poca coordinación entre el terminal y el mainframe. Los datos son procesados
en el mainframe y luego entregados al terminal. La transferencia de datos entre el terminal y el mainframe
incrementa el tráfico de la red y disminuye la velocidad de procesamiento de las peticiones de otros
terminales.

Computación cliente/servidor

El término «computación cliente/servidor» se refiere a un modelo en el que el procesamiento de datos es


compartido entre el equipo cliente y el equipo servidor, más potente.

El enfoque cliente/servidor puede beneficiar a cualquier organización en la que muchas personas


necesiten acceder continuamente a grandes cantidades de datos.

La red cliente/servidor es la forma más eficaz de ofrecer:

• Acceso y gestión de bases de datos para aplicaciones tales como hojas de cálculo,
contabilidad, comunicaciones y gestión de documentos.
• Gestión de la red.
• Almacenamiento centralizado de archivos.

Introducción al modelo cliente/servidor

La mayoría de las redes trabajan bajo el modelo cliente/servidor, también conocido como «redes basadas
en servidor». Una estación cliente realiza una petición de datos que están almacenados en un servidor. La
estación cliente procesa los datos usando su propia CPU. Los resultados del procesamiento pueden ser
almacenados entonces en el servidor para su uso futuro. Los datos también pueden ser almacenados en la
estación cliente, a los que pueden acceder otras estaciones cliente de la red. En las redes Trabajo en Grupo,
en las que no hay un servidor centralizado, cada estación cliente actúa a la vez como cliente y servidor.

Para ver un ejemplo de cómo funciona el modelo cliente/servidor vamos a observar una aplicación de
gestión de bases de datos. En el modelo cliente/servidor, el software cliente utiliza el lenguaje de consulta
estructurado (SQL, Structured Query Language), para traducir lo que ve el usuario en una petición que
pueda comprender la base de datos. SQL es un lenguaje de consulta de bases de datos similar al inglés
desarrollado originalmente por IBM para ofrecer un método relativamente simple de manipular datos (la
manipulación de datos incluye su introducción, su recuperación o su edición).

Otros fabricantes de bases de datos se dieron cuenta de que sería más fácil desarrollar aplicaciones de
bases de datos utilizando un lenguaje común de bases de datos. Por tanto, éstos dieron soporte a SQL, y se
convirtió en un estándar de la industria. En la actualidad, la mayoría de los sistemas de gestión de bases de
datos utilizan SQL.

El proceso cliente/servidor

La consulta a la base de datos es enviada por el cliente, pero procesada en el servidor. A través de la red,
sólo se devuelven los resultados hacia el cliente. El proceso de solicitar y recibir información consta de seis
pasos:

1. El cliente solicita datos.


2. La petición es traducida a SQL.
3. La petición SQL es enviada por la red al servidor.
4. El servidor de bases de datos busca en el equipo donde se encuentran los datos.
5. Los registros seleccionados son devueltos al cliente.
6. Los datos son presentados al usuario.

El entorno cliente/servidor tiene dos componentes principales:

• La aplicación, a menudo denominada como «cliente» o front-end.


• El servidor de bases de datos, a menudo denominado como «servidor» o back-end.
El cliente

El usuario genera una petición en el front-end. El cliente ejecuta una aplicación que:

• Presenta una interfaz al usuario.


• Formatea las peticiones de datos.
• Muestra los datos recibidos del servidor.

En un entorno cliente/servidor, el servidor no contiene el software de interfaz de usuario. El cliente es


responsable de presentar los datos en un formato que resulte útil.

El usuario introduce las instrucciones desde el equipo cliente. El equipo cliente prepara la información
para el servidor. El equipo cliente envía una petición de información específica al servidor a través de la red.
El servidor procesa la petición, localiza la información adecuada y la devuelve al cliente a través de la red. El
equipo cliente envía entonces la información a la interfaz, que presenta la información al usuario. El equipo
cliente también puede procesar adicionalmente la información, utilizando su propia CPU y software.

Uso del front-end

Los front-end pueden presentar a los usuarios la misma información de formas distintas, dependiendo de
la petición. Por ejemplo, los datos que indican que Colón cruzó por primera vez el océano Atlántico en 1492,
pueden ser organizados y presentados en varios contextos, incluyendo:

• Viajes oceánicos.
• Descubrimientos de Colón.
• Conquistas de 1492.
• Mares cruzados por Colón.

Como otro ejemplo, vamos a considerar a nuestro fabricante de bicicletas personalizadas. La compañía
guarda toda la información sobre clientes y productos en una base de datos. Pero esta información puede ser
recuperada, organizada y presentada a través del front-end de varias formas:

• El departamento de publicidad puede enviar correos publicitarios a los clientes que tienen
un cierto código postal.
• Los distribuidores pueden saber cuáles son los artículos en stock.
• Los departamentos de servicios pueden identificar cuáles son los clientes a los que hay que
dar servicio.
• Los departamentos de pedidos pueden ver el historial de compras de cada cliente.
• Los departamentos de contabilidad pueden evitar que un cliente moroso pida nuevos
productos.

Cada departamento necesita un front-end diseñado para acceder a la base de datos común y recuperar
información para una necesidad determinada.

Herramientas front-end

Existen diversas herramientas, aplicaciones y utilidades disponibles para el front-end para hacer que el
proceso cliente/servidor sea más eficiente. Estas herramientas incluyen:

• Herramientas de consulta. Estas herramientas utilizan consultas predefinidas y


capacidades propias de generación de informes para ayudar a que los usuarios accedan a datos del
servidor.
• Aplicaciones de usuario. Muchos programas habituales de aplicación, como Microsoft
Excel, pueden ofrecer acceso front-end a bases de datos situadas en servidores. Otras, como
Microsoft Access, incluyen su propio SQL para ofrecer una interfaz para sistemas de gestión de
bases de datos de diversos fabricantes.
• Herramientas de desarrollo de programas. Muchas instalaciones cliente/servidor
necesitan aplicaciones especiales front-end personalizadas para sus trabajos de recuperación de
datos. Para ello, se dispone de herramientas de desarrollo de programas, como Microsoft Visual
Basic, para ayudar a los programadores a desarrollar herramientas front-end para acceder a datos
de servidores.

El servidor

Generalmente, en un entorno cliente/servidor el servidor se dedica a almacenar y gestionar datos. Éste es


el lugar en el que se lleva a cabo la mayor parte de actividad relacionada con bases de datos. El servidor
también es denominado como el back-end del modelo cliente/servidor porque responde a las peticiones del
cliente. El servidor recibe las peticiones estructuradas de los clientes, las procesa y envía la información
solicitada al cliente de nuevo a través de la red.

El software de base de datos del servidor de archivos responde a las peticiones de los clientes ejecutando
búsquedas. Como parte de un sistema cliente/servidor, sólo devuelve el resultado de las búsquedas.

El procesamiento back-end incluye la ordenación de datos, la extracción de los datos solicitados y la


devolución de los datos al usuario.

Adicionalmente, el software servidor para bases de datos gestiona los datos de una base de datos,
incluyendo operaciones de:

• Actualización.
• Borrado.
• Inserción.
• Seguridad.

Procedimientos almacenados

Los procedimientos almacenados son pequeñas rutinas de procesamiento de datos preescritas, que
ayudan a los detalles del procesamiento de datos. Los procedimientos son almacenados en el servidor, y
pueden ser usados por el cliente.

Los procedimientos almacenados ayudan a procesar los datos. Un procedimiento almacenado puede ser
usado por cualquier número de clientes, evitando la necesidad de incorporar la misma rutina en el código de
cada programa.

Estos procedimientos almacenados:

• Realizan parte del procesamiento llevado a cabo generalmente en el cliente.


• Reducen el tráfico de la red, ya que una simple llamada del cliente al servidor puede iniciar
una serie de procedimientos almacenados, que en caso contrario requerirían varias peticiones.
• Pueden incluir controles de seguridad para evitar que usuarios no autorizados ejecuten
algunos de los procedimientos.

Hardware del servidor

Generalmente, los equipos servidor de un entorno cliente/servidor deben ser más potentes y rápidos que
los equipos cliente. Además de un procesador de alta velocidad, estos equipos necesitan gran cantidad de
RAM y de espacio en unidades de disco. Estos equipos también deben ser capaces de gestionar:

• Múltiples peticiones.
• Seguridad.
• Tareas de gestión de la red
Cualquier organización que implemente una red cliente/servidor debe usar servidores dedicados para
gestionar las funciones back-end.

Arquitectura cliente/servidor

Hay varias posibles organizaciones cliente/servidor:

• Los datos pueden ser introducidos en un único servidor.


• Los datos pueden estar distribuidos entre varios servidores de bases de datos. Las
posiciones de los servidores dependerán de la ubicación de los usuarios y la naturaleza de los datos.
• Los servidores de una WAN sincronizan periódicamente sus bases de datos para asegurarse
de que todos tienen los mismos datos.
• Un data warehouse almacena grandes volúmenes de datos y envía los datos más
solicitados a un sistema intermedio que es capaz de formatear los datos en su forma más
requerida. A menudo, esto descarga parte del procesamiento de datos del servidor principal a otros
servidores.

Ventajas del uso de un entorno cliente/servidor

La tecnología cliente/servidor crea un potente entorno que ofrece muchas ventajas reales a las
organizaciones. Un sistema cliente/servidor bien planificado proporciona redes relativamente económicas.
Estos sistemas ofrecen una capacidad de procesamiento del nivel de un mainframe, permitiendo en cambio
una fácil personalización para aplicaciones específicas. Como el modelo cliente/servidor sólo envía los
resultados de una consulta a través de la red, reduce el tráfico de la red.

El modelo cliente/servidor utiliza un potente servidor para almacenar los datos. La estación cliente puede
procesar parte o todos los datos solicitados. En una red cargada, esto implica que el procesamiento será
distribuido con más eficiencia que en un sistema tradicional basado en mainframe.

Como los servicios de archivos y los datos están en el servidor back-end, resulta más fácil administrar los
servidores y mantenerlos en un lugar seguro en una única ubicación. Los datos están más seguros en un
entorno cliente/servidor, ya que pueden ser guardados en un área segura, lejos de los usuarios. Los datos
también están más seguros cuando se utiliza la seguridad basada en Windows NT Server para evitar el
acceso no autorizado a los archivos. Cuando los datos están almacenados en un número limitado de
ubicaciones y son gestionados por una única autoridad, las copias de seguridad se simplifican.

Utilización de controladores de dispositivo y tarjetas


de red
Sin una tarjeta de red adecuadamente configurada, nuestros equipos no podrán comunicarse con el medio
físico.

La función de los controladores

Un controlador (a menudo llamado un controlador de dispositivos) es un software que permite a un


equipo trabajar con un dispositivo determinado. Aunque podemos tener instalado un dispositivo en un
equipo, el sistema operativo del equipo no puede comunicarse con este dispositivo hasta que se instala y
configura el controlador para dicho dispositivo. El software controlador es el que le dice al equipo cómo
trabajar con el dispositivo para que dicho dispositivo pueda realizar su tarea.

Existen controladores para prácticamente cualquier tipo de dispositivo y periférico informático,


incluyendo:

• Dispositivos de entrada, tales como ratones.


• Unidades y controladores de disquete y disco duro.
• Dispositivos multimedia, tales como micrófonos, cámaras y grabadoras.
• Tarjetas de red.
• Impresoras, trazadores y unidades de cinta.

Generalmente, el sistema operativo del equipo trabaja con el controlador para hacer que el dispositivo
funcione. Las impresoras ofrecen un buen ejemplo de cómo se utilizan los controladores. Las impresoras
construidas por distintos fabricantes tienen distintas características y funciones. Es imposible que los
fabricantes de equipos y sistemas operativos incorporen en los nuevos equipos todo el software requerido
para identificar y trabajar con cada tipo de impresora. En lugar de ello, los fabricantes de impresoras crean
controladores disponibles para cada una de sus impresoras. Antes de que su equipo pueda enviar
documentos a una impresora, necesita instalar, o cargar, los controladores para dicha impresora, de modo
que su equipo pueda ser capaz de comunicarse con ésta.

Como regla general, los fabricantes de componentes, tales como periféricos o tarjetas que deban ser
instaladas físicamente, son responsables de suministrar los controladores para sus dispositivos. Por ejemplo,
los fabricantes de tarjetas de red son responsables de crear controladores para sus tarjetas. Los
controladores son incluidos, generalmente, en un disco suministrado con los equipos informáticos cuando se
adquieren. Los controladores también pueden ser descargados desde un servicio tal como The Microsoft
Network (MSN), CompuServe, o el sitio Web o BBS del fabricante.

El entorno de red

Los controladores de red ofrecen comunicación entre una tarjeta de red y el redirector de red que se
ejecuta en el equipo (el redirector es parte del software de red que acepta peticiones de entrada/salida (E/S)
de archivos remotos, y luego envía, o redirige las mismas por la red a otro equipo). El administrador de la
red usa un programa de utilidad para instalar el controlador. Durante la instalación, el controlador es incluido
en el disco duro del equipo.

Controladores y el modelo OSI

Los controladores de tarjeta de red residen en el subnivel de control de acceso al medio del nivel de
enlace de datos del modelo de referencia OSI. El nivel de control de acceso al medio es responsable de
ofrecer acceso compartido a las tarjetas de red del equipo al nivel físico. En otras palabras, los controladores
de tarjeta de red aseguran una comunicación directa entre el equipo y la tarjeta de red. Ésta, a su vez,
establece un enlace entre el equipo y el resto de la red.

Controladores y software de red

Es habitual que el fabricante de una tarjeta de red ofrezca controladores al vendedor de software de red,
de modo que los controladores puedan ser incluidos con el software del sistema operativo de red.

La lista de compatibilidad hardware del fabricante del sistema operativo incluye los controladores que han
probado e incluido con el sistema operativo. Incluso si el controlador de una tarjeta determinada no ha sido
incluido con el sistema operativo de red, es habitual que el fabricante de la tarjeta de red incluya
controladores para la mayoría de sistemas operativos populares en un disco incluido con la tarjeta. Sin
embargo, antes de comprar una tarjeta, debe asegurarse de que la tarjeta tiene un controlador que
funcionará con su sistema operativo de red particular.

Utilización de controladores

La utilización de controladores abarca varias tareas, incluyendo su instalación, configuración, actualización


y eliminación.

Instalación de controladores

Cada sistema operativo de red tiene su propio método para instalar controladores. La mayoría de
sistemas operativos de red populares utilizan interfaces gráficas interactivas, o cuadros de diálogo que guían
al instalador a través del proceso.
Por ejemplo, Microsoft Windows NT Server incluye una utilidad llamada Panel de control. Este emplea
cuadros de diálogo que llevan al usuario a través del proceso de instalar un controlador de tarjeta de red.

Configuración de controladores

Generalmente, las tarjetas de interfaz de red tienen opciones configurables que deben ser establecidas
correctamente para que la tarjeta funcione de forma adecuada.

La mayoría de nuevas tarjetas de red son configurables por software o Plug and Play (PnP). No hay
interruptores DIP o jumpers para configurar. La configuración se realiza mediante el software, durante la
instalación de los controladores o una vez instalados, o (como en sistemas que cumplen la norma PnP, tales
como Microsoft Windows 95 o Windows 98) el sistema operativo intenta configurar el dispositivo hardware
automáticamente. Aunque actualmente Windows NT 4.0 no sigue el estándar PnP, intentará reconocer sus
dispositivos. Si el intento no es satisfactorio, el sistema le indicará que introduzca los controladores desde un
disco suministrado por el fabricante. Si ya tiene el disco con los controladores correctos, a menudo resulta
tan simple como indicarle a Windows NT dónde encontrarlos.

Actualización de controladores

En ocasiones, un fabricante puede preparar opciones adicionales o modificaciones sobre un controlador,


para mejorar el rendimiento de un componente. Los fabricantes pueden enviar estos cambios en los
controladores por correo a los usuarios registrados, colocarlos en un boletín electrónico de Internet, o
ponerlos a su disposición a través de un servicio tal como The Microsoft Network (MSN), CompuServe o el
sitio Internet del fabricante. El usuario puede entonces descargar e instalar el controlador actualizado.

El proceso de actualización de controladores es similar al de su instalación, aunque puede que primero


necesite eliminar el controlador antiguo. Asegúrese de leer los archivos readme suministrados con el
software. Los archivos readme le informarán del procedimiento correcto de instalación. Algunos
controladores, especialmente los que son descargados desde Internet o un boletín electrónico, vienen en
forma de archivos ejecutables. En este caso, pulse dos veces en el nombre de archivo y el archivo ejecutable
realizará la instalación.

Eliminación de controladores

En ocasiones, es necesario eliminar controladores, como cuando el controlador original entra en conflicto
con los nuevos controladores. Si está eliminando un dispositivo, elimine también simultáneamente los
controladores, para asegurarse de que no haya conflictos entre los antiguos controladores y los nuevos que
van a ser instalados.

El proceso de eliminar un controlador es similar al de instalarlo.

Instalación de tarjetas de red

La instalación de una tarjeta de red puede ser tan simple como seguir unas instrucciones predefinidas o
llevar a un fallo frustrante. El mejor método para minimizar los problemas es realizar primero una pequeña
planificación. Antes de adquirir tarjetas de red, resulta útil tener en cuenta varios puntos importantes.

Tipo de conector de expansión

Una tarjeta de red es uno de los diversos tipos de tarjetas de expansión para un equipo personal. Como
hemos aprendido anteriormente, un equipo puede tener varios tipos de bus de expansión. Puede encontrarse
con buses ISA, EISA, Micro Channel y/o PCI.

Independientemente de que esté comprando una tarjeta para un único equipo o tarjetas para toda la red,
necesita conocer las respuestas a tres preguntas para cada uno de los equipos que piense conectar:

1. ¿Qué tipo de bus de expansión tiene?


2. ¿Tiene un slot disponible para la tarjeta?
3. ¿Qué tipo de cable se le va a conectar?

Tipo de tarjeta

No todas las tarjetas de red son iguales. Además de estar diseñadas para su instalación en diferentes
buses de expansión, las tarjetas de red son específicas para un tipo de red. Por ejemplo, una tarjeta
diseñada para trabajar en un sistema Ethernet no funcionará en un sistema Token Ring.

Velocidad de la red

Existen dos tipos de Ethernet: 10BaseT (10 Mbps) o 100BaseTX (100 Mbps). Muchas de las nuevas
tarjetas de red pueden funcionar a cualquiera de ambas velocidades, pero las tarjetas antiguas sólo
funcionan a 10 Mbps. Al diseñar su red, asegúrese de tener en cuenta las futuras necesidades de la red.
Puede que resulte más eficiente comprar ahora tarjetas de red de doble velocidad que tener que comprar
nuevas tarjetas posteriormente.

Conexión al medio

Como ya hemos visto, existen diversos medios a elegir. Asegúrese de examinar cuidadosamente las
tarjetas que adquiere, para comprobar que se adaptarán al cableado de la red. Algunas tarjetas tienen
conectores BNC o RJ-45; otras sólo tienen uno de ambos.

Incorporación de extras

La adquisición de tarjetas de red con luces de diagnóstico puede resultar una buena inversión que se
rentabilizará posteriormente. El objetivo de estos indicadores luminosos es mostrar el estado de la tarjeta y
de la red. Pueden decirle si la tarjeta está conectada correctamente (detecta la presencia de una red) y
cuando la tarjeta está procesando datos. Algunas tarjetas de red incluyen 1, 2 ó 3 diodos LED visibles en la
parte exterior de el equipo. Generalmente, un indicador verde muestra que hay una conexión adecuada
entre la tarjeta y el medio. Habitualmente, una luz amarilla intermitente indica que la tarjeta está
procesando datos.

Instalación de una tarjeta de red

Instalar una tarjeta de red es como instalar cualquier otra tarjeta de expansión. importante seguir un
procedimiento de instalación:

1. Lea la documentación suministrada con la tarjeta. Anote cualquier requerimiento o


limitación especial antes de comenzar la instalación.
2. Determine los números de petición de interrupción (IRQ) y direcciones de E/S que están
disponibles en el equipo. Esto resulta especialmente necesario si está realizando la instalación en un
sistema operativo que no está equipado con tecnología PnP. Generalmente, esto puede hacerse con
el software de información del sistema incluido con el sistema operativo del equipo.
3. Configure los jumpers o interruptores si es necesario. Si la tarjeta no tiene jumpers ni
interruptores, utilice el software de instalación para realizar los cambios una vez que haya instalado
la tarjeta de red. Consulte la documentación.
4. Desconecte el equipo y extraiga el cable de alimentación.
5. Siga los procedimientos adecuados de descarga electrostática.
6. Quite la tapa del equipo.
7. Instale la tarjeta en un conector o slot libre.
8. Vuelva a conectar los cables del equipo y conéctelo antes de poner la tapa. De este modo,
si hay cualquier conflicto que requiera ajustes del hardware, no necesitará volver a quitar la tapa.
9. Una vez que el nuevo hardware parezca funcionar correctamente (una vez resueltos los
posibles conflictos), vuelva a poner la tapa.
10. Instale los controladores software adecuados.

Comprobación de la compatibilidad hardware


Las redes dependen del hardware, y no todos los productos hardware son compatibles. El hardware de los
equipos plantea cuestiones similares. En algunos casos, dos elementos hardware simplemente no pueden
comunicarse entre sí. Por ejemplo, considere una analogía con los recambios de automóviles: dos piezas
pueden parecer similares y poder realizar la misma función, pero cada una está diseñada para trabajar en un
vehículo diferente.

Problemas con el hardware

Las incompatibilidades hardware son un hecho diario. En la industria informática actual, cientos de
fabricantes desarrollan hardware y software. Cada fabricante tiene su propia perspectiva sobre el mejor
método para llevar a cabo la misma tarea, y cada uno ofrecerá una solución única. Los temas de derechos
de autor y patentes complican aún más el tema.

La evaluación y selección de hardware es una parte fundamental de la planificación de la implementación


de una red. Si tiene a su alcance el lujo de diseñar una red a partir de cero, puede seleccionar los fabricantes
o distribuidores y trasladarles el problema de la compatibilidad. Antes de realizar una compra, deles una lista
del hardware que piensa usar y pídales que le certifiquen que esos elementos son compatibles con sus
productos. Además, no acepte demasiado pronto la opinión de un distribuidor. Por ejemplo, si está
considerando la adquisición de dos dispositivos (X e Y), pregunte a los distribuidores de X si su producto es
compatible con Y y pregunte a los distribuidores de Y si su producto es compatible con X. Entonces compare
las respuestas obtenidas; éstas pueden ayudarle a encontrar una incompatibilidad que, en otro caso, no
podría detectar.

Es probable que necesite crear una red a partir de un conjunto de hardware existente. En estos casos, la
probabilidad de que surjan problemas debidos a incompatibilidades hardware es bastante alta. En ocasiones,
resulta más económico descartar el hardware antiguo y comenzar de nuevo.

Las incompatibilidades más habituales se producen entre el hardware y el software. El cambio o la


actualización del sistema operativo de un equipo o una red puede llevar a problemas importantes. Puede que
necesite actualizar los controladores hardware al mismo tiempo que el software. Asegúrese de estudiar este
tema antes de comenzar.

Lectura de la documentación

Lea toda la documentación de los productos implicados. Puede que su hardware o su software tenga un
problema, o pueda entrar en conflicto con otro producto. Generalmente, el fabricante documentará estos
conflictos y dará una solución. Si no encuentra la solución en la documentación suministrada, puede
contactar con el fabricante del producto y pedirle información sobre productos no documentados. Para más
información, explore el sitio Web del fabricante.

Detección durante la instalación

Al instalar un nuevo sistema operativo para un equipo o una red, generalmente su equipo intentará
detectar el hardware del sistema durante el proceso de instalación, y cargará los controladores adecuados
para el mismo. Compruebe la lista de hardware detectado y asegúrese de que coincide con el instalado en la
máquina. Por ejemplo, si está instalando Novell IntranetWare, la utilidad de instalación examinará
automáticamente su equipo, buscando hardware tal como discos duros, unidades de CD-ROM y tarjetas de
red. Si los dispositivos son reconocidos, los controladores adecuados para los mismos serán cargados
automáticamente.

Comprobación de los requerimientos mínimos

Como primer paso previo a la instalación, asegúrese de que supera los requerimientos mínimos sobre los
recursos del equipo. Estos recursos incluyen la velocidad del procesador, la memoria y el espacio en disco.
En la tabla se listan algunos requerimientos mínimos de hardware para software común de red.
NetWare 5 Windows NT Windows 98
Server 4.0
Procesador Procesador 486 33 MHz o 486 66 MHz o
Pentium superior superior
Memoria 64 MB 16MB 16MB
Espacio en disco 200 MB 125 MB 225 MB
Disco CD-ROM CD-ROM 3,5 alta densidad
Monitor VGA VGA VGA
Tarjeta de red Sí Sí Sí

Recuerde que éstos son los requerimientos mínimos publicados. Trate estos requerimientos mínimos
como si, por ejemplo, fuera a tener en cuenta que una bicicleta es el requerimiento mínimo para subir un
puerto de montaña. Puede hacerse, pero sería mucho más fácil y divertido en un coche potente. Windows NT
Server funcionará con 16 MB de RAM y un procesador a 33 MHz, pero no lo hará con rapidez.

Hardware de red

El hardware de red no es tan susceptible como el software a los conflictos y problemas de compatibilidad.
Estos dispositivos (repetidores, bridges, routers, brouters y gateways) funcionan en los dos niveles inferiores
del modelo de referencia OSI (los niveles físico y de enlace de datos). Como estos dispositivos son comunes
a muchos tipos distintos de redes y funcionan principalmente con paquetes de datos, es menos probable que
presenten conflictos. Los fabricantes de estos productos cumplen estrictamente las normas 802.x del IEEE.
Por tanto, cualquier dispositivo que cumpla una norma IEEE puede comunicarse con otro dispositivo que
cumpla la misma norma o estándar. La única situación en la que puede esperar problemas de
incompatibilidad se produce cuando dos dispositivos cumplen estándares diferentes. Por ejemplo, las redes
Ethernet y Token Ring utilizan métodos diferentes para acceder a la red. Por tanto, un dispositivo diseñado
para cumplir el estándar Ethernet 802.3 no se comunicará con un dispositivo diseñado para trabajar con el
estándar Token Ring 802.5.

Selección de un diseño de red


Nos centraremos en el primer paso a dar para crear una red de equipos: construir los cimientos sobre los
que va a desarrollarse la red. Las decisiones que tomemos ahora pueden facilitar la vida posteriormente o
moverse en contra. Exploraremos las decisiones y pasos que se necesitan tomar para diseñar una red que
funcione.

¿Trabajo en Grupo o basada en servidor?

Una compañía que fabrica bicicletas personalizadas le ha pedido instalar una red de equipos económica,
que la ponga al día en las tecnologías de las comunicaciones, y sea suficientemente flexible como para
permitir su futura expansión.

Los objetivos de la compañía son:

• Conectar en red los equipos existentes para que puedan compartir información e
impresoras.
• Añadir dos equipos adicionales a la red: uno para el grupo de diseño de productos y otro
para el departamento de fabricación.
• Permitir la posible adición de otros tres equipos posteriormente.
• Ofrecer una conexión a Internet para el grupo de diseño de productos.

La siguiente tabla nos ofrece información básica sobre la compañía de bicicletas sobre la que vamos a
trabajar
Localización Madrid
Número de 23
empleados
Producto Bicicletas personalizadas.
Instalaciones Edificio de una planta: 245 metros cuadrados.
Número actual de Cinco equipos personales, con la siguiente distribución:
equipos Gerente: Pentium III 400 MHz.
Departamento de contabilidad: 486/200 MHz.
Departamento de ventas: 486/200.
Departamento de envíos: 286/25.
Grupo de diseño de productos: Pentium II 300.
Sistemas Gerente y grupo de diseño de productos: Windows 98.
operativos Departamentos de contabilidad y ventas: Windows 95.
Departamento de envíos: MS-DOS 5.0.
Periféricos El gerente tiene un módem, conexión a Internet y una
impresora en color de chorro de tinta.
El departamento de diseño tiene una impresora láser antigua.
Los departamentos de contabilidad y ventas comparten una
segunda impresora láser antigua con un conmutador.
El departamento de envíos tiene una impresora de matriz de
puntos.

La primera decisión que necesitamos tomar para esta nueva red es si debe ser una red Trabajo en Grupo
o una red basada en servidor. Los factores que necesitamos examinar incluyen los siguientes:

• Tamaño de la red.
• Nivel de seguridad.
• Tipo de negocio.
• Nivel de soporte administrativo disponible.
• Cantidad de tráfico en la red.
• Necesidades de los usuarios de la red.
• Presupuesto de la red.

En una red Trabajo en Grupo, todos los usuarios de la red son iguales. Todos tendrán un acceso igual a
todos los equipos de la red, siempre que el usuario de los equipos haya compartido este recurso con la red.
En una red o negocio pequeños, este sistema «uno para todos y todos para uno» a menudo funciona bien.

Es frecuente que en un pequeño negocio las personas no puedan dedicarse a tiempo completo a
administrar la red. Esto ofrece otra de las ventajas de las redes Trabajo en Grupo. En éstas, la
responsabilidad del funcionamiento de la red está distribuida entre todas las personas, y los usuarios
determinan la información o recursos de sus equipos que van a compartir.

Aunque la opción de la red Trabajo en Grupo parece ser una buena opción para nuestra compañía de
bicicletas, tiene algunos inconvenientes que deben ser considerados. Por ejemplo, imagine un usuario de la
red que tenga la impresora láser conectada a su equipo. Si desconecta su equipo y se va de la oficina, nadie
más podrá usar la impresora. Si el equipo A se bloquea o es reiniciado mientras el equipo B está intentando
usar un recurso, el equipo B será desconectado. Para resumir, generalmente en una situación de red Trabajo
en Grupo no se establece un responsable del sistema, las precauciones de seguridad son pocas, y cada
usuario es responsable de sus propios datos.

Otro inconveniente de la red Trabajo en Grupo es su rendimiento limitado. Si otro usuario está accediendo
a los recursos de su equipo, este usuario también estará usando tiempo de procesador del mismo. Por tanto,
independientemente de la velocidad del procesador de su equipo o de la memoria disponible, el rendimiento
de su equipo disminuirá cuando alguien más esté usando sus recursos.

Aun con estos inconvenientes, puede seguir pareciendo que una red Trabajo en Grupo es una buena
opción para nuestro ejemplo. Sin embargo, debemos pensar también las ventajas de usar una red basada en
servidor antes de tomar nuestra decisión. En una red basada en servidor, los recursos están generalmente
centralizados. Por ejemplo, un servidor gestiona todas las impresoras, y otro servidor gestiona todos los
archivos. Como los servidores no suelen ser desconectados, los recursos estarán siempre disponibles. Las
redes basadas en servidor también son escalables. Esto significa que su tamaño puede ser adaptado
fácilmente para responder a cambios en la carga de la red.

Las redes basadas en servidor también son más seguras que las redes Trabajo en Grupo. Con una red
Trabajo en Grupo, todos los recursos son compartidos del mismo modo en toda la red. Si el departamento
de contabilidad comparte el directorio que contiene los archivos de nóminas para que el gerente pueda
acceder a ellos, todos los demás miembros de la red también podrán acceder a dichos archivos. Por otra
parte, las redes basadas en servidor permiten una creación de cuentas y permisos que ofrecen una mayor
seguridad. Por ejemplo, una red basada en servidor puede compartir archivos individuales de un directorio
sin que el directorio en sí esté a disposición de todos los usuarios de la red.

A medida que crece, una red basada en servidor puede ser dividida en función de las necesidades de la
organización. Por ejemplo, se podría dedicar un servidor al departamento de contabilidad, y otro al
departamento de ventas. Si las necesidades de nuestra compañía de bicicletas llegaran a alcanzar este nivel,
necesitaríamos considerar el uso de una red que soporte compartir recursos a nivel de archivos y grupos de
usuarios con derechos compartidos para los recursos de la red.

Actualmente, la mejor opción para nuestra compañía es el uso de una red Trabajo en Grupo. Pero para
ofrecer una mayor flexibilidad y prepararse para una ampliación posterior, hay otra opción: crear una red
híbrida. Así, aunque nuestra red básica sea Trabajo en Grupo, instalaremos un equipo que hará la función de
servidor de archivos. Con este enfoque, el acceso al servidor de archivos requiere una cuenta y permisos,
mientras que el acceso a los demás equipos de la red será compartido.

Por tanto, tras sopesar estos factores, hemos llegado a la selección de nuestro diseño de red para esta
compañía de bicicletas: una red Trabajo en Grupo híbrida, con un nuevo equipo a instalar y configurar como
servidor de archivos, utilizada para centralizar la información de la compañía.

Hacer inventario

Tras decidirse sobre el diseño general de la red, el paso siguiente para crear una red es hacer inventario,
para determinar el hardware y software disponible y lo que necesitamos adquirir. Nuestra compañía de
bicicletas tiene equipos de tipos diversos, que van de antiguos 286 a un nuevo Pentium III, así como algunas
impresoras antiguas. Por tanto, será necesario realizar algunas actualizaciones obvias para que esta red
pueda ponerse en marcha. Hacer inventario es un punto importante, ya que define el punto de partida para
la futura ampliación de la red. Por ejemplo, si todos sus equipos ejecutan Microsoft Windows 95 o Windows
98, estará limitado a utilizar una red Trabajo en Grupo. Para pasar a una red basada en servidor en el
futuro, necesitará actualizar uno de los equipos para ejecutar NetWare o Windows NT, o agregar un nuevo
servidor que tenga instalado uno de estos sistemas operativos de red.

Para hacer inventario, necesita revisar estas cuatro categorías:

• Hardware.
• Software.
• Equipo de telecomunicaciones.
• Requerimientos de la red.

Revisión del hardware

Es un proceso simple, pero no debe tomarse a la ligera. Comience anotando las especificaciones de cada
equipo. Los detalles que recoja en esta etapa pueden ahorrarle tiempo a largo plazo. Como veremos
posteriormente, de cara a funcionar de forma efectiva, a menudo las redes requieren que el hardware y el
software cumplan ciertos estándares mínimos. Si sabe los detalles de la especificación o los equipos
disponibles por adelantado, podrá evitar muchos problemas posteriores.

Para cada equipo, necesita recoger información, incluyendo:

• Marca y modelo.
• Fabricante del procesador y velocidad.
• Cantidad de memoria (RAM) instalada.
• El tamaño y fabricante de cada disco duro.
• Detalles de cualquier otra unidad instalada, como unidades de CD-ROM y discos
removibles.
• Monitor (marca, modelo y tamaño).
• Tarjeta de vídeo (marca, modelo y cantidad de memoria).
• Cualquier periférico instalado.
• Tipo de bus (EISA, Micro Channel, ISA o PCI) del equipo y si quedan o no conectores
(slots) libres; necesitará conectores libres para instalar tarjetas de red.

Elabore una lista de los fabricantes y modelos de los dispositivos periféricos, tales como impresoras,
trazadores y digitalizadores, independientemente de que estén instalados o simplemente en una estantería.
Para cada uno de ellos, anote también si tiene los discos originales con los controladores.

Revisión del software

Tenga en cuenta todo el software que se está ejecutando en este momento en toda la futura red. Por
ejemplo, si va a pasar todos los equipos a Windows NT al instalar la nueva red, puede encontrar que algunos
de los antiguos programas utilizados a diario, ya no funcionarán. Tenga un especial cuidado al evaluar
programas personalizados y propietarios, tales como bases de datos de contabilidad, que hayan sido escritos
específicamente para la compañía. Puede que necesite contactar con el desarrollador para obtener
información sobre la ejecución de programas particulares en la red. No todos estos programas funcionarán
en un entorno de red; el contrato de licencia de un producto puede que no permita el funcionamiento en red.

Para cada programa software, recoja la siguiente información:

• Nombre del programa.


• Número de versión del programa.
• Disponibilidad de los disquetes o CD-ROM originales de instalación.
• Cualquier información sobre licencias.

Al llevar a cabo la revisión de nuestra compañía de bicicletas, anote también cualquier posible
incompatibilidad software entre los departamentos de la compañía. Por ejemplo, el departamento de
contabilidad podría estar usando Word Perfect, mientras que el departamento de ventas está usando
Microsoft Office. Si tiene previsto actualizarse algún día, ahora es el momento para realizar los cambios
necesarios y asegurarse de que se utiliza el mismo sistema en toda la compañía.

Revisión de los equipos de telecomunicaciones

Puede resultar extraño revisar los equipos de telecomunicaciones existentes al instalar una LAN, pero
actualmente éste es un elemento muy importante de la revisión, especialmente si piensa utilizar conexiones
Internet o algún tipo de servidor de acceso remoto. Pasar por alto algo tan simple como el número de líneas
telefónicas que hay en cada despacho puede tener un impacto importante posteriormente, si necesita tener
simultáneamente conexiones a módems y líneas de voz. Por ejemplo, si la compañía tiene un sistema de
teléfonos automático, aunque haya enchufes de teléfono en cada despacho, puede que no soporten la
conexión de un módem. En este caso, puede que se requiera una conexión separada para la comunicación
de voz y datos. Además, si la compañía está usando un servicio telefónico digital de alta velocidad, es
posible que no pueda conectarse con módems estándar. No suponga que un conector telefónico estándar RJ-
11 va a ser suficiente para conectar un módem y comenzar a navegar en la Web.

Requerimientos de la red

Tras examinar los recursos e instalaciones existentes, necesita definir los requerimientos de su red. Luego
adaptará estos requerimientos al hardware y software existente y a los dispositivos de telecomunicaciones
disponibles, y determinará los pasos que necesita llevar a cabo para desarrollar la red. Como mínimo,
necesitará considerar lo siguiente:
• El tamaño de las instalaciones (localizadas en una planta o varias plantas)
• El número de usuarios.
• Si la LAN se va a extender a varios edificios.
• El entorno (oficinas, fabricación, exteriores).
• El medio de red actual, si lo hay.
• Los conocimientos técnicos de los usuarios.
• El nivel de tráfico de la red (actual y previsto para un futuro).
• El nivel de seguridad.

Realización de un mapa

Ahora es el momento de esquematizar la red. Pero antes de que comience a recomendar un plano de la
red para nuestra compañía de bicicletas, primero necesitará realizar un mapa de todos los elementos
implicados. Durante este paso, debe considerar dos aspectos de la red: la distribución física, incluyendo la
localización de cada elemento hardware y cómo está conectado con los demás, y la topología física y lógica
de la red propuesta.

Utilice un plano o mapa de las instalaciones (o haga uno si no hay ninguno), y marque la posición de los
equipos existentes.

El segundo paso es crear un esquema de la topología de la red. No olvide incluir impresoras y otros
periféricos, como digitalizadores y módems.

Documentar adecuadamente una red es la clave para resolver problemas con éxito en el
futuro. Comencemos con el mapa de recursos y la revisión del equipo.

Selección del medio de la red

La selección del medio elegido no debe hacerse a la ligera. El coste de la instalación puede ser muy
elevado, especialmente si es necesario hacerlo dos veces. Generalmente, el medio elegido estará relacionado
con los requerimientos geográficos de la instalación. Por ejemplo, si varias de las estaciones están
localizadas en un entorno de fabricación, donde se genera gran cantidad de ruido eléctrico, puede que sea
necesario usar cable de fibra óptica, ya que no es afectado por señales eléctricas. Por otro lado, en una
pequeña oficina generalmente resultará adecuado usar un simple cable de par trenzado. Lo más importante
a tener en cuenta no es el coste actual, sino el coste futuro. Ser consciente del coste al principio puede
limitar la escalabilidad y, por tanto, la vida útil de la red.

En nuestra compañía de bicicletas, podemos decidir instalar nuestra red utilizando cable CAT 3 UTP. Esto
nos permitirá tener una red funcional con nuestras siete estaciones, pero limitará la velocidad de nuestra red
a 10 Mbps. Dentro de cinco años, que podríamos tener hasta 30 o 50 estaciones, una red de 10 Mbps
resultaría lenta. Sin embargo, si ahora utilizamos CAT 5 UTP, podemos actualizar nuestra red a 100 Mbps en
cualquier momento futuro, sin necesidad de recablear el edificio. Y el cable CAT 5 UTP sólo cuesta un poco
más por metro que el cable CAT 3 UTP.

Instalación del medio de la red

La instalación del medio de la red requiere habilidades especiales, y resulta recomendable dejársela a un
instalador profesional de cable si la topología es compleja. Sin embargo, con una topología simple, las
habilidades necesarias pueden estar a nuestro alcance. Siguiendo con nuestro ejemplo de la compañía de
bicicletas, a continuación vamos a ver el procedimiento de instalación de un sistema de cableado Ethernet
CAT 5. (Tenga en cuenta que en este momento nos estamos centrando en los cables y aún no estamos
preparados para conectar cualquiera de los dispositivos.)

La forma más simple de diseñar una red en nuestro entorno de oficina es utilizar una estrella física. El
punto central de la estrella será un panel de conexiones (un panel de conexiones es una batería de
conectores hembra RJ-45 que tiene terminales para conectar los cables).
En el otro extremo del cable, necesitará instalar una base CAT 5. Es similar a una base de teléfono
estándar, pero utiliza una conexión RJ-45, igual que el panel de conexiones. Observe que este conector
también tiene terminales con códigos de color.

Algunas bases CAT 5 tienen dos conjuntos de códigos de colores, uno para las
terminaciones de cables 568A y otro para 568B. Asegúrese de usar correctamente el
código de colores de la base y del panel de conexiones.

Recuerde que al instalar el cable, cualquier cable que vaya a ir sobre el techo o bajo el suelo tiene que
cumplir las normas locales de construcción y protección contra incendios. No olvide usar cable de tipo
plenum cuando sea necesario.

Si tiene previsto instalar gran cantidad de cable y conexiones (paneles de conexiones o bases CAT 5),
puede que desee adquirir una herramienta para montar conectores o crimpador (punchdown tool; es una
pequeña herramienta de mano que le permitirá asegurarse de que los cables se conectan adecuadamente al
terminal o conector).

Conexión del medio a los equipos

Una vez instalado el medio, la conexión de los equipos es un proceso simple. Todas las conexiones se
realizan mediante cables de conexión CAT 5 (cables y conectores prefabricados, disponibles en diversos
colores). Un extremo del cable es conectado a la tarjeta de red del equipo y el otro a la base RJ-45. Si está
usando un hub, verá que hay pequeños cables de conexión entre el panel de conexiones y una salida del
hub. No se preocupe si ve que no hay ningún equipo conectado a una salida y el cableado está conectado al
hub. El hub detectará que ese segmento no está ocupado y lo ignorará.

Establecimiento de un entorno cliente/servidor


Las grandes redes están basadas en el modelo cliente/servidor.

Computación centralizada frente al modelo cliente/servidor

Las primeras redes estaban basadas en el modelo de computación centralizada. Generalmente, en estas
redes un gran servidor (un equipo mainframe o gran equipo) manejaba todos los aspectos de la red,
mientras que cada usuario accedía al servidor principal desde un terminal. Como el equipo centralizado
gestionaba todas las tareas de cálculo de alto nivel, generalmente los terminales eran económicos, equipos
de bajo rendimiento. Actualmente, gracias a las mejoras obtenidas por la rápida evolución del equipo
personal, el antiguo modelo centralizado está siendo sustituido por el modelo cliente/servidor. Hoy en día los
usuarios tienen toda la potencia de un equipo mainframe al alcance de sus dedos, con la ventaja añadida de
disponer de una red interconectada.

Computación centralizada

En el entorno tradicional de grandes equipos, una aplicación tal como una base de datos se ejecuta en un
gran equipo mainframe central y potente al que se accede mediante terminales. El terminal envía una
petición de información al equipo mainframe; el mainframe recupera la información y la muestra en el
terminal.

La respuesta completa viaja desde el servidor a través de la red, y es descargada en el cliente que hace la
petición. El acceso a los archivos tiene lugar a través del sistema operativo de red (NOS; Network Operating
System) y el cable. Hay muy poca coordinación entre el terminal y el mainframe. Los datos son procesados
en el mainframe y luego entregados al terminal. La transferencia de datos entre el terminal y el mainframe
incrementa el tráfico de la red y disminuye la velocidad de procesamiento de las peticiones de otros
terminales.

Computación cliente/servidor
El término «computación cliente/servidor» se refiere a un modelo en el que el procesamiento de datos es
compartido entre el equipo cliente y el equipo servidor, más potente.

El enfoque cliente/servidor puede beneficiar a cualquier organización en la que muchas personas


necesiten acceder continuamente a grandes cantidades de datos.

La red cliente/servidor es la forma más eficaz de ofrecer:

• Acceso y gestión de bases de datos para aplicaciones tales como hojas de cálculo,
contabilidad, comunicaciones y gestión de documentos.
• Gestión de la red.
• Almacenamiento centralizado de archivos.

Introducción al modelo cliente/servidor

La mayoría de las redes trabajan bajo el modelo cliente/servidor, también conocido como «redes basadas
en servidor». Una estación cliente realiza una petición de datos que están almacenados en un servidor. La
estación cliente procesa los datos usando su propia CPU. Los resultados del procesamiento pueden ser
almacenados entonces en el servidor para su uso futuro. Los datos también pueden ser almacenados en la
estación cliente, a los que pueden acceder otras estaciones cliente de la red. En las redes Trabajo en Grupo,
en las que no hay un servidor centralizado, cada estación cliente actúa a la vez como cliente y servidor.

Para ver un ejemplo de cómo funciona el modelo cliente/servidor vamos a observar una aplicación de
gestión de bases de datos. En el modelo cliente/servidor, el software cliente utiliza el lenguaje de consulta
estructurado (SQL, Structured Query Language), para traducir lo que ve el usuario en una petición que
pueda comprender la base de datos. SQL es un lenguaje de consulta de bases de datos similar al inglés
desarrollado originalmente por IBM para ofrecer un método relativamente simple de manipular datos (la
manipulación de datos incluye su introducción, su recuperación o su edición).

Otros fabricantes de bases de datos se dieron cuenta de que sería más fácil desarrollar aplicaciones de
bases de datos utilizando un lenguaje común de bases de datos. Por tanto, éstos dieron soporte a SQL, y se
convirtió en un estándar de la industria. En la actualidad, la mayoría de los sistemas de gestión de bases de
datos utilizan SQL.

El proceso cliente/servidor

La consulta a la base de datos es enviada por el cliente, pero procesada en el servidor. A través de la red,
sólo se devuelven los resultados hacia el cliente. El proceso de solicitar y recibir información consta de seis
pasos:

1. El cliente solicita datos.


2. La petición es traducida a SQL.
3. La petición SQL es enviada por la red al servidor.
4. El servidor de bases de datos busca en el equipo donde se encuentran los datos.
5. Los registros seleccionados son devueltos al cliente.
6. Los datos son presentados al usuario.

El entorno cliente/servidor tiene dos componentes principales:

• La aplicación, a menudo denominada como «cliente» o front-end.


• El servidor de bases de datos, a menudo denominado como «servidor» o back-end.

El cliente

El usuario genera una petición en el front-end. El cliente ejecuta una aplicación que:

• Presenta una interfaz al usuario.


• Formatea las peticiones de datos.
• Muestra los datos recibidos del servidor.

En un entorno cliente/servidor, el servidor no contiene el software de interfaz de usuario. El cliente es


responsable de presentar los datos en un formato que resulte útil.

El usuario introduce las instrucciones desde el equipo cliente. El equipo cliente prepara la información
para el servidor. El equipo cliente envía una petición de información específica al servidor a través de la red.
El servidor procesa la petición, localiza la información adecuada y la devuelve al cliente a través de la red. El
equipo cliente envía entonces la información a la interfaz, que presenta la información al usuario. El equipo
cliente también puede procesar adicionalmente la información, utilizando su propia CPU y software.

Uso del front-end

Los front-end pueden presentar a los usuarios la misma información de formas distintas, dependiendo de
la petición. Por ejemplo, los datos que indican que Colón cruzó por primera vez el océano Atlántico en 1492,
pueden ser organizados y presentados en varios contextos, incluyendo:

• Viajes oceánicos.
• Descubrimientos de Colón.
• Conquistas de 1492.
• Mares cruzados por Colón.

Como otro ejemplo, vamos a considerar a nuestro fabricante de bicicletas personalizadas. La compañía
guarda toda la información sobre clientes y productos en una base de datos. Pero esta información puede ser
recuperada, organizada y presentada a través del front-end de varias formas:

• El departamento de publicidad puede enviar correos publicitarios a los clientes que tienen
un cierto código postal.
• Los distribuidores pueden saber cuáles son los artículos en stock.
• Los departamentos de servicios pueden identificar cuáles son los clientes a los que hay que
dar servicio.
• Los departamentos de pedidos pueden ver el historial de compras de cada cliente.
• Los departamentos de contabilidad pueden evitar que un cliente moroso pida nuevos
productos.

Cada departamento necesita un front-end diseñado para acceder a la base de datos común y recuperar
información para una necesidad determinada.

Herramientas front-end

Existen diversas herramientas, aplicaciones y utilidades disponibles para el front-end para hacer que el
proceso cliente/servidor sea más eficiente. Estas herramientas incluyen:

• Herramientas de consulta. Estas herramientas utilizan consultas predefinidas y


capacidades propias de generación de informes para ayudar a que los usuarios accedan a datos del
servidor.
• Aplicaciones de usuario. Muchos programas habituales de aplicación, como Microsoft
Excel, pueden ofrecer acceso front-end a bases de datos situadas en servidores. Otras, como
Microsoft Access, incluyen su propio SQL para ofrecer una interfaz para sistemas de gestión de
bases de datos de diversos fabricantes.
• Herramientas de desarrollo de programas. Muchas instalaciones cliente/servidor
necesitan aplicaciones especiales front-end personalizadas para sus trabajos de recuperación de
datos. Para ello, se dispone de herramientas de desarrollo de programas, como Microsoft Visual
Basic, para ayudar a los programadores a desarrollar herramientas front-end para acceder a datos
de servidores.
El servidor

Generalmente, en un entorno cliente/servidor el servidor se dedica a almacenar y gestionar datos. Éste es


el lugar en el que se lleva a cabo la mayor parte de actividad relacionada con bases de datos. El servidor
también es denominado como el back-end del modelo cliente/servidor porque responde a las peticiones del
cliente. El servidor recibe las peticiones estructuradas de los clientes, las procesa y envía la información
solicitada al cliente de nuevo a través de la red.

El software de base de datos del servidor de archivos responde a las peticiones de los clientes ejecutando
búsquedas. Como parte de un sistema cliente/servidor, sólo devuelve el resultado de las búsquedas.

El procesamiento back-end incluye la ordenación de datos, la extracción de los datos solicitados y la


devolución de los datos al usuario.

Adicionalmente, el software servidor para bases de datos gestiona los datos de una base de datos,
incluyendo operaciones de:

• Actualización.
• Borrado.
• Inserción.
• Seguridad.

Procedimientos almacenados

Los procedimientos almacenados son pequeñas rutinas de procesamiento de datos preescritas, que
ayudan a los detalles del procesamiento de datos. Los procedimientos son almacenados en el servidor, y
pueden ser usados por el cliente.

Los procedimientos almacenados ayudan a procesar los datos. Un procedimiento almacenado puede ser
usado por cualquier número de clientes, evitando la necesidad de incorporar la misma rutina en el código de
cada programa.

Estos procedimientos almacenados:

• Realizan parte del procesamiento llevado a cabo generalmente en el cliente.


• Reducen el tráfico de la red, ya que una simple llamada del cliente al servidor puede iniciar
una serie de procedimientos almacenados, que en caso contrario requerirían varias peticiones.
• Pueden incluir controles de seguridad para evitar que usuarios no autorizados ejecuten
algunos de los procedimientos.

Hardware del servidor

Generalmente, los equipos servidor de un entorno cliente/servidor deben ser más potentes y rápidos que
los equipos cliente. Además de un procesador de alta velocidad, estos equipos necesitan gran cantidad de
RAM y de espacio en unidades de disco. Estos equipos también deben ser capaces de gestionar:

• Múltiples peticiones.
• Seguridad.
• Tareas de gestión de la red

Cualquier organización que implemente una red cliente/servidor debe usar servidores dedicados para
gestionar las funciones back-end.

Arquitectura cliente/servidor

Hay varias posibles organizaciones cliente/servidor:


• Los datos pueden ser introducidos en un único servidor.
• Los datos pueden estar distribuidos entre varios servidores de bases de datos. Las
posiciones de los servidores dependerán de la ubicación de los usuarios y la naturaleza de los datos.
• Los servidores de una WAN sincronizan periódicamente sus bases de datos para asegurarse
de que todos tienen los mismos datos.
• Un data warehouse almacena grandes volúmenes de datos y envía los datos más
solicitados a un sistema intermedio que es capaz de formatear los datos en su forma más
requerida. A menudo, esto descarga parte del procesamiento de datos del servidor principal a otros
servidores.

Ventajas del uso de un entorno cliente/servidor

La tecnología cliente/servidor crea un potente entorno que ofrece muchas ventajas reales a las
organizaciones. Un sistema cliente/servidor bien planificado proporciona redes relativamente económicas.
Estos sistemas ofrecen una capacidad de procesamiento del nivel de un mainframe, permitiendo en cambio
una fácil personalización para aplicaciones específicas. Como el modelo cliente/servidor sólo envía los
resultados de una consulta a través de la red, reduce el tráfico de la red.

El modelo cliente/servidor utiliza un potente servidor para almacenar los datos. La estación cliente puede
procesar parte o todos los datos solicitados. En una red cargada, esto implica que el procesamiento será
distribuido con más eficiencia que en un sistema tradicional basado en mainframe.

Como los servicios de archivos y los datos están en el servidor back-end, resulta más fácil administrar los
servidores y mantenerlos en un lugar seguro en una única ubicación. Los datos están más seguros en un
entorno cliente/servidor, ya que pueden ser guardados en un área segura, lejos de los usuarios. Los datos
también están más seguros cuando se utiliza la seguridad basada en Windows NT Server para evitar el
acceso no autorizado a los archivos. Cuando los datos están almacenados en un número limitado de
ubicaciones y son gestionados por una única autoridad, las copias de seguridad se simplifican.

Utilización de controladores de dispositivo y tarjetas


de red
Sin una tarjeta de red adecuadamente configurada, nuestros equipos no podrán comunicarse con el medio
físico.

La función de los controladores

Un controlador (a menudo llamado un controlador de dispositivos) es un software que permite a un


equipo trabajar con un dispositivo determinado. Aunque podemos tener instalado un dispositivo en un
equipo, el sistema operativo del equipo no puede comunicarse con este dispositivo hasta que se instala y
configura el controlador para dicho dispositivo. El software controlador es el que le dice al equipo cómo
trabajar con el dispositivo para que dicho dispositivo pueda realizar su tarea.

Existen controladores para prácticamente cualquier tipo de dispositivo y periférico informático,


incluyendo:

• Dispositivos de entrada, tales como ratones.


• Unidades y controladores de disquete y disco duro.
• Dispositivos multimedia, tales como micrófonos, cámaras y grabadoras.
• Tarjetas de red.
• Impresoras, trazadores y unidades de cinta.

Generalmente, el sistema operativo del equipo trabaja con el controlador para hacer que el dispositivo
funcione. Las impresoras ofrecen un buen ejemplo de cómo se utilizan los controladores. Las impresoras
construidas por distintos fabricantes tienen distintas características y funciones. Es imposible que los
fabricantes de equipos y sistemas operativos incorporen en los nuevos equipos todo el software requerido
para identificar y trabajar con cada tipo de impresora. En lugar de ello, los fabricantes de impresoras crean
controladores disponibles para cada una de sus impresoras. Antes de que su equipo pueda enviar
documentos a una impresora, necesita instalar, o cargar, los controladores para dicha impresora, de modo
que su equipo pueda ser capaz de comunicarse con ésta.

Como regla general, los fabricantes de componentes, tales como periféricos o tarjetas que deban ser
instaladas físicamente, son responsables de suministrar los controladores para sus dispositivos. Por ejemplo,
los fabricantes de tarjetas de red son responsables de crear controladores para sus tarjetas. Los
controladores son incluidos, generalmente, en un disco suministrado con los equipos informáticos cuando se
adquieren. Los controladores también pueden ser descargados desde un servicio tal como The Microsoft
Network (MSN), CompuServe, o el sitio Web o BBS del fabricante.

El entorno de red

Los controladores de red ofrecen comunicación entre una tarjeta de red y el redirector de red que se
ejecuta en el equipo (el redirector es parte del software de red que acepta peticiones de entrada/salida (E/S)
de archivos remotos, y luego envía, o redirige las mismas por la red a otro equipo). El administrador de la
red usa un programa de utilidad para instalar el controlador. Durante la instalación, el controlador es incluido
en el disco duro del equipo.

Controladores y el modelo OSI

Los controladores de tarjeta de red residen en el subnivel de control de acceso al medio del nivel de
enlace de datos del modelo de referencia OSI. El nivel de control de acceso al medio es responsable de
ofrecer acceso compartido a las tarjetas de red del equipo al nivel físico. En otras palabras, los controladores
de tarjeta de red aseguran una comunicación directa entre el equipo y la tarjeta de red. Ésta, a su vez,
establece un enlace entre el equipo y el resto de la red.

Controladores y software de red

Es habitual que el fabricante de una tarjeta de red ofrezca controladores al vendedor de software de red,
de modo que los controladores puedan ser incluidos con el software del sistema operativo de red.

La lista de compatibilidad hardware del fabricante del sistema operativo incluye los controladores que han
probado e incluido con el sistema operativo. Incluso si el controlador de una tarjeta determinada no ha sido
incluido con el sistema operativo de red, es habitual que el fabricante de la tarjeta de red incluya
controladores para la mayoría de sistemas operativos populares en un disco incluido con la tarjeta. Sin
embargo, antes de comprar una tarjeta, debe asegurarse de que la tarjeta tiene un controlador que
funcionará con su sistema operativo de red particular.

Utilización de controladores

La utilización de controladores abarca varias tareas, incluyendo su instalación, configuración, actualización


y eliminación.

Instalación de controladores

Cada sistema operativo de red tiene su propio método para instalar controladores. La mayoría de
sistemas operativos de red populares utilizan interfaces gráficas interactivas, o cuadros de diálogo que guían
al instalador a través del proceso.

Por ejemplo, Microsoft Windows NT Server incluye una utilidad llamada Panel de control. Este emplea
cuadros de diálogo que llevan al usuario a través del proceso de instalar un controlador de tarjeta de red.

Configuración de controladores
Generalmente, las tarjetas de interfaz de red tienen opciones configurables que deben ser establecidas
correctamente para que la tarjeta funcione de forma adecuada.

La mayoría de nuevas tarjetas de red son configurables por software o Plug and Play (PnP). No hay
interruptores DIP o jumpers para configurar. La configuración se realiza mediante el software, durante la
instalación de los controladores o una vez instalados, o (como en sistemas que cumplen la norma PnP, tales
como Microsoft Windows 95 o Windows 98) el sistema operativo intenta configurar el dispositivo hardware
automáticamente. Aunque actualmente Windows NT 4.0 no sigue el estándar PnP, intentará reconocer sus
dispositivos. Si el intento no es satisfactorio, el sistema le indicará que introduzca los controladores desde un
disco suministrado por el fabricante. Si ya tiene el disco con los controladores correctos, a menudo resulta
tan simple como indicarle a Windows NT dónde encontrarlos.

Actualización de controladores

En ocasiones, un fabricante puede preparar opciones adicionales o modificaciones sobre un controlador,


para mejorar el rendimiento de un componente. Los fabricantes pueden enviar estos cambios en los
controladores por correo a los usuarios registrados, colocarlos en un boletín electrónico de Internet, o
ponerlos a su disposición a través de un servicio tal como The Microsoft Network (MSN), CompuServe o el
sitio Internet del fabricante. El usuario puede entonces descargar e instalar el controlador actualizado.

El proceso de actualización de controladores es similar al de su instalación, aunque puede que primero


necesite eliminar el controlador antiguo. Asegúrese de leer los archivos readme suministrados con el
software. Los archivos readme le informarán del procedimiento correcto de instalación. Algunos
controladores, especialmente los que son descargados desde Internet o un boletín electrónico, vienen en
forma de archivos ejecutables. En este caso, pulse dos veces en el nombre de archivo y el archivo ejecutable
realizará la instalación.

Eliminación de controladores

En ocasiones, es necesario eliminar controladores, como cuando el controlador original entra en conflicto
con los nuevos controladores. Si está eliminando un dispositivo, elimine también simultáneamente los
controladores, para asegurarse de que no haya conflictos entre los antiguos controladores y los nuevos que
van a ser instalados.

El proceso de eliminar un controlador es similar al de instalarlo.

Instalación de tarjetas de red

La instalación de una tarjeta de red puede ser tan simple como seguir unas instrucciones predefinidas o
llevar a un fallo frustrante. El mejor método para minimizar los problemas es realizar primero una pequeña
planificación. Antes de adquirir tarjetas de red, resulta útil tener en cuenta varios puntos importantes.

Tipo de conector de expansión

Una tarjeta de red es uno de los diversos tipos de tarjetas de expansión para un equipo personal. Como
hemos aprendido anteriormente, un equipo puede tener varios tipos de bus de expansión. Puede encontrarse
con buses ISA, EISA, Micro Channel y/o PCI.

Independientemente de que esté comprando una tarjeta para un único equipo o tarjetas para toda la red,
necesita conocer las respuestas a tres preguntas para cada uno de los equipos que piense conectar:

1. ¿Qué tipo de bus de expansión tiene?


2. ¿Tiene un slot disponible para la tarjeta?
3. ¿Qué tipo de cable se le va a conectar?

Tipo de tarjeta
No todas las tarjetas de red son iguales. Además de estar diseñadas para su instalación en diferentes
buses de expansión, las tarjetas de red son específicas para un tipo de red. Por ejemplo, una tarjeta
diseñada para trabajar en un sistema Ethernet no funcionará en un sistema Token Ring.

Velocidad de la red

Existen dos tipos de Ethernet: 10BaseT (10 Mbps) o 100BaseTX (100 Mbps). Muchas de las nuevas
tarjetas de red pueden funcionar a cualquiera de ambas velocidades, pero las tarjetas antiguas sólo
funcionan a 10 Mbps. Al diseñar su red, asegúrese de tener en cuenta las futuras necesidades de la red.
Puede que resulte más eficiente comprar ahora tarjetas de red de doble velocidad que tener que comprar
nuevas tarjetas posteriormente.

Conexión al medio

Como ya hemos visto, existen diversos medios a elegir. Asegúrese de examinar cuidadosamente las
tarjetas que adquiere, para comprobar que se adaptarán al cableado de la red. Algunas tarjetas tienen
conectores BNC o RJ-45; otras sólo tienen uno de ambos.

Incorporación de extras

La adquisición de tarjetas de red con luces de diagnóstico puede resultar una buena inversión que se
rentabilizará posteriormente. El objetivo de estos indicadores luminosos es mostrar el estado de la tarjeta y
de la red. Pueden decirle si la tarjeta está conectada correctamente (detecta la presencia de una red) y
cuando la tarjeta está procesando datos. Algunas tarjetas de red incluyen 1, 2 ó 3 diodos LED visibles en la
parte exterior de el equipo. Generalmente, un indicador verde muestra que hay una conexión adecuada
entre la tarjeta y el medio. Habitualmente, una luz amarilla intermitente indica que la tarjeta está
procesando datos.

Instalación de una tarjeta de red

Instalar una tarjeta de red es como instalar cualquier otra tarjeta de expansión. importante seguir un
procedimiento de instalación:

1. Lea la documentación suministrada con la tarjeta. Anote cualquier requerimiento o


limitación especial antes de comenzar la instalación.
2. Determine los números de petición de interrupción (IRQ) y direcciones de E/S que están
disponibles en el equipo. Esto resulta especialmente necesario si está realizando la instalación en un
sistema operativo que no está equipado con tecnología PnP. Generalmente, esto puede hacerse con
el software de información del sistema incluido con el sistema operativo del equipo.
3. Configure los jumpers o interruptores si es necesario. Si la tarjeta no tiene jumpers ni
interruptores, utilice el software de instalación para realizar los cambios una vez que haya instalado
la tarjeta de red. Consulte la documentación.
4. Desconecte el equipo y extraiga el cable de alimentación.
5. Siga los procedimientos adecuados de descarga electrostática.
6. Quite la tapa del equipo.
7. Instale la tarjeta en un conector o slot libre.
8. Vuelva a conectar los cables del equipo y conéctelo antes de poner la tapa. De este modo,
si hay cualquier conflicto que requiera ajustes del hardware, no necesitará volver a quitar la tapa.
9. Una vez que el nuevo hardware parezca funcionar correctamente (una vez resueltos los
posibles conflictos), vuelva a poner la tapa.
10. Instale los controladores software adecuados.

Comprobación de la compatibilidad hardware


Las redes dependen del hardware, y no todos los productos hardware son compatibles. El hardware de los
equipos plantea cuestiones similares. En algunos casos, dos elementos hardware simplemente no pueden
comunicarse entre sí. Por ejemplo, considere una analogía con los recambios de automóviles: dos piezas
pueden parecer similares y poder realizar la misma función, pero cada una está diseñada para trabajar en un
vehículo diferente.
Problemas con el hardware

Las incompatibilidades hardware son un hecho diario. En la industria informática actual, cientos de
fabricantes desarrollan hardware y software. Cada fabricante tiene su propia perspectiva sobre el mejor
método para llevar a cabo la misma tarea, y cada uno ofrecerá una solución única. Los temas de derechos
de autor y patentes complican aún más el tema.

La evaluación y selección de hardware es una parte fundamental de la planificación de la implementación


de una red. Si tiene a su alcance el lujo de diseñar una red a partir de cero, puede seleccionar los fabricantes
o distribuidores y trasladarles el problema de la compatibilidad. Antes de realizar una compra, deles una lista
del hardware que piensa usar y pídales que le certifiquen que esos elementos son compatibles con sus
productos. Además, no acepte demasiado pronto la opinión de un distribuidor. Por ejemplo, si está
considerando la adquisición de dos dispositivos (X e Y), pregunte a los distribuidores de X si su producto es
compatible con Y y pregunte a los distribuidores de Y si su producto es compatible con X. Entonces compare
las respuestas obtenidas; éstas pueden ayudarle a encontrar una incompatibilidad que, en otro caso, no
podría detectar.

Es probable que necesite crear una red a partir de un conjunto de hardware existente. En estos casos, la
probabilidad de que surjan problemas debidos a incompatibilidades hardware es bastante alta. En ocasiones,
resulta más económico descartar el hardware antiguo y comenzar de nuevo.

Las incompatibilidades más habituales se producen entre el hardware y el software. El cambio o la


actualización del sistema operativo de un equipo o una red puede llevar a problemas importantes. Puede que
necesite actualizar los controladores hardware al mismo tiempo que el software. Asegúrese de estudiar este
tema antes de comenzar.

Lectura de la documentación

Lea toda la documentación de los productos implicados. Puede que su hardware o su software tenga un
problema, o pueda entrar en conflicto con otro producto. Generalmente, el fabricante documentará estos
conflictos y dará una solución. Si no encuentra la solución en la documentación suministrada, puede
contactar con el fabricante del producto y pedirle información sobre productos no documentados. Para más
información, explore el sitio Web del fabricante.

Detección durante la instalación

Al instalar un nuevo sistema operativo para un equipo o una red, generalmente su equipo intentará
detectar el hardware del sistema durante el proceso de instalación, y cargará los controladores adecuados
para el mismo. Compruebe la lista de hardware detectado y asegúrese de que coincide con el instalado en la
máquina. Por ejemplo, si está instalando Novell IntranetWare, la utilidad de instalación examinará
automáticamente su equipo, buscando hardware tal como discos duros, unidades de CD-ROM y tarjetas de
red. Si los dispositivos son reconocidos, los controladores adecuados para los mismos serán cargados
automáticamente.

Comprobación de los requerimientos mínimos

Como primer paso previo a la instalación, asegúrese de que supera los requerimientos mínimos sobre los
recursos del equipo. Estos recursos incluyen la velocidad del procesador, la memoria y el espacio en disco.
En la tabla se listan algunos requerimientos mínimos de hardware para software común de red.

NetWare 5 Windows NT Windows 98


Server 4.0
Procesador Procesador 486 33 MHz o 486 66 MHz o
Pentium superior superior
Memoria 64 MB 16MB 16MB
Espacio en disco 200 MB 125 MB 225 MB
Disco CD-ROM CD-ROM 3,5 alta densidad
Monitor VGA VGA VGA
Tarjeta de red Sí Sí Sí

Recuerde que éstos son los requerimientos mínimos publicados. Trate estos requerimientos mínimos
como si, por ejemplo, fuera a tener en cuenta que una bicicleta es el requerimiento mínimo para subir un
puerto de montaña. Puede hacerse, pero sería mucho más fácil y divertido en un coche potente. Windows NT
Server funcionará con 16 MB de RAM y un procesador a 33 MHz, pero no lo hará con rapidez.

Hardware de red

El hardware de red no es tan susceptible como el software a los conflictos y problemas de compatibilidad.
Estos dispositivos (repetidores, bridges, routers, brouters y gateways) funcionan en los dos niveles inferiores
del modelo de referencia OSI (los niveles físico y de enlace de datos). Como estos dispositivos son comunes
a muchos tipos distintos de redes y funcionan principalmente con paquetes de datos, es menos probable que
presenten conflictos. Los fabricantes de estos productos cumplen estrictamente las normas 802.x del IEEE.
Por tanto, cualquier dispositivo que cumpla una norma IEEE puede comunicarse con otro dispositivo que
cumpla la misma norma o estándar. La única situación en la que puede esperar problemas de
incompatibilidad se produce cuando dos dispositivos cumplen estándares diferentes. Por ejemplo, las redes
Ethernet y Token Ring utilizan métodos diferentes para acceder a la red. Por tanto, un dispositivo diseñado
para cumplir el estándar Ethernet 802.3 no se comunicará con un dispositivo diseñado para trabajar con el
estándar Token Ring 802.5.

En una red Trabajo en Grupo podemos compartir, o hacemos disponibles a través de la red, cualquier
directorio o impresora que deseemos de forma que puedan ser accedidos por otros usuarios. En redes con
configuraciones de cliente/servidor, utilizaremos cuentas para establecer quién puede acceder a qué
archivos, directorios e impresoras.

Creación de recursos compartidos en una red


Para empezar definiremos los recursos compartidos, examinaremos los recursos que se pueden compartir
en una red y veremos quién puede definir los recursos compartidos.

Cómo compartir recursos en una red

Antes de que pueda compartir recursos con otro equipo, su equipo tiene que tener instalado un software
cliente y tiene que estar configurado como cliente de una red. Tendrá que configurar la identidad del equipo
en la red, permitir la compartición y definir privilegios de acceso para los recursos que quiera compartir en
un equipo. El procedimiento para instalar y configurar el software del cliente depende del sistema operativo
que esté utilizando y del sistema operativo de red con el que esté tratando de compartir los recursos.

Cómo compartir ficheros y archivos

En su forma más sencilla, compartir recursos entre equipos no es más que el paso de archivos de un
equipo a otro mediante disquetes. Este método impone restricciones severas en el volumen de los datos, en
la velocidad y en la distancia entre los puntos que comparten los datos, pero no obstante, este método suele
ser útil.

Otra técnica para compartir recursos es conectar directamente dos equipos a través del puerto de
comunicaciones serie (COM) de cada equipo. Para conectar los equipos de esta forma se requiere un cable
de conexión directa y software de comunicaciones serie. (Un cable de conexión directa conecta los pines de
salida del puerto serie de un equipo con los pines de entrada del puerto serie del otro.)

Para que se pueda utilizar la conexión física entre los dos equipos, es necesario que en cada equipo esté
instalado un software de comunicaciones. Tiene que configurar un equipo como host, o servidor, y otro como
cliente. De esta forma, el equipo cliente tendrá acceso a los datos del host. Aunque esto no es realmente
una red de área local (LAN), es una forma práctica de
proporcionar una conexión temporal entre equipos para la
transferencia de archivos. Las conexiones directas por cable
se suelen utilizar para compartir archivos entre un equipo de
sobremesa y un ordenador portátil.

Compartir información de una forma eficiente no es tan


sencillo como conectar con cables los equipos. En un entorno
de red, con muchos usuarios y requerimientos de trabajo,
hay que definir privilegios de acceso, o permisos. Esto
permite a los usuarios de la red acceder a la información
correspondiente a las necesidades de su trabajo, mientras
que se bloquea el acceso a accesos no autorizados a datos
confidenciales o de valor.

Compartir en un entorno Trabajo en


Grupo

La forma más sencilla y conveniente de trabajar en red es


Trabajo en Grupo. En este entorno de red, los datos se
comparten a nivel de unidad de disco o de carpeta. Se puede
compartir cualquier unidad de disco o cualquier carpeta de
una unidad de disco. Cada equipo comparte su unidad o sus
carpetas en la red y cada usuario es responsable de
configurar su forma de compartir.

Software

Para compartir en una red Trabajo en Grupo, independientemente del sistema operativo que se esté
utilizando, primero hay que habilitar en el equipo el compartir archivos e impresoras. Cada sistema operativo
tiene sus propios métodos para definir los recursos compartidos.

Cómo compartir impresoras, unidades de disco y carpetas

Una vez que se ha habilitado la compartición de recursos, puede decidir qué unidades de disco, carpetas e
impresoras están disponibles en la red. Las opciones de compartir incluyen discos duros, unidades de CD-
ROM, unidades de disquete y carpetas. Para definir una impresora o una de estas unidades de disco como un
recurso compartido, tiene que definir cada uno como un recurso compartido y asignarle un nivel de acceso.
(No se pueden compartir dispositivos como escáneres o módems.) Recuerde que una vez que un recurso
está compartido en una red Trabajo en Grupo, estará disponible en toda la red.

Redes Microsoft Windows 95 y 98

Software

Microsoft Windows 95 y 98 incluyen varias opciones de software de cliente. El más habitual es Cliente
para redes Microsoft de Microsoft. Para instalar el Cliente para redes Microsoft, abra el Panel de control y
haga doble clic en el icono Red. Haga clic en Agregar para que aparezca el cuadro de diálogo Seleccione
Cliente de red. Como está añadiendo un cliente de red Microsoft, seleccione Cliente y, a continuación, haga
clic en Agregar.

Seleccione Microsoft en la lista Fabricantes y seleccione Clientes para redes Microsoft en la lista Clientes
de red. Para añadir al sistema el servicio de cliente seleccione Aceptar.

En este momento, necesitará añadir un protocolo de red. El cliente para redes Microsoft se puede utilizar
con los protocolos IPX/SPX, NetBEUI y TCP/IP. Seleccione el protocolo apropiado para su entorno de red.
Una vez que haya instalado el software del
Cliente para redes Microsoft podrá compartir
recursos que utilice el protocolo SMB (Bloque
de mensajes del servidor) para compartir
archivos. Esto incluye a cualquier equipo que
utilice Windows 95 o 98, Windows NT
Workstation, Windows para trabajo en grupo o
LAN Manager.

Cómo compartir impresoras,


unidades de disco y carpetas

Una vez que ha definido la red en su equipo,


puede compartir en la red directorios, carpetas
e impresoras. Para compartir estos recursos
tiene que activar Compartir impresoras y
archivos.

Haga clic con el botón derecho sobre el icono


Entorno de red y seleccione Propiedades del
menú para abrir el cuadro de diálogo Red. A
continuación, haga clic en el botón Compartir
impresoras y archivos.

El cuadro de diálogo Compartir impresoras y


archivos contiene dos casillas de verificación:

• Permitir que otros usuarios


tengan acceso a mis archivos.
• Permitir que otros usuarios
impriman en mis impresoras.

Puede seleccionar cualquiera de las dos


casillas de verificación, o incluso las dos. Una vez
que haya activado las casillas de verificación
deseadas, puede comenzar a compartir los
recursos de su equipo.

Aunque haya activado la compartición de


recursos en su equipo, sus recursos no estarán
disponibles en la red hasta que no haya indicado
qué recursos desea compartir. Para compartir
una unidad de disco o una carpeta, abra el
Explorador de Windows, haga clic con el botón
derecho sobre el icono de la unidad de disco o
sobre el de la carpeta y seleccione Compartir en
el menú. Esto muestra la ficha Compartir en el
cuadro de diálogo Propiedades correspondiente a
la unidad de disco o a la carpeta.

Si selecciona el botón de opción Compartido como puede definir el nombre y añadir una breve descripción
al recurso compartido. (El botón de opción es un pequeño círculo que aparece en el cuadro de diálogo al lado
de cada opción; cuando se seleccionan, aparece dentro de ellos un pequeño círculo negro.) En el área Tipo
de acceso del cuadro de diálogo puede seleccionar el botón de opción correspondiente a cualquiera de los
tres tipos de acceso. La selección de Sólo de lectura restringe el acceso a una carpeta de forma que su
contenido pueda ser leído y copiado, pero nunca puede ser modificado. Si selecciona Total se permite el
acceso completo al contenido de la carpeta; y si selecciona Depende de la contraseña obliga a que el usuario
tenga que introducir una contraseña para acceder al recurso.

Nota: Cuando se comparte un dispositivo o un recurso, verá que en Mi PC o en el Explorador


de Windows aparece una mano como parte del icono.
En el entorno de Windows NT, puede incorporar las
características de seguridad que proporciona el sistema
de archivos NTFS. Este sistema de archivos es una base
de datos relacional en que todo es considerado como un
archivo.

Software

Para instalar el software de red, hay disponibles


varios protocolos:

• Cliente para redes NetWare.


• Cliente para redes Microsoft.
• NWLink NetBIOS.
• Protocolo compatible con NWLink
IPX/SPX/NetBIOS.
• Protocolo Internet (TCP/IP).

Para poder definir recursos compartidos en Windows


NT Server, tiene que tener derechos de administrador.

Cómo compartir directorios y archivos

Para compartir una carpeta localmente (tiene una sesión en una estación de trabajo), haga clic con el
botón derecho en el icono de la carpeta y seleccione la opción Compartir. Esto abrirá el cuadro de diálogo
Propiedades. Aparecerá seleccionada la ficha Compartir.

El número máximo de conexiones que se pueden definir en Windows NT Workstation es 10. La


configuración de este valor es opcional.

Asigne permisos a la carpeta compartida. A través de los cuadros de diálogo, puede limitar el número de
personas que pueden acceder a su carpeta o dar permiso a todos. Si hace clic en el botón Nuevo recurso
puede configurar varios recursos compartidos utilizando distintos nombres y asignando diferentes niveles de
permisos.

Para compartir las carpetas y las unidades de disco en Windows 2000, tiene que estar conectado como un
miembro del grupo Administradores, Operadores de servidor o Usuarios avanzados.

Para compartir una carpeta o una unidad de disco en Windows 2000, abra el Explorador de Windows y
localice la carpeta o unidad de disco que desee compartir. (Para abrir el Explorador de Windows, haga clic en
Inicio, señale Programas, señale Accesorios y, a continuación, haga clic en el Explorador de Windows.) Haga
clic con el botón derecho y luego haga clic en Compartir. Haga clic en Compartir esta carpeta de la ficha
Compartir.

Para cambiar el nombre de la unidad de disco o de la carpeta compartida, introduzca un nombre nuevo en
Nombre del recurso compartido. El nombre nuevo es el que verán los usuarios cuando se conecten a esta
carpeta o unidad de disco compartida. El nombre actual de la carpeta o de la unidad de disco no cambia.
Para añadir un comentario a la carpeta o unidad de
disco compartida, introduzca el texto deseado en
Comentario. Para limitar el número de usuarios que
pueden conectarse a la vez a una carpeta o a una
unidad de disco compartida, haga clic en Permitir
debajo de Límite de usuarios, e introduzca a
continuación el número de usuarios.

Cómo compartir impresoras

Para compartir una impresora Windows


NT/Windows 2000 en una red Windows NT, haga clic
en Inicio, seleccione Configuración y haga clic en
Impresoras. Haga clic con el botón derecho en la
impresora que va a compartir y seleccione Compartir
en el menú. Haga clic en el botón Compartir como e
introduzca un nombre que pueda identificar
claramente a la impresora en la red. Una vez que
haya compartido e identificado la impresora, puede
configurar la seguridad de la impresora.

Redes AppleShare

Software

El software de servidor de archivos de Apple se denomina AppleTalk. Para compartir recursos con
AppleTalk hay que seguir estos pasos:

• Para seleccionar un puerto de red. Seleccione el submenú AppleTalk del Panel de


control y poder abrir el cuadro de diálogo AppleTalk. Ahí puede seleccionar el puerto de conexión de
red apropiado.
• Para activar AppleTalk. Para activar AppleTalk en un equipo, el equipo tiene que estar
conectado a una red AppleTalk. Para hacer eso, abra Apple Chooser y active el botón de opción
Apple Talk.
• Para compartir recursos. Defina su identidad en la red asignando un nombre al equipo.
Luego active el modo de compartir en el cuadro de diálogo File Sharing del Panel de control de
Apple.

Cómo compartir unidades de disco y carpetas

Al igual que en las redes Trabajo en Grupo, AppleShare proporciona una forma de compartir a nivel de
carpeta, pero no a nivel de archivo. Si el propietario del equipo que comparte un recurso ha definido algún
archivo o carpeta para que se pueda compartir, estarán disponibles a cualquiera que se conecte.

El propietario de una carpeta configura el modo de compartir una carpeta abriendo la ventana de
compartir carpeta. Desde el menú Choose File, seleccione Get Info y haga clic en Sharing. Para cada usuario
o grupo listado, el propietario establece uno de los privilegios siguientes para trabajar con la carpeta:

• Lectura y escritura.
• Sólo lectura.
• Sólo escritura (cuadro desplegable).
• Ninguno.

Las restricciones también se pueden definir para las carpetas compartidas de forma que no puedan ser
modificadas por otras personas distintas al propietario. Para establecer esta restricción, abra el cuadro de
diálogo Sharing Info y active la casilla de verificación Can’t move, rename, or delete this item (locked).

Cómo compartir impresoras


Para compartir una impresora que esté conectada directamente a un equipo Apple, abra el cuadro de
diálogo Apple Chooser y seleccione la impresora que desea compartir. A continuación, haga clic en el botón
Setup para abrir el cuadro de diálogo Sharing Setup. En este cuadro de diálogo, puede activar la casilla de-
verificación Share this Printer e introducir un nombre y una contraseña (opcional) para la impresora.
También puede activar la casilla de verificación Keep Log of Printer Usage si desea guardar información
sobre la utilización de la impresora.

UNIX

El sistema operativo UNIX existe en un gran número de configuraciones y está disponible a través de
varios fabricantes, o en el caso de Linux, desde una entidad que no se corresponde de ninguna manera con
una compañía. El soporte de UNIX para la interoperabilidad con otros sistemas operativos de red depende
del fabricante. Por ejemplo, Solaris Easy Access Server de Sun, incluye un soporte nativo para muchos
servicios de red Windows NT, como la autenticación, servicios de archivos e impresoras y servicios de
directorio. Las distribuciones de Linux incluyen módulos de acceso Apple para el acceso AppleTalk, software
de terceros como Samba, que hace que los sistemas de archivos UNIX estén disponibles para cualquier
equipo de la red que utilice el protocolo para compartir archivos SMB y módulos para acceder a los sistemas
de archivos NTFS y MS-DOS.

Compartir en una red cliente/servidor

Compartir carpetas en una red basada en un servidor es similar a compartir en una red Trabajo en Grupo.
La principal diferencia está en el nivel de seguridad disponible, que se consigue con los servicios de
directorio del servidor. Microsoft Windows NT Server y Novell NetWare proporcionan permisos a nivel de
archivo, además de permisos a nivel de impresora, unidad de disco y directorio.

Novell

A diferencia de otros sistemas operativos de red, NetWare no necesita activar el modo de compartición
para hacer que estén disponibles los recursos del servidor. Esta activación automática es un parámetro
predeterminado de una red NetWare.

Una segunda diferencia es que el acceso a los recursos compartidos se realiza a través de los privilegios
de cuenta de usuario y de grupo. En otras palabras, las impresoras, directorios y archivos no están
propiamente restringidos.

Definición y gestión de cuentas de red


A medida que aumenta el tamaño de la red, el hecho de compartir recursos en ésta puede comenzar a
presentar problemas. Por ejemplo, en las redes Trabajo en Grupo, se sacrifica un grado de seguridad para
ofrecer sencillez. Pero imagine las consecuencias de compartir un directorio de su departamento de
contabilidad (o del departamento de personal) en toda la red y quizá en todo el mundo a través de una
conexión Internet. Por estas razones, entre otras, las redes de gran tamaño utilizan redes basadas en
servidor. En un entorno cliente/servidor, los recursos compartidos se gestionan mediante cuentas. La
creación de cuentas y la agrupación de cuentas, son una herramienta necesaria para que el administrador
proporcione un mayor nivel de seguridad.

Cuentas de red

Las cuentas son la forma con la que los usuarios tienen acceso a impresoras, archivos y directorios
compartidos. Estas cuentas son creadas y gestionadas por el administrador de la red.

Una cuenta está compuesta de un nombre de usuario y de unos parámetros de inicio de sesión
establecidos para ese usuario. Estos parámetros pueden incluir desde qué equipos se puede acceder,
durante qué días y qué horas está permitido el acceso, contraseñas y demás. Esta información es introducida
por el administrador y se guarda en la red por el sistema operativo. La red utiliza este nombre de cuenta
para comprobar la cuenta cuando un usuario intente iniciar una sesión.
Planificación de grupos

Las cuentas de grupo no tienen privilegios de forma predeterminada. Todas las cuentas de usuario
obtienen sus derechos a través de la pertenencia a un grupo Todas las cuentas de usuario de un grupo
podrán tener ciertos privilegios de acceso y actividades en común, de acuerdo con el grupo en el que estén.
Si el administrador asigna derechos y permisos a un grupo, puede tratar al grupo como una cuenta.

Los derechos de acceso que se aplican a todo el sistema autorizan a un usuario a req lizar ciertas acciones
sobre el sistema. Por ejemplo, un usuario, como miembro de up grupo, puede tener el derecho de realizar
una copia de seguridad del sistema.

Los grupos se utilizan para:

• Dar acceso a los recursos como archivos, directorios e impresoras. Los permisos que se
asignan a un grupo, se asignan automáticamente a sus miembros.
• Dar derechos para realizar tareas del sistema, como realizar y restablecer copias de
seguridad o cambiar la hora del sistema.
• Reducir la comunicación reduciendo el número de mensajes que se necesitan crear y
enviar.

Creación de cuentas de grupo

Las redes pueden soportar cientos de cuentas. Hay ocasiones en las que el administrador tiene que
realizar operaciones sobre algunas o todas las cuentas. Por ejemplo, a veces el administrador necesita enviar
mensajes a un número elevado de usuarios para avisarles de algún evento o de una directiva de red. El
administrador podría necesitar identificar cada cuenta que realiza un acceso determinado. Si hay que
cambiar el acceso a 100 usuarios, el administrador tendrá que cambiar 100 cuentas.

En cambio, si las 100 cuentas estuviesen colocadas en un grupo, bastaría con que el administrador
enviase un mensaje a la cuenta del grupo, y cada miembro del grupo recibiría automáticamente el mensaje.
Se podrían definir permisos para el grupo, y todos los miembros del grupo recibirían automáticamente los
permisos. Las redes ofrecen una forma de reunir varias cuentas de usuario separadas en un tipo de cuenta
denominada un grupo. Un grupo no es más que una cuenta que contiene otras cuentas. La principal razón
para implementar los grupos es la de facilitar la administración. Los grupos son la forma apropiada para
ayudar al administrador a gestionar un número elevado de usuarios como una única cuenta.

La forma más sencilla de conceder permisos similares a un número elevado de usuarios es asignar los
permisos a un grupo. Luego se añaden los usuarios al grupo. Se sigue el mismo proceso para añadir
usuarios a un grupo existente. Por ejemplo, si el administrador necesita que cierto usuario tenga
capacidades administrativas en la red, el administrador hará a ese usuario miembro del grupo
Administradores.

Creación de cuentas de usuario

Todas las redes tienen una utilidad que puede ser utilizada por el administrador de forma que pueda
introducir nuevos nombres de cuenta en la base de datos de seguridad de la red. A este proceso se le suele
denominar como «creación de un usuario».

Hay algunos convenios para la denominación de usuarios y grupos. A no ser que se diga lo contrario, en el
equipo que se está administrando (y en el caso de Windows NT, en el dominio), un nombre de usuario no
puede ser igual que otro nombre de usuario o de grupo. Cada sistema operativo de red tiene su propio
conjunto de caracteres que pueden ser utilizados, pero normalmente, el nombre de usuario puede contener
cualquier carácter alfanumérico en mayúscula o minúscula. Hay algunas excepciones estándar « / \ : ; I =,
+ *? < > que no se pueden utilizar en nombres de usuario.

Los sistemas operativos de red también pueden contener información como el nombre completo del
usuario, una descripción de la cuenta o del usuario, y la contraseña de la cuenta.
Introducción de la información del usuario: La nueva cuenta de usuario contiene información que
define a un usuario en el sistema de seguridad de la red. Ésta incluye:

• El nombre de usuario y contraseña.


• Privilegios del usuario para acceder al sistema y a sus recursos.
• Los grupos a los que pertenece la cuenta.

Configuración de los parámetros del usuario: Los administradores pueden configurar una serie de
parámetros de los usuarios. Entre ellos están:

• Tiempos de conexión. Para restringir las horas a las que se pueden conectar los usuarios.
• El directorio inicial. Para dar al usuario un lugar en el que pueda guardar sus archivos.
• La fecha de caducidad. Para limitar el acceso temporal de un usuario a la red.

Cuentas de usuario clave: Los sistemas operativos de red están diseñados con ciertos tipos de cuentas
de usuario creadas y que se activan automáticamente durante la instalación.

La cuenta inicial: cuando se instala un sistema operativo de red, el programa de instalación crea
automáticamente una cuenta con autoridad plena sobre la red. Entre otras tareas puede:

• Iniciar la red.
• Configurar los parámetros de seguridad iniciales.
• Crear otras cuentas de usuario.

En el entorno de red Microsoft, esta cuenta se denomina administrador. En el entorno de Novell, esta
cuenta se conoce como supervisor. Y en el entorno de Linux esta cuenta se conoce como root.

La primera persona que suele conectarse a la red suele ser la persona que instala el sistema operativo de
red. Una vez que inicia la sesión como administrador, esa persona tiene control pleno sobre todas las
funciones de la red.

La cuenta Invitado: esta cuenta predeterminada está dirigida a aquellas personas que no tienen una
cuenta de usuario, pero necesitan acceder a la red de forma temporal.

Contraseñas

Las contraseñas no son necesariamente requeridas por un sistema operativo de red. En situaciones en las
que la seguridad no es un problema, es posible modificar una cuenta de forma que no vuelva a necesitar una
contraseña.

Sin embargo, en la mayoría de las circunstancias, son necesarias las contraseñas para ayudarle a
mantener la seguridad de un entorno de red. Lo primero que debería hacer un administrador al crear una
cuenta es introducir una contraseña inicial. Esto previene que usuarios no autorizados se puedan conectar
como administradores y crear cuentas. Los usuarios podrían crear su propia contraseña y cambiarla
periódicamente. El administrador de la cuenta puede requerir esto a los usuarios automáticamente
configurando una propiedad para el cambio de contraseña en un intervalo de tiempo.

Hay algunas pautas que se suelen seguir para la utilización de contraseñas. Todos los usuarios,
incluyendo al administrador deberían:

• Evitar contraseñas obvias como las fechas de nacimiento, números de seguridad social o
los nombres de las parejas, hijos, mascotas y demás.
• Recuerde la contraseña en lugar de escribirla en un papel y pegarla en el monitor.
• Recuerde la fecha de caducidad de la contraseña, si es que la hay, de forma que cambie la
contraseña antes de que caduque y así evitar el bloqueo de la cuenta por parte del sistema.
El administrador debe quedar informado sobre los cambios de empresa de los empleados o si por algún
otro motivo ya no van a ser miembros del grupo. En este caso, el administrador debería desactivar la
cuenta.

Desactivación y eliminación de cuentas

En algunas ocasiones un administrador necesitará prevenir que se acceda a una cuenta de la red. Para
esto podrá desactivar la cuenta o eliminarla.

Desactivación de una cuenta: si una cuenta sólo se desactiva, sigue existiendo en la base de datos de
las cuentas del sistema, pero nadie puede utilizarla para iniciar una sesión en la red. Una cuenta desactivada
es como si no existiese.

Es mejor que el administrador desactive una cuenta una vez que se haya enterado que el usuario ya no la
va a utilizar. En el caso de que la cuenta no vaya a ser utilizada nunca más, habrá que borrarla.

Eliminación de una cuenta: la eliminación de una cuenta elimina de la red la información del usuario de
la base de datos de las cuentas; el usuario ya no tendrá acceso a la red. Se podrá borrar una cuenta de
usuario cuando:

• El usuario haya abandonado la organización y ya no tenga ninguna razón ocupacional para


utilizar la red.
• Haya acabado el contrato de trabajo del usuario.
• El usuario haya cambiado de puesto de trabajo en la empresa y ya no necesite utilizar la
red.

Administración de cuentas en un entorno Windows NT

Cuentas de grupo en Windows NT

Microsoft Windows NT utiliza cuatro tipos de cuentas, como se describe en la sección siguiente.

Tipos de grupos

En un entorno de red se utilizar los grupos locales, globales, de sistema e incorporados.

• Grupos locales. Están implementados en la base de datos local de cada equipo. Los
grupos locales contienen cuentas de usuario y otros grupos globales que se necesitan para tener
acceso, y poder definir derechos y permisos sobre un recurso en un equipo local. Los grupos locales
no pueden contener a otros grupos locales.
• Grupos globales. Se utilizan en todo el dominio, y se crean en un controlador principal de
dominio (PDC) en el dominio en el que existen las cuentas de usuario. Los grupos globales pueden
contener sólo cuentas de usuario del dominio en el que se ha creado el grupo global. Aunque se
pueden asignar permisos a los recursos para un grupo global, los grupos globales sólo se deberían
utilizar para agrupar cuentas de usuario del dominio. Los miembros de un grupo global obtienen
permisos para un recurso cuando se añade un grupo global a un grupo local.
• Grupos de sistema. Estos grupos organizan automáticamente los usuarios para la
utilización del sistema. Los administradores no deberían incluir a los usuarios en estos grupos; los
usuarios son miembros predeterminados o se convierten en miembros durante la actividad de la
red. No se puede cambiar la pertenencia.
• Grupos incorporados. Los grupos incorporados son ofrecidos como una característica por
muchas marcas de productos de red, y como su nombre indica, se incluyen con el sistema operativo
de red. Los administradores pueden crear cuentas y grupos con los permisos correspondientes para
realizar tareas típicas de las redes, como son las tareas de administración y mantenimiento; sin
embargo, los fabricantes se han ahorrado el problema de estos grupos y cuentas proporcionando la
creación de grupos locales o globales durante la instalación inicial.

Los grupos incorporados se dividen en tres categorías:


• Miembros del grupo de
administradores, que tienen
posibilidades para realizar cualquier
tipo de tarea en un equipo.
• Miembros del grupo de
operadores, que tienen posibilidades
limitadas para realizar ciertas tareas.
• Miembros de otros grupos,
que tienen posibilidades para realizar
tareas limitadas.

Microsoft Windows NT Server ofrece los


siguientes grupos incorporados.

El grupo Administradores inicialmente contiene administradores locales y de dominio. Los miembros de


este grupo pueden crear, eliminar y gestionar cuentas de usuarios, grupos globales y grupos locales. Pueden
compartir directorios e impresoras, definir permisos y derechos sobre los recursos, e instalar archivos y
programas del sistema operativo.

Los grupos Usuarios e Invitados, que son globales, contienen usuarios de dominio que pueden realizar
tareas para las que se les haya dado permiso. También pueden acceder a los recursos a los que se les haya
dado permiso. Los grupos de usuarios pueden ser modificados por los administradores.

El grupo Operadores de servidor, que sólo puede ser modificado por los administradores, puede
compartir y hacer que un recurso deje de estar compartido, bloquear o retirar el bloqueo del servidor,
formatear discos del servidor, iniciar sesiones en los servidores, hacer copias de los servidores y
restaurarlas, y apagar los servidores.

El grupo Operadores de impresión, que sólo puede ser modificado por los administradores, puede
compartir, hacer que una impresora deje de esta compartida y gestionar impresoras. Este grupo también se
puede conectar localmente a los servidores y apagar los servidores.

Los Operadores de copia se pueden conectar localmente, hacer copias de seguridad y restaurar copias
de seguridad del servidor, y apagar servidores.

Los Operadores de cuentas pueden crear, eliminar y modificar usuarios, grupos globales y grupos
locales, pero no pueden modificar los grupos Administradores y Operadores de servidor.

El grupo Duplicadores, que puede ser modificado por los administradores, Operadores de cuentas y
Operadores de servidor, se utiliza junto con el Servicio duplicador de directorios.

Creación de grupos en Windows NT

La interfaz de gestión de grupos en Microsoft Windows NT, se denomina Administrador de usuarios para
dominios y la puede encontrar en el menú Inicio. Haga clic en Programas y seleccione Herramientas
administrativas (común).

En el Administrador de usuarios, haga clic en Grupo local nuevo en el menú Usuario. Esta selección le
presenta un cuadro de diálogo para introducir la información para crear un nuevo grupo local.

El campo Nombre de grupo identifica al grupo local. Un nombre de grupo no puede ser igual que otro
nombre de grupo o de usuario en el dominio o equipo que se está administrando. Puede contener cualquier
carácter en mayúscula o minúscula, y no se admiten « / \ : ; I =+ *? < >.

El campo Descripción contiene texto que describe al grupo o a los usuarios del grupo. El campo Miembros
muestra los nombres de usuario de los miembros del grupo.
Una cuenta de grupo recién creada no tendrá
miembros hasta que el administrador le asigne uno
o más usuarios existentes. El administrador hace
esto haciendo clic en Agregar en el cuadro de
diálogo y seleccionando la cuenta de usuario que
desea añadir.

Cuentas de usuario en Windows NT

Todas las herramientas de administración de la


red se encuentran en el menú Inicio, Programas,
Herramientas administrativas (Común). La utilidad
de red para la creación de cuentas en Microsoft
Windows NT Server se denomina Administrador de
usuarios para dominios. Para administrar cuentas de usuario,
haga clic en Inicio, seleccione Programas y haga clic en
Herramientas administrativas (Común).

Una vez que abra el Administrador de usuarios, en el


menú Usuario, seleccione la opción Usuario nuevo. Aparecerá
una ventana para que introduzca la información para crear
un nuevo usuario.

Windows NT Server ofrece una característica para la copia


de cuentas. Un administrador puede crear una plantilla que
tenga características y parámetros comunes a varios
usuarios. Para crear una cuenta nueva con las características
de la plantilla, señale la cuenta plantilla, seleccione Usuario,
Copiar (F8), e introduzca el nombre del nuevo usuario y otra
información de identificación (nombre completo, descripción
y demás).

Perfiles

Puede ser útil para un administrador estructurar un entorno de red para ciertos usuarios. Por ejemplo,
esto podría ser necesario para mantener niveles de seguridad, o para evitar que los usuarios que no estén lo
suficientemente familiarizados con los equipos y las redes puedan tener acceso pleno al sistema.

Entre los perfiles que se suelen utilizar para configurar y mantener los inicios de sesión de los usuarios, se
incluyen:

• Conexión de impresoras.
• Configuración regional.
• Configuración de sonido.
• Configuración de ratón.
• Configuración de la pantalla.
• Otras configuraciones definidas por el usuario.

Los parámetros de los perfiles pueden incluir condiciones especiales para las sesiones e información sobre
dónde puede el usuario guardar archivos personales.

Después de la instalación, Microsoft Windows NT Server desactiva de forma predeterminada la cuenta


Invitado. Si se quiere utilizar, el administrador de la red tendrá que activar la cuenta.

Windows NT Server utiliza la ventana Propiedades de usuario en el Administrador de usuarios para


desactivar usuarios. Para desactivar un usuario, haga doble clic sobre el nombre de la cuenta, seleccione la
casilla de verificación Cuenta desactivada y a continuación haga clic en Aceptar. Ahora la cuenta está
desactivada.
Para eliminar una cuenta, seleccione la cuenta que
desee eliminar en el Administrador de usuarios y
presione la tecla SUPRIMIR. Aparece un cuadro diálogo.
Si hace clic sobre Aceptar, aparecerá otro cuadro de
diálogo para pedirle confirmación sobre la eliminación
de la cuenta especificada. Si hace clic sobre Sí
eliminará la cuenta; si hace clic sobre No cancelará la operación.

Nota: La eliminación de una cuenta elimina permanentemente la cuenta, junto con sus
permisos y derechos asociados. Si vuelve a crear la cuenta de usuario con el mismo nombre no
volverá a restaurar los derechos o permisos del usuario. Cada cuenta de un usuario tiene un
identificador de seguridad único (SID) ; la eliminación y posterior creación de un usuario
generará un SID nuevo sin reutilizar el anterior. Los procesos internos de Windows NT hacen
referencia a SID de la cuenta en lugar de al nombre de la cuenta de usuario o del grupo.

Administración de cuentas en un entorno Apple

El entorno de red predeterminado incluye dos usuarios: la persona que ha instalado el sistema operativo y
un invitado. La administración de una red se convierte en una tarea sencilla mediante la creación de usuarios
y grupos.

Creación de usuarios y grupos

En el Apple Chooser seleccione Users & Groups para abrir el Panel de control de Users A Groups. Este
cuadro de diálogo lista todos los usuarios y grupos de la computadora, y le permite crear, editar, duplicar y
eliminar usuarios y grupos a medida que sea necesario. En AppleShare hay tres categorías de usuarios:

• Owner.
• User/Group.
• Everyone.

Para crear un usuario nuevo, haga clic en el botón New User e introduzca la información correspondiente
de este usuario. Podrá definir un nombre de usuario, una contraseña, los grupos a los que pertenece el
usuario y si se le permite o no al usuario cambiar la contraseña.

Para crear un grupo nuevo, haga clic en el botón New Group e introduzca la información correspondiente
de este grupo. Podrá definir un nombre de grupo y el nombre de los usuarios que son miembros del grupo.

Administración de cuentas en un entorno NetWare

La base de la seguridad y las cuentas de NetWare son los Servicios de directorio de NetWare (NDS,
NetWare Directory Services). Los NDS son una base de datos organizada jerárquicamente.

La seguridad se establece a tres niveles.

• Cuentas. Este nivel incluye nombres de usuario, contraseñas, tiempo de estación y otras
restricciones.
• Derechos de Trustee. Este nivel controla los directorios y archivos a los que puede
acceder un usuario. Entre estos derechos se incluyen la creación, lectura, eliminación o escritura de
archivos.
• Atributos de directorio y archivos. Este nivel determina qué acciones pueden realizar
los usuarios sobre el archivo o sobre el directorio. Entre estas acciones se incluyen compartir,
eliminar, copiar, veo o editar.

NetWare utiliza varios convenios para los nombres. Los nombres tienen que ser únicos, no pueden incluir
espacios y pueden tener hasta 64 caracteres alfanuméricos sin distinguir entre mayúsculas y minúsculas.
Configuración y administración de usuarios y grupos

Antes de crear, eliminar o administrar usuarios o grupos, tiene que estar conectado a la red desde una
estación de trabajo o desde el servidor con privilegios de administrador. Una vez que se haya conectado,
puede ejecutar la herramienta de administración fácil de Novell (NEAT; Novell Easy Administration Tool) para
comenzar a administrar los usuarios y los grupos. Para hacer esto, haga doble clic en el icono NEAT. En la
parte izquierda de la interfaz de usuario aparecerá el árbol que muestra todos los objetos de la red y sus
relaciones. En la parte derecha aparecen las propiedades del objeto seleccionado.

Para crear una cuenta de usuario para un usuario nuevo, seleccione User en el menú New de NEAT o haga
clic en el botón Add a New User de la barra de herramientas. Esto abrirá un cuadro de diálogo en el que
podrá introducir la información requerida, incluyendo el nombre completo del usuario, el nombre de conexión
y el directorio inicial.

Pulse el botón Siguiente para pasar a la página siguiente y añada este usuario a un grupo. Una vez que
haya añadido el usuario a un grupo, haga clic en el botón Siguiente para pasar a la página siguiente e
introducir la información de la contraseña. Si se deja en blanco, el usuario no necesitará contraseña para
iniciar una sesión. Para crear otros usuarios, active la casilla de verificación Create another user antes de
seleccionar el botón Finish.

Para eliminar un usuario, seleccione el objeto User del directorio en el menú NEAT. A continuación, en el
menú Edit, seleccione Delete selected item y haga clic en Yes.

Aviso: Puede tener problemas si elimina un usuario que tenga relaciones con otro
objeto, y dicho objeto está basado en el usuario que quiere eliminar.

La administración de grupos es similar a la administración de usuarios. En el menú NEAT, seleccione Add


a New Group. Esto ejecutará el asistente para nuevos grupos. Asegúrese de seguir los convenios para los
nombres a la hora de asignar un nombre para el grupo. Una vez que haya creado el grupo, puede
seleccionar el grupo y añadirle usuarios.

Nota: Sólo puede añadir los usuarios que aparezcan en el directorio.

Edición de propiedades de usuario o de grupo

Ver o modificar las propiedades de un objeto es sencillo. Abra la herramienta de administración NEAT y
seleccione el icono del objeto del directorio de la parte izquierda. En la parte derecha están las hojas de
propiedades del objeto. Las propiedades del objeto están organizadas en fichas. Las propiedades de los
usuarios están organizadas en cinco fichas (General, Groups, Applications, Security y Login Script). Las
propiedades de los grupos están organizadas en tres fichas (Users, Security y Applications).

Administración de cuentas en un entorno UNIX

La mayor parte de la información de configuración de UNIX está guardada en archivos de texto que se
pueden ver cuando sea necesario. Estos archivos de texto se pueden editar manualmente para añadirles
usuarios y grupos y configurar sus permisos. Debido a que cada versión de UNIX varía en los detalles de la
forma de modificar estos archivos, los nombres y localizaciones de estos archivos varían de un fabricante a
otro. Lo mismo ocurre con las distribuciones de Linux, en las que las localizaciones de los archivos y de los
directorios pueden ser diferentes. Una interfaz gráfica suele facilitar al administrador tratar con estas
diferencias, ya que los parámetros de usuario y de grupo se pueden configurar mediante cuadros de diálogo
interactivos.

Usuarios y grupos en UNIX

La cuenta inicial, el usuario administrador, suele denominarse root. El otro nombre a recordar es nobody.
Grupos predeterminados de UNIX pueden ser root, bin, daemon, tty, disk, lp, mail, news, dialout, trusted,
modem, users y demás.
La versión de libre distribución de UNIX conocida como Linux crea una serie de cuentas. Las cuentas que
se crean dependen del sistema operativo base y del software instalado. El usuario administrador, root,
siempre se crea. Se crean otras cuentas predeterminadas, pero no el sentido que tenemos de las cuentas.
Incluyen procesos como el protocolo de transferencia de archivos (ftp) e impresoras (lp).

La seguridad, protección de los equipos conectados en red y de los datos que almacenan y comparten, es
un hecho muy importante en la interconexión de equipos. Cuanto más grande sea una empresa, más
importante será la necesidad de seguridad en la red. Nuestro interés va más allá del hecho de los
procedimientos para compartir. En realidad vemos la compartición desde la perspectiva de establecer y
mantener la seguridad en la red y en los datos.

La seguridad es bastante más que evitar accesos no autorizados a los equipos y a sus datos. Incluye el
mantenimiento del entorno físico apropiado que permita un funcionamiento correcto de la red.

Implantación de la seguridad en redes


La planificación de la seguridad es un elemento importante en el diseño de una red. Es mucho más
sencillo implementar una red segura a partir de un plan, que recuperar los datos perdidos.

Planificación de la seguridad de la red

En un entorno de red debe asegurarse la privacidad de los datos sensibles. No sólo es importante
asegurar la información sensible, sino también, proteger las operaciones de la red de daños no intencionados
o deliberados.

El mantenimiento de la seguridad de la red requiere un equilibrio entre facilitar un acceso fácil a los datos
por parte de los usuarios autorizados y restringir el acceso a los datos por parte de los no autorizados. Es
responsabilidad del administrador crear este equilibrio.

Incluso en redes que controlan datos sensibles y financieros, la seguridad a veces se considera medida
tardía. Las cuatro amenazas principales que afectan a la seguridad de los datos en una red son:

• Acceso no autorizado.
• Soborno electrónico
• Robo.
• Daño intencionado o no intencionado.

La seguridad de los datos no siempre se implementa de forma apropiada, precisamente por la seriedad de
estas amenazas. La tarea del administrador es asegurar que la red se mantenga fiable y segura. En
definitiva, libre de estas amenazas.

Nivel de seguridad

La magnitud y nivel requerido de seguridad en un sistema de red depende del tipo de entorno en el que
trabaja la red. Una red que almacena datos para un banco importante, requiere una mayor seguridad que
una LAN que enlaza equipos en una pequeña organización de voluntarios.

Configuración de las políticas o normativas

Generar la seguridad en una red requiere establecer un conjunto de reglas, regulaciones y políticas que
no dejan nada al azar. El primer paso para garantizar la seguridad de los datos es implementar las políticas
que establecen los matices de la seguridad y ayudan al administrador y a los usuarios a actuar cuando se
producen modificaciones, esperadas como no planificadas, en el desarrollo de la red.

Prevención
La mejor forma de diseñar las políticas de seguridad de los datos es optar por una perspectiva preventiva.
Los datos se mantienen seguros cuando se evita el acceso no autorizado. Un sistema basado en la
prevención requiere que el administrador conozca todas las herramientas y métodos disponibles que
permiten mantener la seguridad de los datos.

Autenticación

Para acceder a la red, un usuario debe introducir un nombre de usuario y una contraseña válida. Dado
que las contraseñas se vinculan a las cuentas de usuario, un sistema de autenticación de contraseñas
constituye la primera línea de defensa frente a usuarios no autorizados.

Es importante no permitir un exceso de confianza en este proceso de autenticación engañándonos con


una falsa idea de seguridad. Por ejemplo, en una red de peer-to-peer, casi todos los usuarios pueden entrar
en el sistema con un nombre y contraseña única. Esto sólo puede proporcionar a un usuario acceso completo
a la red, de forma que cualquier cosa que se comparta está disponible para este usuario. La autenticación
funciona sólo en una red basada en servidor, donde el nombre y contraseña de usuario debe ser autenticada
utilizando para ello la base de datos de seguridad.

Entrenamiento

Los errores no intencionados pueden implicar fallos en la seguridad. Un usuario de red perfectamente
entrenado probablemente va a causar, de forma accidental, un número menor de errores que un principiante
sin ningún tipo de experiencia, que puede provocar la pérdida de un recurso dañando o eliminando datos de
forma definitiva.

El administrador debería asegurar que alguien que utiliza la red esté familiarizado con sus procedimientos
operativos y con las tareas relativas a la seguridad. Para lograr esto, el administrador puede desarrollar una
guía breve y clara que especifique lo que necesitan conocer los usuarios y obligar a que los nuevos usuarios
asistan a las clases de entrenamiento apropiadas.

Equipamiento de seguridad

El primer paso en el mantenimiento de la seguridad de los datos es proporcionar seguridad física para el
hardware de la red. La magnitud de la seguridad requerida depende de:

• El tamaño de la empresa.
• La importancia de los datos.
• Los recursos disponibles.

En una red peer-to-peer, algunas veces existen políticas de seguridad hardware no organizadas y los
usuarios son los responsables de garantizar la seguridad de sus propios componentes y datos. En una red
basada en servidor, la seguridad es responsabilidad del administrador de la red.

Seguridad de los servidores

En un gran sistema centralizado, donde existe una gran cantidad de datos críticos y usuarios, es
importante garantizar la seguridad en los servidores de amenazas accidentales o deliberadas.

No resulta muy habitual que algunos individuos quieran demostrar sus capacidades técnicas cuando los
servidores presentan problemas. Ellos pueden o no saber qué se está realizando. Resulta mucho más
apropiado mantener cierto tacto con esta gente y evitar los posibles arreglos del servidor. La solución más
sencilla pasa por encerrar los servidores en una habitación de equipos con acceso restringido. Esto puede no
resultar viable dependiendo del tamaño de la empresa. No obstante, encerrar los servidores en una oficina
incluso en un armario de almacén es, a menudo, viable y nos proporciona una forma de intentar garantizar
la seguridad de los servidores.

Seguridad del cableado


El medio de cobre, como puede ser el cable coaxial, al igual que una radio emite señales electrónicas que
simulan la información que transporta. La información transportada en estas señales se puede monitorizar
con dispositivos electrónicos de escucha. Además, se puede intervenir el cable de cobre pudiendo robar la
información que transmite en el cable original.

Sólo el personal autorizado debería tener acceso al cable que transporta datos sensibles. Una planificación
apropiada puede garantizar que el cable sea inaccesible al personal no autorizado. Por ejemplo, el cable
puede instalarse dentro de la estructura del edificio a través del techo, paredes y falsos techos.

Modelos de seguridad

Después de implementar la seguridad en los componentes físicos de la red, el administrador necesita


garantizar la seguridad en los recursos de la red, evitando accesos no autorizados y daños accidentales o
deliberados. Las políticas para la asignación de permisos y derechos a los recursos de la red constituyen el
corazón de la seguridad de la red.

Se han desarrollado dos modelos de seguridad para garantizar la seguridad de los datos y recursos
hardware:

• Compartición protegida por contraseña o seguridad a nivel de compartición


• Permisos de acceso o seguridad a nivel de usuario.

Compartición protegida por contraseña

La implementación de un esquema para compartir recursos protegidos por contraseñas requiere la


asignación de una contraseña a cada recurso compartido. Se garantiza el acceso a un recurso compartido
cuando el usuario introduce la contraseña correcta.

En muchos sistemas, se pueden compartir los recursos con diferentes tipos de permisos. Para ilustrar
esto, utilizamos Windows 95 y 98 como ejemplos. Para estos sistemas operativos se pueden compartir los
directorios como sólo lectura, total o depende de la contraseña.

• Sólo lectura. Si un recurso compartido se configura de sólo lectura, los usuarios que
conocen la contraseña tienen acceso de lectura a los archivos de este directorio. Pueden visualizar
los documentos, copiar a sus máquinas e imprimirlos, pero no pueden modificar los documentos
originales.
• Total. Con el acceso total, los usuarios que conocen la contraseña tienen acceso completo
a los archivos de este directorio. En otras palabras, pueden visualizar, modificar, añadir y borrar los
archivos del directorio compartido.
• Depende de la contraseña. Depende de la contraseña implica configurar una
compartición que utiliza dos niveles de contraseñas: Contraseña de sólo lectura y Contraseña
de acceso total. Los usuarios que conocen la contraseña de sólo lectura tienen acceso de lectura y
los usuarios que conocen la contraseña de acceso total tienen acceso completo.

El esquema de compartir utilizando contraseña es un método de seguridad sencillo que permite a alguien
que conozca la contraseña obtener el acceso a un recurso determinado.

Permisos de acceso

La seguridad basada en los permisos de acceso implica la asignación de ciertos derechos usuario por
usuario. Un usuario escribe una contraseña cuando entra en la red. El servidor valida esta combinación de
contraseña y nombre de usuario y la utiliza para asignar o denegar el acceso a los recursos compartidos,
comprobando el acceso al recurso en una base de datos de accesos de usuarios en el servidor.

La seguridad de los permisos de acceso proporciona un alto nivel de control sobre los derechos de acceso.
Es mucho más sencillo para una persona asignar a otra persona una contraseña para utilizar una impresora,
como ocurre en la seguridad a nivel de compartición. Para esta persona es menos adecuado asignar una
contraseña personal.
La seguridad a nivel de usuario es el modelo preferido en las grandes organizaciones,
puesto que se trata de la seguridad más completa y permite determinar varios niveles de
seguridad.

Seguridad de los recursos

Después de autenticar a un usuario y permitir su acceso a la red, el sistema de seguridad


proporciona al usuario el acceso a los recursos apropiados.

Los usuarios tienen contraseñas, pero los recursos tienen permisos. En este sentido, cada recurso tiene
una barrera de seguridad. La barrera tiene diferentes puertas mediante las cuales los usuarios pueden
acceder al recurso. Determinadas puertas permiten a los usuarios realizar más operaciones sobre los
recursos que otras puertas. En otras palabras, ciertas puertas permiten a los usuarios obtener más
privilegios sobre el recurso.

El administrador determina qué usuarios tienen acceso a qué puertas. Una puerta asigna al usuario un
acceso completo o control total sobre el recurso. Otra puerta asigna al usuario el acceso de sólo lectura.

Algunos de los permisos de acceso habituales asignados a los directorios o archivos compartidos son:

• Lectura: Leer y copiar los archivos de un directorio compartido.


• Ejecución: Ejecutar los archivos del directorio.
• Escritura: Crear nuevos archivos en el directorio.
• Borrado: Borrar archivos del directorio.
• Sin acceso: Evita al usuario obtener el acceso a los directorios, archivos o recursos.

Diferentes sistemas operativos asignan distintos nombres a estos permisos.

Permisos de grupo

El trabajo del administrador incluye la asignación a cada usuario de los permisos apropiados para cada
recurso. La forma más eficiente de realizarlo es mediante la utilización de grupos, especialmente en una
organización grande con muchos usuarios y recursos. Windows NT Server permite a los usuarios seleccionar
el archivo o carpeta sobre la que se establecen los permisos de grupo.

Los permisos para los grupos funcionan de la misma forma que los permisos individuales. El administrador
revisa los permisos que se requieren para cada cuenta y asigna las cuentas a los grupos apropiados. Éste es
el método preferido de asignación de permisos, antes que asignar los permisos de cada cuenta de forma
individual.

La asignación de usuarios a los grupos apropiados es más conveniente que asignar permisos, de forma
separada, a cada usuario individualmente. Por ejemplo, puede que no sea conveniente la asignación al grupo
Todos del control total sobre el directorio public. El acceso total permitiría a cualquiera borrar y modificar los
contenidos de los archivos del directorio public.

El administrador podría crear un grupo denominado Revisores, asignar a este grupo permisos de control
total sobre los archivos de los estudiantes e incorporar empleados al grupo Revisores. Otro grupo,
denominado Facultad, tendría sólo permisos de lectura sobre los archivos de los estudiantes. Los miembros
de la facultad asignados al grupo Facultad, podrían leer los archivos de los estudiantes, pero no modificarlos.

Medidas de seguridad adicionales

El administrador de la red puede incrementar el nivel de seguridad de una red de diversas formas.

Cortafuegos (Firewalls)
Un cortafuegos (firewalls) es un sistema de seguridad, normalmente una combinación de hardware y
software, que está destinado a proteger la red de una organización frente a amenazas externas que
proceden de otra red, incluyendo Internet.

Los cortafuegos evitan que los equipos de red de una organización se comuniquen directamente con
equipos externos a la red, y viceversa. En su lugar, todos las comunicaciones de entrada y salida se
encaminan a través de un servidor proxy que se encuentra fuera de la red de la organización. Además, los
cortafuegos auditan la actividad de la red, registrando el volumen de tráfico y proporcionando información
sobre los intentos no autorizados de acceder al sistema.

Un servidor proxy es un cortafuegos que gestiona el tráfico de Internet que se dirige y genera una red de
área local (LAN). El servidor proxy decide si es seguro permitir que un determinado mensaje pase a la red de
la organización. Proporciona control de acceso a la red, filtrado y descarte de peticiones que el propietario no
considera apropiadas, incluyendo peticiones de accesos no autorizados sobre datos de propiedad.

Auditoria

La revisión de los registros de eventos en el registro de seguridad de un servidor se denomina auditoria.


Este proceso realiza un seguimiento de las actividades de la red por parte de las cuentas de usuario. La
auditoria debería constituir un elemento de rutina de la seguridad de la red. Los registros de auditoria
muestran los accesos por parte de los usuarios (o intentos de acceso) a recursos específicos. La auditoria
ayuda a las administradores a identificar la actividad no autorizada. Además, puede proporcionar
información muy útil para departamentos que facturan una cuota por determinados recursos de red
disponibles y necesitan, de alguna forma, determinar el coste de estos recursos.

La auditoria permite realizar un seguimiento de las siguientes funciones:

• Intentos de entrada.
• Conexiones y desconexiones de los recursos designados.
• Terminación de la conexión.
• Desactivación de cuentas.
• Apertura y cierre de archivos.
• Modificaciones realizadas en los archivos.
• Creación o borrado de directorios.
• Modificación de directorios.
• Eventos y modificaciones del servidor.
• Modificaciones de las contraseñas.
• Modificaciones de los parámetros de entrada.

Los registros de auditoria pueden indicar cómo se está utilizando la red. El administrador puede utilizar los
registros de auditoria para generar informes que muestren las actividades con sus correspondientes fechas y
rangos horarios. Por ejemplo, los intentos o esfuerzos de entrada fallidos durante horas extrañas pueden
identificar que un usuario no autorizado está intentando acceder a la red.

Equipos sin disco

Los equipos sin disco, como su nombre implica, no tienen unidades de disco o discos duros. Pueden
realizar todo lo que hacen los equipos con unidades de disco, excepto almacenar datos en una unidad de
disco local o en un disco duro. Los equipos sin disco constituyen una opción ideal para el mantenimiento de
la seguridad puesto que los usuarios no pueden descargar datos y obtenerlos.

Los equipos sin disco no requieren discos de arranque. Se comunican y se conectan al servidor por medio
de un chip de arranque ROM especial instalado en la tarjeta de red (NIC) del equipo. Cuando se enciende un
equipo sin disco, el chip de arranque ROM indica al servidor que está preparado para iniciarse. El servidor
responde descargando el software de arranque en la RAM del equipo sin disco y, automáticamente, se le
presenta al usuario una pantalla de entrada como parte de este proceso de arranque. Una vez que entra el
usuario, se tiene que el equipo está conectado a la red.
Aunque los equipos sin disco pueden proporcionar un alto nivel de seguridad, no tienen mucha
aceptación. Toda la actividad del equipo debe realizarse a través de la red cuando no se dispone de un disco
local donde almacenar los datos y aplicaciones. Tenemos, por tanto, que el tráfico de la red se incrementará
y la red deberá controlar el incremento de demandas.

Cifrado de datos

Una utilidad de cifrado de datos cifra los datos antes de enviarlos a la red. Esto hace que los datos sean
ilegibles, incluso para alguien que escucha el cable e intenta leer los datos cuando pasan a través de la red.
Cuando los datos llegan al equipo adecuado, el código para descifrar los datos cifrados decodifica los bits,
trasladándolos a información entendible. Los esquemas más avanzados de cifrado y descifrado automatizan
ambos procesos. Los mejores sistemas de cifrado se basan en hardware y pueden resultar muy caros.

El estándar tradicional para el cifrado es el Estándar de cifrado de datos (DES; Data Encryption Standard).
Desarrollado por IBM y aprobado por el Gobierno de Estados Unidos en 1975 cómo una especificación de
cifrado, describe cómo se deberían cifrar los datos y proporciona las especificaciones de la clave de
descifrado. Tanto el emisor como el receptor necesitan tener acceso a la clave de descifrado. Sin embargo, la
única forma de obtener la clave de una localización a otra es transmitirla física o electrónicamente, lo que
convierte a DES en vulnerable por parte de intercepciones no autorizadas.

Hoy en día, el Gobierno de Estados Unidos está utilizando un nuevo estándar, denominado Commercial
COMSEC Endorsement Program (CCEP), que puede reemplazar eventualmente a DES. La Agencia de
seguridad nacional (NSA; National Security Agency) introdujo CCEP y permite a los fabricantes que poseen
los certificados de seguridad apropiados unirse a CCEP. Los fabricantes aceptados son autorizados a
incorporar algoritmos clasificados en sus sistemas de comunicaciones.

Virus informáticos

Los virus informáticos se han convertido en algo demasiado familiar en la vida diaria. Es habitual ver en
los informes de un canal de noticias local la descripción y los últimos virus y las advertencias sobre su
impacto destructivo. Los virus son bits de programación de equipos o código, que se ocultan en los
programas de equipos o en el sector de arranque de los dispositivos de almacenamiento, como unidades de
disco duro o unidades de disco. El principal propósito de un virus es reproducirse, así mismo, con tanta
asiduidad como sea posible y, finalmente, destruir el funcionamiento del equipo o programa infectado. Una
vez activado, un virus puede ser un simple anuncio o completamente catastrófico en su efecto. Los virus son
desarrollados por gente que tiene la intención de hacer daño.

Los virus se clasifican en dos categorías, en función de su manera de propagarse. El primer tipo,
denominado «virus del sector de arranque», reside en el primer sector de una unidad de disco o disco duro.
El virus se ejecuta cuando arranca el equipo. Se trata de un método habitual de transmisión de virus de un
disquete a otro. Cada vez que se inserta y se accede a un nuevo disco, el virus se reproduce en la nueva
unidad. El segundo tipo de virus se conoce como un «contaminador de archivos». Estos virus se unen a un
archivo o programa y se activan en el momento en que se utiliza el archivo. Existen muchas subcategorías
de contaminadores de archivos.

Algunos de los contaminadores de archivos más habituales, son:

• Virus acompañante. Se denomina de esta forma debido a que utiliza el nombre de un


programa real, su compañero. Un virus acompañante se activa utilizando una extensión de archivo
diferente de su compañero. Por ejemplo, supongamos que decidimos ejecutar un programa
denominado «procesadortextos.exe». Cuando se utiliza el comando para ejecutar la aplicación se
ejecutará en su lugar, un virus denominado «procesadortextos.com». Esto es posible porque el
archivo .com tiene prioridad sobre un archivo .exe.
• Virus de macro. Un virus de macro es difícil de detectar y se han hecho muy populares.
Se denominan de esta forma porque se escriben como una macro para una aplicación específica.
Los objetivos de estos virus son las aplicaciones más utilizadas, como Microsoft Word. Cuando el
usuario abre un archivo que contiene el virus, éste se une a la aplicación y, a continuación, infecta
cualquier otro archivo que utilice la aplicación.
• Virus polimórficos. Un virus polimórfico se denomina de esta forma debido a que
modifica su apariencia cada vez que se reproduce. Esto hace que sea más difícil de detectar puesto
que no tenemos dos virus exactamente iguales.
• Virus camuflable. Un virus camuflable se denomina así debido a que intenta por todos los
medios evitar que lo detecten. Cuando el programa antivirus intenta localizarlo, el virus camuflable
intenta interceptar el análisis y devuelve información falsa indicando que no existe el citado virus.

Propagación de virus

Los virus por sí solos ni se crean a sí mismos ni se extienden por el aire sin ninguna ayuda. Debe existir
algún tipo de intercambio entre dos equipos para que tenga lugar la transmisión. En los primeros días de la
informática y los virus, la principal fuente de infección era a través del intercambio de datos por medio de
disquetes. Una vez infectado un equipo en una empresa, resultaba muy fácil infectar al resto de los
ordenadores, simplemente un usuario que pasaba en disquete una copia del último protector de pantallas.

La proliferación de las LAN y el crecimiento de Internet ha abierto muchas vías de infección rápida de
virus. Hoy en día, cualquier equipo en el mundo puede estar conectado a cualquier otro equipo. Como
consecuencia, también se ha producido un aumento importante en el proceso de creación de virus. De
hecho, algunos creadores de virus proporcionan software de fácil uso que contiene direcciones de cómo crear
un virus.

Un método reciente de propagación de virus es a través de los servicios de correo electrónico. Después de
abrir un mensaje de correo electrónico que contiene un virus, éste infecta el equipo y puede, incluso,
enviarse a los destinatarios del libro de direcciones del correo electrónico. Normalmente, el virus se localiza
es un archivo adjunto a un mensaje de correo electrónico.

El objetivo de los creadores de virus es el convencimiento de las victimas para no sospechar de la


presencia del virus y, por tanto, poder abrirlo. Esto se consigue, a menudo, empaquetando el virus con algún
tipo de «envoltura» sugerente. Estos virus se conocen como «caballos de Troya» o «Troyanos». Para llamar
la atención de los usuarios se presentan como algo familiar, seguro o interesante.

Recuerde que cualquier medio de intercambio de información entre equipos constituye una vía potencial
de propagación de virus. Los métodos más habituales incluyen:

• CD-ROM.
• Cableado que conecta directamente dos equipos.
• Unidades de disquete.
• Unidades de disco duro.
• Conexiones a Internet.
• Conexiones LAN.
• Conexiones vía módem.
• Unidades portables o portátiles.
• Unidades de cinta.

Consecuencias de un virus

Un virus puede causar muchos tipos de daños a un equipo. Su única limitación es la creatividad de su
creador. La siguiente lista describe los síntomas más habituales de infección de virus en un equipo:

• El equipo no arrancará.
• Se modifican o se dañan los datos.
• El equipo funciona de forma errónea.
• La partición se ha perdido.
• La unidad de disco duro se vuelve a formatear.

El síntoma más habitual de infección de un virus en una red se refleja en un mal funcionamiento de una o
más estaciones de trabajo. Una red peer-to-peer es más vulnerable. En una red peer-to-peer todas las cosas
se comparten de la misma forma; por tanto, cualquier equipo infectado tiene acceso directo a cualquier
equipo o recurso compartido en la red. Las redes basadas en servidor tienen algunos mecanismos de
protección predefinidos, puesto que se requieren permisos para acceder a algunas partes del servidor y, por
tanto, a la red. En estas redes, es más probable que se infecten las estaciones antes que un servidor,
aunque los servidores no están inmunes. El servidor, como canal de comunicación de un equipo a otro,
participa en la transmisión del virus, pero incluso podría no verse afectado por el virus.

Prevención de virus

Los virus destructivos se están convirtiendo en virus muy habituales y deben tenerse en cuenta cuando se
desarrollan los procedimientos de la seguridad de la red. Una estrategia efectiva de antivirus constituye una
parte esencial de una planificación de red. Resulta esencial un buen software antivirus. Aunque la protección
de virus no puede prevenir antes todos los posibles virus, sí puede realizar lo siguiente:

• Avisar de un virus potencial.


• Evitar la activación de un virus.
• Eliminar un virus.
• Reparar algunos de los daños ocasionados por el virus.
• Detectar un virus después de activarse.

Prevenir el acceso no autorizado a la red constituye una de las mejores formas de evitar un virus. Por
ejemplo, la mejor forma de evitar la infección de un virus a través de un disquete es utilizar la protección de
escritura. Si no puede escribir en un disquete, no puede infectarlo. Dado que la prevención es clave, el
administrador de la red necesita asegurarse de que se realizan todas las medidas de prevención propuestas.

Éstas incluyen:

• Contraseñas para reducir la posibilidad de acceso no autorizado.


• Accesos y asignaciones de privilegios bien planificados para todos los usuarios
• Perfiles de usuario para estructurar el entorno de red del usuario, incluyendo las
conexiones de red y los elementos de programa que aparecen cuando el usuario entra en el
sistema.
• Una política o normativa que especifique el software a cargar.
• Una política que especifique reglas para la implementación de la protección de virus en las
estaciones de los clientes y servidores de red.
• Asegurar que todos los usuarios están bien informados de todos los virus informáticos y de
cómo evitar la activación de dichos virus.

Mantenimiento de un entorno de red operativo


El entorno físico donde reside una red es un factor importante a considerar en el mantenimiento de una
red de equipos físicamente segura. Aquí presentamos este aspecto de la gestión de la red, frecuentemente
pasado por alto y que pretende garantizar un entorno operativo para los equipos, periféricos y red asociada
así como comprobar qué se puede realizar para mantener operativo el entorno de red.

Los equipos y el entorno

La mayor parte de los tipos de equipamiento electrónico, tales como equipos, son rígidos y fiables,
funcionando durante años con un pequeño mantenimiento. Los equipos incluso han estado en la Luna y han
regresado. Sin embargo, existen impactos ambientales muy negativos que inciden en el equipamiento
electrónico, a pesar de no ser siempre dramáticos. Un proceso de deterioro lento, pero continuo puede
generar problemas intermitentes, cada vez más frecuentes, hasta provocar un fallo catastrófico en el
sistema. Detectar estos problemas antes de que ocurran y llevar a cabo los pasos apropiados, permite
prevenir o minimizar estos fallos.

Al igual que los humanos, los equipos y equipamiento electrónico se ven afectados por las condiciones
ambientales. Aunque más tolerantes y probablemente menos predispuestos a la queja, los equipos y
equipamiento de la red necesitan entornos específicos para funcionar de forma apropiada. La mayoría de los
equipos se instalan en áreas controladas desde un punto de vista medioambiental, pero incluso con estos
controles, se tiene que los equipos no son inmunes a los efectos que los rodean.
Cuando se identifica el efecto negativo que ejercen las condiciones ambientales sobre la red de equipos, el
primer paso es considerar las condiciones climáticas de la región. La instalación de una red en el Ártico o
Antártico estará sujeta a condiciones muy diferentes de las presentes en una red localizada en una jungla
tropical.

Una red instalada en una zona con clima ártico sufrirá cambios extremos de temperatura, mientras que
una red instalada en un entorno tropical experimentará una gran humedad. Diferentes circunstancias
climáticas requieren llevar a cabo un conjunto de pasos que permitan asegurar que el entorno no afecta, de
forma negativa, a la red.

Se asumen las mismas condiciones ambientales para los equipos que las que prevalecen en las oficinas.
Esta suposición es bastante precisa para un equipo personal o estación de trabajo. Sin embargo, una
estación de trabajo individual constituye sólo una parte de la red. Recuerde que el cableado de la red se
instala en paredes y techos, sótanos e incluso algunas veces fuera de los edificios. Por tanto, muchos
factores ambientales pueden afectar a estos componentes y generar como situación extrema un deterioro o
ruptura de la red.

Cuando se planifica o mantiene una red, es importante pensar en términos de red global (completa),
visible o no, y no sólo en los componentes locales que se ven cada día.

Los desastres provocados por el entorno ambiental son normalmente el resultado de un largo período de
deterioro lento, más que una consecuencia de una catástrofe repentina. Como muestra un ejemplo,
considere un cortaúñas. Déjelo expuesto a los elementos ambientales y comprobará que gradualmente se
oxida, no se puede utilizar e incluso llega a desintegrarse. De forma similar, las redes implementadas en
entornos de riesgo podrían funcionar correctamente durante algunos años. Sin embargo, comenzarán a
aparecer problemas intermitentes e incrementando el número y frecuencia de estos problemas hasta que se
provoque una caída de la red.

Creación del entorno adecuado

En la mayoría de las grandes organizaciones, el departamento de gestión y de personal es responsable de


proporcionar un entorno seguro y confortable para los empleados. Las organizaciones gubernamentales
regulan el entorno de trabajo para las personas. Esta regulación o guía no existe para el caso de las redes.
Es responsabilidad del administrador de la red crear las políticas que gobiernen prácticas seguras alrededor
del equipamiento de la red e implementar y gestionar el entorno de trabajo apropiado para la red.

Un entorno operativo para el equipamiento de red es bastante parecido al entorno humano saludable; el
equipamiento electrónico se diseña para trabajar con el mismo rango de temperatura y humedad que
identifican las personas como entorno confortable.

Temperatura

El parámetro básico ambiental que controlamos es la temperatura. Los hogares, oficinas y lugares de
trabajo presentan diferentes medios para controlar la temperatura. El equipamiento electrónico,
normalmente, tiene diseñado un ventilador que permite mantener la temperatura dentro de unos límites
específicos, puesto que genera calor durante su funcionamiento. No obstante, si la temperatura de la
habitación donde se ubica el equipamiento es demasiado alta, tanto las ranuras de ventilación como el
propio ventilador no serán suficientes para mantener la temperatura de funcionamiento adecuada y los
componentes comenzarán a calentarse provocando el fallo. De forma alternativa, si la temperatura externa
es demasiado fría, los componentes podrían dejar de funcionar.

Un entorno donde está continuamente cambiando la temperatura de calor a frío presenta el peor
escenario para el equipamiento electrónico. Estos cambios extremos provocan la dilatación y contracción de
los componentes de metal que, eventualmente, pueden generar situaciones de fallo del equipamiento.

Humedad

La factores relacionados con la humedad pueden tener dos efectos negativos en el equipamiento
electrónico. Las altas humedades provocan la corrosión. Normalmente, esta corrosión tiene lugar primero en
los contactos eléctricos y estos contactos con corrosión en las conexiones de los cables, así como la
dilatación de la tarjeta, provocarán fallos intermitentes. Además, la corrosión puede incrementar la
resistencia de los componentes eléctricos, provocando un incremento de temperatura que puede generar un
fallo en los componentes o, incluso, un incendio.

En los edificios con presencia de calor, es habitual tener un entorno de baja humedad. Las descargas
eléctricas estáticas son más habituales en entornos de baja humedad y pueden dañar seriamente los
componentes electrónicos.

Dado que tenemos un menor control sobre la humedad, los administradores de la red necesitan conocer
las consecuencias que provocan una humedad alta o baja e -implementar resguardos apropiados donde
prevalezcan estas condiciones. La mayoría del equipamiento funcionará correctamente en entornos con un
porcentaje de humedad relativa de entre 50 y 70 por 100.

Cuando se implementa una red grande que incluya una habitación dedicada al servidor, debería
considerar en esta habitación el control de la temperatura y humedad.

Polvo y humo

El equipamiento electrónico y los equipos no funcionan correctamente con polvo y humo. El equipamiento
electrónico atrae electrostáticamente al polvo. Una acumulación de polvo provoca dos efectos negativos: el
polvo actúa como un aislante que afecta al sistema de ventilación de los componentes, causando un
calentamiento, y, por otro lado, el polvo puede contener cargas eléctricas, haciéndose conductor de la
corriente. El polvo excesivo en el equipamiento electrónico puede provocar cortocircuitos y fallos
catastróficos en el equipamiento.

El humo provoca un tipo de combinación similar a los efectos del polvo. Cubre las superficies de los
componentes eléctricos, actuando como un aislante y conductor. El humo también supone la acumulación de
polvo.

Factores humanos

En el diseño de una red, podemos controlar muchos factores ambientales, como temperatura, humedad y
ventilación. Aunque es posible, desde un punto de vista teórico, la creación de un entorno físico adecuado
para los equipos, la entrada en escena de las personas traerá consigo modificaciones ligadas a provocar
impactos en la red. Dibuje una nueva oficina, ambientalmente correcta, con equipamiento amigable, que
disponga de los equipos, impresoras y escritorios más novedosos. En este espacio maravilloso, los
empleados traen plantas, cuadros, radios, tazas de café, libros, papeles y estufas para los días de frío.
Pronto, la oficina se llenará de empleados, muebles, armarios y material de oficina. También se producen
otros cambios; la parte superior de los equipos y monitores se convierten en tableros y las cajas vacías se
almacenan debajo de los escritorios muy próximas a los equipos. Debido a que muy pocos empleados
conocen los requerimientos de ventilación en el equipamiento de los equipos, se tiene que impedirán el flujo
natural de aire sobre y alrededor de los equipos informáticos. Una vez que esto ocurra, es imposible el
mantenimiento de la temperatura apropiada y comenzarán los fallos.

El vertido de líquido de refresco sobre los equipos y teclados supone también un peligro. Además, cuando
se tiene una temperatura exterior fría, se utilizan las estufas en la oficinas y, normalmente, se colocan
debajo de la mesa de escritorio, a menudo muy próximas a los equipos. Esto puede provocar dos problemas:
que el equipo se caliente en exceso y que la estufa puede sobrecargar la salida de corriente, disparando los
diferenciales de corriente, o incluso, provocando un incendio.

Factores ocultos

Como se ha visto anteriormente, muchos aspectos de la red no están visibles y, por tanto, fuera de
nuestro pensamiento. Dado que diariamente no vemos estos elementos ocultos, suponemos que todos están
correctos hasta que comienzan a generar problemas.

El cableado es uno de los componentes de red que puede provocar problemas, especialmente cables que
se encuentran en el suelo. Los cables de un ático se pueden dañar fácilmente debido a un accidente durante
las reparaciones de otros objetos del ático.
Los roedores y bichos de todo tipo son otros factores ocultos. Estos invitados no deseados salen a cenar
probablemente los materiales de red o los utilizan con propósitos de construcción.

Factores industriales

Los equipos no están limitados al entorno ofimático, constituyen también una parte vital en el sector
industrial. Al principio, los equipos se utilizaban para gestionar el flujo de trabajo a través de las operaciones
de fabricación. En las plantas modernas, los equipos también desarrollan el equipamiento. El proceso de
fabricación completo se puede monitorizar y controlar desde una ubicación central, mediante la integración
de la tecnología de red en este entorno. Incluso, el equipamiento puede telefonear a los hogares del
personal de mantenimiento cuando se produce un problema.

Estas mejoras en el proceso de fabricación han provocado un incremento en la productividad, a pesar de


presentar características únicas para el administrador de la red. El trabajo del equipamiento de red en un
entorno de producción presenta muchos desafíos. Las propiedades necesarias a controlar cuando se
implementan las redes en un entorno de fabricación incluyen la presencia de:

• Ruido.
• Interferencia electromagnéticas (EMI).
• Vibraciones.
• Entornos explosivos y corrosivos.
• Trabajadores no especializados y sin entrenamiento adecuado.

A menudo, los entornos de fabricación ejercen un pequeño, incluso, ningún control sobre la temperatura y
humedad, y la atmósfera se puede contaminar con productos químicos corrosivos. Una atmósfera corrosiva
con una alta humedad puede destruir los equipos y el equipamiento de la red en cuestión de meses, e
incluso, en algunos casos, en días. Los entornos de fabricación que utilizan equipamiento pesado con
grandes motores eléctricos hacen estragos en la estabilidad de los sistemas operativos y la red. Para
minimizar los problemas que se derivan del funcionamiento de una red en un entorno industrial, debemos:

• Instalar el equipamiento de red en habitaciones separadas con ventilación externa.


• Utilizar cableado de fibra óptica. Esto reducirá los problemas de interferencias eléctricas y
corrosión del cable.
• Asegurar que todo el equipamiento está conectado a tierra de forma adecuada.
• Proporcionar el entrenamiento adecuado a todos los empleados que necesitan utilizar el
equipamiento. Esto nos ayudará a garantizar la integridad del sistema.

Evitar la pérdida de datos


Un desastre en un sitio se define como cualquier cosa que provoca la pérdida de los datos. Muchas
organizaciones grandes tienen planes de recuperación de catástrofes que permiten mantener la operatividad
y realizar un proceso de reconstrucción después de ocurrir una catástrofe natural como puede ser un
terremoto o un huracán. Muchas, pero desgraciadamente no todas, incluyen un plan para recuperar la red.
Sin embargo, una red puede provocar un fallo desastroso a partir de muchas fuentes distintas que no tienen
por qué ser catástrofes naturales. La recuperación frente a las catástrofes en una red va más allá del
reemplazamiento de los dispositivos hardware. También se deben proteger los datos. Las causas de las
catástrofes que se pueden provocar en una red, desde actos humanos hasta causas naturales, incluyen:

• Fallos de los componentes.


• Virus informáticos.
• Eliminación y corrupción de datos.
• Fuego causado por un incendio o desgracias eléctricas.
• Catástrofes naturales, incluyendo rayos, inundaciones, tornados y terremotos.
• Fallos en los sistemas de alimentación y sobrecarga de tensión.
• Robo y vandalismo.
Cuando tiene lugar una catástrofe, el tiempo que se consume en la recuperación de los datos a partir de
una copia de seguridad (si se dispone de ella), puede resultar una pérdida seria de productividad. No
digamos si no se dispone de las correspondientes copias de seguridad. En este caso, las consecuencias son
aún más severas, provocando posiblemente unas pérdidas económicas significativas. Algunas formas de
evitar o recuperar datos a partir de la pérdida de los mismos, son:

• Sistemas de copia de seguridad de cintas.


• Un sistema de alimentación ininterrumpida (SAI).
• Sistemas tolerantes a fallos.
• Discos y unidades ópticas.

Se pueden utilizar algunas de estas posibilidades, incluso todas, en función del valor que tienen los datos
para la organización y de las restricciones presupuestarias de la propia organización.

Copias de seguridad en cinta

La forma más sencilla y barata de evitar la pérdida de los datos es implementar una planificación
periódica de copias de seguridad. La utilización de un sistema de copias de seguridad en cintas constituye
todavía una de las formas más sencillas y económicas de garantizar la seguridad y utilización de los datos.

La ingenieros de red experimentados aconsejan que el sistema de copias de seguridad debe constituir la
primera defensa frente a la pérdida de los datos. Una estrategia adecuada de copias de seguridad minimiza
el riesgo de pérdida de datos manteniendo una copia de seguridad actualizada (copias de archivos
existentes) y permitiendo la recuperación de los archivos si se produce un daño en los datos originales. Para
realizar la copia de seguridad de los datos se requiere:

• Equipamiento apropiado.
• Una planificación adecuada para los períodos de realización de las copias de seguridad.
• Garantizar la actualización de los archivos de copias de seguridad.
• Personal asignado para garantizar que se lleva a cabo esta planificación.

Normalmente, el equipamiento está constituido por una o más unidades de cinta y las correspondientes
cintas u otros medios de almacenamiento masivo. Cualquier inversión que se realiza en esta área será,
probablemente, mínima en comparación con el valor que supone la pérdida de los datos.

Implementación de un sistema de copias de seguridad

La regla es sencilla: si no puedes pasar sin él, realiza una copia de seguridad. La realización de copias de
seguridad de discos completos, directorios seleccionados o archivos dependerá de la rapidez que se necesita
para ser operativo después de una pérdida importante de datos. Las copias de seguridad completas hacen
mucho más sencilla la restauración de las configuraciones de los discos, pero pueden requerir múltiples
cintas si se dispone de grandes cantidades de datos. La realización de copias de seguridad de archivos o
directorios individuales podría requerir un número menor de cintas, pero implica que el administrador
restaure manualmente las configuraciones de los discos.

Las copias de seguridad de los datos críticos deben realizarse diariamente, semanalmente o
mensualmente dependiendo del nivel crítico de los datos y de la frecuencia de actualización de los mismos.
Es mejor planificar las operaciones de copias de seguridad durante los períodos de baja utilización del
sistema. Los usuarios deberían recibir notificación de la realización de la copia de seguridad para que no
utilicen los servidores durante el proceso de copia del servidor.

Selección de una unidad de cinta

Dado que la mayoría de las copias de seguridad se realiza en unidades de cinta, el primer paso es
seleccionar una unidad de cinta, teniendo en cuenta la importancia de diferentes factores como:

• La cantidad de datos necesarios a copiar en las copias de seguridad.


• Los requerimientos de la red para garantizar la velocidad, capacidad y fiabilidad de las
copias de seguridad.
• El coste de la unidad de cinta y los medios relacionados.
• La compatibilidad de la unidad de cinta con el sistema operativo.

Lo ideal sería que una unidad de cinta tuviera una capacidad suficiente para realizar la copia de seguridad
del servidor más grande de una red. Además, debería proporcionar detección y corrección de errores durante
las operaciones de copia y restauración.

Métodos de copias de seguridad

Una política o normativa de copias de seguridad eficiente utiliza una combinación de los siguientes
métodos:

• Copia de seguridad completa: Se copian y se marcan los archivos seleccionados, tanto


si han sido modificados como si no desde la última copia de seguridad.
• Copia: Se copian todos los archivos seleccionados sin marcarlos cuando se realiza la copia
de seguridad.
• Copia incremental: Se copian y se marcan los archivos seleccionados que han sido
modificados desde la última copia de seguridad realizada.
• Copia diaria: Se copian sólo aquellos archivos que se modifican diariamente, sin marcarlos
cuando se realiza la copia de seguridad.
• Copia de seguridad diferencial: Se copian sólo los archivos seleccionados si han sido
modificados desde la última copia de seguridad, sin marcarlos cuando se realiza la copia de
seguridad.

Las copias se pueden realizar en cintas siguiendo un ciclo semanal múltiple, dependiendo del número de
cintas disponibles. Ninguna regla rígida gobierna la longitud del ciclo. En el primer día del ciclo, el
administrador realiza una copia de seguridad completa y sigue con una copia incremental los día sucesivos.
El proceso comienza de nuevo cuando finaliza el ciclo completo. Otro método es planificar flujos de copias de
seguridad a lo largo del día.

Prueba y almacenamiento

Los administradores con experiencia comprueban el sistema de copias de seguridad antes de llevarlo a
cabo. Realizan una copia de seguridad, borran la información, restauran los datos e intentan utilizar estos
datos.

El administrador debería comprobar regularmente los procedimientos de copia para verificar que aquello
que esperamos incluir en la copia de seguridad es realmente lo que se está copiando. De igual forma, el
procedimiento de restauración debería comprobarse para garantizar que los archivos importantes se pueden
restaurar rápidamente.

Lo ideal sería que un administrador realizara dos copias de cada cinta: una para tenerla dentro del sitio y
la otra almacenada fuera de la oficina en un lugar seguro. Recuerde que, aunque el almacenamiento de las
cintas en un lugar seguro a prueba de incendios puede mantener la integridad de las cintas, es conveniente
destacar que el calor procedente de un incendio arruinará los datos almacenados en dichas cintas. Además,
después de un uso repetido, las cintas pierden la capacidad de almacenar datos. Reemplace las cintas, de
forma habitual, para asegurar un buen procedimiento de copias de seguridad.

Mantenimiento de un registro de copia de seguridad

El mantenimiento de un registro de todas las copias de seguridad es crítico para una recuperación
posterior de los archivos. Se debe mantener una copia de este registro junto a las cintas de copias de
seguridad, así como en el sitio donde se ubican los equipos. El registro debería registrar la siguiente
información:

• Fecha de la copia de seguridad.


• Número de cinta.
• Tipo de copia de
seguridad realizada.
• Equipo que ha sido copiado.
• Archivos de los que se ha realizado copia de
seguridad.
• Quién ha realizado la copia de seguridad.
• Ubicación de las cintas de copia de seguridad.

Instalación del sistema de copias de seguridad

Las unidades de cinta se pueden conectar a un servidor o a un equipo y estas copias se pueden iniciar a
partir del equipo que tiene conectada la unidad de cinta. Si se realizan copias de seguridad desde un
servidor, las operaciones de copia y restauración pueden realizarse rápidamente puesto que los datos no
tienen que viajar a través de la red.

La realización de las copias de seguridad a través de la red es la forma más eficiente de generar la copia
de seguridad de múltiples sistemas. Sin embargo, se produce un incremento en el tráfico de red
retardándola, de forma considerable. Además, el tráfico de la red puede provocar una caída importante en el
rendimiento. Ésta es una de las razones que justifican la realización de las copias de seguridad durante
períodos de baja utilización del servidor.

Si una ubicación incluye múltiples servidores, la colocación de un equipo encargado de realizar las copias
de seguridad en un segmento aislado puede reducir el tráfico derivado del proceso de copia. El equipo
encargado de la copia se conecta a una NIC diferente en cada servidor.

Sistemas de alimentación ininterrumpida (SAI)

Un sistema de alimentación ininterrumpida (SAI) es un generador de corriente externo y automatizado


diseñado para mantener operativo un servidor u otro dispositivo en el momento de producirse un fallo de
suministro eléctrico. El sistema SAI tiene la ventaja de proporcionar alimentación de corriente ininterrumpida
que puede actuar de enlace a un sistema operativo, como puede ser Windows NT. Los SAI estándares
ofrecen dos componentes importantísimos:

• Una fuente de corriente que permite mantener operativo un servidor durante un corto
período de tiempo.
• Un servicio de gestión de apagado seguro.

La fuente de corriente es normalmente una batería, pero el SAI también puede ser un motor de gasolina
que hace funcionar un generador de corriente AC.

Si la corriente falla, el SAI notifica y advierte a los usuarios del fallo para finalizar todas las tareas. A
continuación, el SAI se mantiene durante un tiempo predeterminado y comienza a realizar una operación
apropiada de apagado del sistema.

Un buen SAI permitirá:

• Evitar que muchos usuarios accedan al servidor.


• Enviar un mensaje de advertencia al administrador de la red a través del servidor.

Normalmente el SAI se ubica entre el servidor y la toma de corriente.

Si la corriente se restablece aun estando activo el SAI, éste notificará a los usuarios que la corriente se ha
restablecido.

Tipos de SAI
El mejor SAI es aquel que está siempre activo o en línea. Cuando se produce un fallo en el suministro de
corriente, automáticamente se activa la batería del SAI. El proceso es invisible al usuario.

También existen otros sistemas SAI de espera que se inician cuando falla el suministro de corriente. Se
trata de sistemas más baratos que los sistemas en línea, pero que resultan menos fiables.

Implementación de un SAI

Responder a las siguientes cuestiones ayudará al administrador de la red a determinar el tipo de SAI que
mejor se ajusta a las necesidades de la red:

• ¿Va a reunir el SAI los requerimientos básicos de suministro de la red? ¿Cuántos


componentes puede admitir?
• ¿Comunica el SAI al servidor cuando se produce un fallo de suministro de corriente y el
servidor se mantiene operativo con la utilización de la baterías?
• Incluye el SAI en sus características la protección de la sobretensión para evitar los picos y
subidas de tensión?
• ¿Cual es la duración de la batería del SAI? Cuánto tiempo puede permanecer activo antes
de comenzar su proceso de no suministro?
• ¿Avisará el SAI al administrador y a los usuarios de la falta de suministro eléctrico?

Sistemas tolerantes a fallos

Los sistemas tolerantes a fallos protegen los datos duplicando los datos o colocando los datos en fuentes
físicas diferentes, como distintas particiones o diferentes discos. La redundancia de los datos permite
acceder a los datos incluso cuando falla parte del sistema de datos. La redundancia es una utilidad
emergente y habitual en la mayoría de los sistemas tolerantes a fallos.

Los sistemas tolerantes a fallos no se deben utilizar nunca como mecanismos que reemplazan las copias
de seguridad de servidores y discos duros locales. Una estrategia de copias de seguridad planificada de
forma cuidadosa es la mejor póliza de seguro para la recuperación de los datos perdidos o dañados.

Los sistemas tolerantes a fallos ofrecen las siguientes alternativas para la redundancia de los datos:

• Distribución de discos.
• Duplicación de discos.
• Sustitución de sectores.
• Arrays de discos duplicados.
• Agrupamiento (clustering).

Array redundante de discos independientes (RAID)

Las opciones de la tolerancia a fallos se estandarizan y se dividen en diferentes niveles. Estos niveles se
conocen como Array Redundante de Discos Independientes (RAID), anteriormente conocido como Array
Redundante de Discos Baratos. Los niveles ofrecen varias combinaciones de rendimiento, fiabilidad y coste.

Raid 0 - Distribución de discos

La distribución de discos distribuye los datos en bloques de 64K y se propaga esta distribución entre todos
los discos del array. Se necesitan dos discos como mínimo para implementarlo. No obstante, la distribución
de discos no proporciona tolerancia a fallos, puesto que no existe la redundancia de los datos. Si falla
cualquier partición o alguno de los discos se pierden todos los datos.
Un conjunto de distribución combina múltiples áreas de espacio libre no formateado de una gran unidad
lógica, distribuyendo el almacenamiento de los datos entre todas las unidades simultáneamente. En
Windows NT, un conjunto de distribución requiere, al menos, dos unidades físicas y puede utilizar hasta 32
unidades físicas. Los conjuntos de distribución pueden combinar áreas en diferentes tipos de unidades, tales
como unidades de interfaces de pequeños sistemas de equipos (SCSI), unidades de interfaces de pequeños
dispositivos mejorados (ESDI) y unidades de dispositivos electrónicos integrados (IDE).

En el caso de que tuviéramos sólo tres discos, los datos están constituidos por 192K. Los primeros 64K
de datos se escriben en un conjunto de distribución del disco 1, los segundos 64K aparecen en un conjunto
de distribución del disco 2 y los terceros 64K se escriben en el conjunto de distribución del disco 3.

La distribución de discos tiene diferentes ventajas: hace que una partición grande se divida en diferentes
pequeñas particiones ofreciendo un mejor uso del espacio de disco y, por otro lado, los múltiples
controladores de disco provocarán un mejor rendimiento.

Está recomendado para edición de video, edición de imágenes, aplicaciones pre-impresión y para
cualquier aplicación que requiera un alto nivel de transferencia de datos.

Raid 1 - Duplicación de discos o discos Espejo

La duplicación de discos realmente duplica una partición y desplaza la partición duplicada a otro disco
físico. Siempre existen dos copias de los datos, con cada copia en un disco distinto. Se puede duplicar
cualquier partición. Esta estrategia es la forma más sencilla de proteger de fallos un único disco. La
duplicación de discos se puede considerar como un mecanismo de copia de seguridad continua, puesto que
mantiene una copia completa redundante de una partición en otro disco.

La duplicación de discos consta de un par de discos duplicados con un controlador de disco adicional en la
segunda unidad. Esto reduce el tráfico en el canal y mejora potencialmente el rendimiento. La duplicación se
diseñó para proteger los fallos de los controladores de disco y los fallos del medio.

Es un sistema de RAID que se implementa normalmente por software, lo que requiere más ciclos de CPU,
con lo que puede degradar el sistema, aparte de no poder realizar el cambio en caliente del disco que se
averíe, por lo que sería recomendable implementarlo sobre hardware.
El nivel de transacciones que se alcanza es el mismo que si se tuviese un sólo disco, y está recomendado
para sistemas de contabilidad, nóminas, financiero o cualquier aplicación que requiera una alta
disponibilidad.

RAID 0+1: Altas prestaciones en la Transferencia de Datos

RAID 0+1 requiere un mínimo de 4 discos para poder implementarlo y combina un sistema de discos
espejo junto con dos sistemas de discos con distribución de bandas RAID 0, con lo consigue niveles de
tolerancia a fallos similares a RAID 5.

RAID 0+1 tiene el mismo sistema de escritura que un sistema de discos espejo independiente y las altas
tasas de transferencia de datos se consiguen gracias a la implementación del Conjunto de Bandas.

Es una excelente solución para los sitios que necesitan una alta tasa de transferencia de datos y no se
preocupan por lograr la máxima fiabilidad del sistema.

RAID 0+1 no hay que confundirlo con RAID 10. Un simple fallo en la escritura en el disco convierte al
sistema en un Conjunto de Bandas RAID 0.

Es un sistema muy caro de implementar, con una escalabilidad muy pequeña.

Está recomendado para servidor de aplicaciones y de ficheros en general.

Raid 2 - Distribución de discos con ECC

Cuando se escribe un bloque de datos, el bloque se divide y se distribuye (intercalado) entre todas las
unidades de datos.
El código de corrección de errores (ECC; Error Correction Code) requiere una gran cantidad de espacio de
disco superior a la que requieren los métodos de comprobación de paridad. Aunque este método ofrece una
mejora en la utilización de disco, es peor en comparación con el nivel 5. El coste es el más elevado de todos
los sistemas RAID que existen y el nivel de transferencia de datos es similar a la de un sólo disco. No existen
implementaciones por hardware, por lo que hay que implementarlo a través de software, con lo que conlleva
de costo adicional para la CPU.

Raid 3 - Bandas de discos con ECC almacenado como paridad

La distribución de discos con ECC almacenado como paridad es similar al nivel 2.

El término paridad se refiere a un procedimiento de comprobación de errores donde el número de unos


debe ser siempre el mismo (par o impar) para cada grupo de bits transmitidos sin presencia de errores. En
esta estrategia, el método ECC se reemplaza por un esquema de comprobación de paridad que requiere sólo
un disco para almacenar los datos relativos a la paridad. Es un sistema recomendado para aplicaciones de
produción de video, edición de imágenes, edición de video, aplicaciones pre-impresión y cualquier aplicación
que requiera un elevado transvase de datos.

Raid 4 - Bandas de discos a grandes bloques con la paridad almacenada en


una unidad

Esta estrategia pasa del intercalado de datos a la escritura de bloques completos en cada disco del array.
Este proceso se conoce todavía como distribución de discos, pero se lleva a cabo con bloques grandes. Se
utiliza un disco de comprobación distinto para almacenar la información de la paridad.

Cada vez que se realiza una operación de escritura, debe leerse y modificarse la información de paridad
asociada en el disco de comprobación. Debido a esta sobrecarga, el método de bloques intercalados funciona
mejor para operaciones de grandes bloques que para procesamiento basado en transacciones. Es un sistema
que ofrece dificultades y es ineficiente a la hora de recuperar los datos de un disco que se haya averiado y el
nivel de transferencia de datos es similar al de un disco solo.

Raid 5 - Bandas de discos con paridad distribuida por varias unidades


La distribución con paridad es actualmente el método más popular para el diseño de la tolerancia a fallos.
Admite desde tres unidades hasta un máximo de 32 y escribe la información de paridad en todos los discos
del array (el conjunto de distribución completo). La información de paridad y los datos se ordenan, de forma
que siempre se almacenan en discos diferentes.

Aparece un bloque de distribución de paridad para cada distribución (fila) presente a través del disco. El
bloque de distribución de paridad se utiliza para reconstruir los datos de un disco físico que falla. Si falla una
sola unidad, se propaga la suficiente información a través del resto de disco permitiendo que los datos se
reconstruyan completamente.

El bloque de distribución de paridad se utiliza para reconstruir los datos de un disco físico que falla. Existe
un bloque de distribución de paridad para cada distribución (fila) a través del disco. RAID 4 almacena el
bloque de distribución de paridad en un disco físico y RAID 5 distribuye la paridad, de igual forma, entre
todos los discos.

Es un sistema recomendado para servidores de aplicaciones y fichero, servidor de Bases de Datos,


servidores Web, de Correo y de noticias, servidores intranet y sistemas que necesiten una alta escalabilidad.

RAID 6: Discos de datos independientes con dos esquemas de paridad


distribuidos independientemente.

Es en esencia un a extensión del sistema de RAID 5, con un nivel más e tolerancia a fallos ya que usa un
segundo esquema de paridad independiente del primero.

Los datos se distribuyen en bloques a través de los discos como en el sistema RAID 5 y la segunda
paridad es calculada y escrita en todos los discos. Provee un sistea extremadamente alto de tolerancia a
fallos y puede solventar muy bien los posibles problemas de escrituras en disco. Es una solución perfecta
para soluciones críticas.
Las desventajas son que necesita un complejo sistema de diseño y tiene una muy pobre prestación en
escritura, ya que tiene que calcular dos esquemas de paridad a la hora de escribir en disco.

Requiere dos disco más que los que necesitemos para datos para manejar los dos esquemas de paridad.

RAID 7: Asincronía optimizada para altas prestaciones de Entrada y Salida


(I/O) y elevadas necesidades de Transferencias de Datos

Todas las transferencias de I/O son asíncronas, independientemente de la


controladora y de la caché de la interfaz de transferencia. Todos los discos
leen y escriben centralizadamente a través de un bus de alta velocidad y el
disco dedicado a la paridad se encuentra en otro canal independiente.

Todo el proceso se lleva acabo, en tiempo real, por el Sistema Operativo


instalado y el microprocesador. El sistema operativo controla en tiempo real
el canal de comunicaciones.

Un sistema abierto usa normalmente controladoras SCSI, buses de PC


normales, motherboards y memoria SIMMs. La paridad se genera
íntegramente en la caché.
En conjunto los procesos de escritura superan entre un 25% y un 90% a los
sistemas de un solo disco y 1.5 a 6 veces a cualquier otro sistema RAID

Las interfaces de controladoras son escalables tanto para la conectividad


como para el aumento de transferencia de datos. Para ambientes multiusuario
y lecturas pequeñas utiliza un sistema de elevada caché que produce accesos
a los datos en tiempos cercanos a cero. El tiempo de escritura mejora con el
aumento de unidades de discos en la serie y los tiempos de acceso
disminuyen a medida que se trabaja con el sistema RAID. Ninguna
transferencia de datos en el RAID requiere un cambio en la paridad.

RAID 7 es una marca registrada de Storage Computer Corporation.

Presenta varias desventajas, una de ellas es que es un sistema propietario de un fabricante y el costo por
Mb es muy alto, con una garantía muy corta. Debido a estas desventajas no es un sistema que pueda utilizar
el usuario corriente y siempre se debe proveer de un Sistema de Alimentación Ininterrumpida para prevenir
la posible pérdida de datos:

Raid 10 - Arrays de unidades duplicadas


RAID nivel 10 duplica los datos en dos arrays idénticos de unidades RAID 0 y tiene la misma tolerancia a
fallos que un RAID 1. Los altos niveles de transferencia de I/O de datos se alcanzan gracias al sistema de
Bandas RAID 1

Es un sistema muy caro de implementar con una escalabilidad muy limitada y está recomendado para
sistema que necesiten un grado muy alto de tolerancia a fallos o para servidor de Bases de Datos.

Raid 53 - High I/O capacidad de Lectura y escritura (I/O) y prestaciones de


transferencias de datos

RAID 53 se debería llamar realmente RAID 03, ya que realmente implementa un conjunto distribución de
discos (RAID 0) junto al sistema de bandas de disco con paridad (RAID 3). RAID 53 tiene la misma
tolerancia a fallos que RAID 3 y requiere un mínimo de 5 discos para implementarlo.

La alta tasa de transferencia de datos se logran gracias al uso de RAID 3 y los altos ratios de I/O para
pequeñas solicitudes se consiguen gracias a la implementación del sistema de distribución de discos RAID 0.

Quizá una solución buena para sitios que hubiesen funcionado correctamente con RAID 3 pero necesitasen
un complemento para lograr grandes prestaciones de lectura y escritura (I/O).

Las desventajas que presenta este sistema RAID es que se necesita mucha experiencia para poder
implementarlo. Todos los discos deben sincronizarse y con la distribución de discos se consigue un pobre
aprovechamiento de la capacidad de los discos.

Sustitución de sectores

El sistema operativo Windows NT Server ofrece una utilidad adicional de tolerancia a fallos denominada
«sustitución de sectores», también conocida como «hot fixing». Esta utilidad incorpora automáticamente en
el sistema de archivos posibilidades de recuperación de sectores mientras esté funcionando el equipo.
Si se localizan los sectores malos durante la E/S (entrada/salida) del disco, el controlador de la tolerancia
a fallos intenta mover los datos a un sector no dañado y marcar el sector erróneo. Si la asignación es
correcta, no se alerta al sistema de archivos. Los dispositivos SCSI pueden realizar la sustitución de
sectores, mientras que los dispositivos ESDI e IDE no pueden llevar a cabo este proceso. Algunos sistemas
operativos de red, tales como Windows NT Server, tienen una utilidad que notifica al administrador de todos
los sectores dañados y la pérdida potencial de datos si falla la copia redundante.

Microsoft Clustering (agrupamiento)

Microsoft Clustering es una implementación de agrupamiento de servidores de Microsoft. El término


«clustering» se refiere a un grupo de sistemas independientes que funcionan juntos como un único sistema.
La tolerancia a fallos se ha desarrollado dentro de la tecnología de agrupamiento o clustering. Si un sistema
dentro del grupo o cluster falla, el software de agrupamiento distribuirá el trabajo del sistema que falla entre
los sistemas restantes del grupo. El agrupamiento no se desarrolló para reemplazar las implementaciones
actuales de los sistemas tolerantes a fallos, aunque proporciona una mejora excelente.

Implementación de la tolerancia a fallos

La mayoría de los sistemas operativos de red más avanzados ofrecen una utilidad para la implementación
de la tolerancia a fallos. En Windows NT Server, por ejemplo, el programa Administrador de discos se utiliza
para configurar la tolerancia a fallos en Windows NT Server. La interfaz gráfica del Administrador de discos
realiza, de forma sencilla, el proceso de configurar y gestionar el particionamiento de discos y las opciones
de la tolerancia a fallos. Si mueve un disco a un controlador diferente o modifica su ID, Windows NT lo
reconocerá como disco original. El Administrador de discos se utiliza para crear varias configuraciones de
disco, incluyendo:

• Conjuntos de distribución con paridad, que acumulan múltiples áreas de disco en una
gran partición, distribuyendo el almacenamiento de los datos en todas las unidades
simultáneamente, agregando la información de paridad relativa a la tolerancia a fallos.
• Conjuntos de duplicación, que generan un duplicado de una partición y la colocan en un
disco físico distinto.
• Conjuntos de volúmenes, que acumulan múltiples áreas de disco en una gran partición,
completando las áreas en serie.
• Conjuntos de distribución, que acumulan múltiples áreas de disco en una gran partición,
distribuyendo, de forma simultánea, el almacenamiento de los datos en todas las unidades.

Unidades y discos ópticos

El término «unidad óptica» es un término genérico que se aplica a diferentes dispositivos. En la tecnología
óptica, los datos se almacenan en un disco rígido alternando la superficie del disco con la emisión de un
láser.

La utilización de unidades y discos ópticos se ha hecho muy popular. A medida que evoluciona la
tecnología de los CD-ROM originales de sólo lectura y lectura-escritura a las nuevas tecnologías DVD, se
están utilizando muchísimo estos dispositivos para almacenar grandes cantidades de datos recuperables. Los
fabricantes de unidades ópticas proporcionan un gran array de configuraciones de almacenamiento que
están preparadas para las redes o se pueden utilizar con un servidor de red. Constituyen una opción
excelente para las copias de seguridad permanentes. Existen diferentes posibilidades en esta tecnología.

Tecnología de CD-ROM

Los discos compactos (CD-ROM) constituyen el formato más habitual de almacenamiento óptico de datos.
La mayoría de los CD-ROM sólo permiten leer la información. El almacenamiento en CD ofrece muchas
ventajas. La especificación ISO 9660 define un formato internacional estándar para el CD-ROM. Tienen una
alta capacidad de almacenamiento, hasta 650 Mb de datos en un disco de 4,72 pulgadas. Son portables y
reemplazables y debido a que no se pueden modificar los datos de un CD-ROM (si es de sólo lectura),
tenemos que los archivos no se pueden eliminar de forma accidental. Los formatos de grabación estándares
y los lectores, cada vez, más económicos hacen que los CD sean ideales para el almacenamiento de datos.
Puede utilizar ahora este medio para actualizaciones incrementales y duplicaciones económicas. Además, los
CD-ROM se ofrecen en un formato de reescritura denominado CD de reescritura.
Tecnología de disco de vídeo digital (DVD)

La familia de formatos de los discos de vídeo digital (DVD) están reemplazando a la familia de formatos
de los CD-ROM. La tecnología de disco de vídeo digital (DVD), también conocida como «disco digital
universal», es muy reciente y, por tanto, relativamente inmadura. DVD tiene cinco formatos: DVD-ROM,
DVD-Vídeo, DVD-Audio, DVD-R («R» para especificar «gravable») y DVD-RAM.

DVD-R es el formato de una sola escritura (actualizaciones incrementales). Especifica 3,95 GB para disco
de una sola cara y 7,9 GB para los discos de doble cara. DVD-RAM es el formato para los discos de múltiples
escrituras. Especifica 2,6 GB para discos de una sola cara y 5,2 GB para los discos de doble cara, con un
cartucho de discos como opción. DVD-ROM (discos de sólo lectura) son similares a los CD-ROM y tienen una
capacidad de almacenamiento de 4,7 GB (una cara, un nivel), 9,4 GB (doble cara, un nivel), 8,5 GB (doble
nivel, una cara), 17 GB (doble nivel, doble cara). Son formatos compatibles con CD-audio y CD-ROM. Las
unidades de DVD-ROM pueden utilizar DVD-R y todos los formatos de DVD. UDF es el sistema de archivos
para DVD-R.

Tecnología WORM (una escritura, múltiples lecturas)

La tecnología WORM (una escritura, múltiples lecturas) ha ayudado a iniciar la revolución del proceso de
generación de imágenes documentales. WORM utiliza la tecnología láser para modificar, de forma
permanente, los sectores del disco y, por tanto, escribir permanentemente archivos en el medio. Dado que
esta alteración es permanente, el dispositivo puede escribir sólo una vez en cada disco. Normalmente,
WORM se emplea en los sistemas de generación de imágenes donde las imágenes son estáticas y
permanentes.

Tecnología óptica reescribible

Se están empleando dos nuevas tecnologías que utilizan tecnología óptica reescribible. Estas tecnologías
incluyen los discos magneto-ópticos (MO) y los discos rescribibles de cambio de fase (PCR; Phase Change
Rewritable). Se están utilizando más las unidades MO, puesto que los fabricantes del medio y unidades
utilizan los mismos estándares y, por tanto, sus productos son compatibles. Los dispositivos PCR, proceden
de un fabricante (Matsushita/Panasonic) y el medio procede de dos fabricantes (Panasonic y Plasmon).

Unidades de múltiples funciones

Existen dos versiones de unidades ópticas de múltiples funciones. Una utiliza firmware en la unidad que,
primero, determina si se ha formateado un disco para una sola escritura o para múltiples escrituras y, a
continuación, actúa sobre el disco de la forma apropiada. En la otra versión de MO, se utilizan dos medios
completos diferentes. Los discos de múltiples escrituras son discos MO convencionales, pero el medio de una
sola escritura es el medio WORM tradicional.

Recuperación frente a catástrofes

El intento de recuperación frente a una catástrofe, independientemente de la causa, puede constituir una
experiencia terrible. El éxito de la recuperación depende de la implementación frente a catástrofes y del
estado de preparación desarrollado por el administrador de la red.

Prevención de catástrofes

La mejor forma de recuperarse frente a un desastre es, en primer lugar, evitarlo antes de que ocurra.
Cuando se implementa la prevención de catástrofes se debe:

• Enfocar los factores sobre los que se tienen control.


• Determinar el mejor método de prevención.
• Implementar y forzar la medidas preventivas que se seleccionen.
• Comprobar continuamente nuevos y mejores métodos de prevención.
• Realizar un mantenimiento habitual y periódico de todas las componentes hardware y
software de la red.
• Recordar que el entrenamiento es la clave de la
prevención de las catástrofes de tipo humano que pueden
afectar a la red.

Preparación frente a las catástrofes

No todas las catástrofes se pueden evitar. Cada jurisdicción tienen


un plan de contingencia frente a catástrofes y se gastan muchas horas
cada año en la preparación de este plan. Dado que cada comunidad es diferente, los planes de recuperación
tendrán en cuenta distintos factores. Si, por ejemplo, vive en una zona de inundaciones, debería tener un
plan para proteger la red frente a niveles muy altos de concentración de agua.

Cuando se considera la protección frente a las catástrofes, necesitará un plan para el hardware, software
y datos. Se pueden reemplazar las aplicaciones software y hardware y los sistemas operativos. Pero para
realizar esto, es necesario, primero, conocer exactamente los recursos que se disponen. Realice un
inventario de todo el hardware y software, incluyendo fecha de compra, modelo y número de serie.

Los componentes físicos de una red se pueden reemplazar fácilmente y, normalmente, están cubiertos por
algún tipo de seguro, pero el problema se plantea con los datos que son altamente vulnerables a las
catástrofes. En caso de incendio, puede reemplazar todos los equipos y hardware, pero no los archivos,
diseños y especificaciones para un proyecto multimillonario que ha preparado la organización durante el
último año.

La única protección frente a las catástrofes que implican la pérdida de datos es implementar un método
de copias de seguridad o más de uno de los descritos anteriormente. Almacene las copias de seguridad en
un lugar seguro, como puede ser una caja de seguridad de un banco, lejos del sitio donde se ubica la red.

Para conseguir una recuperación total frente a cualquier catástrofe, necesitará:

• Realizar un plan de recuperación.


• Implementar el plan.
• Comprobar el plan.

Una de las razones fundamentales para la creación de redes es la de compartir impresoras entre
estaciones de trabajo. Las impresoras son caras y necesitan del suministro eléctrico; sin embargo, un
usuario sólo suele utilizar una impresora de forma intermitente. Si se comparte una impresora entre varios
usuarios, se consigue realizar un ahorro en cuanto a costes y consumo de energía.

Impresión en red
Cuando los usuarios de la red quieren imprimir datos en una impresora de red compartida, envían sus
datos a un servidor de impresora. Entonces el servidor envía los datos a una impresora compartida.

Un gestor (spooler) de impresión es el software que intercepta un trabajo de impresión que envía una
aplicación (por ejemplo, un procesador de textos) a la impresora, y lo envía a una cola de impresión. Una
cola de impresión es un búfer en el que se encuentra el trabajo de impresión hasta que la impresora está
preparada para imprimirlo.

La impresión en red consta de estos cuatro pasos:

1. Una aplicación da formato a los datos del documento en una forma que pueda ser utilizada
por la impresora y se los envía.
2. El redirector del equipo envía los datos a la red, por donde viaja hasta el equipo servidor de
impresión.
3. El software de gestión de impresión del equipo servidor de impresión coloca los datos en
una cola de impresión en el servidor.
4. La cola de impresión guarda los datos hasta que la impresora está preparada para
imprimirlos.
Las colas de impresión suelen utilizar RAM para el
almacenamiento debido a que pueden mover los
datos más rápido que un disco duro. Sin embargo, si
se han enviado varios trabajos a la impresora, la
cola se llena, y estos documentos se envían al disco
duro del servidor de impresión para que esperen su
turno en la cola.

Cómo compartir una impresora

La conexión de una impresora a un servidor de


impresión de la red no es suficiente para que la
impresora esté disponible para los usuarios de la
red. La impresora es un recurso en el servidor y, al
igual que otro recurso, tiene que ser configurada
para compartirla en la red antes de que alguien
pueda acceder a ella. En una red basada en servidor,
el acceso a la impresora se puede controlar de la
misma forma que se controla el acceso a otro
recurso del servidor.

Para enviar trabajos de impresión a una impresora, los usuarios


tienen que poder identificar o ver la impresora desde sus equipos. En
otras palabras, el sistema operativo de red tiene que proporcionar
una forma de identificar a la impresora y que permita indicar que
está disponible.

Información básica de la impresora

Cada Sistemas Operativos de Red tiene su propia forma de


compartir una impresora, pero cada una requiere que el
administrador proporcione los controladores de la impresora e
indique al Sistemas Operativos de Red información sobre la
impresora.

Entre estos procedimientos se incluyen:

• La carga de los controladores de la impresora de


forma que la impresora pueda trabajar con el servidor de impresión.
• La creación de un nombre de recurso compartido para la impresora de forma que otros
usuarios de la red puedan reconocerla y acceder a ella.
• La identificación del destino de la salida de forma que el redirector sepa dónde tiene que
enviar el trabajo de impresión.
• La configuración de información y parámetros de formato de salida de forma que el
Sistemas Operativos de Red sepa cómo gestionar y dar formato al trabajo de impresión.

La utilidad para compartir impresoras

Este proceso puede parecer complejo, pero la mayoría de los sistemas operativos de red tienen utilidades
para ayudar a los administradores a introducir la información. Por ejemplo, en Windows NT Server, una
utilidad denominada Administrador de impresión, muestra la pantalla de configuración de una impresora.

Conexión a una impresora

Una vez que se haya configurado una impresora para que sea compartida, los usuarios tienen que utilizar
el Sistemas Operativos de Red para conectarse a ella. Para hacer esto, los usuarios tienen que saber dos
cosas:

• El nombre del servidor en el que se está conectada la impresora.


• El nombre de la impresora.

Esto explica por qué el administrador tiene que definir un nombre para la impresora durante el proceso de
configuración como recurso compartido. Los sistemas operativos actuales, como Windows, proporcionan una
interfaz de usuario gráfica para ayudar al usuario a conectarse a una impresora.

Por ejemplo, si utiliza Windows NT, puede hacer doble clic en el nombre del servidor y seleccionar la
impresora. Para conectarse a la impresora del servidor, haga doble clic en el icono del servidor y seleccione
la impresora de la lista.

Gestión de una impresora compartida

La utilización de impresoras de red es una buena forma de reducir costes. Sin embargo, para obtener
estos beneficios es necesario realizar tareas de mantenimiento.

Gestión de impresoras

Una vez que se ha definido una impresora como un recurso compartido, hay que administrarla y
mantenerla. La administración de la impresora tiene dos áreas de responsabilidad:

• El propio mantenimiento de la impresora.


• La administración de los usuarios que quieren acceder a la impresora.

Configuración de la impresora

Las impresoras se conectan directamente al puerto de impresora de un equipo o la red a través de un


dispositivo de puerto de red. Un puerto de red es similar a una tarjeta de red independiente. Este dispositivo
se conecta a la red y a la impresora. Los modelos internos se conectan directamente a un conector de la
impresora; los modelos externos funcionan en una caja compacta del tamaño de una tarjeta de red. Estos
modelos necesitan de una pequeña fuente de alimentación para poder trabajar. Una vez configurado, el
puerto de red se convierte en otro recurso compartido de la red. La configuración de tales dispositivos es
responsabilidad del administrador.

Mantenimiento de la
impresora

Entre las tareas de


mantenimiento se incluyen:

• Colocar papel y
tóner en la impresora.
• Retirar los
atascos de papel.
• Controlar la
salida de la impresora
para asegurar que los
trabajos de impresión no
llenen la bandeja de
salida.
• Controlar el
rendimiento de la
impresora y avisar a un
técnico si ocurre un
problema serio.
• Hacer las
limpiezas rutinarias que
indique el fabricante de la impresora.

La mayoría de estas tareas rutinarias son muy sencillas. Los usuarios no suelen recordar qué hay que
hacer cuando se acaba el papel de la impresora, o no saben cómo cambiar el tóner, por lo que estas
instrucciones sencillas deben estar al lado de la impresora.

Sin embargo, pueden aparecer problemas cuando no haya una persona responsable de la impresora. No
es raro que alguien que utilice la impresora suponga que hay alguien que se encarga de solucionar los
problemas. Como resultado, pequeños problemas podrían quedar sin resolver hasta que un usuario frustrado
decida tomar la responsabilidad y solucionar esta situación.

Administración de usuarios

La impresora es como otro recurso compartido. No basta con que los usuarios tengan permiso, sino que
también tienen que tener un nivel de permiso.

Los usuarios pueden manipular trabajos de impresión en impresoras compartidas. Con los privilegios
apropiados, los usuarios pueden adelantar sus trabajos con respecto a otros trabajos de la cola de
impresión, o eliminar el trabajo de impresión de otro usuario. Para evitar conflictos entre usuarios es mejor
limitar el número de usuarios que tengan estos privilegios.

El administrador decide cómo repartir los privilegios entre los usuarios. Los sistemas operativos de red
proporcionan utilidades al administrador para que puedan implementar los permisos de impresión
adecuados. Por ejemplo, el administrador de impresión de Windows NT Server, dispone de una serie de
ventanas, que ayudan al administrador en el proceso de administración de usuarios.

Lenguajes de descripción de páginas (PDL)

Además de comprender la instalación y el mantenimiento de una impresora de red, los administradores


de la red deberían saber que hay otros componentes que pueden afectar al rendimiento de las impresoras.
Uno de estos es el llamado lenguaje de descripción de páginas (PDL).

Los PDL indican a la impresora cómo debería ser la salida impresa. La impresora utiliza el PDL para
construir el texto y los gráficos que forman la imagen de la página. Los PDL son como borradores en el
sentido de que definen las especificaciones para los parámetros y características, como las fuentes y su
tamaño, pero dejan el trabajo a la impresora. El lenguaje de control de impresora de Hewlett-Packard (PCL)
es otra forma extendida para dar formato a los archivos de impresión.

Los PDL y PCL pueden tener un efecto negativo en la actividad de la red debido al gran tamaño de los
archivos que van de la aplicación a la impresora, incluso en aplicaciones vectoriales. Los archivos PCL y PDL
siempre son más grandes que su archivo de datos equivalente, llegando en ocasiones hasta ser cinco veces
más grandes. Este aumento en el volumen del tráfico de la red puede consumir recursos de valor.

Administración remota de la impresora

El administrador no tiene que estar sentado al lado del servidor de impresión para administrar una
impresora de red. La mayoría de los Sistemas Operativos de Red proporcionan utilidades que pueden ser
utilizadas por los administradores para administrar una impresora desde cualquier equipo de la red.

Por ejemplo, desde un equipo remoto, un administrador puede:

• Detener la impresora para que deje de imprimir.


• Eliminar trabajos de la cola de impresión.
• Cambiar el orden de los trabajos de la cola de impresión.

En una red pequeña, una en la que todos los servidores y equipos están relativamente cerca, la
posibilidad de la administración remota de una impresora no es una característica importante. En cambio, en
una red grande, en la que la impresora está en un extremo del edificio y el equipo del administrador está en
otro, esta utilidad puede ser muy útil.

Las mismas utilidades que se utilizan para la administración de una impresora local son las que se utilizan
para la administración remota. Simplemente, el administrador selecciona la impresora que va a administrar
y el sistema operativo de red presenta las pantallas que guían al administrador en el proceso.

Compartir un módem fax


Al igual que las impresoras, en una red se pueden compartir los módems.

El servidor de fax compartido hace para la comunicación por fax lo que una impresora compartida hace
para la impresión; hace que el fax esté disponible para todos los usuarios de la red, de forma que no tengan
que dejar sus puestos de trabajo para enviar un fax. La posibilidad de enviar un fax desde la red puede
ahorrar tiempo y evitar frustraciones, porque los usuarios no tienen que tratar con los problemas de las
máquinas de fax.

Un buen servicio de fax permite al administrador del fax que controle los faxes que llegan para
distribuirlos a los destinatarios y descartar los que sean de publicidad.

Algunas utilidades de fax para redes permiten a los usuarios vincular su dirección de correo electrónico a
un número de fax. Esto envía los faxes directamente al destinatario.

Distribución de faxes

Los faxes llegan a la máquina de fax sin información electrónica sobre la dirección; por tanto, es necesario
saber cómo se distribuye. Existen varias formas de distribución de faxes. La lista siguiente describe algunas
de las opciones disponibles:

• Los faxes se pueden distribuir manualmente, es decir, llevados a mano a su destinatario.


• El software de reconocimiento de caracteres (OCR) convierte la carátula del fax en texto y
busca el nombre del destinatario del fax.
• El software de reconocimiento inteligente de caracteres (ICR) convierte la carátula del fax a
texto y busca el nombre del destinatario del fax. El ICR es más lento que el OCR, pero más seguro.
• El subdireccionamiento T.30 es una versión modificada del protocolo de fax T.30 que
permite al que envía un fax utilizar un número de extensión que se utiliza para encaminar el fax.
• La Tecnología de sistemas incluidos en Novell (NEST) es similar al subdireccionamiento
T.30. El que envía el fax añade una extensión del número de teléfono al marcar el número del fax.
La extensión se utiliza para encaminar el fax.
• La distribución con código de barras permite al que envía el fax colocar un código de barras
en la carátula del fax para identificar al destinatario del fax.
• La distribución de Identificación de la estación de transmisión (TSI) utiliza el número de fax
del emisor para encaminar el fax. El inconveniente es que todos los faxes de un número de fax
concreto siempre se envían a la misma persona.
• Distribución mediante varias líneas de fax y módem. Todos los faxes que se reciben por
una línea de fax determinada se distribuyen a un usuario o grupo concreto.
• La llamada interna directa (DID) utiliza una línea de teléfono especial (línea base),
proporcionada por la compañía telefónica, que está asociada a varios números de teléfono. Cuando
se marca uno de estos números, la llamada se realiza por la línea base DID. Antes de que se envíe
la señal de llamada, la compañía telefónica envía una señal especial para identificar cuál ha sido el
número de línea marcado. De esta forma, las llamadas se pueden encaminar a varios números y las
llamadas recibidas se pueden enviar a la persona indicada.

Mejoras del servidor de fax

El administrador también puede adquirir software para aumentar el rendimiento de un servidor de fax.
Por ejemplo, el producto FACSys de Optus Software proporciona un gateway de fax para Windows NT. Este
software le permite enviar faxes desde procesadores de textos, bases de datos, hojas de cálculo, correo
electrónico y otras aplicaciones. También proporciona un servidor fax dedicado que proporciona acceso al
servidor del fax a todos los usuarios de la red.

FACSys proporciona interfaces para los equipos cliente basados en Windows y en DOS. Soporta HP PLC
(Lenguaje de control de la impresora de Hewlett-Packard), PCLS y PostScript con texto, fuentes e imágenes.
También proporciona el encaminamiento automático de faxes recibidos y proporciona informes de actividad y
de estado. Es compatible con GamnaFax, Intel SatisFAXtion, Hayes JTFax y otras tarjetas de fax conocidas.

FACSys proporciona diagnósticos completos, informes de error detallados y características avanzadas para
facilitar la administración de los servidores de fax.

Nos introducimos en la solución de problemas de una red y le enseña estrategias para aislar, identificar,
priorizar y resolver problemas. Una vez que se han diagnosticado los problemas, el siguiente paso es
localizar las herramientas que necesita para arreglarlo. Después, revisaremos las herramientas que se
utilizan para controlar los potenciales problemas de las redes.

Los problemas de las redes pueden ser complejos y, a veces, tendrá que buscar ayuda fuera.

Análisis del problema


Si se enfrenta a un problema de red con un plan, la causa y la solución será más fácil de encontrar.
Aplicaremos un enfoque estructurado para dividir una red en unidades funcionales para, posteriormente,
identificar el problema.

Diagnóstico

El diagnóstico y la resolución de problemas quizá sea la tarea más difícil del trabajo de los técnicos
informáticos. Además de tener que encontrar a raíz del problema que está afectando a la red, se suma la
presión de encontrarlo lo más rápido posible. Los equipos nunca fallan en el momento apropiado. Los fallos
suelen ocurrir mientras se trabaja, o cuando hay fechas, con lo que inmediatamente aparece la presión para
solucionar el problema.

Una vez que se ha diagnosticado el problema, la localización de recursos y el seguimiento de los recursos
necesarios para corregir el problema es algo directo. Pero antes de dar el diagnóstico es fundamental aislar
la auténtica causa del problema de factores irrelevantes.

La solución de problemas es más un arte que una ciencia exacta. Por lo que hay que atacar el problema
de una forma organizada y metódica. Recuerde que está buscando la causa, no sus síntomas. A menudo los
problemas se ven por sus síntomas, pero no son la causa auténtica. Como un experto en la solución de
problemas, necesita aprender a eliminar rápidamente la mayor cantidad de hipótesis posibles. Esto le
permitirá centrarse en las cosas que pueden ser la causa del problema. Para hacer esto, puede tomar un
enfoque sistemático.

El proceso para la solución de un problema en una red se puede dividir en cinco pasos:

Paso 1: Definición del problema

El primer paso es el más importante, aunque a menudo queda ignorado. Si no realiza un análisis del
problema completo, puede gastar una gran cantidad de tiempo en trabajar en los síntomas sin llegar a la
causa. Las únicas herramientas necesarias para esta fase son una libreta, un bolígrafo y prestar atención.

Prestar atención al cliente o al usuario de la red es la mejor fuente de información. Recuerde que aunque
sepa cómo funciona la red y sea capaz de encontrar los fallos técnicos del problema, aquellos que trabajan
diariamente con la red estaban allí antes y después de que apareciese el problema y, seguramente,
recordarán cuáles han sido los eventos que les han llevado al problema. Basándose en sus experiencias
sobre el problema, puede comenzar a hacerse una idea de las posibles causas. Para ayudarle a identificar el
problema, haga una lista con la secuencia de eventos, tal y como han ocurrido, antes del fallo. Puede que
desee crear un formulario con estas preguntas (y otras específicas para otra situación) para que le ayuden a
organizar sus notas.

Algunas preguntas generales podrían ser:

• ¿Cuándo notó el primer problema o error por primera vez?


• ¿Se ha movido el equipo últimamente?
• ¿Han habido últimamente cambios en el software o en el hardware?
• ¿Le ha ocurrido algo a la estación? ¿Se ha caído de su sitio, o le caído algo encima? ¿Ha
caído café o algún refresco sobre el teclado?
• ¿Cuándo ocurrió exactamente el problema? ¿Durante un proceso de inicio? ¿Después de
comer? ¿Sólo los lunes por la mañana? ¿Después de enviar un mensaje de correo electrónico?
• ¿Puede reproducir el problema o el error?
• ¿Cómo era el problema?
• Describa los cambios que advirtió en el equipo (como ruidos, cambios en la pantalla, luces
de actividad del disco).

Los usuarios, aunque tengan poco o ningún conocimiento técnico, pueden ser de utilidad para recopilar la
información si se les hace buenas preguntas. Preguntar a los usuarios qué es lo que el equipo estaba
haciendo les hace pensar que la red no funciona correctamente. Las observaciones que pueden servir como
pistas para identificar la causa real del problema de la red podrían ser como éstas:

• «La red funciona muy lentamente».


• «No me puedo conectar al servidor».
• «Estaba conectado al servidor y perdí mi conexión».
• «Una de mis aplicaciones ya no funciona».
• «No puedo imprimir».

A medida que siga realizando preguntas, comenzará a acotar el problema, como se ilustra en la lista
siguiente:

• ¿Están afectados todos los usuarios o sólo uno? Si sólo está afectado un usuario,
probablemente la causa esté en la estación del usuario.
• ¿Son constantes los síntomas o son intermitentes? Los síntomas intermitentes son un
síntoma de un fallo en el hardware.
• ¿Existía el problema antes de la actualización del sistema operativo? Un cambio en el
sistema operativo puede causar problemas.
• ¿Aparece el problema con todas las aplicaciones o sólo con una? Si sólo aparecen
problemas con una aplicación, céntrese en la aplicación.
• ¿Es parecido este problema a un problema anterior? Si se ha producido un error parecido
anteriormente, puede tratarse de un problema que se encuentra en la documentación.
• ¿Hay nuevos usuarios en la red? El incremento del tráfico puede causar retrasos en la
conexión y en el proceso.
• ¿Hay nuevos dispositivos en la red? Compruebe que los dispositivos nuevos en la red han
sido configurados correctamente.
• ¿Se instaló una aplicación nueva antes de que apareciera el error? Los procesos de
instalación pueden causar errores en las aplicaciones.
• ¿Se ha movido algún dispositivo de la red recientemente? Puede que el componente que se
haya movido no esté bien conectado a la red.
• ¿Qué productos están implicados? Algunos fabricantes ofrecen un servicio telefónico o en
línea.
• ¿Hay alguna incompatibilidad conocida entre algunos vendedores y ciertos componentes
como tarjetas, hubs, unidades de disco, software y el sistema operativo de red? Puede haber una
solución al problema en la Web del vendedor.
• ¿Ha intentado alguien solucionar este problema?

Compruebe las reparaciones documentadas y pregunte a quien haya intentado realizar la reparación.
Paso 2: Aislar la causa

El paso siguiente es aislar el problema. Comience eliminando los problemas más obvios y continúe con los
problemas más difíciles. Su intención es acotar el problema en una o dos categorías.

Asegúrese de ver realmente el problema. Si es posible, haga que alguien le muestre el error. Si es un
problema producido por el operador, es importante conocer cómo se produce, así como sus resultados.

Los problemas más difíciles de aislar son aquellos que son intermitentes y que nunca suelen producirse
cuando está presente. La única forma de resolver estos problemas es volver a crear las circunstancias que
ocasionaron el error. A veces, lo mejor que se puede hacer es eliminar las causas que no son el problema.
Este proceso lleva tiempo y paciencia. El usuario también tiene que dar detalles de lo que estaba haciendo
antes y en el momento en que se produjo el error. Puede ser útil que pida al usuario que no trate de hacer
nada con el equipo cuando se produzca el problema, salvo llamarle. De esta forma, la podrá ver en las
«pruebas».

La recopilación de información supone la exploración de la red y la búsqueda de causas obvias del


problema. Una exploración rápida debería incluir una revisión del historial documentado de la red para
determinar si el problema ha ocurrido antes, y si es así, dónde se anotó la solución.

Paso 3: Planificación de la reparación

Una vez que haya acotado la búsqueda a varias categorías, comienza el proceso final de eliminación.

Cree un plan para aislar los problemas basándose en el conocimiento actual. Comience con las soluciones
más sencillas y obvias para eliminarlas y continúe con las más difíciles y complejas. Es importante anotar
cada paso del proceso; documente cada acción y su resultado.

Una vez que haya creado su plan es importante que lo siga tal y como lo haya diseñado. Si va saltando de
un lado a otro de forma aleatoria puede llegar a tener problemas. Si el primer plan no tiene éxito (siempre
existe una posibilidad), cree un nuevo plan basado en lo que haya descubierto en el plan anterior. Asegúrese
de tener en cuenta, volver a examinar y asegurarse de cualquier suposición que haya realizado en el plan
anterior.

Una vez que haya localizado el problema, puede reparar el componente defectuoso o sustituirlo. Si el
problema es de software, asegúrese de registrar los cambios entre el «antes» y el «después».

Paso 4: Confirme los resultados

Ninguna reparación está completa sin confirmación de que el trabajo está terminado con éxito. Tiene que
asegurarse de que el problema ya no existe. Pida al usuario que pruebe la solución y confirme los resultados.
También debería asegurarse de que la reparación no ha generado nuevos problemas. Asegúrese de que no
sólo ha solucionado el problema, sino que su trabajo no ha tenido un impacto negativo en la red.

Paso 5: Documente los resultados

Por último, documente el problema y la reparación. Recuerde que lo que ha aprendido puede
proporcionarle información de gran valor. No hay ningún sustituto de la experiencia en el diagnóstico y
resolución de problemas, y cada problema le presenta una oportunidad para aumentar su experiencia. Si
guarda una copia del procedimiento de reparación en su libro técnico, puede serle de utilidad cuando vuelva
a encontrarse con el mismo problema (u otro parecido). La documentación del proceso de solución de
problemas es una forma de crear, retener y compartir la experiencia.

Recuerde que cualquier cambio que realice podría afectar a la línea base. Puede que tenga que actualizar
la línea base de la red para anticiparse a futuros problemas y necesidades.

División del problema


Si la revisión inicial de las estadísticas y síntomas de la red no dejan ver un problema obvio, el siguiente
paso en la solución de problemas es la división de la red en partes más pequeñas para aislar la causa. La
primera pregunta es si el problema tiene su origen en el hardware o en el software. Si el problema parece
que está relacionado con el hardware, comience observando otro segmento de la red y fíjese sólo en un tipo
de hardware.

Compruebe el hardware y los componentes de la red como:

• Tarjetas de red.
• Cableado y conectores.
• Estaciones cliente.
• Componentes de conectividad como repetidores, bridges, routers, brouters y gateways.
• Hubs.
• Protocolos.
• Servidores.
• Usuarios.

A veces, el aislamiento o la eliminación de una parte de la red le puede ayudar a recuperar la red a su
estado operativo. Si la eliminación de una parte ha resuelto el problema al resto de la red, la búsqueda del
problema se puede centrar en la parte que ha eliminado.

Los protocolos de red requieren una atención especial debido a que están diseñados para intentar ignorar
los problemas de la red. La mayoría de los protocolos utilizan lo que se denomina como «recuperación
lógica», en la que el software intenta recuperar automáticamente un problema. Esto puede derivar en una
bajada en el rendimiento de la red, ya que se tienen que realizar varios intentos para tener éxito. Los
dispositivos hardware estropeados, como discos duros y controladoras, utilizarán la recuperación lógica
interrumpiendo a la CPU y necesitando más tiempo para realizar su trabajo.

Cuando esté evaluando los problemas del rendimiento del hardware, utilice la información obtenida de las
líneas base del hardware para compararlas con los síntomas y rendimiento actuales.

Aislamiento del problema

Una vez que haya recopilado la información, cree una lista ordenada de las posibles causas, comenzando
con la causa más probable del problema. A continuación, seleccione la mejor candidata de la lista de causas
posibles, pruébela y compruebe si era el problema. Comience con lo más obvio y continúe con lo más difícil.
Por ejemplo, si sospecha que una tarjeta de red (NIC) de uno de los equipos es la causa del problema,
sustitúyala con una NIC que esté seguro que funciona correctamente.

Definición de prioridades

Una cuestión fundamental en la resolución de problemas de red es la definición de prioridades, Todo el


mundo quiere que su equipo sea el primero que se arregle, de forma que la definición de prioridades no es
un trabajo sencillo. Aunque la técnica más sencilla es priorizarlos según «el primero que llegue es el primero
que se sirve», no funciona siempre, debido a que algunos errores son más críticos que otros. Por tanto, el
paso inicial es evaluar el impacto del problema. Por ejemplo, un monitor que cada vez se ve más borroso
con el paso de los días debería tener una prioridad más baja que la imposibilidad de acceder al servidor de
archivos de las nóminas.

Herramientas para diagnóstico


Los problemas del diagnóstico y resolución de problemas se suelen solucionar con la ayuda de hardware y
software. Para hacer una solución de problemas efectiva, tiene que conocer cómo puede utilizar estas
herramientas para resolver problemas de red.

Herramientas hardware
Las herramientas hardware ayudan a identificar los problemas del funcionamiento.

Voltímetros digitales

El voltímetro digital (medidor de voltios-ohmios) es la herramienta electrónica de medida general más


básica. Está considerada como algo estándar para cualquier técnico informático o electrónico y puede revelar
muchas más cosas que la cantidad de tensión en los extremos de una resistencia. Los voltímetros pueden
determinar si:

• El cable es continuo (no tiene cortes).


• El cable está transmitiendo.
• Dos partes del mismo cable están tocándose (y pueden producir cortocircuitos).
• Una parte expuesta de un cable está tocando otro conductor, como una superficie metálica.

Una de las funciones más importantes del administrador de la red es comprobar la tensión de
funcionamiento del equipamiento de la red. La mayoría del equipamiento electrónico funciona a 220 voltios
AC. Pero no todas las tomas de corriente lo cumplen. El funcionamiento durante períodos prolongados a baja
tensión puede generar problemas en el equipamiento electrónico. Tensiones bajas suelen producir errores
intermitentes. Por el contrario, tensiones muy altas pueden causar un daño inmediato en el equipamiento.

En un lugar nuevo o en una construcción nueva, conviene comprobar las tensiones de


las tomas de corriente antes de conectar cualquier dispositivo electrónico, de forma que se
compruebe si están dentro del rango permitido.

Reflectómetros del dominio temporal (TDR)

Los reflectómetros del dominio temporal (TDR, Time-Domain Reflectometer), envían pulsos como los de
un radar a través de los cables para localizar cortes, cortocircuitos o imperfecciones. El rendimiento de la red
se ve afectado cuando el cable no está en perfectas condiciones. Si el TDR encuentra un problema, se
analiza el problema y presenta el resultado. Un TDR puede localizar un problema a unos pocos centímetros
del problema. Se suele utilizar bastante durante la instalación de una red nueva. Los TDR también tienen un
gran valor a la hora de diagnosticar, solucionar y mantener una red existente.

La utilización de un TDR necesita de una formación especial, y no todos los departamentos de


mantenimiento lo incluyen en su equipamiento. Sin embargo, los administradores deben conocer las
características de un TDR en el caso de que se produzca un fallo en la red y sea necesario localizar un corte.

Comprobadores de cable avanzados

Los comprobadores de cable avanzados trabajan más allá del nivel físico del modelo de referencia OSI en
el nivel de enlace de datos, nivel de red e incluso de transporte. También pueden mostrar información sobre
el estado del cable físico.

Otras herramientas hardware

Hay otras herramientas hardware que le pueden ser de ayuda en el diagnóstico y resolución de problemas
de una red.

Cables crossover (directos)

Los cables crossover (directos) se utilizan para conectar directamente dos equipos con un cable de
conexión sencillo. Como los cables para enviar y recibir están en el orden inverso respecto a los puntos que
conecta, el cable que envía de un equipo se conecta al puerto para recibir en el otro equipo. Los cables
crossover son útiles en la solución de problemas de conexión de la red. Dos equipos se pueden conectar
directamente, omitiendo la red, lo que hace posible aislar y probar las capacidades de comunicación de un
equipo, en lugar de los de toda la red.
Bucle hardware

Un dispositivo de bucle hardware es un conector de puerto serie que le permite probar las posibilidades de
comunicación del puerto serie de un equipo sin tener que conectarlo a otro equipo u otro periférico. En su
lugar, si utiliza un bucle hardware, los datos se transmiten a una línea y, luego, vuelven como datos
recibidos. Si los datos transmitidos no vuelven, el bucle hardware detecta un error en el hardware.

Generador de tonos y localizador de tonos

Los generadores de tonos son herramientas estándar para los técnicos de todos los campos de la
electricidad. Un generador de tonos se utiliza para aplicar una señal de tono continua o intermitente a un
cable o a un conductor. El generador de tonos se conecta a un extremo del cable en cuestión. En el otro
extremo se coloca un localizador de tonos para comprobar si el cable está bien.

Estas herramientas son apropiadas para medir la continuidad y la polaridad de una línea. Se pueden
utilizar para probar entre otros, par trenzado, conductores sencillos y cable coaxial. A esta pareja se le suele
conocer como «el zorro y el perro».

Osciloscopios

Los osciloscopios son instrumentos electrónicos que miden la cantidad de señal de tensión por unidad de
tiempo y muestran el resultado en un monitor. Si se utiliza con un TDR, un osciloscopio puede mostrar:

• Cortos.
• Ligeras curvaturas en el cable.
• Cortes en el cable.
• Atenuación (pérdida de potencia de la señal).

Herramientas software

Las herramientas software son necesarias para monitorizar tendencias e identificar problemas en el
rendimiento de la red. Algunas de las herramientas más útiles de este tipo son:

Monitores de red

Los monitores de red son herramientas software que analizan el tráfico de la red o de una parte.
Examinan paquetes de datos y recopilan información sobre los tipos de paquetes, errores y tráfico de
paquetes desde y hacia cada equipo.

Los monitores de red son muy útiles para establecer parte de la línea base de la red. Una vez que se ha
establecido la línea base, podrá solucionar los problemas de la red y monitorizar la utilización de la red para
determinar cuándo es el momento de actualizar. Como ejemplo, supongamos que después de la instalación
de una red nueva, determina que el tráfico de la red está utilizando un 40 por 100 de la capacidad estimada.
Al volver a comprobar el tráfico de la red al año siguiente, observa que ahora se está utilizando un 80 por
100. Si ha estado realizando la monitorización a lo largo de ese tiempo, podría ser capaz de predecir la tasa
de incremento de tráfico y predecir cuándo realizar una actualización antes de que se produzca un fallo.

Analizadores de protocolo

Los analizadores de protocolo, también llamados «analizadores de red», realizan análisis del tráfico de la
red en tiempo real utilizando captura de paquetes, decodificación y transmisión de datos. Los
administradores de la red que trabajan con redes de gran tamaño trabajan bastante con el analizador de
protocolos. Éstas son las herramientas que se suelen utilizar para monitorizar la interactividad de la red.

Los analizadores de protocolo miran dentro del paquete para identificar un problema. También pueden
generar estadísticas basándose en el tráfico de la red para ayudarle a crear una imagen de la red,
incluyendo:
• Cableado.
• Software.
• Servidores de archivos.
• Estaciones de trabajo.
• Tarjetas de red.

Los analizadores de protocolo tienen TDR incorporados.

El analizador de protocolos puede proporcionar pistas y detectar problemas de red como:

• Componentes defectuosos en la red.


• Errores de configuración o de conexión.
• Cuellos de botella en la LAN.
• Fluctuaciones en el tráfico.
• Problemas con los protocolos.
• Aplicaciones que pueden entran en conflicto.
• Tráfico no habitual en el servidor.

Los analizadores de protocolo pueden identificar muchos aspectos de la red:

• Identificar los equipos más activos.


• Identificar los equipos que están enviando paquetes con errores. Si un equipo genera
mucho tráfico y está ralentizando la red, el equipo debería cambiarse a otro segmento de la red. Si
un equipo está generando paquetes erróneos, debería retirarse y repararse.
• Ver y filtrar ciertos tipos de paquetes. Esto es útil para distribuir el tráfico. Los analizadores
de protocolo pueden determinar qué tipo de tráfico está pasando por un segmento de red
determinado.
• Conocer el rendimiento de la red para identificar tendencias. El análisis de tendencias
puede ayudar al administrador a planificar y configurar mejor una red.
• Comprobar componentes, conexiones y el cableado generando paquetes de prueba y
comprobando los resultados.
• Identificar condiciones problemáticas configurando parámetros para generar alertas.

Herramientas para monitorización y diagnóstico

Una vez que se haya instalado la red y se encuentre operativa, el administrador tiene que asegurarse de
que funciona correctamente. Para hacer esto, el administrador tendrá que gestionar y controlar cada uno de
los aspectos del rendimiento de la red.

Información general sobre la administración de la red

El ámbito de un programa de administración de la red depende de:

• El tamaño de la red.
• El tamaño y las capacidades de la organización.
• El presupuesto de la organización para la red.
• Las expectativas que tenga puesta la organización en la red.

Las redes pequeñas peer-to-peer que consten de 10 equipos o menos pueden ser monitorizadas
visualmente por una persona. En cambio, una red más grande o WAN puede necesitar un equipo dedicado y
un equipamiento sofisticado para realizar la monitorización apropiada para la red.

Una forma de asegurar que la red no falla es observar ciertos aspectos del comportamiento diario. Una
monitorización consistente de la red permitirá observar que hay ciertas áreas en las que empieza a disminuir
el rendimiento.
Monitores de rendimiento

La mayoría de los sistemas operativos de red actuales incluyen una utilidad de monitorización que
ayudará al administrador a analizar el rendimiento del servidor de la red. Estos monitores pueden ver
operaciones en tiempo real o en diferido para:

• Procesadores.
• Discos duros.
• Memoria.
• Utilización de la memoria.
• Toda la red.

Estos monitores pueden:

• Guardar los datos de rendimiento.


• Enviar una alerta al administrador de la red.
• Iniciar otro programa que pueda devolver al sistema a unos rangos aceptables.

Al monitorizar una red, es importante establecer una línea base. Esta documentación de los valores
normales de operación de la red deberían actualizarse periódicamente a medida que se realizan cambios en
la red. La información de línea base le puede ayudar a identificar y monitorizar cambios dramáticos y sutiles
en el rendimiento de su red.

Monitores de red

Algunos servidores incluyen software para la monitorización de la red. Por ejemplo, Windows NT Server
incluye una herramienta de diagnóstico denominada Monitor de red. Esta herramienta da al administrador la
posibilidad de capturar y analizar secuencias de datos de la red desde y hasta el servidor. Estos datos se
utilizan para diagnosticar problemas potenciales de la red.

Los paquetes de datos de una secuencia de datos constan de la siguiente información:

• La dirección de origen del equipo que envió el mensaje.


• La dirección de destino del equipo que recibió la trama.
• Las cabeceras utilizadas por cada protocolo para enviar la trama.
• Los datos o parte de la información que se envió.

Protocolo básico de gestión de red (SNMP)

El software de administración de la red sigue los estándares creados por los fabricantes del equipamiento
de la red. Uno de estos estándares es el Protocolo básico de gestión de red (SNMP).

En un entorno SNMP, los programas denominados «agentes» se cargan en cada dispositivo administrado.
Los agentes monitorizan el tráfico de la red para recopilar datos estadísticos. Estos datos se guardan en una
base de información de administración (MIB).

Los componentes SNMP incluyen:

• Hub.
• Servidores.
• NIC.
• Routers y bridges.
• Otro equipamiento de red especializado.
Para recopilar información en una forma utilizable, un programa de administración pregunta
periódicamente a estos agentes y descarga la información de sus MIB. Una vez que se recopila esta
información, el programa de administración puede realizar dos tareas más:

• Presentar la información en forma de gráficos y mapas.


• Enviar la información a los programas de base de datos para que sean analizados.

Si alguno de los datos cae dentro de los umbrales definidos por el administrador, el programa de
administración puede avisar al administrador mediante alertas en el equipo o marcando automáticamente un
número de un buscapersonas. A continuación, la organización, puede utilizar el programa de administración
para implementar las modificaciones de la red.

Dónde encontrar ayuda


Si un problema de red se escapa del conocimiento del administrador, es el momento de buscar ayuda.
Puede encontrar asistencia entre sus compañeros, en fuentes de información en CD o en línea. Si conoce
dónde encontrar los mejores recursos de información puede acelerar el proceso de resolución del problema.

Recursos de soporte para redes

Es importante saber cuándo y dónde obtener soporte para resolver problemas de red, así como a la hora
de dar respuesta a otros. Con la proliferación del hardware, software, protocolos y estándares, es imposible
que un administrador de red pueda saberlo todo. Esto se debe fundamentalmente a los constantes cambios
que realizan los fabricantes en los productos. Los recursos sobre soporte de red se pueden encontrar en una
gran variedad de lugares (compañeros, fabricantes y referencias técnicas en CD). Los productos software,
los servicios de soporte en línea, el material impreso y los servicios de soporte telefónicos son otras fuentes
de información adicionales. Obtener acceso a los distintos recursos es la clave para diagnosticar y solucionar
problemas de red de forma satisfactoria.

TechNet

La red de información técnica de Microsoft (TecnNet) proporciona información para dar soporte a todos los
aspectos de las redes, especialmente sobre los productos Microsoft. Con la base de conocimiento de
Microsoft puede encontrar artículos actualizados sobre distintos temas y conocer las últimas versiones,
actualizaciones y revisiones del software.

Boletines electrónicos (BBS, Bulletin Board System)

Existen infinidad de boletines electrónicos (BBS) dedicados a temas técnicos como es el caso de las redes.
Puede acceder al conocimiento de profesionales experimentados en el terreno de las redes enviándoles
preguntas. Fueron muy populares, pero la utilización de los BBS está empezando a ser sustituida por
Internet y la Web.

Grupos de usuarios

Los grupos de usuarios son una fuente de información. En las reuniones de los grupos hay una gran
cantidad de conocimiento. Algunas reuniones se celebran en línea; en otras, los grupos se reúnen en
persona. Los grupos de usuarios tienden a organizarse alrededor a un sistema operativo o a una plataforma
hardware.

Las direcciones locales o direcciones de Internet para grupos de usuarios se pueden encontrar en línea o
listados dentro de los temas del equipo local. La incorporación a un grupo de usuarios local puede ser
beneficioso, y le permite establecer un vínculo con colegas de su área. A través de estos contactos, puede
aprender cómo han resuelto los problemas otras personas, así como a resolver problemas con los que
todavía no se ha encontrado.
Publicaciones

La tecnología de la red está en un estado de evolución continua. En la red hay disponibles muchos libros,
pero quedan anticuados rápidamente. Las publicaciones periódicas de la industria de las redes suelen ser
una mejor fuente de información debido a que proporcionan la información actual disponible. A través de
Internet puede acceder a muchas publicaciones periódicas y recursos relacionados.

Puede ser de utilidad mantener un catálogo de artículos de varias publicaciones periódicas. Corte o copie
de la publicación, asígnele un número identificativo y guárdelo en un bloc de notas. Luego, utilice un
programa de base de datos sencillo, cree un índice para los números identificativos, temas y palabras clave.
La próxima vez que encuentre un problema puede buscar en la base de datos y recuperar el artículo.

Internet: Un recurso de ámbito mundial

Internet es un recurso para la selección de información variada y puede ayudar a encontrar información
útil a los encargados de las redes (administradores de la red o ingenieros de soporte). Internet da a los
usuarios acceso a información que va desde las últimas tecnologías hasta ayuda sobre información de
productos para la solución de problemas.

Introducción general a Internet

Internet es un conjunto de redes, gateways, servidores y equipos conectados utilizando un conjunto de


protocolos de telecomunicaciones. Internet proporciona un acceso mundial a grandes recursos de
información que son fácilmente accesibles desde las universidades, organizaciones gubernamentales,
bibliotecas militares y otras organizaciones públicas y privadas.

Internet evolucionó desde un proyecto del Departamento de Defensa de Estados Unidos, la Advanced
Research Projects Agency Network (ARPANET), que se diseñó como una prueba para las redes de
intercambio de paquetes. El protocolo que se utilizaba para ARPANET era TCP/IP, que se sigue utilizando hoy
en día en Internet.

Servicios Internet

Hoy en día, Internet crece a pasos agigantados mediante los servicios que proporciona. Algunos de los
servicios más conocidos disponibles actualmente en la red son:

• World Wide Web.


• Servidores de protocolo de transferencia de archivos (FTP).
• Correo electrónico.
• Noticias.
• Telnet.

World Wide Web

World Wide Web (o la Web) contiene un almacén tremendo de documentos hipertexto escritos utilizando
el Lenguaje de marcas de hipertexto (HTML), el Lenguaje de marcas extensible (XML) y el Lenguaje de
marcas estándar generalizado (SGML), entre otros. El hipertexto es un método para la presentación de
texto, imágenes, sonido y vídeos que están vinculados y relacionados entre sí. El formato hipertexto permite
al usuario navegar por los temas en cualquier orden. Las herramientas y los protocolos de Internet le ayudan
a localizar y transportar recursos entre equipos.

La mayoría de los fabricantes actuales de componentes de red mantienen sitios web. Aunque la función
principal de estos sitios es la de promover la venta, la mayoría contienen enlaces a varios niveles de soporte
técnico. Por lo menos, un buen sitio web debe tener:

• FAQ (preguntas y respuestas más comunes).


• Información técnica actualizada sobre sus productos.
• Controladores software actualizados (si los utilizan sus productos).
• Direcciones de correo electrónico a las que pueden escribir los usuarios para obtener
respuestas a sus preguntas.

Algunos de los mejores sitios contienen una base de conocimiento completa y que permite la búsqueda.
Dentro de esta base de datos hay información técnica sobre productos actuales y anteriores.

Familiarizarse con los sitios Web de los fabricantes de red puede aumentar sus recursos para el
mantenimiento, actualización y diagnóstico de problemas de la red.

Sistema de nombres de dominio (DNS)

Cada equipo en Internet tiene una dirección IP única. La dirección IP son cuatro conjuntos de números
separados por puntos (como 198.46.8.34).

Como estas cadenas de números son difíciles de recordar y difíciles de escribir correctamente, se creó el
sistema de nombres de dominio. Los nombres de dominio permiten la asignación de nombres cortos a
direcciones IP para describir dónde está el equipo. En el ejemplo, http:/www.microsoft.com, el nombre del
dominio es www.microsoft.com. Un sitio web con un nombre fácil de recordar recibirá más llamadas que un
sitio con un nombre difícil. Los nombres de los dominios pueden representar la identidad de la empresa,
como es el caso de Amazon.com, o ser parte de él, como en el caso de cnn.com.

En Microsoft Windows NT Server los archivos HOSTS y LMHOSTS son archivos de configuración
responsables de la resolución de nombres. El archivo HOSTS resuelve los nombres de archivo
correspondientes a direcciones IP, y el archivo LMHOSTS hace corresponder los nombres NetBIOS a las
direcciones IP. Se trata de dos archivos ASCII que pueden editarse con el bloc de notas de Microsoft o con
cualquier editor de texto.

Los tres últimos caracteres del DNS o dirección UNC indican el tipo de dominio. Ejemplos de tipos de
dominios habituales en Estados Unidos son:

• Organizaciones comerciales: .com


• Instituciones educativas: .edu
• Organizaciones gubernamentales (excepto las militares): .gov
• Organizaciones militares: .mil
• Proveedores de servicio Internet: .net
• Organizaciones (como grupos sin ánimo de lucro): .org

Ejemplos de nombres de dominio internacionales son los siguientes:

• España: .es
• Francia: .fr
• Reino Unido: .uk
• Estados Unidos: .us

Nombres Internet

En Internet, cada recurso tiene su propio identificador de localización o Localizador universal de recursos
(URL). Los URL especifican el servidor así como el método de acceso y la localización.

Un URL consta de varias partes. La versión más sencilla contiene:

• El protocolo que hay que utilizar.


• Un punto.
• La dirección de un recurso.
La dirección comienza con dos barras inclinadas. Esta utilización de barras es muy similar al convenio del
formato para la denominación universal (UNC). La dirección siguiente es la entrada para acceder al servidor
web de Microsoft. «http:» indica el protocolo que se utiliza. El resto de la entrada, //www.microsoft.com, es
la dirección del equipo.

http://www.microsoft.com

La entrada siguiente muestra cómo acceder al servidor FTP de Microsoft. En este caso, está utilizando el
protocolo FTP.

ftp://ftp.microsoft.com

Protocolo de transferencia de archivos (FTP)

El protocolo que más se suele utilizar para enviar archivos entre equipos es el Protocolo de transferencia
de archivos (FTP). El soporte FTP es un método para el soporte de redes remotas. Los servidores FTP pueden
proporcionar grandes cantidades de información guardada en archivos. No se puede acceder directamente a
los datos de estos archivos; en su lugar, hay que transferir el archivo completo desde el servidor FTP al
equipo local. Este programa para la transferencia de archivos es para entornos TCP/IP y está implementado
en el nivel de aplicación del modelo OSI.

FTP permite la transferencia de archivos de texto y binarios.

Microsoft Windows NT, Windows 95 y 98 y Windows 2000 incluyen el tradicional cliente FTP en modo
texto. Ésta es una de las utilidades que se copian en el sistema cuando se instala el conjunto de protocolos
TCP/IP. Además, la mayoría de los exploradores de Internet como Opera, Netscape y Microsoft Internet
Explorer permiten FTP y lo utilizan para la transferencia de archivos.

Cuando busca descargar archivos de los sitios web de los fabricantes suelen llevarle a sus sitios FTP. La
razón se debe a que FTP es mucho más rápido y mejor para la transferencia de archivos y mantiene su sitio
web abierto a otros usuarios.

Correo electrónico (e-mail)

Actualmente el correo electrónico (e-mail), el método para enviar y recibir mensajes electrónicos es la
actividad más popular de Internet. El correo electrónico es la base de muchos servicios comerciales en línea,
y para muchas personas, la principal razón para introducirse en Internet o suscribirse a un servicio en línea.

Para enviar un correo electrónico, primero tiene que conocer la dirección de correo electrónico de destino.
Estas direcciones están compuestas de la identificación del usuario, seguida del signo @ y, a continuación, la
localización del equipo de destino. Por ejemplo, la dirección de correo electrónico del presidente de los
Estados Unidos es president@whitehouse.gov. Las tres últimas letras indican que esta localización se trata
de un dominio gubernamental en Internet.

Al acceder a Internet a través de un proveedor de servicio local o uno de los servicios en línea
comerciales, puede intercambiar correo electrónico sin pagar el gasto de una llamada de teléfono a larga
distancia. El correo electrónico tiene la ventaja de permitirle acceder a los mensajes que le interesen.
Además puede enviar a la vez un mensaje idéntico a varios destinatarios.

Noticias

El Protocolo de transferencia de noticias en la red (SNMP) es un protocolo estándar en Internet definido


para la distribución, búsqueda, recuperación y envío de noticias. Las noticias (USENET) son un conocido
ejemplo de utilización de TNP. Ofrece boletines, chat, y noticias. Las noticias son un sistema masivo con
unas 5.000 conferencias, denominadas grupos de noticias, las 24 horas del día, los 365 días del año. Para
acceder a estos grupos de noticias, descargue un programa especial de Internet que le permite participar en
cualquier grupo de noticias que desee. La mayoría de los exploradores comerciales, incluyendo a Microsoft
Internet Explorer, tienen incorporada esta característica. Debe «suscribirse» a los grupos de noticias que le
interesen y comunicarse a través de un sistema de mensajes similar al correo electrónico. La diferencia entre
las noticias y el correo electrónico es que en las noticias, las conversaciones se realizan en un foro público
denominado grupo de noticias.

Puede ver un diálogo sin participar; esto se denomina «esconderse» (lurking) y se recomienda a los
noveles. Para entrar en una conversación, envíe un artículo al grupo de noticias y ya forma parte del foro. Al
igual que el correo electrónico, las noticias suelen ser un método de comunicación informal con contenidos
poco destilados. Las noticias funcionan a una velocidad muy alta, con lo que los envíos aparecen rápida y
continuamente.

Los administradores del grupo establecen la cantidad de tiempo en el que se puede acceder a los
mensajes antes de ser eliminados del sistema. La mayoría no están más de una semana.

Los grupos de discusión y chats son excelentes fuentes de información y de asistencia sobre temas
técnicos.

Telnet

Telnet fue uno de los primeros protocolos que se desarrollaron para Internet y se pueden utilizar para
actuar como un terminal remoto a un host de Internet. Cuando se conecta a un host de Internet, su equipo
actúa como si su teclado estuviese conectado al equipo remoto. Puede ejecutar programas en un equipo que
se encuentre en otra parte del mundo, tal y como si estuviese allí.

Este sistema terminal/host evolucionó a partir de los sistemas de modo texto de UNIX de los principios de
Internet. Microsoft Windows 95 y 98, Windows NT y Windows 2000 instalan un programa Telnet como parte
de las utilidades TCP/IP. Este programa le permite actuar como un terminal VT-52 o VT-100 de un sistema
accesible a través de TCP/IP, incluyendo a los equipos accesibles a través de Internet.

Sitios Internet

Muchas compañías ofrecen varios tipos de soporte a través de sitios Internet. Por ejemplo, Microsoft
mantiene un servidor Internet que reconoce FTP. El servidor FTP contiene información sobre productos,
controladores y otras características de interés para los administradores o técnicos de una red.

Un administrador puede acceder a estos sitios para encontrar ayuda cuando tenga problemas con la red.
Estos servicios incluyen servicios que suelen proporcionar información que le ayudará a resolver su problema
de red. Estos servicios de suscripción al soporte están disponibles en distintas compañías, como es el caso
de Microsoft.

Localización de recursos

Hoy en día, los proveedores de productos de red tienen sitios web que proporcionan una fuente
importante de recursos para el diagnóstico y resolución de problemas. Si no conoce el URL de su proveedor,
pruebe con nombrevendedor.com. Si no tiene éxito, utilice una herramienta de búsqueda para buscar el
nombre de la compañía. Asegúrese de prestar atención a los resultados; la información que busca puede que
no esté en la primera página de resultados. Si su búsqueda tiene cientos o miles de resultados, intente
mejorar la búsqueda. La mayoría de los sitios tienen instrucciones de cómo restringir su búsqueda. Por
último, si no obtiene los resultados que está buscando, utilice una herramienta de búsqueda distinta.

La localización de recursos en Internet es posible debido a que cada recurso de Internet tiene una
dirección. Los programas conocidos como exploradores utilizan estas direcciones de recursos y las
herramientas de búsqueda para ayudar a encontrar la información sobre un tema específico.

Exploradores

Para explorar por la Web necesita una interfaz gráfica denominada explorador web. Algunos exploradores
web conocidos son Mosaic, Netscape y Microsoft Internet Explorer. Una vez que tenga su explorador y una
conexión Internet, el acceso a Internet es casi inmediato. Debido a la gran cantidad de información que hay
disponible en los sitios, han proliferado los sitios de búsqueda para ayudar a los usuarios a acceder a la gran
cantidad de información que continúa apareciendo en Internet. Para acceder a estos sitios hay que conocer
su URL.

Realización de una conexión a Internet

Para acceder a los servidores de Internet, su equipo tiene que estar conectado a la WAN Internet.

Hay dos forma básicas de conectarse físicamente a Internet. La primera es mediante líneas telefónicas.
Éste es el método más utilizado. El segundo método para conectarse a Internet es mediante una conexión
ISDN.

Llamada

Hay varios tipos de cuentas de llamada que ofrecen distintas posibilidades, dependiendo de los protocolos
que se utilicen. Todas estas conexiones requieren el Protocolo Internet, y por tanto, son cuentas IP. Hay tres
tipos de cuentas IP: Protocolo punto a punto (PPP), Protocolo Internet para línea serie (SLIP) y CSLIP, que
es una versión comprimida de SLIP. PPP es la alternativa que se está imponiendo debido a que es más
rápida y más fiable que el resto de los tipos de cuentas IP. Pero PPP también es más complejo, por lo que
muchos equipos sólo tienen soporte incorporado para SLIP. Se están desarrollando programas
complementarios para permitir que la mayoría de las plataformas permitan cuentas PPP. Además de la
mayor flexibilidad de PPP, también ofrece una reserva dinámica de direcciones IP similar al Protocolo
dinámico de configuración de hosts (DHCP), que facilita la conexión a un servicio evitando tener que
especificar una dirección IP válida. Con una cuenta SLIP, se suele utilizar un guión automatizado para hacer
que la conexión sea aún más automática.

Con SLIP y PPP, el proveedor le da una dirección IP de Internet temporal y puede ejecutar cualquier
programa WinSock (un programa escrito para seguir las especificaciones de los sockets de Windows) en
Internet. Esto incluye exploradores web gráficos como Mosaic, Netscape y Microsoft Internet Explorer.

Los servicios en línea comerciales, como Microsoft Network y American Online, a veces ofrecen un método
de acceso WinSock/PPP disponible como parte de su servicio o como un servicio adicional mediante una
cuota.

RDSI

La red digital de servicios integrados (RDSI), es un servicio de telecomunicaciones que conecta redes
mediante líneas digitales utilizando un adaptador terminal. RDSI proporciona una conexión más rápida y
puede ser más económica que el servicio telefónico convencional si está disponible en su zona. Ya se tiende
a utilizar tarjetas RDSI diseñadas para soportar conexiones RDSI en los equipos personales.

Consideraciones

Teóricamente, ambos métodos, llamada telefónica convencional y RDSI, pueden conectar a Internet una o
varias cuentas de usuario. Probablemente, las cuentas telefónicas convencionales son las más apropiadas
para usuarios individuales, pero RDSI proporciona una solución más económica (donde esté disponible) para
LAN, en la que se conectan varios usuarios a Internet.

Si está conectado a Internet directamente o está conectado a un proveedor de servicio, básicamente los
equipos de Internet forman parte de su WAN, lo que quiere decir que puede acceder a ellas directamente.
Algo que tiene que tener en cuenta es que usted también está accesible, lo que puede producir problemas de
seguridad. Por esta razón, es normal que las organizaciones utilicen una conexión directa para definir una
máquina especial, denominada agente proxy, para que actúe como gateway entre su red local e Internet. El
agente proxy filtra las peticiones a través del gateway y dificulta qué peticiones no autorizadas accedan a la
red local.

Potrebbero piacerti anche