Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Se puede decir entonces de forma muy general que las redes de computadoras
están formadas por dispositivos, medios, reglas o protocolos, topologías y
servicios.
“Está constituido por los enlaces que interconectan los diferentes equipos y a través
de ellos se transporta información desde un punto a otro de la propia red. De
acuerdo a su estructura física los medios de transmisión se clasifican en
alámbricos, ópticos y electromagnéticos.” 17
a) Medios alámbricos: Los medios alámbricos son los que están constituidos
por cables los cuales poseen un elemento conductor por donde viajan
impulsos eléctricos con el objetivo de comunicar dos o más dispositivos. El
medio alámbrico por excelencia es el cable UTP o par trenzado.
b) Medios electromagnéticos: Los medios electromagnéticos basan su
comunicación a través de ondas electromagnéticas generadas por un
transmisor que viajan por el aire y son interceptadas por un receptor.
La principal ventaja que poseen es que no hace falta cables para generar
comunicación entre diferentes puntos, pero esto a la vez es una desventaja
porque son muy propensas a sufrir pérdidas de rendimiento por diferentes
factores ambiental, como un edifico, temperatura, humedad, etc.
c) Medios ópticos: Los medios ópticos realizan la comunicación por medio de
un haz de luz que viaja por medio de un cable comúnmente de vidrio o
plástico.
Estos medios tienen como principales ventajas sobre los alámbricos y
electromagnéticos que no presentan problemas de interferencia, permiten
mayores distancias de interconexión entre diferentes dispositivos sin la
necesidad de regenerar la señal y además mejoran considerablemente la
tasa de transferencia de datos. Pero tienen como desventaja de que son muy
costosos y frágiles.
Al momento de elegir el medio de transmisión de datos debemos tener en cuenta
varios factores que definirán nuestra elección, algunos factores a tener en cuenta
son:
Tipo de ambiente.
Tipo de equipo a conectar.
Tipo de aplicación.
Capacidad económica (relación costo/beneficio). 104
“La topología de una red es el arreglo físico o lógico en el cual los dispositivos o
nodos de una red (computadoras, impresoras, servidores, hubs, switches,
enrutadores, etc.) se interconectan entre sí sobre un medio de comunicación.” 102
Una topología, especifica la configuración a nivel físico y lógico, por tal motivo se
distinguen dos tipos, que son los siguientes:
Existen múltiples topologías de red básicas (bus, estrella, anillo y malla), y/o
híbridas que combinan diferentes tipos de topología antes nombradas en una
misma red.
Topología Lógica: describe la forma en que los hosts se comunican a través del
medio. 102
Existen dos tipos principales de topología, que son los siguientes:
b) Topología Broadcast: En esta forma cada host envía sus datos o mensajes
hacia toda la red. No existe una orden que indique cuando un host puede
utilizar la red, si el canal está libre puede hacer uso. 102
Son los programas que se ejecutan en los dispositivos conectados a la red y que
proporciona información en respuesta a una solicitud. 105
Algunos ejemplos son las páginas web, telefonía, correo electrónico, entre otros.
a) Redes de área Personal (Personal Area Network, PAN): “Es una red de
computadoras usada para la comunicación entre dispositivos de la
computadora cerca de una persona.” 19
b) Redes de área Local (Local Area Network, LAN): “Son redes de propiedad
privada que se encuentran en un solo edificio o en un campus de unos pocos
kilómetros.” 20
c) Redes de área Metropolitana (Metropolitan Area Network, MAN): Es una
red de alta velocidad que da cobertura en un área geográfica amplia. El área
que cubre esta entre los 10 km y los 1000 km, es decir, no conecta dos
ciudades diferentes.
d) Redes de área Ampliada (Wide Area Network, WAN): Una red de área
amplia WAN), abarca una gran área geográfica, con frecuencia un país o un
continente. Contiene un conjunto de máquinas diseñado para programas (es
decir, aplicaciones) de usuario. Seguiremos el uso tradicional y llamaremos
hosts a estas máquinas. Los hosts están conectados por una subred de
comunicación, o simplemente subred, para abreviar. Los clientes son
quienes poseen a los hosts (es decir, las computadoras personales de los
usuarios), mientras que, por lo general, las compañías telefónicas o los
proveedores de servicios de Internet poseen y operan la subred de
comunicación. La función de una subred es llevar mensajes de un host a
otro, como lo hace el sistema telefónico con las palabras del que habla al
que escucha. La separación de los aspectos de la comunicación pura de la
red (la subred) de los aspectos de la aplicación (los hosts), simplifica en gran
medida todo el diseño de la red. 21
1.4 Historia
Las redes de datos como hoy las conocemos, surgen de la necesidad de contar
con una red que de una u otra forma fuera resistente ante amenazas debido a que
las mismas fueron diseñadas en los años 50 en afinidad con el problema de la
época que era la guerra fría, donde era necesario contar con una red que sea
resistente ante amenazas, en el sentido de mantener los sistemas comunicados.
Debido a las características de los medios de comunicación que existían en ese
periodo de tiempo, preocupaba más las interrupciones de comunicación entre los
sistemas que la propia seguridad de los datos, por muy sensibles que fueran. El
objetivo era establecer una comunicación y que la misma sea redundante para
paliar los fallos (cuantiosos) de caídas de los elementos de los medios de
interconexión con los cuales se contaba en esos tiempos. Por tal motivo en sus
inicios, las redes fueron diseñadas con un único objetivo que era comunicar, no
tenían como un objetivo principal la seguridad si no que se centraban pura y
específicamente en la funcionalidad, que la comunicación exista era la clave. El
siguiente factor era la usabilidad. Una red debe cumplir un propósito y hacer que la
misma fuera implementable y el resto vendría después.
Esa necesidad de conectividad, condiciona en gran medida la comunicación como
se entiende hoy. Con el nacimiento de las computadoras nace también la necesidad
de que se comuniquen. La prioridad se basaba en superar las trabas físicas que
imponen las leyes de la naturaleza, es decir, que dos o más computadoras puedan
comunicarse, ese era el fin, no había otra cosa por la cual preocuparse. Como dice
el autor Juan Luis García Rambla “Los modelos de comunicación fueron creados
por caballeros y para caballeros.”, es decir que se basaban exclusivamente en la
confianza no había necesidad de proteger la información, solo de comunicar.
Una de las primeras grandes redes de comunicación que nació bajo esta idea fue
ARPANET creada por encargo del Departamento de Defensa de los Estados
Unidos (DOD) con el objetivo de conectar los múltiples sistemas informático de las
organizaciones estadounidenses, cuya base de funcionalidad eran:
“Implementar un sistema de comunicación descentralizado donde pudieran
existir múltiples caminos entre dos puntos”.
“La segmentación de los mensajes en fracciones que pudieran seguir
caminos diferentes”.
La capacidad más importante que tendría esta red es la de dar respuesta a sus
propios fallos de modo que la interrupción de uno de sus segmentos no debía
provocar en ninguna circunstancia la caída del sistema. La misma consistiría en
una serie de elementos de comunicación que conectaran los grandes sistemas
informáticos de diferentes organizaciones.
A la par que se desarrollaba esta gran red era necesario comunicar los sistemas
dentro de la organización y esta tarea era realizada por grupos de investigación de
diferentes universidades. En un principio se intentó realizar esta comunicación con
los medios existentes en la época que era la radio, encontrándose con el problema
de cómo establecer la comunicación de dos o más posibles participantes donde
todos actúan como emisores y receptores. En una comunicación por voz entre dos
participantes es fácil de gestionar, solo se necesita un protocolo y una toma de
decisión para hablar, lo que lo hace muy sencillo, pero cuando interviene un tercer
elemento la comunicación se complejiza debido a que, si dos emiten a la vez en
una señal de radio no puede existir comunicación, se produce un fallo consecuencia
de la colisión de la señal.
La universidad de Hawái propuso un proyecto conocido como ALOHANET la cual
daba solución al problema de colisión. Dicha solución basaba la comunicación en
la confiabilidad y cortesía, hablaba quien quería y el resto esperaba hasta la
finalización de su comunicación. En el caso de que varios participantes
comunicarán al mismo tiempo, generando una colisión en la comunicación, se
daban por enterados de dicho problema iniciando, nuevamente con un valor
temporal aleatorio calculado por cada sistema para evitar una nueva colisión. Este
algoritmo es conocido en la actualidad como CSMA-CD (del inglés Carrier Sense
Multiple Access with Collision Detection) o, en español, acceso múltiple con
escucha de portadora y detección de colisiones (Figura 2).
En un principio la red de una organización estaba conformada por una red de cable
y un número limitados de equipos formando lo que se conocía como una red en
modo BUS. Cada equipo se conectaba a un único canal de comunicación
denominado BUS, Troncal o Backbone permitiendo la comunicación entre sí. Su
arquitectura era muy simple. La señal era remitida por una estación a las dos
direcciones factibles y esta sería recogida por el resto de equipos de tal forma que
fuera procesada correctamente. Su simplicidad permitía que el crecimiento de la
red sea factible a un costo mínimo, pero a su vez el crecimiento de la misma
aumentaba el tiempo que se requería para una comunicación completa
aumentando también la probabilidad de colisiones, además existía un problema
físico que no podía evitarse: la pérdida de intensidad de la señal. Cuanto más
extenso es el cable que conecta un equipo con otro más débil es el impulso eléctrico
que va a recibir el receptor y si esté cable llegase a tener un problema en un área
puntual de la red dejaría a la misma completamente sin comunicación.
La solución a este problema la dieron los concentradores de señales HUB.
Los HUB eliminaban la figura del canal único de comunicación ofrecido por el cable
interponiéndose entre las conexiones de los diferentes dispositivos. Digamos que
se trata de un punto central de conexión en una red. Todos los dispositivos que
querían pertenecer a una red debían conectarse a un HUB permitiendo de esta
forma eliminar el vector principal del problema, si uno de los cables que enlazan el
equipo y el concentrador presenta un problema, este queda aislado, pero no afecta
negativamente al resto del sistema que quisiera comunicarse. Además, estos
dispositivos hacían también funciones de repetidor permitiendo amplificar la señal
evitando de esta forma la pérdida de la señal típica en las redes de bus.
Un switch podía hacer lo mismo que un hab pero con más capacidad a cambio de
circuitería más avanzada lo que implicaba un costo más elevado lo que provocó
que estos dispositivos no entrasen en las organizaciones hasta que se abaratase
al punto de que hoy en día el costo de estos aparatos en comparación con los
clásicos concentradores es prácticamente despreciable, teniendo además en
cuenta el salto tecnológico que se producía.
La aparición de los Switch ofreció algo muy importante: velocidad y caudal, y
colateralmente una relativa sensación de seguridad. El tráfico era dirigido de un
extremo a otro sin que nadie del entorno fuera receptor de dicha comunicación y
por lo tanto existe la “falsa creencia” que con un switch es imposible obtener el
tráfico entre dos dispositivos.