Sei sulla pagina 1di 13

1 Introducción a las redes de datos

1.1 ¿Qué es la comunicación?

“La comunicación es el proceso mediante el cual se transmite información


de una entidad a otra a través de algún medio. Las personas intercambian
ideas mediante diversos métodos de comunicación.” 105

El proceso de la comunicación inicia cuando un mensaje se envía desde de


un punto “X” a un punto “Y” utilizando cualquier medio disponible.

1.2 Elementos del proceso de la comunicación

Los elementos del proceso de la comunicación son aquellos factores que


intervienen en cualquier acto de conversación, ya sea que se produzca entre
personas, dispositivos o animales.
Estos elementos son los siguientes:
1. El emisor: son los encargados de enviar un mensaje.
2. El receptor: es quien recibe e interpreta el mensaje enviado por el emisor.
3. El mensaje: información que se quiere transmitir.
4. El código: es el conjunto de signos y reglas que se emplean para construir
el mensaje y que deben ser conocidos tanto por el emisor como por el
receptor.
5. El canal o medio: es el “camino” por donde viaja el mensaje enviado por el
emisor al receptor.
Figura 1

1.3 Redes de computadoras

Según CM Mansilla: “Una red de computadoras (también llamada red de


ordenadores o red informática) es un conjunto de equipos (computadoras y
dispositivos), conectados por medio de cables, señales, ondas o cualquier otro
método de transporte de datos, para compartir información (archivos), recursos
(discos, impresoras, programas, etc.) y servicios (acceso a una base de datos,
internet, correo electrónico, chat, juegos, etc.). A cada una de las computadoras
conectadas a la red se les denomina nodo.” 14

Tanenbaum, Andrew: define a una red como “Conjunto de computadoras


autónomas interconectadas. Se dice que dos computadoras están interconectadas
si pueden intercambiar información. No es necesario que la conexión se realice
mediante un cable de cobre, también se pueden utilizar las fibras ópticas, las
microondas, los rayos infrarrojos y los satélites de comunicaciones.” 15

Las definiciones antes citadas describen a las redes de computadoras como un


conjunto de ordenadores o nodos que son capaces de comunicarse para realizar
un sin fin de actividades, que van desde compartir una simple carpeta hasta
comunicarse con astronautas en el espacio.

Además, se puede apreciar que existen múltiples enlaces de interconexión de


dispositivos que pueden convivir de manera conjunta para enviar el mensaje desde
un nodo a otro. Estos enlaces se denominan medios de transmisión.
Si bien las definiciones antes mencionadas no nombran a los protocolos como parte
de la red, estos son una parte fundamental de la misma, puesto que estos definen
como se debe realizar la comunicación entre los distintos nodos.

Se puede decir entonces de forma muy general que las redes de computadoras
están formadas por dispositivos, medios, reglas o protocolos, topologías y
servicios.

1.3.1 Elementos de las redes de computadoras

1.3.1.1 Dispositivos de red

Se denomina dispositivos a aquellos componentes que intervienen directa o


indirectamente en el proceso de comunicación que se realiza mediante una red de
datos. Dicho de otra manera, son los encargados de transmitir un mensaje desde
un punto ‘X’ a un punto ‘Y’. 16

Estos dispositivos se clasifican en dos grandes grupos:

a) Hardware de usuario final o dispositivos finales, son aquellos elementos


que constituyen la interfaz entre la red humana y la red de comunicación
subyacente. En esta categoría se engloban a todos los dispositivos que un
usuario conecta a una red como por ejemplo computadoras, celulares,
impresoras, entre otros.
Los dispositivos o hardware de usuario final también se los conoce con el
nombre de host y pueden funcionar sin una red, pero sus capacidades se
encuentran limitadas. 101
Estos dispositivos se conectan a la red a través de una tarjeta de red (por
sus siglas en inglés, NIC), que es un circuito impreso que conecta
físicamente el host a la red. 101
b) Hardware de red o dispositivos intermedios, son aquellos elementos que
proporcionan conectividad entre diferentes redes o host y administran los
flujos de datos.
Estos dispositivos utilizan la dirección de host de destino junto con la
información sobre las conexiones para determinar la ruta que deben tomar
los mensajes a través de la red. 105
En esta categoría se encuentran los distintos dispositivos que permiten que
el hardware de usuario final se pueda conectar a los medios de transmisión.
Algunos dispositivos que forman parte de esta familia son las tarjetas de red,
switch, router wifi, etc.

1.3.1.2 Medio de transmisión

“Está constituido por los enlaces que interconectan los diferentes equipos y a través
de ellos se transporta información desde un punto a otro de la propia red. De
acuerdo a su estructura física los medios de transmisión se clasifican en
alámbricos, ópticos y electromagnéticos.” 17

a) Medios alámbricos: Los medios alámbricos son los que están constituidos
por cables los cuales poseen un elemento conductor por donde viajan
impulsos eléctricos con el objetivo de comunicar dos o más dispositivos. El
medio alámbrico por excelencia es el cable UTP o par trenzado.
b) Medios electromagnéticos: Los medios electromagnéticos basan su
comunicación a través de ondas electromagnéticas generadas por un
transmisor que viajan por el aire y son interceptadas por un receptor.
La principal ventaja que poseen es que no hace falta cables para generar
comunicación entre diferentes puntos, pero esto a la vez es una desventaja
porque son muy propensas a sufrir pérdidas de rendimiento por diferentes
factores ambiental, como un edifico, temperatura, humedad, etc.
c) Medios ópticos: Los medios ópticos realizan la comunicación por medio de
un haz de luz que viaja por medio de un cable comúnmente de vidrio o
plástico.
Estos medios tienen como principales ventajas sobre los alámbricos y
electromagnéticos que no presentan problemas de interferencia, permiten
mayores distancias de interconexión entre diferentes dispositivos sin la
necesidad de regenerar la señal y además mejoran considerablemente la
tasa de transferencia de datos. Pero tienen como desventaja de que son muy
costosos y frágiles.
Al momento de elegir el medio de transmisión de datos debemos tener en cuenta
varios factores que definirán nuestra elección, algunos factores a tener en cuenta
son:
 Tipo de ambiente.
 Tipo de equipo a conectar.
 Tipo de aplicación.
 Capacidad económica (relación costo/beneficio). 104

1.3.1.3 Topología de red

“La topología de una red es el arreglo físico o lógico en el cual los dispositivos o
nodos de una red (computadoras, impresoras, servidores, hubs, switches,
enrutadores, etc.) se interconectan entre sí sobre un medio de comunicación.” 102

Una topología, especifica la configuración a nivel físico y lógico, por tal motivo se
distinguen dos tipos, que son los siguientes:

Topología Física: Describe la disposición real de los medios y los dispositivos de


una red.

Existen múltiples topologías de red básicas (bus, estrella, anillo y malla), y/o
híbridas que combinan diferentes tipos de topología antes nombradas en una
misma red.

d) Topología de Bus: Todas las estaciones de trabajo se conectan a un medio


principal, generalmente llamado backbone, que es el encargado de llevar los
mensajes de una estación a otra.
e) Topología de Estrella: Todas las estaciones de trabajo se conectan
directamente a un punto central o concentrador (por lo general un switch o
hub) que recibe los mensajes de las diferentes estaciones y los reenvía a
sus respectivos destinatarios.
f) Topología de anillo: Conecta los dispositivos de red uno tras otro sobre el
cable en un círculo físico.
La información es retransmitida por los diferentes dispositivos en una
dirección determina hasta que llega al destinatario correspondiente.
a) Topología de malla: En este esquema existen conexiones redundantes
entre los diferentes hosts y se puede presentar en forma completa o parcial.
En la forma completa todas las estaciones de trabajo se conectan
directamente con las demás. En cambio, en la parcial sola algunas
estaciones se conectan con todas las demás de forma directa.

Topología Lógica: describe la forma en que los hosts se comunican a través del
medio. 102
Existen dos tipos principales de topología, que son los siguientes:

b) Topología Broadcast: En esta forma cada host envía sus datos o mensajes
hacia toda la red. No existe una orden que indique cuando un host puede
utilizar la red, si el canal está libre puede hacer uso. 102

c) Topología por transmisión de tokens: Aquí a cada host se le va asignando


periódicamente un tiempo de uso del medio. Es decir, un token electrónico
es el encargado de asignar el acceso al medio. Cuando una estación de
trabajo recibe el token, esa estación puede usar el medio. Si la estación no
tiene nada que enviar o su tiempo se venció el token pasa al siguiente
dispositivo y el proceso se vuelve a repetir. 102

1.3.1.4 Protocolo de red

Es un acuerdo entre partes sobre cómo debe llevarse a cabo la comunicación. 18


Un ejemplo es el protocolo de las palomas mensajeras que permite definir la forma
en la que una paloma mensajera lleva información de una ubicación a otra,
definiéndose diferentes aspectos que intervienen en la comunicación como el tipo
de paloma, cifrado del mensaje, tiempo de espera para dar por perdida la paloma,
etc.
Los protocolos controlan todos los aspectos de la comunicación de datos, que
incluye lo siguiente:
 Como se estructurará el mensaje.
 El método de envió que utilizara cada dispositivo.
 El manejo de errores.
 La recuperación ante fallos.
1.3.1.5 Servicios

Son los programas que se ejecutan en los dispositivos conectados a la red y que
proporciona información en respuesta a una solicitud. 105

Algunos ejemplos son las páginas web, telefonía, correo electrónico, entre otros.

1.3.2 Clasificación de las redes

Las redes pueden clasificarse de acuerdo a la tecnología de transmisión y la escala:

1.3.2.1 Según la tecnología de transmisión:

a) En redes de difusión (broadcast), existe un único canal de comunicación


que es compartido por todos los nodos. Cuando un nodo envía un mensaje
este es recibido por todos. Como en el mensaje existe un campo de
dirección, que identifica a quién va enviado el mensaje, los diferentes nodos
comparan la dirección almacenada en el campo con su dirección, si coincide
con su dirección el mensaje es procesado de lo contrario es ignorado.
b) En redes punto a punto, existen numerosas conexiones entre pares
individuales de nodos. Para ir del origen al destino, un paquete puede tener
que visitar una o más máquinas intermedias. A menudo es posible que haya
más de un camino posible por lo que aquí toma importancia la manera de
encontrar las rutas correctas.

1.3.2.2 Según la longitud o escala:

a) Redes de área Personal (Personal Area Network, PAN): “Es una red de
computadoras usada para la comunicación entre dispositivos de la
computadora cerca de una persona.” 19
b) Redes de área Local (Local Area Network, LAN): “Son redes de propiedad
privada que se encuentran en un solo edificio o en un campus de unos pocos
kilómetros.” 20
c) Redes de área Metropolitana (Metropolitan Area Network, MAN): Es una
red de alta velocidad que da cobertura en un área geográfica amplia. El área
que cubre esta entre los 10 km y los 1000 km, es decir, no conecta dos
ciudades diferentes.
d) Redes de área Ampliada (Wide Area Network, WAN): Una red de área
amplia WAN), abarca una gran área geográfica, con frecuencia un país o un
continente. Contiene un conjunto de máquinas diseñado para programas (es
decir, aplicaciones) de usuario. Seguiremos el uso tradicional y llamaremos
hosts a estas máquinas. Los hosts están conectados por una subred de
comunicación, o simplemente subred, para abreviar. Los clientes son
quienes poseen a los hosts (es decir, las computadoras personales de los
usuarios), mientras que, por lo general, las compañías telefónicas o los
proveedores de servicios de Internet poseen y operan la subred de
comunicación. La función de una subred es llevar mensajes de un host a
otro, como lo hace el sistema telefónico con las palabras del que habla al
que escucha. La separación de los aspectos de la comunicación pura de la
red (la subred) de los aspectos de la aplicación (los hosts), simplifica en gran
medida todo el diseño de la red. 21

1.4 Historia

1.4.1 Las redes de datos a través del tiempo

Las redes de datos como hoy las conocemos, surgen de la necesidad de contar
con una red que de una u otra forma fuera resistente ante amenazas debido a que
las mismas fueron diseñadas en los años 50 en afinidad con el problema de la
época que era la guerra fría, donde era necesario contar con una red que sea
resistente ante amenazas, en el sentido de mantener los sistemas comunicados.
Debido a las características de los medios de comunicación que existían en ese
periodo de tiempo, preocupaba más las interrupciones de comunicación entre los
sistemas que la propia seguridad de los datos, por muy sensibles que fueran. El
objetivo era establecer una comunicación y que la misma sea redundante para
paliar los fallos (cuantiosos) de caídas de los elementos de los medios de
interconexión con los cuales se contaba en esos tiempos. Por tal motivo en sus
inicios, las redes fueron diseñadas con un único objetivo que era comunicar, no
tenían como un objetivo principal la seguridad si no que se centraban pura y
específicamente en la funcionalidad, que la comunicación exista era la clave. El
siguiente factor era la usabilidad. Una red debe cumplir un propósito y hacer que la
misma fuera implementable y el resto vendría después.
Esa necesidad de conectividad, condiciona en gran medida la comunicación como
se entiende hoy. Con el nacimiento de las computadoras nace también la necesidad
de que se comuniquen. La prioridad se basaba en superar las trabas físicas que
imponen las leyes de la naturaleza, es decir, que dos o más computadoras puedan
comunicarse, ese era el fin, no había otra cosa por la cual preocuparse. Como dice
el autor Juan Luis García Rambla “Los modelos de comunicación fueron creados
por caballeros y para caballeros.”, es decir que se basaban exclusivamente en la
confianza no había necesidad de proteger la información, solo de comunicar.
Una de las primeras grandes redes de comunicación que nació bajo esta idea fue
ARPANET creada por encargo del Departamento de Defensa de los Estados
Unidos (DOD) con el objetivo de conectar los múltiples sistemas informático de las
organizaciones estadounidenses, cuya base de funcionalidad eran:
 “Implementar un sistema de comunicación descentralizado donde pudieran
existir múltiples caminos entre dos puntos”.
 “La segmentación de los mensajes en fracciones que pudieran seguir
caminos diferentes”.
La capacidad más importante que tendría esta red es la de dar respuesta a sus
propios fallos de modo que la interrupción de uno de sus segmentos no debía
provocar en ninguna circunstancia la caída del sistema. La misma consistiría en
una serie de elementos de comunicación que conectaran los grandes sistemas
informáticos de diferentes organizaciones.
A la par que se desarrollaba esta gran red era necesario comunicar los sistemas
dentro de la organización y esta tarea era realizada por grupos de investigación de
diferentes universidades. En un principio se intentó realizar esta comunicación con
los medios existentes en la época que era la radio, encontrándose con el problema
de cómo establecer la comunicación de dos o más posibles participantes donde
todos actúan como emisores y receptores. En una comunicación por voz entre dos
participantes es fácil de gestionar, solo se necesita un protocolo y una toma de
decisión para hablar, lo que lo hace muy sencillo, pero cuando interviene un tercer
elemento la comunicación se complejiza debido a que, si dos emiten a la vez en
una señal de radio no puede existir comunicación, se produce un fallo consecuencia
de la colisión de la señal.
La universidad de Hawái propuso un proyecto conocido como ALOHANET la cual
daba solución al problema de colisión. Dicha solución basaba la comunicación en
la confiabilidad y cortesía, hablaba quien quería y el resto esperaba hasta la
finalización de su comunicación. En el caso de que varios participantes
comunicarán al mismo tiempo, generando una colisión en la comunicación, se
daban por enterados de dicho problema iniciando, nuevamente con un valor
temporal aleatorio calculado por cada sistema para evitar una nueva colisión. Este
algoritmo es conocido en la actualidad como CSMA-CD (del inglés Carrier Sense
Multiple Access with Collision Detection) o, en español, acceso múltiple con
escucha de portadora y detección de colisiones (Figura 2).

Como se muestra en la figura 2 la idea base, es estar en modo de escucha y si hay


algo que comunicar esperar a que el medio esté libre de portadora (señal de
comunicación). En el caso de producirse una colisión de la señal, deberá esperar
un "tiempo prudencial aleatorio" para la transmisión nuevamente de la
comunicación.
La red de radios presentaba varios problemas, sistemas aparatosos supeditado a
las condiciones ambientales, fácilmente perturbable y de complicada
implementación, por ende, la solución más óptima fue reemplazar la comunicación
por radio a una por cable manteniendo el ya probado método CSMA-CD dando
como resultado el sistema actualmente conocido como Ethernet, el cual evolucionó
motivados por las necesidades de implementación y mejora.

A la par que se iba desarrollando estos sistemas de comunicación en el nivel físico


también se desarrollaban los protocolos a nivel aplicación tales como FTP(File
Transfer Protocol) O SMTP (Simple Mail Transfer Protocol). Esto daba como
resultado que para establecer una comunicación se necesitaba un doble lemento
para que fuera efectivo:
 Conexión a nivel físico.
 Conexión a nivel lógico.
Ambos desarrollos (físico y lógico) requerían que su funcionamiento pudiera ser
implementado de forma independiente, pero a su vez debían ser compatibles entre
sí. Por lo cual, cuanto más simple pudiera ser todo, más compatibilidad ofrecería.
Debido a que la seguridad tiende a complicar todos los aspectos y en la
comunicación no iba a ser menos, los planteamientos iniciales tenían como
fundamento que todo fuera lo más funcional y factible posible, además urgía la
necesidad de implementación, puesto que ARPANET era una realidad y los
protocolos de interfaces humana también. Se implementó un modelo conocido y
probado en ese entonces conocido como TCP/IP, aunque no fuera el mejor diseño
lógico para la comunicación, dejando aparte teorías de diseño más eficaces. El
paso del tiempo hizo que el modelo ya funcional acabara por imponerse sobre otros
modelos más teóricos y con un diseño más elaborado haciendo que TCP/IP sea el
protocolo de comunicación más utilizado en la actualidad.
TCP/IP ofrecía posibilidades de uso a todos los niveles, redes de área local,
metropolitanas y externas, con una implementación más o menos simple, ya en
pruebas y con una curva de aprendizaje relativamente rápida. Pero a nivel lógico
planteaba las mismas circunstancias que Ethernet, era un sistema basado en la
confianza, donde la seguridad no era la prioridad.

1.4.2 Evolución de los dispositivos de red

En un principio la red de una organización estaba conformada por una red de cable
y un número limitados de equipos formando lo que se conocía como una red en
modo BUS. Cada equipo se conectaba a un único canal de comunicación
denominado BUS, Troncal o Backbone permitiendo la comunicación entre sí. Su
arquitectura era muy simple. La señal era remitida por una estación a las dos
direcciones factibles y esta sería recogida por el resto de equipos de tal forma que
fuera procesada correctamente. Su simplicidad permitía que el crecimiento de la
red sea factible a un costo mínimo, pero a su vez el crecimiento de la misma
aumentaba el tiempo que se requería para una comunicación completa
aumentando también la probabilidad de colisiones, además existía un problema
físico que no podía evitarse: la pérdida de intensidad de la señal. Cuanto más
extenso es el cable que conecta un equipo con otro más débil es el impulso eléctrico
que va a recibir el receptor y si esté cable llegase a tener un problema en un área
puntual de la red dejaría a la misma completamente sin comunicación.
La solución a este problema la dieron los concentradores de señales HUB.
Los HUB eliminaban la figura del canal único de comunicación ofrecido por el cable
interponiéndose entre las conexiones de los diferentes dispositivos. Digamos que
se trata de un punto central de conexión en una red. Todos los dispositivos que
querían pertenecer a una red debían conectarse a un HUB permitiendo de esta
forma eliminar el vector principal del problema, si uno de los cables que enlazan el
equipo y el concentrador presenta un problema, este queda aislado, pero no afecta
negativamente al resto del sistema que quisiera comunicarse. Además, estos
dispositivos hacían también funciones de repetidor permitiendo amplificar la señal
evitando de esta forma la pérdida de la señal típica en las redes de bus.

Sin embargo, cuando se diseñaron estos dispositivos la seguridad no fue un punto


tomado muy en cuenta, lo esencial era conectar más equipos y hacer que la
velocidad se incrementara. La comunicación seguía basándose en la confianza
puesto que la función de este hardware era repetir por todos sus puertos la
información que le llegara, sin aplicar una lógica para el reenvío de dicha
información a una estación concreta, todos recibían los paquetes y cada sistema
asumiría o rechazaría el mismo dando la contestación pertinente, por ende, si
alguien quisiera podría escuchar todo el tráfico que pase por la red.
A medida que la informática iba avanzando, la necesidad de conectar más
equipos ocasionó un nuevo problema que se originó al conectar varios
dispositivos HUB en cascada con el objetivo de tener más dispositivos
comunicados. Debido a que estos replicaban toda la comunicación a través de
sus puertos una única trama podría estar siendo transmitida innecesariamente de
forma continua hacia todos los sistemas aumentando la probabilidad de que se
produjera colisiones o fallos por desbordamiento.
La solución vino dada por un avance tecnológico nuevamente de hardware, a través
de un dispositivo de conmutación conocido como SWITCH, este dispositivo a
diferencia de un HUB dirige el tráfico directamente de un emisor hacia el receptor
no hacia todos los sistemas que están conectados a la red. El hecho que tráfico de
un equipo sea dirigido exclusivamente hacia un sistema, permite múltiples
comunicaciones de forma concurrente minimizando el riesgo de colisiones,
descongestionando el tráfico, además se pueden aislar los elementos
problemáticos con controles, pudiendo limitar así el tráfico de equipos que envían
señales de forma descontrolada.

Un switch podía hacer lo mismo que un hab pero con más capacidad a cambio de
circuitería más avanzada lo que implicaba un costo más elevado lo que provocó
que estos dispositivos no entrasen en las organizaciones hasta que se abaratase
al punto de que hoy en día el costo de estos aparatos en comparación con los
clásicos concentradores es prácticamente despreciable, teniendo además en
cuenta el salto tecnológico que se producía.
La aparición de los Switch ofreció algo muy importante: velocidad y caudal, y
colateralmente una relativa sensación de seguridad. El tráfico era dirigido de un
extremo a otro sin que nadie del entorno fuera receptor de dicha comunicación y
por lo tanto existe la “falsa creencia” que con un switch es imposible obtener el
tráfico entre dos dispositivos.

Potrebbero piacerti anche