Sei sulla pagina 1di 25

1. PROTOCOLO X.

25

El protocolo X.25 es el estándar para redes de paquetes. Dentro de la perspectiva de x.25, una red
opera en gran parte como un sistema telefónico. Una red x.25 se asume como si estuviera formada
por complejos conmutadores de paquetes que tienen la capacidad necesaria para el enrutamiento
de paquetes. Los anfitriones no están comunicados de manera directa a los cables de
comunicación de la red, sino que cada anfitrión se comunica con uno de los conmutadores de
paquetes por medio de una línea de comunicación serial. En cierto sentido la comunicación entre
un anfitrión y un conmutador de paquetes x.25 es una red miniatura que consiste en un enlace
serial. El anfitrión puede seguir un complicado procedimiento para transferir sus paquetes hacia
la red.

La especificación X.25 permite dos tipos de conexiones o circuitos:

• PVC son circuitos virtuales permanentes. Estas conexiones son siempre abiertas, lista para que
los datos se envíen y/o sean recibidos.

• Los SVC son circuitos virtuales conmutados. Estas conexiones deben restablecerse cada vez que
una nueva sesión de intercambio de datos se llevara a cabo, y las conexiones se rompan al final
de la sesión.

Una manera fácil de imaginar que esta distinción es pensar en su teléfono: cada vez que desee
intercambio de datos (por ejemplo, el sonido de su voz), se hace una llamada marcando un
número. Cuando alguien contesta el teléfono en el otro extremo de la línea, se establece la
conexión, y se puede hablar entre sí. Cuando termine de hablar, cuelgue y se rompe la conexión.
Esta es una conexión de SVC.

Imaginemos, por el contrario, que tiene una línea de teléfono especial que va directamente a otro
teléfono y siempre está conectado. No es necesario marcar un número para llegar a la fiesta en el
otro extremo de la línea. Usted solo tiene que levantar el teléfono y hablar, y su mensaje es
recibido inmediatamente en el otro extremo de la conexión. Es un poco como en los viejos
teléfonos de “línea directa” entre los líderes de Rusia y los EE.UU: el teléfono siempre está
“descolgado” y preparado para la comunicación. Esta es una conexión PVC.

Amilsa Valderrey
Responder
2.

Anónimo7 de mayo de 2014, 12:55

PROTOCOLO HTTP:

HTTP traducido al español como, protocolo de transferencia de hipertexto, es el protocolo más


utilizado en Internet tiene la finalidad de transferir los datos a través de Internet

El propósito del protocolo HTTP es permitir la transferencia de archivos principalmente, en


formato HTML. Entre un navegador y un servidor web, localizados mediante una cadena de
caracteres denominada dirección URL.

Este protocolo HTTPS es usado por los entidades bancarias pues la información que manejan es
de suma confidencialidad e importancia y por ello se necesita mantener cifrado el canal de
transferencia.
Un ejemplo de este seria una dirección de página web.

https://e-bdvcpx.banvenez.com/

Que seria la dirección del banco de Venezuela al tratar de iniciar sesión como un usuario.

PROTOCOLO CIFS

Antes llamado Protocolo SMB (Server Message Block) y renombrado por Microsoft a Common
Internet File System (CIFS) en 1998 y añadió más características, que incluyen soporte para
enlaces simbólicos y mayores tamaños de archivo.

Funciona como una capa de aplicación del protocolo de red, se utiliza principalmente para
proporcionar acceso compartido a archivos , impresoras , puertos de serie y comunicaciones
variadas entre los nodos de una red. También proporciona un mecanismo de comunicación de
inter procesos autenticados. Involucra equipos que ejecutan Microsoft Windows .

Ejemplo:

Queremos montar el recurso compartido //w2003/tierramedia en la carpeta local/home/xeon/lan


con las credenciales del usuario pipin perteneciente al dominio amigos.cu. También necesitamos
acceder a los archivos con permisos de lectura/escritura y que el propietario sea el usuario local
mediante el cual hemos iniciado sesión y que en nuestro ejemplo es xeon:

xeon@miwheezy:~$ sudo mount.cifs //w2003.amigos.cu/tierramedia /home/xeon/lan -o


user=pipin,uid=xeon,forceuid

Seamos nuevamente curiosos y listemos la carpeta lan. Ahora el propietario es xeon y el grupo
sigue siendo root. No necesitamos indicarle al mount.cifs la opción rw para tener acceso de
lectura/escritura. Los permisos inherentes a un sistema de archivos UNIX/Linux lo garantizan.
Lo podemos comprobar creando y borrando directorios; modificando archivos existentes.

Jose J. Yépez Sánchez


Responder
3.

Anónimo7 de mayo de 2014, 13:45

NIUSKANNY ROMERO

ATM

ATM es una tecnología orientada a conexión, en contraste con los protocolos de base LAN, que
son sin conexión. Orientado a conexión significa que una conexión necesita ser establecida entre
dos puntos con un protocolo de señalización antes de cualquier transferencia de datos. Una vez
que la conexión está establecida, las celdas ATM se auto-rutean porque cada celda contiene
campos que identifican la conexión de la celda a la cual pertenecen.

Asynchronous Transfer Mode (ATM) es una tecnología de switching basada en unidades de datos
de un tamaño fijo de 53 bytes llamadas celdas. ATM opera en modo orientado a la conexión, esto
significa que cuando dos nodos desean transferir deben primero establecer un canal o conexión
por medio de un protocolo de llamada o señalización. Una vez establecida la conexión, las celdas
de ATM incluyen información que permite identificar la conexión a la cual pertenecen.
En una red ATM las comunicaciones se establecen a través de un conjunto de dispositivos
intermedios llamados switches.

Frame Relay

Frame Relay proporciona la capacidad de comunicación de paquetes de conmutación de datos


que es usada a través de la interfase entre los dispositivos de usuario (por ejemplo, routers,
puentes, máquinas hosts) y equipos de red (por ejemplo, nodos de intercambio). Los dispositivos
de usuario son referidos a menudo como data terminal equipment (DTE), mientras que los equipos
de red son llamados data circuit-terminating equipment (DCE). la red que proporciona la interfase
Frame Relay puede ser o una red pública o una red de equipos privados sirviendo a una sola
empresa.

Como interfase a una red, Frame Relay es del mismo tipo de protocolo que X.25. Sin embargo,
Frame Relay difiere significativamente de X.25 en su funcionalidad y formato. En particular,
Frame Relay es un protocolo más perfeccionado, que proporciona un desarrollo más alto y una
mayor eficiencia.
Responder

4.

allan suarez7 de mayo de 2014, 14:07

Protocolo TCP: es uno de los principales protocolos de la capa de transporte del modelo TCP/IP.
En el nivel de aplicación, posibilita la administración de datos que vienen del nivel más bajo del
modelo, o van hacia él, (es decir, el protocolo IP). Cuando se proporcionan los datos al protocolo
IP, los agrupa en datagramas (cada paquete se trata de forma independiente) TCP es un protocolo
orientado a conexión, es decir, que permite que dos máquinas que están comunicadas controlen
el estado de la transmisión. IP, fijando el campo del protocolo en 6 (para que sepa con anticipación
que el protocolo es TCP).

Protocolo UDP: es un protocolo de la capa de transporte no orientado a la conexión, basicamente


es el IP más un encabezado corto. UDP proporciona la posibilidad de que las aplicaciones envien
de datagramas IP encapsulados sin necesidad de establecer una conexión.

- Allan Suarez
Responder

5.

hugo rojas7 de mayo de 2014, 17:01

El protocolo ARP
El protocolo ARP tiene un papel clave entre los protocolos de capa de Internet relacionados con
el protocolo TCP/IP, ya que permite que se conozca la dirección física de una tarjeta de interfaz
de red correspondiente a una dirección IP. Por eso se llama Protocolo de Resolución de Dirección
(en inglés ARP significa Address Resolution Protocol).
Cada equipo conectado a la red tiene un número de identificación de 48 bits. Éste es un número
único establecido en la fábrica en el momento de fabricación de la tarjeta. Sin embargo, la
comunicación en Internet no utiliza directamente este número (ya que las direcciones de los
equipos deberían cambiarse cada vez que se cambia la tarjeta de interfaz de red), sino que utiliza
una dirección lógica asignada por un organismo: la dirección IP.
Para que las direcciones físicas se puedan conectar con las direcciones lógicas, el protocolo ARP
interroga a los equipos de la red para averiguar sus direcciones físicas y luego crea una tabla de
búsqueda entre las direcciones lógicas y físicas en una memoria caché.
Protocolo RARP
Del modo inverso a ARP el protocolo RARP se utiliza cuando un computador conoce su dirección
MAC pero desconoce su dirección IP. Según el protocolo TCP/IP esto sería un inconveniente
para enviar información a las capas superiores. Lo que se necesita para una interrogación RARP
sea atendida es un servidor RARP en la red. Cabe destacar que tanto el protocolo ARP como
RARP cuentan con una misma estructura.
s un protocolo utilizado para resolver la dirección IP de una dirección hardware dada (como una
dirección Ethernet). La principal limitación era que cada dirección MAC tenía que ser configurada
manualmente en un servidor central y se limitaba sólo a la dirección IP, dejando otros datos como
la máscara de subred, puerta de enlace y demás información que tenían que ser configurados a
mano. Otra desventaja de este protocolo es que utiliza como dirección destino, evidentemente,
una dirección MAC de difusión para llegar al servidor RARP. Sin embargo, una petición de ese
tipo no es reenviada por el router del segmento de subred local fuera de la misma, por lo que este
protocolo, para su correcto funcionamiento, requiere de un servidor RARP en cada subred.

HUGO ROJAS
Responder

6.

RUTMARYS TRUJILLO7 de mayo de 2014, 18:52

Protocolo Token Ring: es una arquitectura de red desarrollada por IBM en los años 1970 con
topología física en anillo y técnica de acceso de paso de testigo, usando un frame de 3 bytes
llamado token que viaja alrededor del anillo. Token Ring se recoge en el estándar IEEE 802.5. En
desuso por la popularización de Ethernet; actualmente no es empleada en diseños de redes. Su
arquitectura lógica es en forma de anillo, mientras que físicamente puede observarse la red de tipo
estrella. Su trabajo consiste en mantener al testigo circulando por el anillo hasta el momento que
una estación quiera transmitir, esta puede hacerlo mientras esté pase por ella; al recibir al testigo
la estación verifica la prioridad del mismo, si resulta mayor o igual que los datos que desea enviar
retendrá el máximo de tiempo que el testigo pueda dura en la estación o hasta no tener mas
información que enviar e inicia la transmisión. a medida que las tramas recorren el anillo van
verificando que alguna de las estaciones sea la dirección destino de no ser así la ignoran.

Protocolo Gigabit Ethernet: también conocida como GigaE, es una ampliación del estándar
Ethernet (concretamente la versión 802.3ab y 802.3z del IEEE) que consigue una capacidad de
transmisión de 1 gigabit por segundo, correspondientes a unos 1000 megabits por segundo de
rendimiento contra unos 100 de Fast Ethernet (También llamado 100BASE-TX). En cuanto a las
dimensiones de red, no hay límites respecto a extensión física o número de nodos. Al igual que
sus predecesores, Gigabit Ethernet soporta diferentes medios físicos, con distintos valores
máximos de distancia. Este protocolo de manera general puede ser usado para conectar
conmutadores entre si, para conectar servidores a concentradores y para conectar estaciones
finales a concentradores. en este mismo orden se basan los administradores de red y si observamos
es de sentido inverso al despliegue de Ethernet convencional.

Rutmarys Trujillo.
Responder
7.

Bethania7 de mayo de 2014, 19:00

FTP (siglas en inglés de File Transfer Protocol, 'Protocolo de Transferencia de Archivos') en


informática, es un protocolo de red para la transferencia de archivos entre sistemas conectados a
una red TCP (Transmission Control Protocol), basado en la arquitectura cliente-servidor. Desde
un equipo cliente se puede conectar a un servidor para descargar archivos desde él o para enviarle
archivos, independientemente del sistema operativo utilizado en cada equipo.

El servicio FTP es ofrecido por la capa de aplicación del modelo de capas de red TCP/IP al
usuario, utilizando normalmente el puerto de red 20 y el 21. Un problema básico de FTP es que
está pensado para ofrecer la máxima velocidad en la conexión, pero no la máxima seguridad, ya
que todo el intercambio de información, desde el login y password del usuario en el servidor hasta
la transferencia de cualquier archivo, se realiza en texto plano sin ningún tipo de cifrado, con lo
que un posible atacante puede capturar este tráfico, acceder al servidor y/o apropiarse de los
archivos transferidos.

SSH (Secure SHell, en español: intérprete de órdenes segura) es el nombre de un protocolo y del
programa que lo implementa, y sirve para acceder a máquinas remotas a través de una red. Permite
manejar por completo la computadora mediante un intérprete de comandos, y también puede
redirigir el tráfico de X para poder ejecutar programas gráficos si tenemos un Servidor X (en
sistemas Unix y Windows) corriendo.

Además de la conexión a otros dispositivos, SSH nos permite copiar datos de forma segura (tanto
archivos sueltos como simular sesiones FTP cifradas), gestionar claves RSA para no escribir
claves al conectar a los dispositivos y pasar los datos de cualquier otra aplicación por un canal
seguro tunelizado mediante SSH.
Responder
8.

Anónimo7 de mayo de 2014, 19:12

NetBIOS
NetBIOS, "Network Basic Input/Output System", es, en sentido estricto, una especificación de
interfaz para acceso a servicios de red, es decir, una capa de software desarrollado para enlazar
un sistema operativo de red con hardware específico. NetBIOS fue originalmente desarrollado
por IBM y Sytek como API/APIS para el software cliente de recursos de una Red de área local
(LAN).

Resumiendo, de forma sencilla, NetBIOS, permite a las aplicaciones 'hablar' con la red. Su
intención es conseguir aislar los programas de aplicación de cualquier tipo de dependencia del
hardware. También evita que los desarrolladores de software tengan que desarrollar rutinas de
recuperación ante errores o de enrutamiento o direccionamiento de mensajes a bajo nivel.
Coloquialmente hablando, NetBIOS hace el 'trabajo sucio'.

NetBIOS provee los servicios de sesión descritos en la capa 5 del modelo OSI. Se encarga de
establecer la sesión y mantener las conexiones. Pero este protocolo debe transportarse entre
máquinas a través de otros protocolos; debido a que por sí mismo no es suficiente para transportar
los datos en redes LAN o WAN, para lo cual debe usar otro mecanismo de transporte (Ej: en redes
LAN protocolo NetBEUI, en redes WAN protocolo TCP/IP). Los protocolos que pueden prestar
el servicio de transporte a NetBIOS son:
• IPC/IPX
• NetBEUI
• TCP/IP
El hecho de tener que ser transportado por otros protocolos se debe a que al operar en la capa 5
de OSI no provee un formato de datos para la transmisión, el cual es provisto por los protocolos
antes mencionados.
NetBIOS permite comunicación orientada a conexión (TCP) o no orientada a conexión (UDP).
Soporta tanto broadcast como multicast, además de 4 tipos de servicios diferentes: Servicios
Generales, Servicio de Nombres, Servicio de Sesión y Servicio de Datagramas.

RPC (Remote Procedure Call)


El Remote Procedure Call (RPC) (del inglés, Llamada a Procedimiento Remoto) es un protocolo
que permite a un programa de ordenador ejecutar código en otra máquina remota sin tener que
preocuparse por las comunicaciones entre ambos. El protocolo es un gran avance sobre los sockets
usados hasta el momento. De esta manera el programador no tenía que estar pendiente de las
comunicaciones, estando éstas encapsuladas dentro de las RPC.

Las RPC son muy utilizadas dentro del paradigma cliente-servidor. Siendo el cliente el que inicia
el proceso solicitando al servidor que ejecute cierto procedimiento o función y enviando éste de
vuelta el resultado de dicha operación al cliente.

Hay distintos tipos de RPC, muchos de ellos estandarizados como pueden ser el RPC de Sun
denominado ONC RPC (RFC 1057), el RPC de OSF denominado DCE/RPC y el Modelo de
Objetos de Componentes Distribuidos de Microsoft DCOM, aunque ninguno de estos es
compatible entre sí. La mayoría de ellos utilizan un lenguaje de descripción de interfaz (IDL) que
define los métodos exportados por el servidor.

Hoy en día se está utilizando el XML como lenguaje para definir el IDL y el HTTP como
protocolo de red, dando lugar a lo que se conoce como servicios web. Ejemplos de éstos pueden
ser SOAP o XML-RPC.
Responder
9.

Anónimo7 de mayo de 2014, 19:14

NetBIOS
NetBIOS, "Network Basic Input/Output System", es, en sentido estricto, una especificación de
interfaz para acceso a servicios de red, es decir, una capa de software desarrollado para enlazar
un sistema operativo de red con hardware específico. NetBIOS fue originalmente desarrollado
por IBM y Sytek como API/APIS para el software cliente de recursos de una Red de área local
(LAN).
Resumiendo, de forma sencilla, NetBIOS, permite a las aplicaciones 'hablar' con la red. Su
intención es conseguir aislar los programas de aplicación de cualquier tipo de dependencia del
hardware. También evita que los desarrolladores de software tengan que desarrollar rutinas de
recuperación ante errores o de enrutamiento o direccionamiento de mensajes a bajo nivel.
Coloquialmente hablando, NetBIOS hace el 'trabajo sucio'.
NetBIOS provee los servicios de sesión descritos en la capa 5 del modelo OSI. Se encarga de
establecer la sesión y mantener las conexiones. Pero este protocolo debe transportarse entre
máquinas a través de otros protocolos; debido a que por sí mismo no es suficiente para transportar
los datos en redes LAN o WAN, para lo cual debe usar otro mecanismo de transporte (Ej: en redes
LAN protocolo NetBEUI, en redes WAN protocolo TCP/IP). Los protocolos que pueden prestar
el servicio de transporte a NetBIOS son:
• IPC/IPX
• NetBEUI
• TCP/IP
El hecho de tener que ser transportado por otros protocolos se debe a que al operar en la capa 5
de OSI no provee un formato de datos para la transmisión, el cual es provisto por los protocolos
antes mencionados.
NetBIOS permite comunicación orientada a conexión (TCP) o no orientada a conexión (UDP).
Soporta tanto broadcast como multicast, además de 4 tipos de servicios diferentes: Servicios
Generales, Servicio de Nombres, Servicio de Sesión y Servicio de Datagramas.
RPC (Remote Procedure Call)
El Remote Procedure Call (RPC) (del inglés, Llamada a Procedimiento Remoto) es un protocolo
que permite a un programa de ordenador ejecutar código en otra máquina remota sin tener que
preocuparse por las comunicaciones entre ambos. El protocolo es un gran avance sobre los sockets
usados hasta el momento. De esta manera el programador no tenía que estar pendiente de las
comunicaciones, estando éstas encapsuladas dentro de las RPC.
Las RPC son muy utilizadas dentro del paradigma cliente-servidor. Siendo el cliente el que inicia
el proceso solicitando al servidor que ejecute cierto procedimiento o función y enviando éste de
vuelta el resultado de dicha operación al cliente.
Hay distintos tipos de RPC, muchos de ellos estandarizados como pueden ser el RPC de Sun
denominado ONC RPC (RFC 1057), el RPC de OSF denominado DCE/RPC y el Modelo de
Objetos de Componentes Distribuidos de Microsoft DCOM, aunque ninguno de estos es
compatible entre sí. La mayoría de ellos utilizan un lenguaje de descripción de interfaz (IDL) que
define los métodos exportados por el servidor.
Hoy en día se está utilizando el XML como lenguaje para definir el IDL y el HTTP como
protocolo de red, dando lugar a lo que se conoce como servicios web. Ejemplos de éstos pueden
ser SOAP o XML-RPC.

Erick Pereira.
Responder
10.

Anónimo7 de mayo de 2014, 19:38

IPV4: es la cuarta versión del protocolo Internet Protocol (IP), y la primera en ser implementada
a gran escala. la ipv4 Es la versión más extendida. Una IP de ese tipo tiene una forma como esta:
212.150.67.158
Suele escribirse así por una cuestión práctica y de facilidad de lectura. Como cuatro números
decimales, que pueden variar cada uno entre 0 y 255, separados por puntos. Los equipos
informáticos trabajan en realidad con bits. 1 bit puede tener sólo dos valores. O cero o uno. Los
bits sirven para definir estados como encendido o apagado, verdadero o falso, más o menos, etc.
Así funcionan internamente los equipos y sus programas.

IPV6:Surgió porque el IPV4 estaba "quedándose corto". Empezaban a acabarse las IPS para
identificar a los miles de millones de equipos y dispositivos de las redes mundiales e Internet.
El IPv6 asigna 128 bits a cada IP en vez de sólo 32 como el IPv4.

Cada número de la IPv4 representa 8 bits. O lo que es lo mismo, 1 byte. Por tanto están formadas
en total por 32 bits o 4 bytes (4 grupos de 8 bits cada uno, 4 x 8=32).
Hay varias formas de escribir una IPv6:
Notación completa
Tiene este aspecto:

2A03:2880:2110:CF01:0ACE:0000:0000:0009
Los valores separados por el símbolo ":" son dos pares de números hexadecimales (por ejemplo,
2A03). Representan a 2 bytes (16 bits).

En total hay 8 grupos de números hexadecimales. Corresponden a los 128 bits de la IPv6 (8 grupos
x 16 bits cada grupo= 128 bits).

Notación abreviada
Elimina los ceros que están al principio de cada grupo. Y representa con ": :" el grupo o grupos
consecutivos formado/s sólo por ceros.

La IPv6 anterior quedaría así:

2A03:2880:2110:CF01:ACE::9

Los ceros del sexto y sétimo grupo se han abreviado como ": :". Y no se escriben los ceros que
estaban al principio del quinto y octavo grupos

Notación mixta
Es la menos habitual. Escribe los últimos 32 bits con el formato del IPv4 y los demás con el del
IPv6. Por ejemplo:

2A03:2880:2110:CF01:0ACE:0000:212.150.67.158
o bien
2A03:2880:2110:CF01:ACE::212.150.67.158

Eliannys Rojas.
Responder
11.

Anónimo7 de mayo de 2014, 19:47

Es importante la seguridad de la informacion mediante una comunicacion, pues el SSL (en


español capa de conexion segura) es un protocolo que brinda esta seguridad mediante una red,
comunmente internet
SSL implica una serie de fases basicas:
•Negociar entre las partes el algoritmo que se usara en la comunicacion
•Intercambio de claves publicas y autenticacion basada en certificado digitales
Cifrado del trafico basado en cifrado simetrico

El protocolo SSL fue desarrollado por Netcape. Se realizo la version 1.0 la cual nunca fue
publicada. Seguidamente realizaron la 2.0 dicha version presentaba una cantidad de fallas lo que
loa llevo a crear la version 3.0 en esta version se hizo un rediseño completo

TLS 1.0 es actualizacion de SSL 3.0 la diferencia entre estos dos protocolos no es tan grande pero
son significativas. Tambien eata la TSL 1.1 que es la actualizacion de TSL 1.0 y asi sucesivamente
la TSL 1.2. Todos los navegadores soportan TSL (chrome, firefox,safari,entre otros)

•El protocolo simple de administracion de red o SNMP, este protocolo pertenece a la capa de
informacion , facilita el intercambion de informacion entre diapositivos de red, le permite a los
administradores aupervisar como esta el funcionamiento de la red, buscar y resolver problemas.

SNMP ha pasado por la version 1,2 y la ultima version #3 la cual posee cambios significativoa
con relacion a las versiones anteriores sobre todo en aspecto de aeguridad, sin embargo no ha sido
totalmente aceptando en la industria

Yudith Marquez
Responder

12.

ronald rosas7 de mayo de 2014, 19:48

RONNIER ROSAS 20853709

El Simple Mail Transfer Protocol (SMTP) (Protocolo para la transferencia simple de correo
electrónico), es un protocolo de red utilizado para el intercambio de mensajes de correo
electrónico entre computadoras u otros dispositivos (PDA, teléfonos móviles, etc.). Fue definido
en el RFC 2821 y es un estándar oficial de Internet.1

El funcionamiento de este protocolo se da en línea, de manera que opera en los servicios de correo
electrónico. Sin embargo, este protocolo posee algunas limitaciones en cuanto a la recepción de
mensajes en el servidor de destino (cola de mensajes recibidos). Como alternativa a esta limitación
se asocia normalmente a este protocolo con otros, como el POP o IMAP, otorgando a SMTP la
tarea específica de enviar correo, y recibirlos empleando los otros protocolos antes mencionados
(POP O IMAP).

Network News Transport Protocol (NNTP) es un protocolo inicialmente creado para la lectura y
publicación de artículos de noticias en Usenet. Su traducción literal al español es "protocolo para
la transferencia de noticias en red".
Responder

13.

Jose Subero8 de mayo de 2014, 8:33

Protocolo (IP)

Internet Protocol (en español 'Protocolo de Internet') o IP es un protocolo de comunicación de


datos digitales clasificado funcionalmente en la Capa de Red según el modelo internacional OSI.
Su función principal es el uso bidireccional en origen o destino de comunicación para transmitir
datos mediante un protocolo no orientado a conexión que transfiere paquetes conmutados a través
de distintas redes físicas previamente enlazadas según la norma OSI de enlace de datos.

Las principales características de este protocolo son:

-Protocolo orientado a no conexión.


-Fragmenta paquetes si es necesario.
-Direccionamiento mediante direcciones lógicas IP de 32 bits.
-Si un paquete no es recibido, este permanecerá en la red durante un tiempo finito.
-Realiza el "mejor esfuerzo" para la distribución de paquetes.
-Tamaño máximo del paquete de 65635 bytes.
-Sólo ser realiza verificación por suma al encabezado del paquete, no a los datos éste que contiene.

La unidad de información intercambiada por IP es denominada datagrama. Tomando como


analogía los marcos intercambiados por una red física los datagramas contienen un encabezado y
un área de datos. IP no especifica el contenido del área de datos, ésta será utilizada arbitrariamente
por el protocolo de transporte.

Protocolo de reserva (RSVP)

El protocolo de reserva de recursos (RSVP o Resource Reservation Protocol), descrito en RFC


2205, es un protocolo de la capa de transporte diseñado para reservar recursos de una red bajo la
arquitectura de servicios integrados (IntServ). "RSVP no es una aplicación de transporte, es más
bien un protocolo de control de internet, como ICMP, IGMP, o protocolos de enrutamiento" -
RFC 2205. RSVP reserva los canales o rutas en redes internet para la transmisión por unidifusión
y multidifusión con escalabilidad y robustez.

RSVP puede ser utilizado tanto por hosts como por routers para pedir o entregar niveles
específicos de calidad de servicio (QoS) para los flujos de datos de las aplicaciones. RSVP define
cómo deben hacer las reservas las aplicaciones y cómo liberar los recursos reservados una vez
que han terminado. Las operaciones RSVP generalmente dan como resultado una reserva de
recursos en cada nodo a lo largo de un camino.

El protocolo de reservación de recursos (RSVP) es un protocolo de control de red que permite


que algunas aplicaciones de Internet o una red local puedan obtener diferentes calidades de
servicio (QoS) para su flujo de datos. Por ello se conoce como un protocolo señalización de QoS,
y posibilita:
Dar a las aplicaciones un modo uniforme para solicitar determinado nivel de QoS encontrar una
forma de garantizar cierto nivel de QoS Proveer autentificación. RSVP es un protocolo que se
desarrolla entre los usuarios y la red, y entre los diferentes nodos (routers) de la red que soportan
este protocolo. Consiste en hacer "reservas" de recursos en dichos nodos para cada flujo de
información de usuario, con la consecuente ocupación de los mismos. Esto requiere, lógicamente,
intercambio de mensajes RSVP entre dichos entes funcionales, así como "mantener" estados de
reserva en cada nodo RSVP. De manera que tanto la solicitud de las reservas, como el
mantenimiento de éstas durante la comunicación, y la posterior cancelación, implican el
intercambio de mensajes de señalización, lo que representa un tráfico considerable cuando de
entornos como Internet se trata

Rafael Figueredo
Responder
14.

Anónimo8 de mayo de 2014, 9:31

ethernet: es un estándar de redes de computadora de área local que se utiliza para la comunicación
de dispositivos el método de acceso al medio con detección de portadora y determinación de
colisión (CSMA/CD), algoritmo que transmite y codifica marcos de datos formateados.

fast ethernet: Fast Ethernet es una extensión del estándar Ethernet actualmente usado en muchas
LAN´s alrededor del mundo. Estas redes operan actualmente a una velocidad de 10 Mbps, y el
estándar es conocido como IEEE 802.3. Hay diferentes tipos de medio donde se ejecuta 802.3,
incluido el par trenzado sin escudo (10BASE-T), coaxial (grueso y delgado) y fibra (10BASE-F).
Como hemos anunciado el estándar Ethernet usa la tecnología conocida como CSMA/CD (carrier
sense multiple acces/colision detection). Este es un método bastante caótico de comunicación que
algunas veces es referido como "Escuchar antes de transmitir", que significa que cuando una
estación de trabajo desea enviar un paquete de datos, esta escucha en la red para ver si esta
ocupada, si no lo esta, transmite el paquete. Si exactamente al mismo tiempo otras estaciones
transmiten un paquete, se detecta una colisión, y todas las estaciones que están transmitiendo
esperan un tiempo aleatorio para intentar retransmitir. En una red extremadamente ocupada, estas
colisiones pueden ocurrió muy a menudo, provocando la degradación de la eficiencia de la red.

Cariannys Gascon.
Responder
15.

Anónimo8 de mayo de 2014, 13:15

OMARLIS CAPRIATA C.I 20854086

INTERNET MESSAGE ACCESS PROTOCOL


(IMAP, Protocolo de acceso a mensajes de internet).
Es un protocolo de aplicación que permite el acceso a mensajes almacenados en un servidor de
Internet. Mediante IMAP se puede tener acceso al correo electrónico desde cualquier equipo que
tenga una conexión a Internet.
IMAP fue diseñado como una moderna alternativa a POP por Mark Crispin en el año 1986.
Fundamentalmente, los dos protocolos les permiten a los clientes de correo acceder a los mensajes
almacenados en un servidor de correo.
Ya sea empleando POP3 o IMAP4 para obtener los mensajes, los clientes utilizan SMTP para
enviar mensajes. Los clientes de correo electrónico son comúnmente denominados clientes POP
o IMAP, pero en ambos casos se utiliza SMTP.
Versiones del IMAP
IMAP da acceso al correo electrónico de manera que los clientes pueden guardarse copias locales
de los mensajes (consideradas como una caché temporal). Además, presenta múltiples versiones,
entre las cuales se encuentran: IMAP2, IMAP3, IMAP2bis e IMAP4.

IMAP2
La versión IMAP2 fue la primera versión de IMAP distribuida públicamente y fue definida en el
RFC 1064 en 1988. Más tarde, fue actualizado por el RFC 1176, la misma buscó hacerle frente a
la administración de correo electrónico centralizado que carecía de POP2. En ella se introdujeron
comandos y respuestas de etiquetado.

IMAP3
IMAP3 es una versión rara del IMAP, fue específicamente una contrapuesta del RFC 1176, la
cual fue definida por el RFC 1203 en los años 1991 pero la misma no fue aceptada por el mercado.

IMAP2bis
El protocolo de oficina de correo deja gran parte de la gestión a un usuario que permanece sujeto
a una sola máquina o computadora, si el equipo llega a fallar, se pierden todos sus datos y no se
pueden recuperar los correo electrónicos, debido a esto y con la llegada del MIME se toma la
decisión de ampliar IMAP2 para apoyar el MIME y agregar funciones para las administración de
buzones. Entonces IMAP2bis considerado una revisión experimental añade estas funcionalidades
de crear, eliminar y guardar como borradores los mensajes en los respectivos buzones.

IMAP4
El IMAP decidió realizar un cambio en el nombre de IMAP2bis para evitar confusiones con la
propuesta dada en los años 1991 (IMAP3), la cual fue hecha por un grupo de la competencia que
no obtuvo logros con dicha propuesta, el nuevo nombre dado de IMAP2bis sería entonces IMAP4.
IMAP4 permite a los clientes de correo electrónico manipular los mensajes de correo electrónico
almacenados en el servidor, como también la manipulación de las carpetas locales. Sin embargo
fue revisada puesto que encontraron o descubrieron fallas en la seguridad. Para el año del 2003
surge IMAP4rev1 que incluyó las funciones de escuchar los mensajes antes de descargar el cuerpo
entero del correo electrónico.

IMAP IDLE
IMAP IDLE es una extensión de IMAP que sirve para que el servidor avise al cliente cuando ha
llegado un correo y se sincronicen. La alternativa sería que el cliente lea cada poco tiempo el
servidor para ver si hay correos.
Esta funcionalidad se encuentra descrita en el RFC-2177 IMAP4-IDLE
Permite la sincronización instantánea y no al cabo de unos minutos. Lo que puede mejorar la
comunicación en listas de correo. Si alguien envía un mensaje y otra persona lo ve y responde en
el momento que llega a lista. Es probable que el que envió el primer mensaje todavía esté en la
lista, lo que permitiría mantener una conversación en tiempo real y solventar la duda en el
momento.
Con la alternativa habitual de revisar el correo, aunque sea automáticamente, se tardaría unos
minutos en darse cuenta de que se ha recibido un correo, más el tiempo que se tardaría en
escribirlo.
Para aprovechar esta función debe estar activada tanto en el cliente de correo como en el servidor.
Responder
16.

Anónimo8 de mayo de 2014, 15:20

*NFS (Network File System o Sistema de archivos de red) es un protocolo de nivel de aplicación,
según el Modelo OSI. Es utilizado para sistemas de archivos distribuido en un entorno de red de
computadoras de área local. Posibilita que distintos sistemas conectados a una misma red accedan
a ficheros remotos como si se tratara de locales. Originalmente fue desarrollado en 1984 por Sun
Microsystems, con el objetivo de que sea independiente de la máquina, el sistema operativo y el
protocolo de transporte, esto fue posible gracias a que está implementado sobre los protocolos
XDR (presentación) y ONC RPC (sesión). El protocolo NFS está incluido por defecto en los
Sistemas Operativos UNIX y la mayoría de distribuciones Linux.

En sus características tenemos que sistema NFS está dividido al menos en dos partes principales:
un servidor y uno o más clientes. Los clientes acceden de forma remota a los datos que se
encuentran almacenados en el servidor.
Las estaciones de trabajo locales utilizan menos espacio de disco debido a que los datos se
encuentran centralizados en un único lugar pero pueden ser accedidos y modificados por varios
usuarios, de tal forma que no es necesario replicar la información.

Los usuarios no necesitan disponer de un directorio “home” en cada una de las máquinas de la
organización. Los directorios “home” pueden crearse en el servidor de NFS para posteriormente
poder acceder a ellos desde cualquier máquina a través de la infraestructura de red.

También se pueden compartir a través de la red dispositivos de almacenamiento como disqueteras,


CD-ROM y unidades ZIP. Esto puede reducir la inversión en dichos dispositivos y mejorar el
aprovechamiento del hardware existente en la organización.

Todas las operaciones sobre ficheros son síncronas. Esto significa que la operación sólo retorna
cuando el servidor ha completado todo el trabajo asociado para esa operación. En caso de una
solicitud de escritura, el servidor escribirá físicamente los datos en el disco, y si es necesario,
actualizará la estructura de directorios, antes de devolver una respuesta al cliente. Esto garantiza
la integridad de los ficheros.
*TELNET (TELecommunication NETwork) es el nombre de un protocolo de red que nos permite
viajar a otra máquina para manejarla remotamente como si estuviéramos sentados delante de ella.
También es el nombre del programa informático que implementa el cliente. Para que la conexión
funcione, como en todos los servicios de Internet, la máquina a la que se acceda debe tener un
programa especial que reciba y gestione las conexiones. El puerto que se utiliza generalmente es
el 23.

Para su Funcionamiento Telnet sólo sirve para acceder en modo terminal, es decir, sin gráficos,
pero es una herramienta muy útil para arreglar fallos a distancia, sin necesidad de estar físicamente
en el mismo sitio que la máquina que los tenía. También se usaba para consultar datos a distancia,
como datos personales en máquinas accesibles por red, información bibliográfica, etc.

Aparte de estos usos, en general telnet se ha utilizado (y aún hoy se puede utilizar en su variante
SSH) para abrir una sesión con una máquina UNIX, de modo que múltiples usuarios con cuenta
en la máquina, se conectan, abren sesión y pueden trabajar utilizando esa máquina. Es una forma
muy usual de trabajar con sistemas UNIX.

Dariannys Herrera
Responder

17.

Roger Diaz11 de mayo de 2014, 5:50

Roger Diaz
CDP
Protocolo de descubrimiento de Cisco es un protocolo de red propietario de nivel 2, desarrollado
por Cisco Systems y usado en la mayoría de sus equipos. Es utilizado para compartir información
sobre otros equipos Cisco directamente conectados, tal como la versión del sistema operativo y
la dirección IP. CDP también puede ser usado para realizar encaminamiento bajo demanda (ODR,
On-Demand Routing), que es un método para incluir información de encaminamiento en anuncios
CDP, de forma que los protocolos de encaminamiento dinámico no necesiten ser usados en redes
simples.
Los dispositivos Cisco envían anuncios a la dirección de destino de multidifusión 01:00 (que
también es usada por otros protocolos propietarios de Cisco tales como VTP). Los anuncios CDP
(si está soportados y configurados en el IOS) se envían por defecto cada 60 segundos en las
interfaces que soportan cabeceras SNAP, incluyendo Ethernet, Frame Relay y ATM. Cada
dispositivo Cisco que soporta CDP almacena la información recibida de otros dispositivos en una
tabla que puede consultarse usando el comando show cdp neighbor. La información de la tabla
CDP se refresca cada vez que se recibe un anuncio y la información de un dispositivo se descarta
tras tres anuncios no recibidos por su parte (tras 180 segundos usando el intervalo de anuncio por
defecto).

SPX
Intercambio de Paquetes Secuenciados es un antiguo protocolo de red de Novell perteneciente al
sistema operativo NetWare utilizado para controlar la entrega de datos a través de una red de área
local
Es un protocolo de la capa de transporte orientado a comunicaciones con conexión que se encarga
de verificar que un mensaje enviado a través de una red llega intacto a su destino. Para ello, utiliza
como mensajero el protocolo IPX (el cuál por sí solo carece de fiabilidad durante el transporte de
paquetes) permitiendo establecer y mantener conexiones además de enviar datos.
El protocolo se encarga de garantizar la integridad de los paquetes enviados y de los paquetes de
confirmación recibidos. También realiza un control sobre el flujo de datos, regulando la velocidad
a la que se envían y reciben los paquetes y reduciendo el riesgo de corrupción. Para controlar el
envío de los paquetes, SPX espera un mensaje de confirmación, y si éste no se recibe, vuelve a
retransmitir el paquete un número determinado de veces. Si tras ese número de veces, aún sigue
sin recibirse una respuesta con el mensaje de confirmación, el protocolo da por asumido que ha
habido un fallo de conexión, y cierra la conexión.
Responder
18.

Anónimo11 de mayo de 2014, 15:36

• IRC (Internet Relay Chat): es un protocolo de comunicación en tiempo real basado en texto, que
permite debates entre dos o más personas. Se diferencia de la mensajería instantánea en que los
usuarios no deben acceder a establecer la comunicación de antemano, de tal forma que todos los
usuarios que se encuentran en un canal pueden comunicarse entre sí, aunque no hayan tenido
ningún contacto anterior. Las conversaciones se desarrollan en los llamados canales de IRC,
designados por nombres que habitualmente comienzan con el carácter # o & (este último sólo es
utilizado en canales locales del servidor). Es un sistema de charlas ampliamente utilizado por
personas de todo el mundo.

Los usuarios del IRC utilizan una aplicación cliente para conectarse con un servidor, en el que
funciona una aplicación IRCd (IRC daemon o servidor de IRC) que gestiona los canales y las
conversaciones murales.

• POP3: En informática se utiliza el Post Office Protocol (POP3, Protocolo de Oficina de Correo
o "Protocolo de Oficina Postal") en clientes locales de correo para obtener los mensajes de correo
electrónico almacenados en un servidor remoto. Es un protocolo de nivel de aplicación en el
Modelo OSI.

POP3 está diseñado para recibir correo, no para enviarlo; le permite a los usuarios con conexiones
intermitentes o muy lentas (tales como las conexiones por módem), descargar su correo
electrónico mientras tienen conexión y revisarlo posteriormente incluso estando desconectados.
Cabe mencionar que la mayoría de los clientes de correo incluyen la opción de dejar los mensajes
en el servidor, de manera tal que, un cliente que utilice POP3 se conecta, obtiene todos los
mensajes, los almacena en la computadora del usuario como mensajes nuevos, los elimina del
servidor y finalmente se desconecta. En contraste, el protocolo IMAP permite los modos de
operación conectado y desconectado.

Cesar Figueroa
Responder
19.

Anónimo11 de mayo de 2014, 20:03

LDAP
(Protocolo compacto de acceso a directorios) es un protocolo estándar que permite administrar
directorios, esto es, acceder a bases de información de usuarios de una red mediante protocolos
TCP/IP.

Las bases de información generalmente están relacionadas con los usuarios, pero, algunas veces,
se utilizan con otros propósitos, como el de administrar el hardware de una compañía.

El objetivo del protocolo LDAP, desarrollado en 1993 en la Universidad de Michigan, fue


reemplazar al protocolo DAP (utilizado para acceder a los servicios de directorio X.500 por OSI)
integrándolo al TCP/IP. Desde 1995, DAP se convirtió en LDAP independiente, con lo cual se
dejó de utilizar sólo para acceder a los directorios tipo X500. LDAP es una versión más simple
del protocolo DAP, de allí deriva su nombre Protocolo compacto de acceso a directorios.

El protocolo LDAP define el método para acceder a datos en el servidor a nivel cliente pero no la
manera en la que se almacena la información.

El protocolo LDAP actualmente se encuentra en su 3era versión y el IETF (Grupo de Trabajo de


Ingeniería de Internet) lo ha estandarizado. Por lo tanto, existe una RFC (petición de comentarios)
para cada versión de LDAP que constituye un documento de referencia:

RFC 1777 para LDAP v.2


RFC 2251 para LDAP v.3
LDAP le brinda al usuario métodos que le permiten:
conectarse
desconectarse
buscar información
comparar información
insertar entradas
cambiar entradas
eliminar entradas
Asimismo, el protocolo LDAP (en versión 3) ofrece mecanismos de cifrado (SSL, etc.) y
autenticación para permitir el acceso seguro a la información almacenada en la base.
Responder
20.

Anónimo11 de mayo de 2014, 20:06

Jason Hernandez
Responder
21.

Anónimo12 de mayo de 2014, 7:06

RAY COTUA:

Protocolo WDM:

La tecnología conocida como Multiplexión por División de Longitud de Onda, a pesar de existir
desde hace varios años, es hoy en día uno de los temas de mayor interés dentro del área de la
infraestructura de redes ópticas, WDM se ha consolidado como una de las tecnologías favoritas,
debido a las enormes ventajas que ofrece en la optimización del uso del ancho de banda.

Conceptualmente, esta forma de multiplexión es similar a FDM (Multiplexión por división de


frecuencia), utilizada en sistemas satelitales y de microondas. Mientras que FDM consiste en
transmitir varias señales al mismo tiempo a través de un solo canal de banda ancha, modulando
primero cada una de ellas en una subportadora distinta y, posteriormente, reuniéndolas para
formar una sola señal, WDM reúne diferentes longitudes de onda para formar la señal que se
transmitirá. De manera similar a otras formas de multiplexión, WDM requiere que cada longitud
de onda sea debidamente espaciada de las demás, con el objeto de evitar la interferencia
intercanal.
PROTOCOLO SDH:
SDH (Jerarquía Digital Síncrona) entendiendo por sincronía que todos los sistemas operan al
mismo tiempo, o sea que tienen solamente un reloj de referencia.
SDH se derivó del estándar norteamericano de Sonet que fue propuesto por Bellcore en 1985, este
fue tomado por la CCITT y en 1986 se desarrolló SDH, en resumen SDH es el estándar europeo
para las transmisiones síncronas.
Las implementaciones de la transmisión sincrónica se deben principalmente a su capacidad de
interconectarse con el sistema plegícrono existente.

La Jerarquía Digital Síncrona (SDH) (Synchronous Digital Hierarchy) es un conjunto de


protocolos de transmisión de datos. Se puede considerar como la revolución de los sistemas de
transmisión, como consecuencia de la utilización de la fibra óptica como medio de transmisión,
así como de la necesidad de sistemas más flexibles y que soporten anchos de banda elevados
ALGUNAS DE LAS VENTAJAS SON:
La SDH presenta una serie de ventajas respecto a la jerarquía digital plesiocrona (PDH).
Algunas de estas ventajas son:
• El proceso de multiplexación es mucho más directo. La utilización de punteros permite una
localización sencilla y rápida de las señales tributarias de la información.
• El procesamiento de la señal se lleva a cabo a nivel de STM-1. Las señales de velocidades
superiores son síncronas entre sí y están en fase por ser generadas localmente por cada nodo de
la red.
• Las tramas tributarias de las señales de línea pueden ser subdivididas para acomodar cargas
plesiócronas, tráfico ATM o unidades de menor orden. Esto supone mezclar tráfico de distinto
tipo dando lugar a redes flexibles.

Responder

22.

angel vizcaino12 de mayo de 2014, 21:26

Inicio
IGMP (Internet Group Management Protocol)

IGMP es el protocolo encargado de gestionar los grupos multicast [NETWORK]. Es un protocolo


de la capa IP, y los mensajes se transmiten encapsulados en datagramas IP. Mediante IGMP los
equipos se registran dinámicamente en un grupo multicast. Hay tres versiones de este protocolo,
definidas en las [RFC 1112], [RFC 2236] y [RFC 3376]. ([RFC 988] define la versi�n 0, que
pronto quedó obsoleta).

Dichos documentos definen también tres niveles de capacidad multicast para los equipos que
conforman una red. Los equipos de nivel 0 no tienen ninguna capacidad de mover tráfico IP
Multicast, no pueden recibir paquetes multicast ni enviarlos. Los equipos de nivel 1 son aquellos
que tienen capacidad de enviar dicho tráfico, pero no de recibirlo; pueden actuar como fuente
pero no como receptor. Por �ltimo, los equipos de nivel 2 tienen capacidad tanto de enviar el
tráfico multicast como de recibirlo.

El funcionamiento de IGMP es el siguiente. Cuando un equipo quiere recibir paquetes de un grupo


multicast, envía un mensaje Membership Report con destino la dirección del grupo y
especificando la interfaz de red por donde quiere recibirlo. Es posible unirse a un grupo multicast
a trav�s de distintas interfaces. En este caso, el equipo recibirá paquetes duplicados, cada uno
por cada interfaz. También es posible que más de un proceso del mismo equipo reciba
información de este grupo, aunque en este caso no hay mensajes repetidos.

Tras enviar el mensaje de petición de unión al grupo, el equipo recibirá un mensaje de


confirmación o de fallo. Si el proceso funciona correctamente, el protocolo se encargará de que
los routers configuren la ruta para que los paquetes multicast sean recibidos por el equipo de
forma normal.

En la versi�n 1 de IGMP no hay mensajes explícitos para abandonar el grupo. En lugar de eso,
los routers multicast envían mensajes Membership Query en intervalos regulares a la dirección
224.0.0.1 (todos los equipos de la red) y con dirección de grupo 0. Los equipos que quieren seguir
recibiendo paquetes de un grupo responden con un Membership Request para ese grupo. Para
evitar un env�o masivo de respuestas, cada equipo pone en marcha un contador de tiempo de
espera de valor aleatorio. Si cumplido ese tiempo nadie ha mandado respuesta de confirmación
de su grupo, responde. Si algún equipo ha respondido antes no envía nada. De esta manera, el
router s�lo necesita una respuesta por grupo para saber que tiene que seguir reenviando.

A partir de estos mensajes y de los protocolos de enrutamiento los routers multicast construyen
tablas con las interfaces que contienen equipos pertenecientes a cada grupo, de tal forma que si
les llega un paquete multicast saben por qué interfaces tienen que reenviarlo.

La versi�n 2 de IGMP a�ade la funcionalidad de desconexión explícita de un grupo mediante


el mensaje Leave Group. Cuando un host quiere abandonar un grupo envía un mensaje Leave
Group a la dirección 224.0.0.2 (todos los routers de la red), en el que se especifica qué grupo se
quiere abandonar. Los routers con versi�n 1 no entienden este mensaje y lo tiran. Los que tienen
la versi�n 2 responden con un Group-Specific Query, que funciona como un Membership Query
normal pero con dirección de grupo la especificada en el mensaje Leave Group recibido. Si nadie
contesta a este mensaje el router entiende que no hay ningún equipo interesado en este grupo y es
borrado de la tabla. De esta manera se reduce el gasto de ancho de banda desde que el último
ordenador de la red abandona el grupo hasta que el router se da cuenta de ello y deja de enviar
mensajes Membership Query y paquetes multicast del grupo.
Responder

23.

angel vizcaino12 de mayo de 2014, 21:27

El protocolo ICMP

El Protocolo de Mensajes de Control y Error de Internet, ICMP, es de características similares a


UDP, pero con un formato mucho más simple, y su utilidad no está en el transporte de datos de
usuario, sino en controlar si un paquete no puede alcanzar su destino, si su vida ha expirado, si el
encabezamiento lleva un valor no permitido, si es un paquete de eco o respuesta, etc. Es decir, se
usa para manejar mensajes de error y de control necesarios para los sistemas de la red, informando
con ellos a la fuente original para que evite o corrija el problema detectado. ICMP proporciona
así una comunicación entre el software IP de una máquina y el mismo software en otra.

Frame relay es un protocolo que define cómo se direccionan las tramas en una
red de paquetes rápidos en función del campo de dirección de la trama.
Frame relay aprovecha la fiabilidad de las redes de comunicaciones de datos para
reducir al máximo la comprobación de errores que efectúan los nodos de red. Esto
proporciona un protocolo de conmutación de paquetes parecido a X.25 pero
mucho más rápido. La alta velocidad que puede obtenerse mediante las redes
frame relay hace de este un protocolo adecuado para la conectividad de red de
área amplia (WAN). Frame relay se utiliza habitualmente para conectar dos o más
puentes de LAN a través de grandes distancias.

ATM
Asynchronous Transfer Mode. Es un modo de transferencia no síncrono
que se hizo popular en 1988 cuando se decidió que esta tecnología de
conmutación seria la usada por las futuras redes ISDN en banda ancha.
El tamaño ideal de las celdas de este protocolo fue motivo de discusión
decidiendo que serian de 53 (48 + 5) bytes, divididos en octetos.

TCP/IP define cuidadosamente cómo se mueve la información desde el


remitente hasta el destinatario. En primer lugar, los programas de aplicación
envían mensajes o corrientes de datos a uno de los protocolos de la capa de
transporte de Internet, UDP (User Datagram Protocol) o TCP (Transmission
Control Protocolo). Estos protocolos reciben los datos de la aplicación, los
dividen en partes más pequeñas llamadas paquetes, añaden una dirección de
destino y, a continuación, pasan los paquetes a la siguiente capa de protocolo, la
capa de red de Internet.
La capa de red de Internet pone el paquete en un datagrama de IP (Internet
Protocol), pone la cabecera y la cola de datagrama, decide dónde enviar el
datagrama (directamente a un destino o a una pasarela) y pasa el datagrama a la
capa de interfaz de red.
La capa de interfaz de red acepta los datagramas IP y los transmite
como tramas a través de un hardware de red específico, por ejemplo redes
Ethernet o de Red en anillo.

El protocolo UDP
El grupo de protocolos de Internet también maneja un protocolo de transporte sin conexiones,
el UDP (User Data Protocol, protocolo de datos de usuario). El UDP ofrece a las aplicaciones un
mecanismo para enviar datagramas IP en bruto encapsulados sin tener que establecer una
conexión.
Muchas aplicaciones cliente-servidor que tienen una solicitud y una respuesta usan el UDP en
lugar de tomarse la molestia de establecer y luego liberar una conexión. El UDP se describe en
el RFC 768. Un segmento UDP consiste en una cabecera de 8 bytes seguida de los datos. La
cabecera se muestra a continuación. Los dos puertos sirven para lo mismo que en el TCP: para
identificar los puntos terminales de las máquinas origen y destino. El campo de longitud
UDP incluye la cabecera de 8 bytes y los datos. La suma de comprobación UDP incluye la misma
pseudocabecera de formato, la cabecera UDP, y los datos, rellenados con una cantidad par de
bytes de ser necesario.

Esta suma es opcional, y se almacena como 0 si no se calcula. Inutilizarla seria absurdo, a menos
que la cantidad de los datos no importe, por ejemplo, voz digitalizada.

IP/ ATM
El funcionamiento IP/ATM supone la superposición de una topología
virtual de enrutadores IP sobre una topología real de
conmutadores ATM. Cada enrutador se comunica con el resto mediante
los circuitos virtuales permanentes (PVC) que se establecen sobre la
topología física de la red ATM, desconociendo la topología real de la
infraestructura ATM que sustenta los PVC. (figura 1 y figura 2).

La base del modelo IP/ATM está en la funcionalidad proporcionada por el nivel ATM, es
decir, los controles de software (señalización y enrutamiento) y el envío de las celdas
por hardware (conmutación). En realidad los circuitos (PVCs) se establecen a base de
intercambiar etiquetas en cada conmutador de la red, por lo tanto asociando etiquetas
entre todos los elementos ATM se determinan los PVCs.

El hecho de superponer IP sobre ATM permite aprovechar la infraestructura ATM ya


existente, obteniendo de esta manera un ancho de banda a precios competitivos, y
una rapidez de transporte de datos proporcionada por los conmutadores.

Sin embargo, el modelo IP/ATM también tiene sus inconvenientes. Se debe gestionar 2
redes diferentes, una infraestructura ATM y una red lógica IP superpuesta, lo que
supone a los proveedores de servicio mayor costo en la gestión global de sus redes.

IP SOBRE ATM SOBRE SDH/SONET SOBRE WDM


En la red de transporte de datos han existido típicamente cuatro capas: IP sobre
ATM sobre SONET/SDH sobre WDM. Esta arquitectura puede estar constituida por
gigarouters IP con interfaces ATM (que utilizan típicamente SONET/SDH como
medio físico) conectados directamente a la red WDM, o como ocurre
tradicionalmente, a través de switches ATM conectados a ADMs SONET/SDH.
Figura 2: Ejemplo de IP sobre ATM sobre encapsulación SDH para el
transporte sobre una red WDM.
El modo de transferencia asíncrono o ATM (Asyncronous Transfer
Mode) estandarizado por el ITU-T es una tecnología de nivel de enlace de
conmutación rápida de pequeñas celdas o paquetes de longitud fija de 53 bytes,
diseñada para transportar cualquier tipo de tráfico (voz, datos, imágenes o
multimedia) basándose en la calidad de servicio o QoS (Quality of Service)
demandada por los usuarios finales. ATM proporciona un ancho de banda escalable
que va desde los 2 Mbps a los 10 Gbps; y debido a su naturaleza asíncrona, es más
eficiente que las tecnologías síncronas, tales como la multiplexación por división
en el tiempo o TDM (Time Division Multiplexing) en la que se basa SONET/SDH. Las
redes ATM están constituidas por switches con arquitecturas malladas.
La red óptica síncrona o SONET (Syncronous Optical NETwork) estandarizada por
el ANSI para Norte América y la jerarquía digital síncrona o SDH (Synchronous
Digital Hierarchy) estandarizada por el ITU-T para todo el mundo y compatible en
parte con SONET, son tecnologías de transmisión por fibra óptica
diseñadas principalmente para la transmisión de voz. Estas tecnologías de nivel
físico son ampliamente utilizadas, teniendo como principales características: su
alta estandarización mundial, su flexibilidad, sus potentes mecanismos de
protección y administración, la posibilidad de monitorización de errores y de
calidad del servicio, y su compatibilidad con las tecnologías de transporte
predecesoras como la jerarquía digital plesiócrona o PDH (Plesiocronous Digital
Hierarchy). Estos estándares definen interfaces de tráfico denominadas STM-N
(Syncronous Transport Module) para el caso de SDH, partiendo del STM-1 (155
Mbps). La compatibilidad con PDH es garantizada mediante distintos contenedores:
C-11 para señales de 1,5 Mbps, C-12 para 2 Mbps, C-2 para 8 Mbps, C-3 para 34
Mbps y C-4 para 140 Mbps. Los restantes STM-N se obtienen mediante el
entrelazado de bytes de varias señales STM-1. En la actualidad se encuentran
disponibles comercialmente los valores de: STM-4 (622 Mbps), STM-16 (2,5 Mbps),
STM-64 (10 Gbps) y, en un futuro próximo STM-256 (40 Gbps). SONET/SDH apuesta
por arquitecturas en anillo, constituidas por multiplexores de extracción e
inserción de señales o ADMs (Add and Drop Multiplexers). Los anillos permiten
conseguir redes muy flexibles, pudiendo extraer señales tributarias del tráfico
agregado en cualquiera de los ADMs, además de ofrecer potentes mecanismos de
protección y restauración.
Existen varios métodos para transportar IP sobre ATM, pero el clásico consiste en
segmentar los paquetes IP en celdas ATM vía AAL-5 (ATM Adaptation Layer - 5),
siguiendo la RFC 1483 y la ITU-T I-363. Estas celdas ATM son generalmente
transportadas en tramas SONET/SDH sobre la carga útil de uno o varios VC-4
(Virtual Container - 4) concatenados según la ITU-T G.707, aunque se podrían
transportar directamente sobre WDM según la ITU-T I-432.
IP SOBRE SDH/SONET SOBRE WDM
La tecnología SONET/SDH estaba inicialmente optimizada para el transporte de
tráfico de voz, pero la aparición del estándar PoS (Packet Over SONET),
estandarizado en la RFC 2615 del IETF, la ha convertido también en una alternativa
muy eficiente para el tráfico de datos. El esquema de una red de este tipo puede
ser el de gigarouters IP que simplemente utilizan el formato de trama SONET/SDH
para entramar los paquetes IP encapsulados para su transmisión directa sobre
WDM, o también es posible transportar el paquete IP entramado mediante
SONET/SDH sobre una red de ADMs SONET/SDH junto a otro tipo de tráfico, que
utilizará luego enlaces WDM.
En efecto, PoS proporciona un método para optimizar el transporte de paquetes
de datos en tramas SONET/SDH. Para ello, primero es necesario que los paquetes
IP sean encapsulados en el nivel de enlace mediante PPP (Point-to-Point Protocol)
según la RFC 1662, siguiendo un entramado tipo HDLC (High-level Data Link
Control) según la RFC 1661. Finalmente, las tramas HDLC son transportadas sobre
la carga útil de un VC-4 o varios VC-4s concatenados según la RFC 2615.
La sobrecarga promedio de PoS es únicamente de un 6%, bastante inferior a la de
IP sobre ATM sobre SONET/SDH que es de un 22%, originada por la alta sobrecarga
que implica ATM, principalmente para paquetes pequeños. PoS permite, además,
continuar utilizando la excelente funcionalidad de conmutación de protección y
de monitorización y supervisión de SONET/SDH. El problema de eliminar ATM es
que se pierde flexibilidad en el manejo del ancho de banda del enlace virtual. En
efecto, ATM permite, además de crear circuitos virtuales permanentes con un
ancho de banda fijo desde el sistema de gestión, establecer circuitos virtuales con
un ancho de banda arbitrario dinámicamente, pudiendo utilizar también
multiplexación estadística para permitir a ciertos servicios acceder al ancho de
banda extra para pequeñas ráfagas. Esta limitación sería resuelta con la
introducción de GMPLS.
Figura 3: Ejemplo de IP sobre SDH sobre WDM.
IP SOBRE GIGABIT ETHERNET SOBRE WDM
El estándar IEEE 802.3z o Gigabit Ethernet puede ser utilizado para extender las
ampliamente implementadas redes locales Ethernet y Fast Ethernet a redes mucho
más extensas (sobre todo utilizando el modo de transmisión full-duplex en vez del
half-duplex basado en CSMA-CD) y de mayor capacidad, utilizando tarjetas de línea
Gigabit Ethernet en los gigarouters IP, con un coste alrededor de 5 veces menor
que el de las tarjetas de línea SONET/SDH para una capacidad similar. Por esta
razón, Gigabit Ethernet puede ser un mecanismo interesante para el transporte de
IP en anillos WDM metropolitanos o incluso de mayores distancias. Es más, los
puertos 10 Gigabit Ethernet estarán disponibles comercialmente en un futuro
próximo.
Gigabit Ethernet es una opción aún más interesante cuando se complementa con
MPLS. El protocolo MPLS (MultiProtocol Label Switching), es un estándar
recogido en la RFC 3031 del IETF, que permite integrar en IP el modo de
conmutación rápido por etiquetas utilizado por ATM; además de proporcionar
ingeniería del tráfico, cursar tráfico con distintas QoS, proteger ciertas rutas, crear
redes privadas virtuales o VPNs (Virtual Private Networks), etc. Es decir, MPLS
permite de una manera más sencilla y escalable ofrecer prácticamente la misma
funcionalidad de ATM en IP y además está diseñado para operar sobre cualquier
tecnología de nivel de enlace (ATM, Frame Relay y Ethernet).
Las ventajas que ofrece este método de transporte de IP sobre WDM son bajo coste,
sencillez y alta escalabilidad. La principal desventaja este mecanismo de
encapsulamiento es la poca eficiencia que presenta en el transporte de datos. La
sobrecarga de Gigabit Ethernet es de un 28%, originada fundamentalmente en la
codificación de línea 8B/10B para el transporte óptico (la velocidad de línea es por
lo tanto de 1,25 Gbps en vez de 1 Gbps), necesaria para mantener el sincronismo.
Figura 4: Ejemplo de IP siendo transportado sobre un anillo WDM con
entramado Gigabit Ethernet.
IP SOBRE WDM ROBUSTO
Evidentemente, la única forma de eliminar todas las limitaciones asociadas a estas
arquitecturas es transportar IP directamente sobre la capa WDM con la mayor
eficiencia posible, para lo cual es necesario que IP y WDM adopten la funcionalidad
inherente a otras capas; en concreto, los gigarouters IP tendrían una nueva tarjeta
de línea que utilizaría SDL y Digital Wrappers para el transporte óptico sobre
sistemas WDM dotados de una mayor flexibilidad que los actuales.
En efecto, WDM está pasando de ser una tecnología muy estática empleada
únicamente en redes punto a punto, a ser utilizada en redes en anillo muy
flexibles. Durante los próximos años aparecerán los primeros R-OADMs
(Reconfigurable Optical Add and Drop Multiplexers) capaces de extraer e insertar
longitudes de onda de la fibra dinámicamente según la configuración realizada
desde el sistema de gestión. Combinados con los OXCs (Optical Cross-Connects),
que permiten conmutar dinámicamente las longitudes de onda desde fibras de
entrada a fibras de salida, la capa WDM estará en condiciones de realizar las
mismas funciones que ahora desempeña la capa SONET/SDH; creando una red
óptica flexible, de alta capacidad y eficiencia y con una gestión del ancho de banda
totalmente óptica.
En esta arquitectura aparece SDL (Simplified Data Link) como un nuevo protocolo
de nivel de enlace propuesto por Lucent Technologies para la sustitución de HDLC,
pudiendo ser utilizado sobre SONET/SDH o directamente sobre WDM. Mediante SDL
se consigue una sobrecarga de únicamente el 3%. Por otro lado, los Digital Wrapper
estandarizados en la G.709 del ITU-T y en proceso de implementación, se
encargarían de añadir bytes de sobrecarga que soporten la gestión y el control del
canal óptico, aprovechando la necesidad de regeneración electroóptica en los
puntos de entrada y salida de los sistemas WDM para adaptar las longitudes de
onda y posibilitar su multiplexación. La utilización de Digital Wrappers
proporcionará una funcionalidad y fiabilidad semejante a la trama SONET/SDH,
con la ventaja de ser totalmente transparente al tipo de interfaces utilizadas en
los gigarouters que interconectan (es compatible con ATM, ESCON, Fibre Channel,
SONET/SDH, etc.) y estar más adaptado a la problemática de la capa óptica,
ofreciendo nuevas mejoras; como por ejemplo, el uso de FEC (Forward Error
Correction), que puede mejorar significativamente la BER (Bit Error Rate) de la
señal óptica minimizando la necesidad de puntos de regeneración.
Por otro lado, para mejorar el aprovechamiento del ancho de banda óptico y la
funcionalidad de este esquema, es necesario un protocolo que realice la misma
misión que realiza MPLS en la arquitectura de IP sobre Gigabit Ethernet. Este
protocolo es GMPLS (Generalized MultiProtocol Label Switching), evolución de
MPLS y en proceso de estandarización por el IETF; que soporta no sólo dispositivos
de conmutación de paquetes, sino también de conmutación en el tiempo, en
longitud de onda y de fibras ópticas. De esta forma, GMPLS ofrece un panel de
control único e integrado y extiende la disponibilidad de recursos y gestión del
ancho de banda a lo largo de todas las capas de la red; ofreciendo así una rápida
provisión de servicios de cualquier tipo, en cualquier momento, con cualquier
calidad de servicio, con cualquier grado de disponibilidad y con cualquier destino.

2 RSVP ( Protocolo de reserva de recursos)


es un protocolo de controldesarrollado por el Xerox PARC, el MIT y el
Information Sciences Institute de laUniversidad de California. Permite brindar
al receptor calidad de servicio para un flujode datos. Las aplicaciones de
tiempo real pueden utilizar este protocolo para reservarrecursos en los
ruteadores que se encuentran en una determinada ruta (entre emisor yreceptor)
a los efectos de asegurar un ancho de banda disponible para una
transmisión.Cuando una aplicación en un nodo receptor requiere determinada
calidad deservicio, solicita a los ruteadores en el camino una reserva de
recursos utilizando el protocolo RSVP. No es necesario realizar la reserva en
todo el camino hasta el emisor,sino que se hace hasta encontrar en un ruteador
una solicitud de reserva para la mismafuente de datos, y unirse a ésta.Los
nodos con capacidad de reservar recursos deben implementar controles
paradeterminar si el usuario posee permisos para realizar reservas (Policy
Control) y ademásdeterminar si se puede satisfacer la calidad de servicio
solicitada (Admission Control).Cuando un paquete ingresa al nodo, se lo
clasifica de acuerdo a los requerimientossolicitados para el mismo (Packet
Classifier, determina el tipo de Qos solicitada), yluego se ordena su
transmisión (Packet Scheduler, para cada interfície de salida realizael Qos)
para alcanzar la calidad de servicio comprometida para éste. Las
reservasrealizadas se almacenan como “estados ligeros” (soft states). Esto
significa que debenenviarse mensajes de refresco para mantener una reserva,
de lo contrario se pierde.

Potrebbero piacerti anche