Il Backbone IP di
Telecom Italia Wireline
ALBERTO MARIA LANGELLOTTI Il successo mondiale dei servizi Internet ed Intranet nel mercato delle tele-
SIMEONE MASTROPIETRO comunicazioni ha spinto, nell’ultimo decennio, gli Operatori del settore ad
FEDERICO TITO MORETTI investire maggiormente nella realizzazione di reti IP/MPLS (Multi Protocol
ANTONIO SOLDATI Label switching) per trasportare qualunque tipo di servizio.
Oggi, convogliare voce, video e dati su un’unica infrastruttura di trasporto
si traduce in un requisito tecnico abbordabile, sfidante ed economica-
mente vantaggioso in un mercato in continua crescita ed in regime di
concorrenza.
Le attuali piattaforme di trasporto IP/MPLS di Telecom Italia Wireline sono
nate con questo obiettivo e, nei prossimi anni, estenderanno questo para-
digma integrandosi progressivamente con la tecnologia dello strato di tra-
sporto ottico.
Nell’articolo viene descritto il backbone IP/MPLS di Telecom Italia Wireline
nel contesto dei servizi offerti, dell’evoluzione architetturale, della qualità
del servizio ed, infine, del supporto al servizi telefonici.
E
Frame Relay, ADSL e GbE)
GB
OPB DTC
che per la clientela
AN
M
E
Residenziale (attestata via M GB Edge DTC
AN
rete ADSL e dial-up); OPB Edge IBS M
fornisce inoltre un livello di
Cliente
trasporto IP/MPLS per i ser- M Executive
vizi telefonici su IP di tipo Voice GW Via MAN GBE
CL 4 BBN Nodi di
Class4 (interconnessione (23 PoP) Controllo CL5 Cliente Cliente Cliente
(Inner Core) Executive Executive Executive
nodi del BBN) e Class5 Cliente Cliente Dual BB
VoIP CL5 Residenziale (ATM e MAN) Via ATM
(accessi VoIP) e per i servizi (ADSL e Dial-up)
di interconnessione con gli
IDC (Internet Data Center) di ADSL = Asymmetrical Digital Subscriber Line
ATM = Asynchronous Transfer Mode
Pomezia e Milano. BB = BackBone
La rete OPB è diretta- CL = Class 4 e Class 5
DTC = Data.com
mente collegata alle reti GBE = GigaBit Ethernet
GW = Gateway
degli altri ISP (Inter net IBS = Internet BuSiness
Service Provider) mediante MAN = Metro Area Network
OPB = Optical Packet Backbone
punti di peering “Privati” e PoP = Point of Presence
“Pubblici” a seconda dei VoIP = Voice over IP
casi, realizzati generalmente
presso uno dei due punti
neutri d’interconnessione FIGURA 2› L’articolazione dei servizi sui due backbone IP Pubblici.
italiani presenti a Roma
(NAMEX) ed a Milano (MIX).
L’interconnessione tra i due backbone è realiz- Essa disponeva di 12 PoP (Point of Presence)
zata a Roma e a Milano, con collegamenti GbE per distribuiti sul territorio nazionale e collegati geogra-
servizi IP ed SDH a 2,5 Gbit/s per i servizi VPN- ficamente ai due PoP principali di Roma e di
MPLS, attuando in questo caso le funzionalità Milano (dual-homing) attraverso circuiti PVC ATM,
“Inter-AS-VPN” per le sedi cliente Executive atte- tipicamente dimensionati per qualche decina di
state in modalità “dual backbone”. La connettività Mbit/s [3].
verso la Big Internet, per tutte le destinazioni che L’architettura di routing era basata esclusiva-
non siano interne oppure coperte dai Peering mente sul protocollo OSPF, mentre il protocollo
appena citati, è ottenuta attraverso il backbone BGP era utilizzato soltanto per i punti di peering e
Internazionale di Telecom Italia Sparkle denominato per l ’i n terco n n essi o n e co n i l back bo ne
“SEABONE”, il cosiddetto “Upstream Provider” per Internazionale.
i backbone nazionali di Telecom Italia. Tutta la clien- La nuova rete, costruita su 32 PoP nazionali, ha
tela nazionale, con o senza un proprio Autonomous rivoluzionato l’architettura generale della rete:
System, per i servizi di tipo Full Internet o di VPN • trasformando il dual-homing dei PoP su base
MPLS, accede ai backbone tramite apposite strut- geografica (Nord e Sud) in doppie attestazioni
ture di Edge (Router di Accesso, Router PE MPLS, attuate verso Roma oppure verso Milano;
NAS ADSL e NAS dial up) utilizzando le molteplici • creando altri nuovi 18 PoP, con un’architettura
reti dedicate di accesso ATM, ADSL, GBE, SDH ed interna analoga ma semplificata rispetto a
ISDN oggi disponibili. quella dei 12 PoP presenti;
• dismettendo progressivamente i collegamenti
ATM, per iniziare il nuovo lento ma inesorabile
3. L’architettura dei backbone IP percorso di integrazione tra IP/MPLS e lo strato
ottico;
3.1 La genesi di OPB • modellando il routing su un’architettura princi-
palmente basata su BGP e OSPF per la topolo-
L’attuale architettura della rete OPB è frutto di gia della rete.
una completa rivisitazione dell’architettura, sia Inoltre, i PoP di Roma e Milano hanno subito un
fisica che di routing, dell’allora rete IBS radicale cambiamento per permettere il nuovo
(lnterBusiness). “dual-homing” dei PoP, per raccogliere la cre-
scente clientela locale e per abilitare nuovi servizi • il trasporto del traffico MPLS nella sua compo-
(come ad esempio il BBN). nente base denominata “Provider Router” (“P”,
Da un singolo PoP a Roma e a Milano si sono giugno 2001, [4, 5]);
dapprima divise le funzionalità su due macchine • l’abilitazione della componente “MPLS Traffic
distinte (PoP Splitting), poi si sono raddoppiati i Engineering” a supporto del traffico voce BBN
PoP (PoP Doubling) giungendo così alla creazione (“MPLS-TE”, giugno 2002, [6]);
di quattro PoP completamente autoconsistenti • l’abilitazione della Qualità del Servizio per reti
detti di Inner Core. IP/MPLS a supporto del traffico voce BBN (“QoS
La tecnologia impiegata ai tempi di IBS era DiffServ”, giugno 2002);
principalmente della classe Cisco 7500, con capa- • l’attivazione delle componenti “MPLS-VPN” per la
cità di switching tipicamente intorno ai 500 Mbit/s; realizzazione di Reti Private Virtuali (Provider Edge);
nella fase di “PoP Splitting” (sdoppiamento dei • l’interconnessione tra le reti VPN di diversi
centri stella di Roma e Milano per ragioni di “disa- Autonomous System nell’ambito dell’offerta
s t e r re c o v e r y ” ) s o n o a p p a r s i i n re t e i p r i m i “dual backbone” (“Inter-AS VPN”, luglio 2002).
GigaSwitchRouter Cisco (GSR) della classe 12000, Attualmente, sono attivi su OPB più di 2.000 tun-
con capacità pari a 60 Gbit/s (12012) e con archi- nel MPLS-TE per il BBN, realizzati in maglia
tettura interna completamente distribuita dove il completa su 23 PoP in modalità FRR (Fast Re-
processore centrale è responsabile del piano di Routing) per assicurare un rapido ripristino dei
controllo e le singole schede di quello di forwar- tunnel in caso di guasti sul backbone.
ding dei pacchetti. Oggi la rete OPB utilizza Le altre componenti indicate in figura ed in
essenzialmente tecnologia GSR Cisco (12016, corso di approfondimento per un eventuale utilizzo
12416), con capacità di switching variabili da 80 a in rete, riguardano:
320 Gbit/s. • il trasporto di altre VPN MPLS all’interno delle
La migrazione su rete SDH/DWDM dell’infra- VPN MPLS (Carrier Supporting Carrier, CSC);
struttura trasmissiva per tutti i 32 PoP ha richiesto • il routing Multicast all’interno delle VPN (MPLS-
nuovi circuiti trasmissivi a 155 Mbit/s, 2,5 Gbit/s e VPN);
a 10 Gbit/s, a seconda della dimensione e neces- • il supporto su base geografica alle VPN di
sità di ciascun PoP. livello 2 (Layer 2 VPN);
La riorganizzazione del routing ha consentito, • il trasporto di altre tecnologie su MPLS (Any
nel tempo, l’abilitazione di nuove importanti funzio- Transport Over MPLS).
nalità quali (figura 3):
3.2 L’architettura della rete OPB
Milano Malpaga
Milano Bersaglio
2 x 10 GE
velocità STM-16, mentre il
CS 1 CS 4 livello Edge di tutti i PoP
CS 2 POS STM-64 CS 3
Outer Core vede le strutture
E2/T2 E1/T1
di “Accesso”, indicate in
STM-16
figura 7 con la sigla EDGE
STM-16
IBS (da non confonderli con
E1/T1 E2/T2 i GSR di Edge di OPB), su
collegamenti Fast Ethernet
POS Inner Core OPB POS o Gigabit Ethernet.
Stm 64 Stm-64
Le strutture di “Accesso”
E1/T1 E2/T2
in questo contesto corri-
E2/T2 E1/T1
spondono ad apparati di
Roma Inviolatella
STM-16 STM-16 livello 3 (ovvero routing IP e
Roma Sud
routing relative alle network dei clienti, nonché per • nella terza è stato bonificato il routing OSPF
consentire l’introduzione della tecnica MPLS in all’interno del backbone, passando da una com-
rete. Per approfondimenti sui tipi di protocolli si plicata configurazione OSPF multi-processo ad
veda il riquadro di approfondimento “I protocolli di una configurazione multi-area di nuova conce-
routing”. zione dette Aree NSSA (Not So Stubby Area). Si
Si è scelto di adottare il protocollo iBGP [10] sono così combinati i punti di forza di due proto-
per la distribuzione delle informazioni di routing colli di routing, ovvero la capacità di calcolare il
relative alle reti Cliente, ed il protocollo OSPF per percorso ottimo del protocollo OSPF, configu-
la distribuzione delle informazioni per la raggiun- rato in un’architettura a 32 aree periferiche ed
gibilità degli apparati. La complessità delle opera- un’area zero di backbone, e la capacità del pro-
zioni ha richiesto lo svolgimento delle attività in tocollo BGP di gestire e “manipolare” un elevato
tre fasi: numero di rotte (indirizzi aggregati IP) assicu-
• nella prima è stata introdotta la nuova architet- rando un’effettiva scalabilità della rete. In altre
tura di routing iBGP nella rete di backbone e di parole, con il protocollo OSPF si calcola la rag-
accesso, ad eccezione delle configurazioni rela- giungibilità di tutti i nodi della rete utilizzando le
tive ai clienti finali; loopback degli apparati (internal route) e con il
• nella seconda è avvenuta la migrazione dei BGP si propagano gli annunci delle rotte verso
clienti di IBS sulla nuova architettura di routine; le reti dei Clienti.
In tal modo, sia la sorgente che le destina- Il protocollo BGP è normalmente utilizzato per
zioni interessate al flusso multicast, possono realizzare le politiche di peering in quanto nato
raggiungere sempre il RP attivo più vicino utiliz- appositamente per lo scambio di informazioni di
zando le tabelle di routing unicast (OSPF per routing relative alla raggiungibilità delle destina-
OPB, IS-IS per DTC). L’indisponibilità di uno dei zioni (dette anche rotte, oppure network o route)
due viene quindi coperta dall’altro RP grazie al proprie di ciascun ISP (Internet Service Provider).
fatto di aver assegnato ad entrambi gli RP lo Per la definizione di ISP su veda il riquadro di
stesso indirizzo IP. Per questioni architetturali su approfondimento “Internet Service Provider”. Esso,
OPB sono stati scelti come RP due apparati inoltre, implementa vari meccanismi atti ad evitare
G S R d i C e n t ro S t e l l a , u n o a R o m a e u n o a l'instaurarsi di annunci su percorsi chiusi (loop),
Milano. consentendo la segmentazione degli annunci su
una molteplicità di sessioni e assegnando a cia-
3.2.4 Catalyst e Gateway scun annuncio una priorità qualora esistano più
percorsi verso la stessa destinazione.
Gli apparati Catalyst della infrastruttura di OPB Le relazioni di peering possono essere realiz-
svolgono due compiti fondamentali: zate presso apposite strutture denominate NAP
• consentono l’interconnessione al backbone (Neutral Access Point - Punti di Peering pubblici) o
degli apparati di accesso e di Edge attraverso mediante interconnessione diretta tra i backbone
le VLAN di accesso presenti nei 32 PoP di degli ISP tramite collegamenti diretti (Punti di
OPB; Peering privati).
• supportano il traffico di transito al backbone nei In entrambi i casi viene instaurata una sessione
Nodi di Inner Core a Roma e Milano verso i nodi eBGP (external BGP) tra i router di ciascun lato del
di peering, Internazionale e IDC, attraverso le peering (figura 11).
VLAN di transito. Un NAP può essere considerato un’infrastrut-
Dal punto di vista del routing, la modalità stan- tura di livello 2 (LAN con Switch Ethernet), in
dard di attestazione ad OPB prevede che gli ele- genere centralizzata in un’unica sede e la cui
menti di Accesso e/o Edge siano: gestione è normalmente affidata ad un consorzio di
• configurati sulle VLAN di “Accesso” di OPB con ISP, senza scopi di lucro che ne assicura la conti-
interfacce GE/FE e con indirizzo IP della sotto- nuità del servizio e la gestione dei malfunziona-
rete logica IP (LIS) delle VLAN; menti 24 ore su 24.
• conosciuti su OPB via OSPF nell’area NSSA La figura 12 illustra come i router di proprietà
esclusivamente per la propria loopback e le dei vari ISP (detti anche GateWay) sono da una
proprie interfacce verso i Catalyst; parte connessi ai LAN Switch del NAP e dall’altra
• in grado di annunciare in iBGP ai Route ai vari backbone degli ISP.
Reflector Server gli aggregati delle reti dei
clienti/sistemi a loro attestati, utilizzando per
l’indirizzo di next hop BGP la loopback dell’ap-
parato di accesso.
Come alternativa al protocollo OSPF, è possibile GW 4 x Stm 16 GW PoP
ITZ ITZ MI/MA
configurare sui GSR di OPB delle statiche, poi 2 x 10 GE 4 x Stm 16
Transito
distribuite in iBGP e come alternativa al i-BGP è
possibile configurare sempre sui GSR di OPB delle
statiche per gli aggregati delle reti cliente. In ogni POS
Stm 64
caso i Catalyst Infrastrutturali di OPB si aspettano PoP PoP
MI/BE MI/MA
di raccogliere traffico esclusivamente da apparati
di Accesso/Edge di livello 3 (routing IP) e non da POS Inner POS SEABONE
Stm 64 Core Stm 64
Switch Ethernet di livello 2.
PoP PoP
Le interconnessioni con la rete OPB sono realiz- Roma sud Roma Inv.
zate con GW (Gateway GigaRouter) dedicati verso: POS
Stm 64
• l’Upstream Provider Seabone, su circuiti Stm-
16 dedicati ai servizi Mass Market
(Residenziale) e circuiti STM-16 per i servizi 2 x 10 GE
Transito 4 x Stm 16 PoP
Executive/Business (figura 10); GW GW
ITZ ITZ Roma nord
4 x Stm 16
• il Bakbone DTC su circuiti STM-16 e GbE.
MI (Milano)
3.2.5 Il Peering BE (Milano Bersaglio)
MA (Milano Malpaga)
ad Internet via rete ATM e leased lines, all’interno del proprio Autonomous
ADSL o dial up). L’ISP (Internet System. Ha una propria connettività
INTERNET SERVICE Service Provider) è in possesso del- all'Internet globale indipendente dal
l’autorizzazione Ministeriale per la for- Peering (sia esso Privato o Pubblico)
PROVIDER nitura di accessi ad Internet (rilasciata con disponibilità della Full Internet
dal Ministero delle Comunicazioni ai Table (tutte le rotte di Internet).
(ISP) sensi del D.L. n. 103 del 17/3/95 e del Mantiene aggiornato il Network
D.P.R. n. 420 del 4.9.95). È registrato Management Database pubblico di
presso RIPE NCC o un registro equiva- RIPE secondo le specifiche dettate dal
lente come Local Internet Registry documento RFC-2622 (detto anche
È un fornitore di accessi ad Internet (avendo, quindi, facoltà di assegnare RPSL).
(per esempio, con listino ufficiale pub- reti IP ai propri clienti). Ha un proprio
blicato di prodotti realizzati all’interno numero di Autonomous System pub-
del proprio address space ed blico rilasciato da un registro ricono-
Autonomous System, come l’accesso sciuto ed annuncia le proprie reti
I due principali NAP Italiani verso la rete OPB Le sessioni eBGP garantiscono quindi un inter-
sono equipaggiati: connessione logica tra ISP nei punti di Peering
• al MIX di Milano con due GW GSR 12012, cia- Pubblici e i vari operatori concordano direttamente
scuno con doppia attestazione Gigabit Ethernet tra loro le sessioni eBGP, i filtri e le politiche di pee-
sulle due VLAN pubbliche del MIX e con due ring. In un contesto nazionale, il numero di NAP deve
collegamenti STM-16 verso i GSR di peering di essere necessariamente contenuto; dal punto di
Milano (Bersaglio e Malpaga); vista tecnico-architetturale, per OPB si armonizzano
• al Namex di Roma con un GW GSR 12012, cia- bene due punti di accesso, uno a Roma ed uno a
scuno con doppia attestazione Gigabit Ethernet Milano2. Analoga considerazione può essere appli-
sulle due VLAN pubbliche del Namex e con otto cata ai Peering Privati i quali sono di regola instaurati
collegamenti STM-1 verso i GSR di Peering di solo con ISP di grande caratura (ad esempio, per
Roma (Inviolatella e CTRL). uno scambio di traffico maggiore di 500 Mbit/s).
BB IS 2
BB ISP 1 BB ISP 3
Internet
ISP
verso
Upstream Provider
(Seabone) GW ISP
Cliente
con AS
NAP LAN
ISP
NAP
sessioni
BGP
peering
pubblico
OPB/IBS ISP
peering
privato BB ISP 4 BB ISP 5
BB = BackBone
AS = Autonomous System BGP = Border Gateway Protocol
IBS = InterBuSiness GW = GateWay
ISP = Internet Service Provider ISP = Internet Service Provider
NAP = Neutral Access Point LAN = Local Area Network
OPB = Optical Packet Backbone NAP = Neutral Access Point
FIGURA 11› L’architettura logica dei Peering. FIGURA 12› L’architettura tipica di un NAP.
I peering instaurati all’interno di un NAP per- Dal punto di vista del routing, agli “ISP-Peer”, i
mettono di creare sessioni BGP tra un numero Service Provider con cui Telecom Italia effettua un
considerevole di ISP, senza dover creare una
maglia completa di collegamenti diretti tra i vari (2)
backbone, come sarebbe necessario fare utiliz- Esistono altri due NAP sul territorio nazionale, il TIX ed il Topix che svi-
zando Peering Privati. luppano però attualmente un traffico esiguo (circa 10 Mbit/s ciascuno).
peering, vengono annunciate su eBGP le reti mediante più sessioni instaurate su collegamenti
aggregate di dominio Telecom Italia e le reti dei di diversa natura, ma l’annuncio più attendibile
Clienti che possiedono un AS (AS-Cliente), con un viene scelto sulla base della tipologia dei collega-
proprio spazio di indirizzamento e con un accesso menti attivi.
a pagamento. La massima priorità è data all’accesso come
Nel verso opposto, dagli ISP-Peer vengono Cliente a pagamento (AS-Cliente), in secondo
invece accettate le reti aggregate proprie del peer luogo all’annuncio da un Peering Privato, in terzo
e le reti dei suoi AS-Cliente. da un Peering Pubblico e la bassa priorità all’an-
È importante notare che gli annunci appresi nuncio via Internet (tramite Seabone).
dagli ISP-Peer non vengono propagati verso Un esempio di coesistenza di sessioni diverse
Seabone/Internet e verso gli altri ISP-Peer; in altri di peering tra OPB ed un AS-Cliente è riportato
termini la rete OPB non effettua “transito” a favore nella figura 14, dove è prevista la non coesistenza
degli altri ISP-Peer. di un Peering Privato con un accesso di tipo AS-
Per quanto riguarda invece gli AS-Cliente, gli Cliente.
annunci appresi vengono ovviamente propagati
verso Seabone/Internet, oltre che verso gli ISP-
Peer.
Inoltre all’AS-Cliente viene tipicamente annun- Internet
ciata la “Full Inter net table”, costituita dagli
annunci delle reti OPB e da quelli appresi da
Seabone
Seabone, dai Peering e dagli AS-Clienti.
In virtù degli molteplici punti di interconnes-
4
sione di OPB con Internet (Seabone, Peering
Pubblici e Privati) e con i propri clienti (AS- Peering
Clienti), è usuale che uno stesso annuncio giunga
ad OPB attraverso diversi punti di ingresso alla OPB/IBS 2-3
rete ma è altrettanto importante che vengono 1 ASxxx
definite delle regole per la scelta di quale annun-
AS - Cliente
cio prendere come valido. Le politiche di routing 1 Accesso a pagamento
della rete OPB, applicate al contesto dei peering 2 Peering Privato
3 Peering Pubblico
(figura 13) prevedono che un AS-Cliente o un ISP- 4 No Peering
Peer possa smistare gli annunci delle proprie reti
AS = Autonomous System
IBS = InterBuSiness
OPB = Optical Packet Backbone
I(p)
FIGURA 14› La coesistenza di Peering diversi tra OPB e AS - Cliente.
Internet Seabone
X, Xc
X, Xc X
(AS3268)
a) dovrà essere preferito sempre il Peering Privato
(se questo è presente) rispetto a quello
Cliente con reti Pubblico (presso un NAP);
X X di IBS Xc
I(p) b) questa politica dovrà essere impostata in rete
sia lato OPB che lato ISP-Peer (tipicamente con
X Reti aggregate di IBS (x maiuscolo)
AS Cliente
il meccanismo delle “Local Preference BGP”) e
Xc Reti dei Clienti IBS con proprio AS
I Reti Internet da Seabone; I(k) contiene k (Xc) non potrà essere arbitrariamente modificata da
P Reti dai Peering (Pubblici e Privati) una delle due parti;
TL-RR Top Level RR: reti aggregate di IBS
c) in generale dovrà esserci al massimo un peering
K Annuncio in EBGP delle Reti K Cliente con proprio Privato e uno Pubblico con un generico ISP-
AS e reti (network)
Peer;
d) come “regola generale” un ISP-Peer avrà un
AS = Autonomous System peering Pubblico con OPB presso un unico
IBS = InterBuSiness
OPB = Optical Packet Backbone NAP e, per eccezione, si valuterà di volta in
volta l’opportunità di gestire il peering su due
punti di scambio in funzione delle risorse dispo-
FIGURA 13› Schematizzazione delle politiche di Peering in OPB/IBS. nibili presso i due NAP, sia di OPB che dell’ISP-
Peer;
e) qualora OPB ed un ISP-Peer decidano di situati nelle città di Milano, Roma, Padova e
effettuare due peering Pubblici presso due Bologna, ciascuno dotato di 1 MAN GBE “locale” e
strutture NAP, dovrà essere concordata la da un Outer Core di 13 MAN GBE “remote”.
priorità di utilizzo dei peering in base a criteri Come indicato in figura 15, i PoP-LH sono
di reciproca convenienza e tale politica non interconnessi con due collegamenti POS STM-16
potrà essere arbitrariamente modificata da garantendo il reinstradamento automatico in caso
una delle due parti. La “regola generale” fa di guasti. Il PoP-LH di Milano svolge la funzione
riferimento al fatto che Telecom Italia ha adot- di concentrazione del traffico dagli altri PoP di
tato fin dalle origini di IBS, l’approccio di backbone e la connettività internazionale con
accettare come “default” i peering Pubblici Seabone.
con tutti gli ISP che lo richiedessero; come L’interconnessione con OPB è realizzata a
naturale estensione di questa politica, si Roma e a Milano, su collegamenti GbE per servizi
ammette che un ISP-Peer possa richiedere di IP e di tipo SDH a 2,5 Gbit/s per servizi VPN-
instaurare un Peering Pubblico presso un MPLS, attuando in questo caso le funzionalità
generico NAP a scelta. “Inter-AS-VPN” per le sedi cliente Executive atte-
state in modalità “dual backbone”.
PE PE/RA/RR Milano
Catalyst 6509
Infrastrutturali
GE
GE Padova
Seabone MAN MI
GSR LH STM-16
GSR LH MAN PD
GE
Peering con
OPB
STM-16 STM-16
PE/RA/RR
STM-1
GE
GE
GE
Catalyst 6509 Esempio
Infrastrutturali di MAN
MAN Bologna remota
MAN RM (13 città)
PE PE/RA/RR PE/RA
PE/RA/RR
GE = Gigabit Ethernet
GSR = Gigabit Switch Router
LH = Long Haul
MAN = Metro Area Network
OPB = Optical Packet Backb
PE = Provider Edge
RA = Router Access
RR = Route Reflector
3.3 L’architettura della rete DTC Nell’architettura attuale, ciascuna MAN è realizzata
con due Router Cisco 7600 che svolgono funzionalità di
La rete Datacom offre alla clientela Executive Transito per i Servizi o Edge Full-Internet e VPN-MPLS,
servizi business legati anche ad applicazioni “mis- ad eccezione di Roma e Milano dove due coppie di
sion critical” (banche, trading on line…), con con- GSR 12416 fungono da Transito per l’Edge locale.
nettività sia in rete privata (VPN-MPLS) che verso Il routing del backbone Executive è fondato su
Internet. due livelli:
Il backbone è costituito da un Inner Core di • il protocollo IS-IS [15] è utilizzato per calcolare i
quattro PoP-LH (Point of Presence-Long Haul) percorsi che permettono di raggiungere gli
apparati di rete (in particolare le route verso le I suddetti meccanismi di scheduling entrano in
loopback); gioco solo in caso di congestione interna al nodo,
• il protocollo iBGP è utilizzato per propagare le quale ad esempio la saturazione di un’interfaccia;
informazioni dei clienti (viene impostato come ciò può accadere solo in caso di guasti in rete di
next hop la loopback dell’apparato di accesso). tipo multiplo se si sono dimensionati i collegamenti
Tale soluzione combina i punti di forza dei due in modo da non superare il 50% della capacità.
protocolli: la capacità di calcolare il percorso
ottimo di IS-IS e la capacità di gestire con effi- 4.2 Criteri di implementazione della QoS su OPB
cienza un elevato numero di route del BGP.
I principi generali che hanno guidato l’imple-
mentazione della QoS su OPB sono basati su cri-
4. La Qualità del Servizio teri di semplicità, efficienza ed efficacia: il back-
bone deve, cioè, essere in grado di trasportare
La Quality of Service (QoS) nelle reti di teleco- pacchetti/trame in grosse quantità e ad alta velo-
municazioni è tipicamente riferita ad un insieme di cità, lavorando i volumi di traffico “all’ingrosso” e
parametri prestazionali osservabili e misurabili non il “bit” al “dettaglio”, come invece è, in genere,
direttamente agli estremi dei punti di accesso di un richiesto all’area di Edge IP/MPLS. I punti di forza
servizio di trasporto dati. In questo contesto non si risiedono nell’utilizzo di adeguate tecnologie di
intende fare una trattazione generale sulla qualità switching e dimensionamento dei collegamenti
del servizio in una rete di telecomunicazioni ma infrastrutturali. Con questi criteri, apparentemente
piuttosto dare una descrizione dei criteri, para- “banali”, un backbone IP/MPLS offre prestazioni
digmi e meccanismi di QoS applicati ed applicabili eccellenti.
su un backbone dati. Le stesse considerazioni devono essere appli-
I meccanismi a supporto della qualità di un ser- cate a tutti i criteri di progettazione, ivi compreso
vizio di trasporto di pacchetti, per un backbone, quello del piano di controllo e ciò ha comportato
come quelli di Wireline, progettato con criteri di per la realizzazione di OPB:
ridondanza di apparati e di collegamenti tra i nodi, • l’impiego di tecnologia di Gigarouter GSR,
entrano in gioco praticamente solo in condizioni di modello di punta della Cisco Systems per back-
guasto, specialmente se questo è multiplo. bone IP;
Il concetto di “Best Effort”, ovvero il trasporto di • l’utilizzo di circuiti tutti di tipo SDH/DWDM,
pacchetti dati senza alcuna garanzia di ricezione sempre dimensionati al massimo al 50% delle
nato nel periodo di gioventù di Internet, è stato lar- propria capacità;
gamente superato con le tecnologie oggi disponi- • un Piano di controllo il più semplice e scalabile
bili e da un’adeguata progettazione della rete. possibile.
Un backbone ben progettato, costituito da In condizioni normali, ovvero in assenza di gua-
apparati Gigarouter, da collegamenti dorsali ad alta sto, si fa principalmente affidamento sulla tecnolo-
capacità ottici da 2,5 Gbit/s a 10 Gbit/s, con tempi gia interna del nodo Gigarouter, basata su una
di attraversamento nel singolo nodo sotto al milli- velocità di “switching” della matrice intorno ai 500
secondo e con ritardi end to end tra due POP microsecondi ed una celerità di attraversamento
legati essenzialmente alla velocità trasmissiva della del singolo nodo tipicamente dell’ordine del milli-
rete di trasporto sottostante, consente di fatto un secondo.
servizio di trasporto di pacchetti di ottima qualità In caso invece di congestione del nodo, ovvero
per tutti i servizi supportati. Le prestazioni tipiche in caso di guasti multipli in rete, entrano in gioco i
per un backbone non eccessivamente esteso geo- classici meccanismi previsti nel modello DiffServ
graficamente come quelli OPB o DTC, sono quindi (Differentiated Services) standardizzati in ambito
di qualche decina di millisecondi di ritardo end to IETF [16, 17]. Il modello tratta unicamente gli
end tra i PoP con un jitter minore del 50% sul aggregati di traffico e non interviene sui singoli
ritardo end to end. flussi, quali quelli dei clienti o delle singole applica-
zioni. Il trattamento dei pacchetti, applicato all’in-
4.1 L’ortogonalità tra QoS e MPLS terno del nodo, in base al valore IP Precedence del
campo ToS (Type of Service) nell’intestazione dei
A prescindere da considerazioni affidabilistiche, pacchetti IP (o il valore Experimental nell’intesta-
le funzionalità MPLS e la QoS sono praticamente zione delle trame MPLS), è uguale per tutti i pac-
“ortogonali”: attivando MPLS non si ottengono chetti appartenenti alla stessa classe ed è determi-
cioè vantaggi in termini di prestazioni o di migliora- nato dall’attribuzione di una determinata quantità
mento della QoS. di risorse riservata alla classe.
La funzionalità di QoS, in accordo ai paradigmi I Gigarouter implementano due meccanismi di
di differenziazione della qualità dei servizi (modelli QoS per la gestione delle risorse interne al nodo:
DiffServ), viene gestita grazie a politiche e mecca- • il Modified Deficit Round Robin (MDRR);
nismi di accodamento (scheduling) dei pacchetti • il Weighted Random Early Detection (WRED).
IP/MPLS nei buffer dei router, ovvero in uscita L’algoritmo MDRR è utilizzato per la gestione
verso le interfacce ed in entrata verso la matrice delle code interne al router: su ogni coda può
del nodo; ciò vale indistintamente sia per il traffico essere mappata una o più delle suddette classi
IP che per quello imbustato via MPLS. di servizio e servita in modalità “round-robin”.
Ad ogni coda viene assegnato un “peso” rela- servizio (campi IP Prec o Exp MPLS), all’interno
tivo differente, attraverso il quale è possibile asse- delle code del Gigarouter. Questo profilo di QoS è
gnare una porzione di banda relativa ad ogni coda stato attuato sia in ingresso alla matrice di com-
da utilizzare in caso di congestione. L’algoritmo mutazione interna del GSR che sulle code in
MDRR supporta inoltre una gestione delle priorità uscita delle interfacce del nodo ed è configurato
nello smaltimento delle code (Priority Queue), in sui collegamenti interni al backbone e non verso le
modo da rispondere ai requisiti di basso delay e jit- VLAN di Accesso. Riguardo alla coda SRT, come
ter che richiede il traffico “sensibile al tempo”, si è già detto, essa non è soggetta ai meccanismi
come il traffico Voce su IP. L'implementazione pre- Round Robin dell’algoritmo MDRR; in altre parole,
vede anche la modalità SRT (Strict Real Time) nella questo vuol dire che i pacchetti o trame MPLS
quale la coda è servita fino al completo svuota- inserite nelle code SRT sono potenzialmente in
mento in modo da garantire il minimo ritardo tem- grado di attingere al 100% delle risorse interne al
porale. nodo.
L’algoritmo WRED cerca di evitare la conge- La cosa non è un problema nel caso che la per-
stione delle code attuando uno scarto selettivo di centuale di traffico mappato sulla coda SRT venga
pacchetti sulla base della priorità. Lo scarto dei limitata in rete ad un valore “ragionevole”, ovvero
pacchetti IP avviene al superamento di una certa un valore intorno al 10% (al massimo pari al 15%)
soglia di occupazione del collegamento e con pro- della capacità di un generico circuito.
babilità crescente in funzione del livello di occupa-
zione. Il WRED inoltre gestisce la differenziazione
delle soglie e delle probabilità di scarto in base alla 5. Impieghi per applicazioni Voce: Class 4/5
classe di servizio, consentendo quindi la prote-
zione del traffico più pregiato. 5.1 Progetto BBN Class4
Attualmente, su OPB è stato implementato un
profilo di QoS per tre tipologie di traffico: Il progetto “BBN” è nato nel 2001 per sostituire
• Gold, dedicato al traffico VoIP BBN marcato il livello di trasporto a commutazione di circuito del
con IPPrec o Exp MPLS a 5; traffico Voce, eliminando gli SGT (Stadi di Gruppo
• Premium, con pacchetti IP/MPLS marcati con di Transito) con nodi di tecnologia innovativa, detti
IPPrec o Exp MPLS a 6, 7, 4 , 2; nodi “BBN” oppure “Class4” [1].
• Default, marcato a 0, 1, 3. La prima attivazione è avvenuta tra Roma e
Il traffico VoIP su BBN, marcato con valore Exp Milano nell’agosto del 2002 ed è proseguita nei
MPLS pari a 5 nel Media Gateway, viene inserito mesi successivi con il graduale ribaltamento del
nelle code interne SRT a bassa latenza dei GSR; traffico telefonico sui nuovi nodi. I requisiti del pro-
tutto il resto del traffico viene invece inserito in due getto BBN hanno richiesto al backbone OPB un
code MDRR dove, alla coda 1 è dato un peso servizio di trasporto il più possibile simile ad una
MDRR equivalente all’80%, alla coda 0 di default il interconnessione “trasmissiva”, attuato in un
restante valore del 20% (figura 16). Per quanto ambiente “chiuso”. A tale scopo, i Media Gateway
riguarda il WRED, è stato scelto un modello “tail di BBN usufruiscono di una struttura di tunnel
and drop”, con le stesse soglie per le varie classi di MPLS-TE che ha fondamentalmente il compito di
creare un piano di controllo e di forwarding com-
pletamente separato rispetto all’universo
“Pubblico”.
In questo contesto per ambiente “Pubblico” si
VoIP BBN SRT
intende la possibilità di raggiungere a livello IP tutti
5 le tipologie dei Clienti o gli elementi di Edge
Strict priority (Router di Accesso, NAS ADSL e dial up) nelle reti
IPPREC o MPLS EXP bit
Due sono i possibili scenari di comunicazione: livello IP dei Media Gateway (schede VISM) dei
• tra clienti/applicazioni, oppure tra elementi di nodi Class4 di BBN; in altri termini, si rende neces-
rete detti “Border Gateway”, o “Access sario mettere in qualche modo in comunicazione i
Gateway” tutti appartenenti al piano IP Pubblico due universi (Pubblico e Privato), come schematiz-
e collegati quindi alle strutture di Accesso/Edge zato nella figura 20.
di OPB;
• tra un cliente appartenente al piano IP Pubblico
ed un cliente del mondo legacy TDM, attestato
quindi ad una centrale di commutazione urbana
tradizionale raggiungibile, telefonicamente tra-
mite un nodo BBN Class4. Questi nodi Class5,
Interconnessione
in numero contenuto e centralizzato, saranno Pubblico-Privato (CL5)
attestati direttamente ai GSR di OPB nei quattro M
OSPF
LB GSR
“Border Gateway”), con il preciso
scopo di metterli in comunica-
Nodo Pubblico
Elementi GE GSR1
Privati interni STM-1 zione.
ATM GSR2 OPB
al nodo C5 Per quanto riguarda lo speci-
BGP
V fico scenario di BBN Class4, è
OSPF stato deciso di configurare parte
V LB GSR
delle schede VISM dei Media
MGX
Gateway con indirizzi pubblici IP.
Statica verso il nodo Pubblico e VISM, Inizialmente questo paradigma
ridistribuita in BGP con next-hop LB GSR.
porterà ad una nuova configura-
V VISM con indirizzi IP Pubblici zi o n e ed i n stal l azi o n e di un
numero limitato di schede VISM
ATM = Asymmetrical Transfer Mode nei Media Gateway dei 24 PoP
BBN = BackBone Nazionale
BGP = Border Gateway Protocol BBN.
GE = Gigabit Ethernet L’inserimento verrà poi gradual-
GSR = Gigabit Switch Router
LB = LoopBack mente guidato dalla numerosità
MGX = Nodo ATM di Cisco Systems
OPB = Optical Packet Backbone della clientela/servizi sul piano
PoP = Point of Presence pubblico che hanno la necessità di
RR = Router Reflector
VISM = Voice Interworking Service Module comunicare con il mondo TDM tra-
dizionale, ricordando che “dietro”
ai nodi BBN Class4 vi sono i bacini
FIGURA 19› Interconnessione di un PoP BBN C5 a OPB. di raccolta TDM tramite gli SGU
tradizionali.