Sei sulla pagina 1di 39

Dispensa

Introduzione alle Tecnologie dell’Informazione,


dei Media e della Comunicazione (IMCT).
Telematica, Networking, Internet e Web 2.0

di

Orlando De Pietro

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi
di cui Orlando De Pietro è autore. La dispensa deve essere utilizzata esclusivamente a scopo
didattico, pertanto, se ne diffida la riproduzione e la diffusione.

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 1
INDICE

Premessa

Parte prima
Introduzione alle Tecnologie dell’Informazione, dei Media e della Comunicazione
1. Dato, Informazione e Conoscenza
2. L’architettura del calcolatore: hardware e software
2.1 L’hardware
2.2 Capacità di memoria: bit e Bytes
2.3 Il Software
2.3.1 Il Sistema Operativo

Parte seconda
Telematica, Networking, Internet e Web 2.0
1. La Telematica
1.1 Classificazione delle reti
1.2 Topologie di rete
1.3 Struttura di una rete LAN

2. Internet: definizione ed evoluzione storica


2.1 TCP/IP: il procotollo di Internet
2.2 Internet Protocol
2.3 Infrastruttura tecnologica della rete Internet
2.4 I servizi della rete Internet
2.4.1 Il World Wide Web
2.4.1.1 Ipertesto e ipermedia
2.4.1.2 Il linguaggio HTML
2.4.2 FTP (File Transfer Protocol)
2.4.3 Posta elettronica (E-mail)
2.4.4 Motori di ricerca
2.4.5 Chat line

3. La nuova Internet: Internet 2.0


3.1 Web 2.0: il nuovo web

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 2
Premessa

In questi ultimi anni si sta assistendo a un continuo sviluppo di una Società dell’Informazione
e della Conoscenza aperta e non discriminante in ambito sociale, in quanto l’informazione è
diventata, ormai, per la Società odierna, e per la collettività in generale, un elemento di ricchezza e
una risorsa essenziale per il proprio sviluppo.
A partire dagli inizi degli anni Novanta vi è stato un cambiamento nel campo dell’economia e
della vita sociale. Cambiamento dovuto alla rivoluzione tecnologica che ha dato origine ad una
Nuova Era: l’era digitale, caratterizzata da un utilizzo più incisivo sempre della rete Internet e delle
tecnologie dell’informazione e della comunicazione (TIC o ICT - Information and Communication
Technologies) e dei media (IMCT) nelle attività, sociali, culturali, lavorative, economico-finanziarie
delle persone. A seguito di questa rivoluzione tecnologica nel linguaggio scientifico, ma anche in
quello quotidiano, entrano “nuovi” termini che vengono sempre più utilizzati, quali e-mail, e-
commerce (commercio elettronico), e-business, Net Banking, per indicare i servizi bancari fruiti
attraverso la rete Internet, come la gestione del proprio c/c, le transazioni finanziarie, ecc., e New
Economy, per indicare l’incidenza delle ICT nelle attività economico-commerciali, w-didattica
(didattica mediata dalla rete Internet), oggi DaD (Didattica a Distanza), e così via.
Il Consiglio Europeo ha posto particolare attenzione alle nuove tecnologie e ha redatto un
documento: L’Europa in 12 lezioni, mettendo in evidenza un obiettivo strategico e altamente
significativo: “far diventare l’economia basata sulla conoscenza più competitiva e dinamica del
mondo, in grado di realizzare una crescita economica sostenibile con nuovi e migliori posti di
lavoro e una maggiore coesione sociale”. Tale strategia mira a promuovere la ricerca scientifica,
l’istruzione, la formazione professionale e, soprattutto, l’accesso a Internet e ai servizi on-line. Le
nuove tecnologie vengono ritenute e rappresentano i motori di una crescita sostenibile per cui si
richiede che vengano sempre più utilizzate nei servizi pubblici, nelle PMI, negli Enti pubblici e
privati, nella formazione, assumendo sempre più una dimensione invasiva, in quanto caratterizzante
ogni momento della vita quotidiana e ogni ambito della vita sociale, economica, relazionale e
formativa. Diventa essenziale, per poter perseguire e quindi conseguire questi obiettivi, fare
acquisire a tutti i cittadini d’Europa e del mondo le competenze di base delle ICT o TIC. Vale a dire
occorre minimizzare o, ancor meglio, eliminare il digital divide ovvero la divisione/separazione fra
chi è in grado di servirsi delle tecnologie e chi non le sa usare o non ha addirittura la possibilità di
utilizzarle perché ne è sprovvisto.
L’introduzione delle nuove tecnologie ha, comunque, causato alla società prospettive positive
ma anche negative. Per quanto riguarda il management (l’aspetto gestionale), sicuramente l’uso
degli strumenti informatici ha portato ad un aumento dell’efficienza, in termini di diminuzione dei
tempi di elaborazione e dei costi di produzione, e dell’efficacia consentendo un miglioramento dei
servizi offerti. Mentre dal punto di vista sociale da un lato si assiste alla perdita di posti di lavoro e
all’obsolescenza di qualifiche e professioni nei settori tradizionali, dall’altro lato si assiste, invece,
alla nascita di nuove professioni, nuove tipologie di business, con la realizzazione di nuovi prodotti
e servizi, in cui sono richieste nuove figure professionali quali web editor, esperti e-Learning, e-
tutor, esperto in Training Project Manager, e-Tourism Manager, ecc.
L’avvento della Società dell’informazione ha determinato, in effetti, il passaggio da una
economia basata sulla produzione di beni ad una basata sull’erogazione di servizi; in particolare la
diffusione delle tecnologie telematiche ha consentito di produrre, archiviare e rendere disponibile
una enorme quantità di informazioni utile all’uomo per svolgere le proprie attività produttive e
decisionali. Anche in campo formativo le ICT hanno notevolmente modificato non solo il rapporto
con il mondo esterno ma anche con i saperi, avendo introdotto elementi che ridisegnano in modo
completamente nuovo sia i modelli formativi di comunicazione ed erogazione del sapere sia le
strategie e metodologie di acquisizione delle stesse conoscenze.
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 3
L’uso delle reti telematiche consente la distribuzione su larga scala del materiale didattico e lo
stesso può essere fruito in autoistruzione. In particolare, la formazione ha subito radicali mutamenti
nel corso del tempo, da cui sono derivati innumerevoli modelli, teorie, paradigmi e tecnologie
dell’insegnamento-apprendimento. L’evoluzione e la continua diffusione delle tecnologie hanno
contribuito in maniera innovativa alla creazione e sperimentazione di nuovi modelli formativi, non
soltanto negli ambienti scolastici e universitari, ma anche nelle Aziende e nella Pubblica
Amministrazione, in cui ormai si rende necessario un aggiornamento continuo e permanente
(lifelong learning) del personale. Le potenzialità offerte dalle ICT hanno, pertanto, trasformato
radicalmente le caratteristiche di erogazione dei contenuti, portando di conseguenza ad un
cambiamento delle modalità di acquisizione e di gestione delle informazioni e dei saperi.
A partire da queste considerazioni, la dispensa è strutturata in due sezioni. Nella prima sezione
(Parte Prima) vengono analizzate alcune nozioni di base necessarie alla comprensione
dell’informatica e dell’evoluzione delle tecnologie dell’informazione e della comunicazione. In
particolare le tematiche trattate riguardano: il concetto di dato, informazione e conoscenza, il
passaggio dall’informazione verbale a quella digitale, l’architettura del calcolatore, i supporti di
informazione, la capacità di un supporto di informazione.
Nella seconda sezione (Parte Seconda) viene, invece, fornita un’introduzione al Networking,
alle tecnologie informatiche e telematiche, per cui si presentano le reti di telecomunicazione e
vengono analizzati i tipi e le topologie delle reti telematiche. Infine si discute della rete Internet,
della sua evoluzione e infrastruttura tecnologica e quindi dei suoi servizi e protocolli di
comunicazione. La sezione si conclude con un capitolo riferito alla cosiddetta Internet 2.0, al Web
2.0 e alle nuove applicazioni del Web.

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 4
Parte prima
Introduzione alle Tecnologie dell’Informazione, dei Media e della
Comunicazione

1. Dato, Informazione e Conoscenza

L’informazione nell’attuale società ha assunto un carattere di primaria importanza e, come in


passato si è assistito a rivoluzioni come quella agraria o quella industriale, si può affermare che
oggigiorno è in atto una forma di rivoluzione legata all’informazione e alla comunicazione, nota
come Era dell’informazione.
Alla base dei processi produttivi, che caratterizzano i vari settori (privati e pubblici),
l’informazione, nelle sue diverse forme di rappresentazione (caratteri, numeri, simboli, immagini,
ecc.), diventa un bene rilevante, tanto da essere considerata un vero e proprio valore aggiunto e
fattore produttivo. Tale fattore è tanto più rilevante quanto più elevato è lo scambio
dell’informazione, o meglio delle informazioni, nella società e nella quotidianità della vita di
ciascuno. La modalità di rappresentazione dell’informazione, pertanto, nel corso del tempo, ha
subito radicali cambiamenti dovuti essenzialmente all’evoluzione tecnologica dei mezzi utilizzati
per trasferirla; così, a partire dall’epoca primitiva, in cui la trasmissione dell’informazione avveniva
soltanto in maniera orale ed era circoscritta in uno spazio/tempo limitato, si è passati ad una
diffusione delle informazioni sempre più ampia. E ciò si deve soprattutto all’evoluzione dei mezzi
di comunicazione. Volendo quindi ripercorre la storia dell’informazione, o meglio della
rappresentazione dell’informazione, si possono individuare le seguenti fasi:
 Prima fase - risale ai popoli primitivi e alla loro capacità di comunicare solo con gesta o,
successivamente, verbalmente; per cui l’informazione era trasmissibile solo tra esseri
viventi “vicini”.
 Seconda fase - è quella caratterizzata dall’alfabeto e dalla scrittura. È stato, in tal modo,
possibile superare sia i limiti di spazio (in quanto si poteva trasmettere l’informazione da
un luogo all’altro per iscritto), sia i limiti di tempo (potendo essere trasferita alle
generazioni successive).
 Terza fase, è quella della scrittura a stampa grazie alla quale a seguito del processo di
copia e ricopia si assiste ad una rapida diffusione dell’informazione, ampliando sempre
di più i limiti spazio-temporali.
 Quarta fase - è collegata all’uso dei mezzi di comunicazione di massa: radio, tv, cinema,
giornale, grazie ai quali si inizia ad avere una diffusione di massa dell’informazione.
 Quinta fase – e ultima, è una evoluzione della precedente, ed è quella caratterizzata
dall’utilizzo delle nuove tecnologie informatiche e in particolar modo di quelle
telematiche, dove si annullano definitivamente o quasi i limiti spazio-temporali e della
memoria.

Ma che cos’è e cosa si intende per informazione?


Darne una definizione precisa non è semplice, proprio perché tale concetto riguarda ogni
campo e settore della vita quotidiana e, all’interno di ogni campo specifico di applicazione, assume
una diversa interpretazione; pertanto, ogni individuo recepisce e interpreta l’informazione in modo
diverso. Per rendersi conto del grado di problematicità nel definire l’informazione, Claude

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 5
Shannon1, ritenuto il fondatore della teoria dell’informazione e ricercatore del MIT (Massachussets
Institute of Technology - USA), la definisce come “qualsiasi differenza che genera differenze”.
In ogni caso se si vuole attribuire un primo significato al termine, si può partire dal fatto che
un carattere, un numero, o una sequenza di essi, una data di nascita, una sensazione, ecc., altro non
è che un messaggio, cioè una informazione, che un sistema, ad esempio l’uomo, percepisce,
interpreta e memorizza. Al fine di chiarirlo meglio, occorre precisare che, così come appena
definita, l’informazione è una “informazione elementare” cioè non ha un valore, o meglio un
significato valutabile, in quanto elemento “singolo”; questa informazione elementare viene
chiamata più comunemente dato.
Le informazioni o, a questo punto, i dati ricevuti e combinati fra di loro portano ad una
conoscenza, ovvero ad una informazione utile in grado, cioè, di ridurre o eliminare nel sistema
l’incertezza, il dubbio. Per quanto accennato in precedenza, si può a questo punto asserire che
l’informazione è un elemento fondamentale per la vita sociale e lavorativa del sistema (uomo) in
quanto rappresenta quella conoscenza di cui egli ha bisogno per produrre, rendere, socializzare, e di
cui l’informazione è parte integrante. La conoscenza è un bene immateriale che, in quanto tale, non
si deteriora con il suo utilizzo ma al contrario è proprio nel tempo che genera maggiori benefici
soprattutto a seguito del suo confronto con altre conoscenze, portando ad un arricchimento
conoscitivo; arricchimento che può avvenire sia in forma implicita mediante esperienza diretta sia in
forma esplicita tramite riflessioni sulla esperienza stessa.
La qualità della conoscenza è determinata dalla varietà dell’esperienza all’interno
dell’organizzazione o della società, in quanto porta il singolo individuo a elaborare proprie
prospettive; prospettive che, per non rimanere a livello personale e confluire invece in una forma di
conoscenza organizzativa/sociale, hanno bisogno di essere rielaborate e diffuse.
In relazione alla diffusione di tale conoscenza, sorgono, però alcune problematiche:
* la conoscenza per essere diffusa necessita di una opportuna codifica, soprattutto per la conoscenza
tacita che difficilmente è trasferibile tra i vari soggetti. Ma, quanto più si codifica l’informazione
tanto più si rende quest’ultima facilmente riproducibile per cui si perde quel carattere di unicità che
le faceva acquisire maggiore valore;
* la conoscenza formalizzata diviene statica e perde dinamismo rispetto alla velocità del
cambiamento, per rispondere cioè alle nuove situazioni necessita di essere ri-codificata;
* la codificazione della conoscenza presenta spesso costi notevoli e amplifica la complessità
dell’utilizzazione dell’informazione; ecco perché spesso si assiste al cosiddetto “paradosso della
società dell’informazione”, per cui non sempre si producono gli attesi incrementi di produttività2.
Per poter trasferire e quindi comunicare l’informazione, si deve fare ricorso ad opportuni strumenti
e canali di comunicazione. È necessario, pertanto, considerare che, in base al canale di
comunicazione utilizzato, l’informazione deve essere opportunamente codificata secondo uno
standard adatto al canale di riferimento. In effetti, il trasferimento di informazioni deve essere
considerato in un sistema più ampio che si occupa del trattamento delle informazioni, all’interno del
quale sono presenti più sotto-sistemi che utilizzano diversi canali di comunicazione. Tale sistema, a
sua volta, si contestualizza in un apparato che si identifica con l’ambiente esterno (ecosistema).

1
Claude Elwood Shannon, (Petoskey, Michigan (USA) 1916 - Medford, Massachussets 2001), matematico e ingegnere
elettronico, è considerato il fondatore della Teoria matematica dell’informazione.
2
Barone M., Fontana A., Prospettive per la Comunicazione Interna e il Benessere Organizzativo, F. Angeli, 2005
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 6
I sottosistema sottosistema
U
sottosistema
sistema
Ecosistema

Fig. 1 – Schema di Sistema per il trattamento delle informazioni.

Sostanzialmente il sistema riceve in ingresso (I) dall’ecosistema informazioni, che, una volta
elaborate all’interno dell’interazione tra i vari sottosistemi, produce l’output (U) verso l’ecosistema
stesso. L’obiettivo è comunque quello di generare nuova conoscenza a seguito della elaborazione.
Alcuni sotto-sistemi, comunque, necessitano, per il loro funzionamento, del fattore umano,
mentre altri sono indipendenti poiché gestiti in maniera automatica grazie alla presenza di strumenti
per il trattamento automatico dei dati. In quest’ultimo caso, l’intervento umano si ha soltanto nella
fase di inserimento di tali dati nel sistema, secondo opportune procedure di lavoro e di trattamento
delle informazioni a monte definite, per poter giungere ad una conoscenza.
A questo punto, per meglio comprendere il valore che viene generato dal passaggio del dato
alla conoscenza, è opportuno evidenziare con maggiore precisione la differenza che intercorre tra
dato, informazione e conoscenza:
- i dati sono gli elementi grezzi di cui si dispone, una sorta di materia prima necessaria per la
creazione delle informazioni;
- le informazioni possono essere descritte come messaggi trasmessi da un emittente a un ricevente.

L’informazione viene trasmessa al fine di modificare il modo attraverso cui il ricevente percepisce
qualcosa e, affinché abbia impatto sul suo giudizio e/o sul suo comportamento, in definitiva è ciò
che possiede un significato per l’uomo;
- la conoscenza è definita come “[…] una combinazione fluida di esperienza, valori, informazioni
contestuali e competenza specialistica che fornisce un quadro di riferimento per la valutazione e
l’assimilazione di nuova esperienza e nuove informazioni. Essa origina e viene applicata attraverso i
conoscitori.”3.
Volendo fornire una visione più completa si può considerare il seguente schema:

3
Davenport T. H., Prusak L., Working Knowledge: How Organizations Manage What They Know, Harvard
Business School Press, 1998
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 7
Fig. 2 – Schema Dato, Informazione, Conoscenza.

Il rilevamento, l’elaborazione, lo scambio e l’archiviazione di informazioni, con lo scopo di


produrre e distribuire conoscenza, sono alla base delle nuove Tecnologie dell’Informazione, dei
Media e della Comunicazione identificate dall’acronimo IMCT – Information, Media and
Communication Technologies.

1.1.1 Trasformazione di caratteri in digitale


Per quanto riguarda la rappresentazione delle informazioni di tipo testo, sequenze di caratteri e
altri simboli, occorre fare una premessa.
Il calcolatore, nato per trattare numeri, col passare degli anni ha trovato impiego anche in
quelle attività che devono trattare anche caratteri, simboli, per cui nasce l’esigenza di individuare
dei meccanismi che realizzino una corrispondenza tra la rappresentazione dell’informazione più
vicina all’uomo (analogica) con quella propria degli elaboratori digitali.

A tale scopo, vengono create delle tabelle che fanno corrispondere ad ogni carattere una
sequenza di bit; tale sequenza viene letta come valore numerico binario, che in effetti corrisponde
ad una codifica numerica dei caratteri. Mediante l’utilizzo di queste tabelle di conversione, qualsiasi
elaboratore può codificare in binario le informazioni ricevute, memorizzarle, manipolarle e
trasmetterle, con un processo inverso di decodifica, nel formato comprensibile all’uomo.
Da notare che elaboratori diversi, cioè costruiti da costruttori diversi, possono utilizzare
tabelle di conversione diverse; al fine di uniformare tale rappresentazione vengono adottate a livello
mondiale delle tabelle di codifica standard. La più utilizzata universalmente è la Tabella o Codice
ASCII (American Standard Code for Information Interchange), mostrata in figura 4.
Il Codice nella codifica rispetta l’ordine alfabetico e i valori numerici sono in ordine
crescente. Una caratteristica di questo Codice, inoltre, è che la distanza tra una lettera maiuscola e la
stessa lettera minuscola è costante. In una tabella ASCII in corrispondenza di ogni carattere viene
riportato il codice decimale (numero progressivo) che corrisponde alla posizione occupata dal
carattere e quindi la corrispondente codifica in binario.

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 8
Fig. 4 – Tabella ASCII.

2. L’architettura del calcolatore: hardware e software

L’elaboratore è un insieme di risorse, comprendenti dispositivi di elaborazione elettronici


digitali, programmi memorizzati e gruppi di dati che, sotto il controllo dei programmi memorizzati,
acquisisce, tratta ed emette automaticamente dei dati (o informazioni), che può immagazzinare e
recuperare.
L’architettura di un calcolatore elettronico è composta da due componenti fondamentali:
 l’hardware, che è l’insieme delle componenti fisiche, soprattutto di circuiti elettronici;
 il software, invece, è l’insieme dei programmi utilizzati dall’hardware per svolgere le
operazioni richieste dall’essere umano.
Vengono poi usualmente distinti i dati in ingresso (input) in modo tale che possono essere
generati dei dati in uscita (output).

2.1 L’hardware

L’hardware (parola inglese che significa letteralmente ferraglia) indica la struttura fisica del
computer, costituita di norma da componenti elettronici che svolgono specifiche funzioni nel
trattamento delle informazioni. Costituisce la parte materiale (o dura) del sistema elaborativo.
In generale un computer può essere schematizzato come segue (Macchina di Touring):

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 9
Unità Centrale o
Unità di Unità di
Unità di elaborazione
input output

 L’unità centrale, è il “cuore” del computer, rappresenta l’elemento principale ed è la parte più
complessa dove avvengono le elaborazioni. Essa è costituita da:

a) l’unità di elaborazione o (micro)processore o CPU (dall’inglese Central Processing


Unit): è la parte del sistema che svolge le elaborazioni e coordina il trasferimento dei
dati all’interno del sistema informatico. Suo compito è quello di eseguire i programmi,
ossia interpretare ed eseguire le varie istruzioni di cui i programmi sono composti. Nella
struttura di una CPU sono riconducibili tre sottosistemi principali:
- l’unità logico aritmetica (ALU, Arithmetic-Logic Unit), la cui funzione è quella di
effettuare operazioni di tipo aritmetico (somme, sottrazioni,…) e di tipo logico
(AND, OR,…) sugli operandi forniti ai suoi ingressi. Ogni ALU è in grado di
eseguire un certo insieme di operazioni, selezionabili tramite un comando ricevuto
dall’esterno;
- i registri, che sono celle di memoria interne alla CPU utilizzate per immagazzinare le
informazioni necessarie per l’esecuzione delle istruzioni;
- l’unità di controllo, che coordina le varie unità nell’esecuzione dei programmi, nella
lettura delle istruzioni dalla memoria, nella loro decodifica e nella loro esecuzione,
comandando in modo adeguato i segnali di controllo dei registri dell’ALU e dei bus
che interfacciano la memoria;
b) la Memoria centrale, è utilizzata per memorizzare dati e programmi utili al
funzionamento del sistema informatico. Essa può essere vista come un insieme di celle
adiacenti, ognuna caratterizzata da un proprio identificatore univoco, chiamato indirizzo
(memory address), in cui possono essere scritti e letti dati in formato binario.
Caratteristiche: - dimensioni limitate, nel senso che può contenere pochi dati o
programmi; - è volatile, nel senso che il suo contenuto viene perduto o quando il
calcolatore viene spento o quando c’è un guasto o una interruzione di energia elettrica; -
in compenso l’accesso all’informazione memorizzata al suo interno è molto rapido.
La Memoria Centrale è costituita dalla ROM (Read Only Memory), memoria di sola
lettura e dalla RAM (Random Access Memory), memoria ad accesso casuale. Entrambe
sono molto veloci perché i dati vengono trasmessi elettronicamente e non hanno parti
mobili4.
La ROM, essendo statica e inalterabile, è chiamata memoria non volatile. Il suo
contenuto viene predisposto dalla casa produttrice al momento della fabbricazione e non
può essere modificato dall’utente. Lo spegnimento dell’elaboratore non altera, pertanto,
i dati in essa contenuti in quanto questi vengono richiamati automaticamente quando il
computer viene acceso. Questi dati sono costituiti dai programmi e dalle istruzioni di uso
frequente, detti anche firmware, che comprendono ad esempio le istruzioni eseguite al
momento dell’accensione e il programma di configurazione del sistema che si utilizza
per cambiare impostazioni, come l’ora e la data.

4
Curtin D., Foley K., Sen K., Morin C. – Informatica di base – McGrawHill 1999.
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 10
La RAM, detta anche memoria centrale o memoria dell’utente, serve a memorizzare un
vasto numero di programmi e dati di ogni tipo. Quando si carica un programma o si crea
un documento, i dati immessi nell’elaboratore tramite la tastiera sono memorizzati nella
RAM. Il termine random (casuale) indica, perciò, la modalità di reperimento e accesso ai
dati in memoria. Per comprendere in che cosa consiste, basta pensare alla differenza tra
una cassetta audio e un CD-Audio. Per ascoltare, ad esempio, la terza canzone registrata
(memorizzata) sull’audio-cassetta bisogna far scorrere il nastro magnetico in avanti,
viene eseguito cioè un accesso di tipo sequenziale; con il CD-Audio, invece, ci si
posiziona direttamente sulla traccia del CD in cui è incisa la terza canzone. Quest’ultimo
è un accesso random perché permette di accedere “casualmente”, direttamente e più
velocemente all’informazione;
c) i controller, che svolgono il compito di controllo dei dispositivi esterni di Input/Output
(I/O), affinché questi possano comunicare con l’unità centrale.
d) i bus di sistema collegano tutti gli elementi funzionali elencati in precedenza e consente
così loscambio di dati tra di essi. Si tratta di un canale a cui sono contemporaneamente
connesse le unità del calcolatore e che consente il trasferimento di dati tra tali unità. Il
collegamento contemporaneo di tutti i dispositivi potrebbe apparire poco facilmente
gestibile: si pensi al caso in cui una CPU stia accedendo alla memoria per leggere un
dato e contemporaneamente da una interfaccia di ingresso/uscita siano in arrivo dei dati
che devono transitare sullo stesso bus. La soluzione a tale problema è superata
attribuendo ad un solo componente del sistema, la CPU appunto, la gestione dell’intero
sistema (un ruolo detto master) e in particolare dell’accesso al bus, impedendo alle unità
periferiche (con funzione di slave) la possibilità di accedervi autonomamente. Ogni
trasferimento di dati attraverso il bus avviene sotto la supervisione della CPU, che
identifica la sorgente e la destinazione dei dati (mediante il loro indirizzo) e sincronizza
con segnali di controllo i dispositivi che devono colloquiare. In questo modo il bus viene
utilizzato evitando qualsiasi collisione tra i dati di competenza delle diverse periferiche.
I bus di sistema si distinguono funzionalmente in: - bus dati utilizzato per trasferire i
dati, tipicamente tra memoria e CPU ma anche tra CPU e interfacce di input/output; -
bus indirizzi che identifica la posizione delle celle di memoria in cui la CPU va a
scrivere o a leggere; - bus di controllo in cui transitano i segnali di controllo che
consentono di volta in volta di selezionare le unità coinvolte in un trasferimento di dati
(sorgente e destinatario), di definire la direzione dello scambio (lettura o scrittura) e in
generale di coordinare il sistema.

 L’unità di input consente, attraverso opportune interfacce, di immettere nell’unità centrale i


dati da elaborare. Sono dispositivi di input: la tastiera, il mouse, la penna ottica, lo scanner,
la scheda vocale.

 L’unità di output fornisce i dati elaborati dall’unità centrale, ovvero i risultati. Sono
dispositivi di Output: il monitor, la stampante, il plotter (utilizzati dagli ingegneri).

Inoltre, fanno parte dell’hardware anche:

 le Memorie di massa (o ausiliarie o secondarie), utilizzate per memorizzare grandi quantità


di dati (per un approfondimento sulle memorie di massa si rimanda al paragrafo successivo:
I supporti di Informazione).

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 11
Caratteristiche delle memorie di massa. L’informazione in esse memorizzata: - è permanente, in
quanto non viene persa quando il calcolatore viene spento; - può essere contenuta nelle memorie di
massa (dischi fissi, floppy disk, pen drive, ecc.); - è organizzata in file: ogni file è dotato di proprio
nome (ciò ne consente l’individuazione all’interno della memoria di massa) e contiene dati che
possono essere di vario tipo, ad esempio possono contenere testi, programmi eseguibili, immagini
digitalizzate, ecc.
L’accesso alla memoria secondaria è molto meno rapido di quello alla memoria centrale.

L’ HARDWARE

Memoria
RAM - ROM di massa
Memoria centrale
controller

bus

controller
Unità
Unità di
Logico
Controllo
Aritmetica

Dispositivo di
C.P.U. (microprocessore)
Output
Dispositivo di
Unità centrale
Input

Fig. 5 – Le componenti dell’hardware.

2.2 Capacità di memoria: bit e Bytes

Quando si parla di “memorie” o “supporti di memoria”, bisogna fare riferimento alla capacità di
memoria, intendendo con questo termine la quantità massima di informazioni o dati che la memoria
o il supporto di informazione può contenere.
Per esprimere quantitativamente la capacità di memoria occorre stabilire una unità di misura. Per
quanto riguarda l’unità di misura da utilizzare per la capacità di memoria dei dispositivi di tipo
informatico, occorre osservare che tutti i dati/informazioni contenuti in tali dispositivi, o se
vogliamo trattati dall’elaboratore elettronico, sono rappresentati in termini di numeri binari (0, 1),
così come illustrato in precedenza a riguardo del linguaggio binario.
L’unità di misura per quantificare la capacità di memoria dei supporti informatici è il bit o il Byte,
vengono inoltre utilizzati i multipli del Byte, come mostrato di seguito:

1 bit = valore binario – può assumere i valori zero o uno.


1 byte = 8 bit – equivale ad una sequenza di otto bit (es.: 10010111);

1 KB (Kilo Bytes) = 210 bytes = 1024 bytes;


1MB (Mega Bytes) = 220 bytes = 1024 KB = 1.048.576 bytes;
1GB (Giga Bytes) = 230 bytes = 1024 MB = 1.073.741.824 bytes;
1TB (Tera Bytes) = 240 bytes = 1024 GB = 1.099.511.627.776 bytes.

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 12
Tipi di memorie di massa:
Tipo di memoria di massa Capacità di memoria
Pen drive 256MB / 512 MB / 1 GB / 1 TB
Floppy disk 1,44 MB
Hard disk 250 GB / 1 TB / 2 TB
External hard disk 250 GB – 1 TB
CD ROM 700 MB
CD RW 700 MB
DVD 4,7 GB

2.3 Il Software

Per software si intende l’insieme delle istruzioni che consentono all’hardware di svolgere i
propri compiti. Esso costituisce la parte intangibile (o soffice) del sistema elaborativo. Spesso ci si
riferisce al software contrapponendolo all’hardware e alcuni lo definiscono addirittura come il
contrario dell’hardware. Il software è un indispensabile complemento alle componenti materiali di
un elaboratore. Molte di quelle unità che vengono descritte come hardware contengono infatti anche
del software indispensabile per il loro funzionamento. Il software è diffuso in tutto il computer e
non si identifica solo con i programmi utilizzati dall’utente per lo svolgimento delle elaborazioni.
Il software si distinguere in:
- software di base (o di sistema)
- software applicativo.
Il software di base svolge le attività primarie necessarie al funzionamento del calcolatore; è
costituito da un insieme di moduli che interagiscono direttamente con l’hardware nascondendo
all’utente la struttura fisica del calcolatore.
Il software applicativo comprende, invece, un insieme di programmi (editor di testi,
programmi di contabilità, di disegno, statistici) utilizzati dagli utenti finali per la risoluzione di
problemi specifici.

Per quanto riguarda il software di base esso è composto da:

 Sistema operativo (SO): è un insieme di programmi con il quale l’utente non interagisce
direttamente e ha il compito di gestire la memoria, le periferiche, e la CPU.
 Interfaccia utente: è un insieme di programmi che permette all’utente di interagire con il SO,
altrimenti non accessibile; questi consentono di impartire i comandi direttamente dalla
tastiera, tramite il mouse oppure attraverso altri dispositivi di input.
 Software di utilità: è un insieme di programmi che mette a disposizione dell’utente alcune
funzionalità di base, per es. copiare o cancellare informazioni, configurare il sistema, ecc.
 Software di comunicazione: consente la comunicazione tra più elaboratori per lo scambio di
informazioni.

Fanno parte anche del software di base i linguaggi di programmazione, composti da una
serie di regole e di istruzioni comprensibili all’uomo e interpretabili dal calcolatore affinché questo
possa svolgere le funzioni (o i compiti) richiesti dall’utilizzatore (che può essere lo stesso
programmatore) oppure dagli utenti finali attraverso, appunto, i programmi applicativi. Col termine

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 13
programmare si indicano le operazioni, il modo per eseguirle e le loro connessioni logico temporali
per sviluppare la dinamica operativa del calcolatore.

2.3.1 Il Sistema Operativo


In particolare per quanto riguarda il Sistema Operativo, esso comprende un insieme di
programmi che gestiscono le funzioni primarie dell’hardware e in particolare: processori, memorie,
dispositivi input/output.
A seconda del campo di utilizzo esso è più o meno complesso. Ma alcune sue funzioni, che
negli anni 70/80 erano presenti solo su grandi sistemi, sono oggi disponibili anche nei s.o. per
personal computer. Sostanzialmente, prima degli anni 80, un s.o. era legato alla struttura hardware
per cui veniva scritto. Successivamente si è generalizzata la tendenza a svincolare le caratteristiche
dell’hardware dal s.o. Il primo s.o. adottato da costruttori diversi su elaboratori di classe e di
architettura diversa è stato il s.o.: UNIX.

 UNIX: sviluppato presso i Bell Laboratories nei primi anni 70, è stato scritto in modo tale che
la parte di software facente riferimento alla struttura e all’architettura specifica della macchina
fosse ridotta al minimo essenziale. In tal modo per utilizzare tale sistema operativo su
elaboratori diversi, viene modificata solo quella piccola porzione di codice che caratterizza il
computer sul quale dovrà “girare” il sistema operativo.
Nei Personal Computer si sono affermati:
 Negli anni ottanta, il s.o.:
 MS - DOS, Disk Operating System della Microsoft;
 Apple Macintosh.
 A partire dai primi anni novanta, il s.o.:
 MS – Windows;
 OS, della Macintosh;
 OS/2, della IBM.
 Da qualche anno (1996):
 Linux: lanciato sul mercato alla fine degli anni 80, non ha avuto molto successo. E’
una implementazione “ridotta” del più famoso sistema operativo Unix.

I s.o. più moderni sono strutturati in livelli, ciascuno dei quali poggia su uno di livello
inferiore. Il livello più basso, comune a tutti i s.o., è detto kernel o nucleo.

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 14
Parte seconda

Telematica, Networking, Internet e Web 2.0

1. La Telematica

Lo sviluppo esponenziale, che le tecnologie digitali hanno fatto registrare negli ultimi anni, e
la conseguente rivoluzione tecnologica, che ha investito tutti gli ambiti della vita sociale, ha
rafforzato l’esigenza di avere sempre a portata di mano, e in formato digitale, il prezioso e rilevante
patrimonio documentale e informativo che ci circonda, al fine di poterlo gestire e consultare in
forma elettronica.
È fuor di dubbio, infatti, che la fitta rete di rapporti tra cittadini, imprese, uffici pubblici,
produce ogni giorno una quantità di informazioni sulle quali le operazioni di gestione,
consultazione, comunicazione e archiviazione possono avvenire in modo efficace, efficiente e con
costi notevolmente inferiori se effettuate con l’impiego delle tecnologie informatiche e
telecomunicative. Il tutto può accadere connettendo, in maniera relativamente semplice, gli elementi
tecnologici (personal computer, server, reti, ecc.) a disposizione, senza tralasciare le procedure, le
regole e le misure di sicurezza da adottare per proteggersi dalle minacce più o meno comuni che
attentano la riservatezza, l’integrità e la disponibilità delle informazioni. La possibilità di accedere
alle risorse informative memorizzate su un computer, situato geograficamente lontano dalla propria
postazione, o di utilizzare le periferiche ad esso collegate, è una realtà resa possibile dalla
convergenza della tecnologia dell’informatica e di quella delle telecomunicazioni. Con il termine
telecomunicazione si intende proprio la comunicazione a distanza, essendo il termine la crasi dei
termini  - tele, che nel linguaggio greco vuol dire lontano remoto, e comunicazione.
Mentre, con il termine telematica si indica l’uso delle tecnologie informatiche nell’ambito
delle telecomunicazioni, ovvero la trasmissione di informazioni a distanza mediante l’uso di sistemi
informatici5. Telematica è, dunque, la contrazione delle parole tele da telecomunicazione e matica
da Informatica, e indica lo sviluppo nel campo delle telecomunicazioni che, in contemporanea a
quello nel campo della tecnologia dei computer, ha portato alla nascita delle reti di computer o reti
telematiche. Tali reti, sviluppatesi agli inizi degli anni ’60 in ambito aziendale, sono state
interessate nel tempo da miglioramenti costanti che hanno favorito la loro adozione anche in ambito
consumer, in cui l’utente finale diventa il soggetto principale del sistema. Nell’osservare, infatti, lo
sviluppo della Telematica si può tranquillamente parlare di una contrapposizione tra una prima fase,
dominata dall’informatica centralizzata, e una seconda caratterizzata dall’informatica distribuita. Il
passaggio temporale tra le due fasi può essere rappresentato dalla diffusione capillare dei personal
computer negli ambienti casalinghi. Nell’informatica centralizzata più utenti si connettono ad
un’unica fonte dati rappresentata da un potente elaboratore centrale (mainframe) tramite i loro
terminali, definiti stupidi, in quanto privi di ogni capacità elaborativa autonoma. L’informatica
distribuita invece è caratterizzata dal fatto che ogni utente ha a disposizione un sistema di
elaborazione intelligente, indipendente e abbastanza potente, poiché gli elaboratori sono collegati
tra di loro e con centri periferici.

5
Il Sistema Informatico è un insieme di elementi che raccolgono, elaborano, scambiano e archiviano dati con lo scopo
di fornire un supporto alle attività aziendali. Più in particolare un Sistema informatico produce e distribuisce le
informazioni alle persone che ne hanno bisogno, nel momento e nel luogo adatto per svolgere le proprie funzioni
decisionali e di controllo.
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 15
Tra i fattori che hanno favorito lo sviluppo delle reti di computer possono essere individuati6 :

 Ricerca e sviluppo di tecnologie nel campo della Information and Communication Technology
(ICT) sempre più performanti e a basso costo;
 ricerca e sviluppo di sistemi operativi e applicazioni di rete sempre più sofisticati ed evoluti;
 adozione di standard internazionali che garantiscono l’interoperabilità tra sistemi software e
hardware di costruttori diversi, grazie all’impegno degli organismi di standardizzazione (ISO,
IEEE, TIA, IEC, ecc.);
 condivisione di risorse: ovvero dispositivi e/o software ad alto costo la cui condivisione può
portare benefici e risparmi;
 effetto traino di Internet, che ha aiutato a diffondere la cultura della rete in qualsiasi ambito,
non solo pubblico (Internet) ma anche privato (intranet7/extranet8).

Una rete può essere considerata come un insieme di computer collegati fra loro. In modo più
particolareggiato, una rete di comunicazione è l’insieme delle connessioni e dei percorsi
dell’informazione distribuita mediante un mezzo di comunicazione. I computer possono essere
dotati di risorse hardware, sistemi operativi e capacità elaborative differenti. Una definizione più
particolareggiata potrebbe indicare una rete come un sistema interconnesso di elementi necessari
per effettuare una connessione tra più risorse dislocate in sedi differenti; matematicamente può
essere vista come un grafo9.

Fig. 1 – Esempio di Grafo.

Gli scopi di una rete sono essenzialmente due10:

1. Consentire un’intercomunicazione tra più utenti finali;


2. Gestire la condivisione delle risorse.

In generale, i vantaggi di una rete di computer rispetto ai sistemi basati su mainframe


tradizionali sono individuabili in:

1. nella fault tollerance (maggiore resistenza ai guasti) visto che il guasto di una macchina non
blocca il lavoro degli altri utenti;

6
Garattini A., Randazzo L., Righi D., Guida alle reti Lan, Mondatori Informatica, Milano, 2004
7
Il termine Intranet indica l’applicazione delle tecnologie Internet all’interno di una rete locale.
8
Con Extranet s’intende una rete locale aziendale a cui possono accedere, dopo adeguata autenticazione, clienti, partner
e fornitori per lo scambio di informazioni commerciali.
9
Un grafo è un modello geometrico i cui elementi costitutivi sono i nodi e gli archi. Un nodo rappresenta una stazione
della rete con specifiche funzionalità, mentre gli archi rappresentano i percorsi logici che collegano i nodi (o stazioni).
10
Dameri R.P., Foresti G., Corso di informatica, Jackson libri, Milano, 1993
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 16
2. nella economicità visto che le componenti hardware e software di un computer costano meno di
quelle di un mainframe;
3. nella scalabilità e flessibilità, in quanto l’aggiunta di nuove postazioni e potenzialità alla rete già
esistente sono di semplice attuazione.

I vantaggi offerti dalle reti di computer alle organizzazioni che le adottano possono essere
individuati in:
 possibilità di salvataggio centralizzato dei dati sul computer che gestisce la rete (server) ad
intervalli regolari e successiva memorizzazione sulle unità di backup;
 condivisione delle risorse tra i vari computer;
 comunicazione tra computer della rete, attraverso servizi di messaggistica istantanea o e-mail,
in modo da velocizzare lo scambio delle informazioni tra gli operatori della stessa azienda;
 lavoro di gruppo (workgroup): oltre a scambiarsi informazioni, i membri dell’azienda possono
lavorare contemporaneamente su più documenti, condividendo e realizzando progetti e, per
esempio, diminuendo il numero delle riunioni.

Mentre per i singoli individui i vantaggi di una rete informatica possono essere sintetizzati in:

 accesso ad informazioni remote;


 comunicazione fra persone (posta elettronica, videoconferenza, gruppi di discussione);
 video on demand (ricezione via rete di materiale multimediale scelto da un catalogo);
 giochi interattivi (contro macchine o avversari umani in tempo reale).

1.1 Classificazione delle reti

Le reti possono essere classificate in base a diversi criteri. Considerando la dimensione


dell’area geografica in cui sono dislocati i calcolatori che la compongono si distinguono in:

- LAN (Local Area Network), sono reti locali che collegano i computer posti all’interno dello stesso
edificio o in edifici adiacenti nel raggio di qualche centinaio di metri. Una LAN può essere definita
come un sistema di comunicazione ad alta velocità, a basso tasso di errore (affidabile), a basso
costo, flessibile, modulare, espandibile che consente di interconnettere due o più stazioni di lavoro
indipendenti e/o altri dispositivi predisposti per la connessione in rete, all’interno di un’area
ristretta, privata e non soggetta a vincoli di legge11. La flessibilità delle LAN ha permesso
ultimamente lo sviluppo delle WLAN, ossia le reti locali Wireless12.

11
Garattini A., Randazzo L., Righi D., Guida alle reti Lan, op. cit.
12
Il termine Wireless indica un ambiente senza vincoli fisici, dove l’utente può connettere il proprio computer ad una
rete tramite trasmissioni radio eliminando l’ingombro dei cavi, spostandosi liberamente all’interno dell’area coperta dal
segnale.
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 17
Fig. 2 – Esempio di WLAN.

Esistono degli standard per il cablaggio, le tecniche di trasmissione, i metodi per accedere ai mezzi
trasmissivi condivisi e i protocolli nelle LAN definiti dall’Istituto degli ingegneri elettrici ed
elettronici (IEEE - Institute of Electrical and Electronics Engineers), un’associazione statunitense
che definisce standard elettrici e di comunicazioni. La serie di standard IEEE 80213 si focalizza sulle
attività e le interconnessioni delle LAN.
- MAN (Metropolitan Area Network), sono reti Metropolitane, coprono una distanza di qualche
decina di chilometri e hanno come ambito di applicazione una città e dintorni. Connettono più reti
LAN che offrono servizi di vario tipo in ambito urbano.
- WAN (Wide Area Network), sono definite reti geografiche14 in quanto connettono computer
collocati in punti molto distanti tra di loro. Collegano più reti LAN e MAN attraverso la linea
telefonica mettendo in comunicazione utenti situati in città o nazioni differenti. Una WAN
comprende una serie di computer, adibiti all’esecuzione di programmi per gli utenti, detti host15.
Essi sono collegati da una sottorete, il cui compito è di trasportare messaggi da host a host. Una
sottorete è costituita da due componenti: le linee di trasmissione (o backbone o dorsali) che
spostano bit tra le varie macchine e gli elementi di commutazione (detti anche router) usati per
collegare due o più linee di trasmissione.
- GAN (Global Area Network), collegano vaste reti geografiche molto distanti tra loro, di solito
collegate tramite satellite.

Infine, esistono le Reti per telefonia mobile; queste comprendono le reti per comunicazioni
mobili private (telefoni senza fili e LAN wireless) e le reti per comunicazioni mobili pubbliche
(telefoni cellulari TACS, GSM, UMTS, DCS e sistemi satellitari). All’interno di questa
classificazione sono da citare le Reti Private Virtuali o VPN (Virtual Private Network). Una Rete
Privata Virtuale è una soluzione che permette di collegare le reti LAN delle filiali di una stessa
azienda presenti in diverse città usando la linea telefonica pubblica. Una VPN può essere
considerata come una corsia separata di una super-autostrada (Internet), nella quale i veicoli in
transito non sono visibili agli altri veicoli all’esterno di essa16. In tal modo le aziende possono
trasmettere dati sensibili con partner, clienti, dipendenti che lavorano da casa con la massima
sicurezza e a costi inferiori rispetto alla realizzazione di una linea dedicata, visto che l’unica
infrastruttura necessaria per questo tipo di reti è l’esistenza del collegamento a Internet.

13
Per maggiori informazioni si consulti il sito http://www.ieee802.org.
14
Per connessioni geografiche si intendono anche quelle realizzate tra un singolo utente e una rete distante (es.:
collegamento ad Internet tramite ISP).
15
Tanenbaum A.S., Reti di computer, UTET Libreria, Torino, 1997
16
Schneider G., Perry J., Commercio Elettronico, Apogeo Milano, 2000
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 18
1.2 Topologie di rete
Con il termine topologia s’intende la disposizione geometrica dei collegamenti fra i vari
componenti della rete ovvero la forma del canale di comunicazione. La scelta della topologia di rete
dipende da fattori quali l’affidabilità, il tempo della trasmissione, il costo della rete, ecc.
Le principali topologie di rete sono le seguenti17:

* Rete ad anello, in cui ogni nodo è collegato al successivo in modo punto-punto in una forma
circolare (Fig. 5).

Fig. 5 – Rete ad anello.

La comunicazione tra due nodi non adiacenti avviene tramite i nodi intermedi che fungono da
ripetitori del messaggio. Di conseguenza, se per qualche motivo dovesse danneggiarsi un ripetitore,
sarebbe compromesso il funzionamento di tutta la rete. La comunicazione può essere unidirezionale
o bidirezionale. I cavi usati per la realizzazione di reti con topologia ad anello possono essere del
tipo twisted pair, coassiali o fibre ottiche;

* Rete a dorsale (o bus). E’ una combinazione di collegamenti multipunto che realizza la


condivisione di un unico canale trasmissivo bidirezionale. Si tratta della topologia di rete più
semplice, in quanto i nodi sono connessi in modo lineare, cioè in una sequenza a catena. La
trasmissione di un nodo viene ricevuta da tutti gli altri. I maggiori vantaggi consistono nella
semplicità, nei bassi costi e nell’affidabilità.

Fig. 6 – Rete a dorsale.

Inoltre il guasto di un nodo non determina il blocco dell’intera rete, ma lo svantaggio


principale è dato dalla dipendenza di tutti i nodi da un unico mezzo trasmissivo: un suo
malfunzionamento mette fuori uso tutta la rete;

* Rete a stella. È probabilmente la topologia più antica usata nella trasmissione dati. È
caratterizzata dalla presenza di un solo nodo dal quale partono più linee punto-punto (come indicato
in figura 7).

17
Adinolfi R., Reti di computer, McGraw Hill Italia, Milano, 1999
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 19
Fig. 7 – Rete a stella.

Il controllo è di tipo centralizzato, tutte le funzioni che riguardano gli utenti periferici sono
realizzate nel nodo centrale, che funge da amplificatore quando due nodi periferici devono
comunicare tra loro. E’ poco affidabile, visto che un guasto al nodo centrale blocca tutto il sistema;

* Rete gerarchica o ad albero. Il collegamento tra i nodi usa una struttura ad albero. È una
variante delle topologie a bus e a stella, in quanto si realizza combinando reti a stella e a bus. Il
traffico va dai terminali di livello più basso verso i sistemi intermedi o quello di livello più alto, che
è il più potente dell’intero sistema;

* Rete a maglia. E’ una rete che presenta sia connessioni di tipo punto-punto che multipunto
in base alle esigenze, senza seguire uno schema preciso.

Fig. 8 – Rete a maglia.

Se è prevista la connessione di ogni elemento con tutti gli altri si parla di maglia completa
(come in Fig 8) altrimenti di maglia incompleta. Questa topologia è tipica delle reti geografiche
(WAN).

1.3 Struttura di una rete di computer

Quando ci si trova di fronte alla necessità di realizzare una rete, occorre analizzare che tipo di
infrastruttura si adatta meglio alle proprie esigenze e scegliere tra una architettura di rete cosiddetta
basata su server o client/server e una architettura cosiddetta paritetica.
Le reti client/server prevedono la presenza di un sistema centrale, denominato server, e una
serie di sistemi periferici, definiti client. Questa struttura comporta una divisione netta dei compiti,
in quanto il server espleta le funzioni di utilità comune, mettendo a disposizione risorse e servizi ai
client, mentre i client si limitano di fatto ad utilizzarle. I client corrispondono alle postazioni degli
utenti, e in tale contesto assumono la funzione di semplici terminali, visto che i programmi e le
informazioni importanti si trovano sempre sul server. Inoltre il fatto di rimanere sempre acceso,
comporta che il server sia un computer con robustezza, affidabilità e tolleranza ai guasti molto
maggiore rispetto ad un normale computer personale, dotato di un valido sistema di dischi e di
almeno un’unità di backup efficiente.
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 20
In base alle diverse funzioni svolte, i server si distinguono in:
 File server, che si occupano di condividere files e dati;
 Application server, che permettono agli utenti di eseguire applicazioni che richiedono una
maggior potenza di elaborazione o di capacità di accesso rispetto ai sistemi client di cui sono
dotati;
 Mail server, che sono particolari server applicativi che mettono a disposizione dei client il
servizio di scambio asincrono di dati (posta elettronica);
 Server dei servizi di directory permettono l’individuazione delle risorse di rete gestendo anche i
diritti di accesso;
 Server database consentono a più utenti di eseguire un database in modo da accedere e
condividere informazioni nello stesso momento;
 Server Web. Questi server gestiscono l’accesso a Internet e forniscono dei servizi attinenti,
come il server che contiene le pagine Web che compongono il sito aziendale, le applicazioni per
l’e-commerce e funzioni legate alla sicurezza.

La struttura fin qui vista di solito si utilizza nel momento in cui si ha a che fare con realtà
professionali di una certa rilevanza e dimensione, visto che comporta una certa complessità di
gestione e costi non indifferenti; per aziende e organizzazioni di limitata dimensione un solo
computer (server) può svolgere diverse funzioni fra quelle elencate sopra.
Un’alternativa all’infrastruttura client-server è rappresentata dalle reti peer-to-peer o
paritetiche. In una rete peer-to-peer, ciò che cambia rispetto a quanto visto in un sistema client-
server è la modalità di fornitura e di reperimento delle informazioni. Non ci sono gerarchie tra i
computer. Tutti i calcolatori, infatti, connessi alla rete, possono svolgere indistintamente il ruolo di
server o quello di client. Le funzioni di utilità generale sono distribuite tra tutte le postazioni della
rete. In questa struttura i costi sono contenuti al minimo in quanto non è necessario l’acquisto di
hardware particolare o di software specifico o licenze aggiuntive del sistema operativo.

2. Internet: definizione ed evoluzione storica

Se oggi milioni di persone in tutto il mondo possono utilizzare la rete Internet ciò è dovuto ad
una serie di eventi che, direttamente, o indirettamente, hanno contribuito al suo sorgere. Le origini
di internet possono essere individuate nell’ambito militare e durante la guerra fredda (fine anni ’60)
tra gli Stati Uniti e l’Unione Sovietica. In quei tempi i russi evidenziavano un preoccupante
progresso tecnologico e nucleare rispetto agli americani. Di conseguenza, gli Enti governativi
statunitensi dovevano fare in modo che la loro strategia tecnologica e militare non fosse messa a
repentaglio. Per evitare ciò, il governo USA creò l’Advanced Research Projects Agency (ARPA),
un’agenzia interna al Dipartimento della Difesa, col compito di incentivare la ricerca e la
progettazione di nuove tecnologie utilizzabili a scopo militare, e che potessero ristabilire il primato
americano in campo bellico. Nei laboratori dell’ARPA si cominciò a studiare la realizzazione di un
progetto di connessione innovativo e in grado di garantire che i collegamenti tra i vari centri della
difesa rimanessero operativi anche in caso di attacco nucleare da parte dell’Unione Sovietica. Fra le
diverse soluzioni studiate venne adottata quella proposta dall’ing. Paul Baran, che prevedeva di
collegare più centri che fossero in grado di continuare a funzionare anche in caso di distruzione di
alcuni suoi nodi, escludendo in partenza la tipologia di rete centralizzata in quanto un attacco al
centro della rete avrebbe provocato l’interruzione delle trasmissioni fra tutti gli altri computer.
Baran pensò ad una rete che fosse concepita sin dall’inizio per operare in un contesto di instabilità,
come se fosse già critica e già colpita dalle bombe e nonostante questo continuasse a funzionare.

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 21
Per tale motivo ogni nodo della rete doveva essere autonomo e indipendente e capace di passare,
ricevere e inviare i messaggi agli altri. Un altro aspetto della soluzione era quello di spezzare i
messaggi in piccoli pacchetti, opportunamente “targati”, in modo che ognuno di essi facesse parte
del messaggio, ma indipendente nella scelta del tragitto da compiere per arrivare a destinazione. In
questo modo anche l’avaria di uno o più nodi non avrebbe impedito ai pacchetti di raggiungere la
meta finale, dove sarebbero stati ricomposti.
Questo tipo di comunicazione prese il nome di commutazione di pacchetto (packet switching)
e permetteva a più persone contemporaneamente di operare sullo stesso canale della rete. Il
protocollo che ammetteva la divisione dei messaggi in pacchetti si chiamava NCP (Network
Control Protocol), precursore dell’attuale TCP/IP, diventato ormai il protocollo standard della rete
Internet (vedi par. 2.1 TCP/IP: il protocollo di Internet). Una serie di computer, appositamente
programmati, suggerivano la strada che i pacchetti dovevano percorrere, reindirizzandoli su un
percorso alternativo in caso di blocco di un computer.
Nel 1965 l’ARPA sovvenziona un progetto finalizzato alla comunicazione e allo scambio di
risorse tra i computer dei vari laboratori universitari finanziati dall’agenzia. Nel 1968 anche il
Pentagono stanzia delle somme per una sperimentazione su larga scala. Inizia così la storia di
Arpanet, la rete dell’ARPA, antenata dell’attuale Rete Internet.
Il primo nodo fu installato il 2 settembre del 1969 presso l’Università della California (Ucla).
Alla fine dell’anno i nodi erano quattro. I primi scienziati che utilizzavano i pochi nodi di Arpanet
potevano scambiarsi messaggi tramite posta elettronica. Se inizialmente le comunicazioni avevano
per oggetto argomenti tecnici, via via si passò alla comunicazione personale. Nel 1971 i nodi erano
diventati quindici, nel 1972 viene creato il protocollo TCP/IP (Transfer Control Protocol / Internet
Protocol) che permette a computer, con sistemi operativi diversi, di “comprendersi”. Viene
introdotto il concetto di gateway, un dispositivo che fa da collegamento tra due reti diverse. Mentre
Arpanet cresce, aumentando in modo esponenziale il numero dei suoi nodi, sorgono e nascono altre
reti e si ingrandiscono per poi collegarsi ad essa. Nel 1979 fu creata Usenet che collegava la Duke
university con l’University of North Carolina. La sua importanza, nel contesto delle reti, consiste
nella nascita dei newsgroup, i gruppi di discussione collettivi. Nel 1981 fu il turno di Bitnet una rete
basata sul trasferimento della posta tra centri universitari, e di Csnet che collegava i dipartimenti
informatici delle università americane. Negli anni ‘80 si gettano le basi per l’esplosione della
Grande Rete. In occidente nascono reti a carattere di ricerca in grado di connettersi ad Arpanet,
facendola diventare una rete delle reti. Nel 1983 la parte militare se ne staccò, formando Milnet, un
anno dopo un ente governativo la NSF (National Science Foundation), creò una dorsale alla quale
aderirono le università e le reti nazionali sorte nei paesi occidentali18. Nel 1989, esaurite le sue
funzioni, Arpanet fu smantellata e nacque ufficialmente Internet ovvero la Rete delle reti, con una
estensione di livello mondiale.
Negli anni ‘90 si assiste ad un aumento vertiginoso dell’utilizzo della Rete che da strumento
elitario, a disposizione di accademici e studiosi, si trasforma, a causa del confluire di interessi
commerciali nel suo sviluppo, in strumento mediatico a disposizione delle masse. Per permettere al
consistente numero di utenti, molti dei quali con poche conoscenze informatiche, di usufruire delle
risorse nel frattempo anch’esse accresciute e messe a disposizione nella rete.
Nel 1990 fu sviluppato il WAIS (Wide Areas Information Server), un software che permette di
effettuare ricerche di parole all’interno dei file di testo di un certo archivio. Nel 1991 fu la volta di
Gopher, un sistema a gerarchie indicizzate basato su menu descrittivi, facile da usare anche se non
adatto a gestire immagini né collegamenti ipertestuali. Nel 1992 nasceva Veronica, uno strumento
di Ghoper e contemporaneamente il World Wide Web, un sistema che permette di accedere alle
informazioni in modo ipertestuale, creato da Tim Berners Lee. Nel 1993 fece la comparsa Mosaic di

18
Krol E., Internet, Jackson libri, Milano, 1994
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 22
Marc Andressen, un browser user friendly che ebbe molto successo per la sua facilità d’uso. Nel
1996 fanno la loro apparizione i linguaggi di programmazione JAVA e VRML.

Tecnicamente, Internet è un sistema planetario di reti di computer, ossia una rete di reti,
fondata su uno standard aperto e universale, in cui gli utenti di qualsiasi computer possono ottenere
informazioni da qualsiasi altro computer. Per integrare e far comunicare computer eterogenei, che
usano sistemi operativi e strutture dati diversi, è necessario che essi utilizzino uno stesso protocollo
di comunicazione, vale a dire che vengano rispettate delle regole per potersi “comprendere”. Per
esempio, quando due persone parlano al telefono, per comprendersi devono attenersi a due regole
fondamentali: parlare uno per volta, parlare la stessa lingua.
Bisogna osservare, comunque, che ci sono diversi modi per comunicare: alfabeto morse,
segnali di fumo, segnali con bandierine, segnali luminosi, gesta, ecc. Occorre, quindi, per poter
comunicare, che queste regole siano conosciute, siano pubbliche e possano essere utilizzati da tutti
gli attori che intervengono nella comunicazione. Quando si verificano queste condizioni si dice che
è stato realizzato un protocollo di comunicazione. Più in generale nel mondo diplomatico per
“protocollo” si intende, l’insieme delle regole di comportamento e di “etichetta” che consentono a
individui di paesi diversi (quindi con linguaggi differenti) di interagire e comprendersi. Per esempio
con il termine “protocollo d’intesa” si intende indicare i trattati in cui vengono elencati i punti da
rispettare per raggiungere un accordo aziendale, commerciale, ecc.
Considerando queste accezioni del termine “protocollo” e volendolo utilizzare nell’ambito
della telematica, si può asserire che un protocollo per reti telematiche deve indicare in che modo un
computer deve codificare il segnale (informazioni/simboli) da trasmettere in un canale di
comunicazione (es. internet), come inviare i bit attraverso un mezzo di trasmissione da un nodo
all’altro, in che modo assicurarsi che l’invio dei dati sia andato a buon fine e così via.
Come è noto i computer, pur utilizzando lo stesso alfabeto (il codice binario), “parlano”
spesso linguaggi differenti a causa dei diversi sistemi operativi esistenti e utilizzati (Unix, Linux,
SUN, Windows, ecc.), per cui è necessario stabilire dei protocolli di comunicazione e di poterli
rispettare affinché i computer possano comunicare fra di loro.

Esistono nel mondo due modelli di standardizzazione dominanti:


 modello OSI (Open System Interconnection Model) adottato dagli organismi di
standardizzazione formale, alla cui definizione contribuiscono organi quali l’ISO (International
Standards Organization) o come CCITT (Comitè Consultatif International Tèlègraphique et
Tèlèphonique), che rappresenta il modello base di riferimento per protocolli e prodotti;
 protocollo TCP/IP utilizzato in ambito Internet.

2.1 TCP/IP: il procotollo di Internet

Per analizzare il protocollo TCP/IP è necessario riprendere il concetto di client-server visto


prima. Su Internet la comunicazione tra i vari computer si basa sul modello client-server, cioè
avviene a coppie. Anche se un computer può interagire contemporaneamente con più simili, ciascun
messaggio ha un solo destinatario. Nello specifico della Rete Internet, con il termine server
s’intende qualsiasi programma che offra un servizio al quale si può accedere tramite la rete. I server
ricevono le richieste che arrivano in rete, forniscono la loro prestazione e “spediscono” il risultato a
chi lo ha richiesto. Con il termine client si intende un programma che può inviare una richiesta ad

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 23
un server e aspetta da questo una risposta. Più server possono offrire lo stesso servizio e possono
“girare” sulla stessa macchina o su più macchine19.
Il protocollo di base sul quale si reggono tutte le trasmissioni via Internet è il protocollo
TCP/IP che costituisce un vero e proprio standard de facto. In realtà con il termine TCP/IP si indica
un insieme di protocolli sviluppati per consentire a un insieme di elaboratori collegati di
condividere risorse.

Gli indirizzi IP possono essere pubblici o privati. I primi sono assegnati al computer
dall’Internet Service Provider (ISP) in modo automatico e univoco, nel momento della connessione.
Se il computer oltre che essere connesso ad Internet è collegato ad una rete LAN, esso dispone
anche di un indirizzo privato che in genere è assegnato dall’amministratore della rete locale in
modalità statica (ossia manualmente) o in modalità dinamica tramite un particolare software (server
DHCP20).

2.3 Infrastruttura tecnologica della rete Internet.

L’infrastruttura o meglio l’architettura tecnologica della rete Internet può essere paragonata ad
un sistema autostradale internazionale, dove le autostrade, che sono più veloci e ampie, attraversano
il paese toccando le principali città, queste intersecano superstrade e strade secondarie che sono più
strette e più lente. Così anche per Internet esistono dei collegamenti diretti e più veloci che toccano i
nodi principali di un’area geografica, sono realizzati con cavi a fibra ottica e gestiti dalle principali
compagnie di telecomunicazione o, come avviene in america, da agenzie governative; tali
collegamenti principali determinano ciò che in gergo si chiama “dorsale” del sistema di
collegamento o BACKBONE.
Le reti dorsali che attraversano il mondo sono come grandi condutture per la trasmissione dei
dati, la cui capacità di trasmissione è detta ampiezza o larghezza di banda21 e viene misurata in “bit
al secondo” (bps) o “Byte al secondo” (Bps), usualmente vengono utilizzati i multipli (Mb e Gb
oppure MB e GB); ovviamente più grande è l’ampiezza di banda maggiore è il flusso di dati che
attraversano il condotto. Per esempio, con un collegamento tra due nodi in fibra ottica, anche a
chilometri di distanza, è possibile trasmettere dati, voce, video ad una velocità di 600 milioni di bit
per secondo (Mpbs).
I nodi attraversati dalle condutture digitali sono detti NAP Primari (Network Access Point) e
rappresentano i punti di accesso alla rete, da questi partono ramificazioni più piccole che collegano
altri nodi periferici, detti NAP Secondari, fino a coprire l’area geografica interessata. A questi nodi
periferici si collegano altri nodi detti ISP (Internet Service Provider), che sono i nodi ai quali
l’utente si deve collegare per poter consultare le informazioni presenti su tutti i computer della rete.
L’ISP rappresenta quindi la rampa di accesso alle condutture dell’informazione. Il tratto finale
(dovremmo dire iniziale) del collegamento di un utente ad un nodo ISP viene fatto attraverso la
linea telefonica convenzionale, che per le sue caratteristiche fisiche, cavo in rame, è notoriamente
più lenta. In pratica un utente della rete Internet si collega da casa ad un ISP tramite un modem (vedi
par. 1.3 Flusso trasmissivo e segnale trasmesso in una rete), che stabilisce una connessione solo quando
l’utente avvia la chiamata al provider più vicino (telefonata urbana).

19
Paparella M., Torre I., Teconologia Internet e comunicazione aziendale. Realtà e prospettive, UTET,
Torino, 1999.
20
Il Dynamic Host Configuration Protocol è un servizio presente all’interno della versione Server del Sistema
Operativo Windows.
21
Con il termine ampiezza o larghezza di banda si intende la quantità di bit o di Bytes che in una unità di tempo (es.: il
sec.) attraversa il canale di comunicazione.
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 24
Fig. 11 - L’architettura della rete Internet (Italia).

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 25
2.4 I servizi della rete Internet

Nei precedenti paragrafi si è parlato di Internet in termini di infrastruttura fisica, mentre in


questo paragrafo verranno analizzate le funzionalità o meglio i servizi che l’utente può fruire.
I principali servizi di Internet, che fra l’altro hanno contribuito alla sua diffusione e popolarità,
sono il World Wide Web (WWW), il File Transfer Protocol (FTP) e la posta elettronica (e-mail).

2.4.1 Il World Wide Web

Il World Wide Web (indicato anche come Web o con l'acronimo WWW) è la funzionalità di
Internet più diffusa e utilizzata dagli utenti. La sua origine risalire al 1990 presso i laboratori
informatici del CERN di Ginevra, noto centro di ricerca di fisica. In quel periodo, Tim Berners-
Lee22 guidava un progetto di ricerca con l’obiettivo di sviluppare un sistema di pubblicazione e
reperimento dell’informazione per documenti multimediali, distribuito su rete geografica.
Da quel momento in poi, grazie anche alla nascita di strumenti di navigazione (browser) ad
interfaccia grafica, il successo del WWW è stato tale che per la maggior parte degli utenti (e dei
mass-media) coincide con la stessa Internet. Si tratta di una convinzione ovviamente errata. Mentre
Internet, infatti, è l’infrastruttura della rete di calcolatori, il WWW è un servizio di Internet, più
precisamente è un sistema per lo scambio e la condivisione di contenuti, testi, immagini, video,
ecc., tra computer remoti interconnessi tramite una rete telematica, nello specifico Internet. Il
WWW può essere anche definito come un insieme di iperoggetti collegati tra loro, dove per
iperoggetto s’intende un oggetto informatico di qualsiasi tipo che contiene al proprio interno, oltre
alle informazioni, anche collegamenti verso altri oggetti, oppure di essere richiamato tramite
collegamenti presenti in altri iperoggetti. L’esempio più importante di iperoggetto è l’ipertesto (vedi
paragrafo successivo).
Dunque si può tranquillamente affermare che gli elementi che hanno caratterizzato il World
Wide Web permettendogli di assumere una connotazione rivoluzionaria sono:

 la sua facilità di utilizzo, grazie alle interfacce grafiche;


 la sua organizzazione ipertestuale;
 la possibilità di trasmettere e ricevere informazioni multimediali;
 la sua diffusione planetaria.

I contenuti informativi presenti sul web sono raccolti e organizzati in siti; un sito non è altro
che un insieme di pagine web collegate tra di loro per mezzo di link secondo la logica strutturale
degli ipertesti. Alla base del funzionamento del WWW vi è: il protocollo HTTP (HyperText
Transfer Protocol), che regola il trasferimento delle pagine dal server web che le contiene al
computer dell’utente, un programma client, detto browser, che consente di visualizzare gli oggetti
del Web e il linguaggio HTML (HyperText Tranfer Protocol) per creare le pagine web e i
collegamenti ipertestuali.

22
Tim Berners-Lee, nato a Londra l’8 giugno 1955 è considerato l’inventore del WWW insieme a Robert Cailliau; oggi
è presidente del W3C, l'organismo internazionale che coordina lo sviluppo degli standard del WWW e direttore del
laboratorio di Computer Science al Massachusetts Institute of Technology di Boston.
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 26
2.4.1.1 Ipertesto e ipermedia

Con il termine ipertesto si intende un sistema di organizzazione delle informazioni testuali, ma


non solo, non in modo sequenziale ma reticolare.
Per meglio capire il concetto di ipertesto andiamo ad analizzare che cos’è un testo.
Generalmente un testo è una sequenza di caratteri, che opportunamente combinati fra di loro
formano frasi, queste a loro volta vengono organizzate in righe e pagine. Sostanzialmente, un testo è
una sequenza di frasi, dove la trattazione dell’argomento viene fatta dall’inizio alla fine che
sviluppando man mano le varie parti si viene a formare un tutt’uno. Pensiamo per esempio ad un
libro. Un libro è una sequenza lineare di testo, che può essere organizzato in sequenze di paragrafi,
in sequenza di capitoli e così via. La fruizione del testo avviene, quindi, in modo sequenziale dalla
prima a l’ultima pagina. Notiamo che possono esserci dei rimandi a note, salti pagina, ma si tratta di
operazioni saltuarie inserite in un contesto generale in cui prevale la linearità e quindi la
sequenzialità del testo.
Ritornando all’ipertesto, possiamo dire che questo indica un testo non strutturato in forma
sequenziale, in cui la lettura può seguire diversi percorsi fra le pagine grazie a dei LINK che
collegano le varie parti (NODI) che compongono il testo; seguendo questi collegamenti il lettore
può facilmente spostarsi all’interno dell’IPERDOCUMENTO. La caratteristica degli ipertesti è
quella di consentire la consultazione del documento, o meglio la navigazione, attraverso il
collegamento di alcune parti di esso con altre logicamente associate.
Nella realizzazione (o costruzione) di un ipertesto è possibile utilizzare due modalità: quella
gerarchica e quella reticolare.
Nella modalità “gerarchica” si parte da una “pagina principale”, con funzioni di presentazione
o indice, e si accede alle varie parti dell’ipertesto ognuno delle quali strutturate in altre sottopagine.

Nella modalità “reticolare” non si parte da una “pagina principale”, ma vi sono tante pagine
liberamente collegate fra loro in cui è liberamente possibile spostarsi.

Esistono poi degli ipertesti cosiddetti ibridi, con una impostazione generale di tipo gerarchico,
come l’esistenza di un pagina principale, e con vari elementi reticolari: il web è un tipico esempio di
ipertesto IBRIDO.

Media e multimedia.

Con il termine media ci si riferisce agli strumenti della comunicazione, e con mass media ci si
riferisce ai mezzi della comunicazione di massa (giornali, tv, ecc.).
Con il termine multimedialità si fa riferimento alla possibilità di utilizzare
contemporaneamente, in uno stesso messaggio comunicativo, più media e/o linguaggi; più

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 27
precisamente, con il termine multimediale si intende una pluralità di media utilizzati per fornire
informazioni al “fruitore”.

Dunque, l’ipertesto è costituito da un insieme di unità informative (nodi) e da un insieme di


collegamenti (link) che consentono di passare da un’unità all’altra. Se attraverso tali collegamenti si
può usufruire di informazioni non solo sotto forma di testi, ma anche in termini di suoni, video,
immagini, allora si parla di ipermedia.

Praticamente nella progettazione di un ipertesto/ipermedia, vengono prima costruiti i NODI


dell’ipertesto, cioè: pagine di testo, immagini, filmati, suoni e quindi realizzati i collegamenti tra i
diversi nodi.

Il vantaggio dell’ipertesto è quello di fornire all’utente una funzione in più: non solo quella
statica di contenere informazioni, come ad esempio un libro, ma anche in modo interattivo al fine di
richiamare su richiesta dello stesso e in maniera estremamente semplice altre informazioni. Dal
punto di vista pratico, ogni documento ipertestuale contiene al suo interno delle parti,
opportunamente evidenziate tramite artifici grafici, che rappresentano dei “pulsanti” da premere per
accedere ad altre pagine interne o esterne a quella in cui ci si trova. Va detto, però, che non è stata
Internet a far conoscere le potenzialità degli ipertesti. Ancora prima che il WWW si diffondesse,
erano già disponibili opere ipermediali registrate su supporti ottici che si avvalevano di
collegamenti ipertestuali che avrebbero poi contrassegnato Internet. Il contributo della rete è stata la
possibilità di costruire un vasto ipertesto, capace di collegare testi archiviati in computer diversi23.

2.4.1.2 Il linguaggio HTML

Il linguaggio HTML, acronimo di HyperText Markup Language, non è un vero e proprio


linguaggio di programmazione ma, come dice il nome stesso, un linguaggio di marcatura che
inserisce dei simboli particolari, detti tag (vedi Tabella Tag) racchiusi fra parentesi angolari
(<tag>), prima e dopo gli oggetti (testo, immagini, ecc.) di un documento, in modo da indicare al
browser come visualizzarle. Si tratta di un linguaggio universale, che semplifica in modo
determinante il rapporto tra coloro che accedono ad Internet: una pagina creata in Italia viene
visualizzata in Germania o in Giappone o in ogni altra parte del mondo rapidamente e senza
difficoltà.

Esempio di TAG e di codice html:

23
De Carli L., Internet. Memoria e oblio, Bollati Boringhieri, Torino, 1997.
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 28
Occorre evidenziare che oggigiorno nel panorama della rete Internet i siti web vengono
distinti in siti web statici e siti web dinamici.
La differenza fra siti statici, chiamati anche “siti vetrina”, e siti dinamici è abbastanza
evidente; mentre nei primi le informazioni contenute nelle pagine web del sito non cambiano ogni
qualvolta viene visitato il sito, a meno che non ci sia stato un intervento di modifica delle pagine
web da parte dell’editor dei contenuti o del web master, nei secondi, grazie al fatto di essere
collegati ad un database, le informazioni vengono aggiornate automaticamente e quindi possono
variare ad ogni attivazione delle pagine da visualizzare; questi consentono sia una maggiore
flessibilità nella gestione dei contenuti sia una elevata interazione con gli utenti che consultano il
sito. In un sito dinamico, al contrario di un sito statico, è possibile attivare forum, chat, far registrare
gli utenti, compilare moduli di richiesta informazioni, e così via.
E’ bene sottolineare che la possibilità di rendere un sito dinamico è dovuta al fatto di poter
utilizzare, per la creazione del sito, particolari linguaggi di programmazione, cosiddetti linguaggi
web oriented avanzati, cioè veri e propri linguaggi di programmazione che vanno ad integrarsi al
linguaggio HTML, che come sappiamo è il linguaggio base per la costruzione/realizzazione delle
pagine che costituiscono il sito web. I linguaggi web oriented avanzati si distinguono in: linguaggi
interpretati e linguaggi semicompilati o codice P.
Ai linguaggi interpretati appartengono i linguaggi di scripting; questi sono particolarmente
importanti perché consentono di effettuare operazioni molto complesse sui dati, per esempio
permettono di fare interrogazioni su un database, creare “maschere” per l’inserimento e
l’archiviazione dei dati nei database; appartengono a questa categoria il linguaggio PHP, ASP,
PERL, questi linguaggi possono interagire con i database MySQL, MS SQL Server, PostgreeSQL,
ecc.24

2.4.2 FTP (File Transfer Protocol)


Altro servizio di Internet è il File Transfer Protocol (FTP), questo è un protocollo di
comunicazione realizzato per consentire il trasferimento di file binari o di testo tra due computer
collegati alla rete. Lo scambio di file e di software è un’attività che si è fortemente sviluppata sin
dai primi anni di vita della rete, prima che il World Wide Web nascesse. Il software reperibile su
Internet è solitamente memorizzato sugli hard disk di computer che possono comunicare con
l’utente tramite il protocollo FTP, per questo denominati siti FTP, e che possono essere utilizzati
dall’utente come se si fosse sulla propria macchina. FTP è stato sviluppato prima dell’HTTP che
svolge funzioni relativamente simili anche se mirate al WWW. FTP permette di leggere
comodamente le directory degli hard disk dei siti FTP e il loro contenuto e di muoversi al loro
interno; in pratica l’hard disk del sito FTP viene momentaneamente collegato al computer
dell’utente remoto rendendo possibile tutte quelle operazioni che di solito si compiono con i file
presenti sul computer locale.
L’operazione con la quale è possibile copiare file o programmi dal proprio PC al computer
remoto è denominata upload, mentre quando i file passano da quello remoto al proprio PC si usa il
termine download25.

24
In questa sede non si ritiene descrivere dettagliatamente e tecnicamente tali linguaggi e database; pertanto, per gli
approfondimenti del caso si rimanda ai testi specializzati.
25
Con il termine upload, letteralmente “caricare”, si intende l’operazione di trasferimento dei file che l’utente effettua
dal proprio computer verso un altro computer/server o sito internet. Con il termine download, letteralmente “scaricare”,
ci si riferisce all’operazione di trasferimento dei file che l’utente effettua da un computer remoto o da un server o da sito
internet sul proprio computer. Per un approfondimento si consulti O. De Pietro, Tecnologie della comunicazione
educativa, I Quaderni del Master Progettare e Valutare nella formazione, Ed. Monolite, 2008
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 29
Un file disponibile via FTP è univocamente identificato da tre elementi: il suo nome, la
directory in cui è memorizzato e il nome del sito in cui è posto. Noti questi tre parametri è possibile
accedere ad un sito FTP inserendo nel browser un indirizzo del tipo:
ftp://nomesito/directory/nomefile. Generalmente i file contenuti nei siti FTP sono in formato
compresso, per cui è necessario possedere il programma apposito per decomprimerli. Un
collegamento classico FTP prevede l’utilizzo di un programma client in cui l’utente inserisce gli
opportuni comandi. Ultimamente si sono sviluppati programmi con interfaccia grafica26 integrati dai
normali browser di navigazione che, offrendo un aspetto user-friendly all’utente, fanno si che egli
possa compiere le diverse azioni cliccando con il mouse senza conoscere i comandi FTP.

2.4.3 Posta elettronica (E-mail)


Ulteriore servizio di Internet è la posta elettronica. L’applicazione della posta elettronica (e-
mail) nell’ambito di una rete di computer è una delle più vecchie forme di comunicazione e
rappresenta anche per Internet un’applicazione fondamentale. La sua invenzione risale al 1972,
quando il suo ideatore, il ricercatore americano Ray Tomlinson, spedì il primo messaggio di e-mail
usando la rete Arpanet27.
L’e-mail offre la possibilità di comunicare, di mandare messaggi a persone in qualunque parte
del mondo con velocità e precisione eccezionale. La posta elettronica è stata paragonata al fax,
poiché entrambi i sistemi consentono la trasmissione di una gran quantità di dati in un tempo molto
breve. Rispetto al fax, però, l’e-mail presenta evidenti vantaggi. Inoltre il messaggio può essere
inviato, in maniera automatica, a più destinatari contemporaneamente. La posta elettronica è molto
pratica, visto che ad un messaggio si può allegare (attachment) qualunque tipo di file (testo,
immagine, video, ecc.).
Per utilizzare la posta elettronica occorrono l’apertura di un conto (account) presso il service
provider e la conseguente connessione alla rete e un programma per la stesura, l’invio e la lettura
dei messaggi. Naturalmente, per comunicare, mittente e destinatario devono avere un indirizzo e-
mail fornito dal provider del tipo: nomeutente@nomemacchina.
Con il termine nomeutente (o user-id) rappresenta un nome che identifica l’utente in modo
univoco all’interno del nodo che lo ospita. Lo user-id non coincide necessariamente con il cognome
dell’utente, ma può essere una qualunque altra sigla, l’unico vincolo è che in ogni nodo non ci sia
più di una persona con lo stesso user-id. Con il termine nomemacchina è il computer-address, cioè
il nome del computer che ospita la mailbox dell’utente. Il carattere @ che separa i due nomi,
permette di distinguere gli indirizzi di posta elettronica dai comuni nomi di computer e viene
normalmente letto come at (presso).
Dunque si può affermare che la posta elettronica rappresenta un formidabile mezzo di
comunicazione i cui vantaggi possono essere individuati in28:
 Diffusione. Sono milioni ormai le persone che dispongono di un indirizzo di posta elettronica a
casa o in ufficio. L’e-mail fa parte della nostra quotidianità e in pochi saprebbero rinunciarci.
 Economicità. Se si dispone di una mailing list (vedi più avanti), basta una sola connessione alla
rete per spedire simultaneamente molti messaggi.
 Tempestività. I messaggi di posta elettronica impiegano pochissimo tempo ad arrivare nelle
caselle virtuali di posta.
 Bassa tecnologia. La posta elettronica non necessita di strumenti tecnologici, di hardware e di
un sistema di rete particolarmente sofisticati.

26
Tra questi, si possono citare Cute FTP e WS FTP.
27
Roversi A., Chat line, Il Mulino, Bologna, 2001.
28
Camera S., Andare a bersaglio con l’e-mail, in e-business news, anno II, n. 4, Aprile 2001.
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 30
Inoltre la posta elettronica fornisce anche l’opportunità di entrare in contatto con gruppi di
vari interessi: è sufficiente mandare un messaggio per iscriversi ad una mailing list (vedi dopo) e
ricevere automaticamente gli aggiornamenti degli argomenti trattati.
I messaggi di posta elettronica sono costituiti da un semplice testo ASCII diviso in due parti:
la prima è formata dalle righe di intestazione (headers), nelle quali sono contenute informazioni
quali il mittente, il destinatario, la data e l’ora, l’argomento; la seconda dal corpo del messaggio. Il
messaggio viene composto dal mittente e “consegnato” ad un server, che provvede a contattare altri
server lungo la rete fino a giungere al destinatario. Una volta giunto a destinazione, il messaggio
viene memorizzato nella mailbox personale dell’utente che non ha l’obbligo di essere collegato
continuamente ad Internet. All’atto della connessione i messaggi ricevuti vengono prelevati e
trasferiti sul computer di casa.
Lo scambio della posta elettronica avviene nel seguente modo: il mittente, usando il software
di cui dispone, digita l’indirizzo di posta del destinatario e dopo aver redatto il testo esegue il
comando send per il suo invio. La posta viene trasmessa, tramite il protocollo SMTP - Simple Mail
Transfer Protocol, al proprio nodo che provvede ad inoltrare il messaggio verso il server di
destinazione, questo ricevuto il messaggio e-mail, lo memorizza nella casella postale del
destinatario. Il server trasferisce i messaggi nel PC del destinatario avvalendosi del protocollo POP3
(Post Office Protocol versione 3). Nel caso in cui un messaggio spedito dall’utente non possa essere
consegnato, perché l’indirizzo è sbagliato, o il destinatario non esiste o per altri motivi, esso viene
rispedito al mittente con notifica di mancata consegna.
Due applicazioni che si basano sul funzionamento della posta elettronica sono i newsgroup e
le mailing list.

I newsgroup sono bacheche virtuali sulle quali chiunque può affiggere il proprio messaggio e leggere
quelli degli altri, come succede nelle bacheche di università e scuole. Si tratta di “aree di interesse”
dedicati agli argomenti di discussione più disparati, ai quali chi decide di partecipare dà il suo contributo
sotto forma di messaggi relativi al tema.

La mailing list (lista di discussione) è una lista di indirizzi e-mail caratterizzati dall’appartenere a
persone che, avendo qualche interesse in comune, decidono di scambiarsi regolarmente posta
elettronica. Attraverso una mailing list vengono comunicati importanti appuntamenti come congressi o
convegni, sono annunciate novità commerciali o editoriali. La sua funzione è puramente strumentale:
serve ad informare gli iscritti circa la natura, i contenuti o il momento cui avrà luogo un certo
avvenimento. Tutte le liste hanno in comune il fatto di essere costituite da un argomento di discussione,
da un file di benvenuto (o “charter”) che descrive la lista e le sue policy, da un certo numero di persone
che vi si iscrivono e, quasi sempre, da archivi che raccolgono e salvano tutte le mail inviate alla lista.
Alcune mailing list sono moderate, ossia esiste un moderatore che controlla il corretto funzionamento
del sistema. Egli legge i messaggi spediti e decide per ciascuno di essi se è il caso di pubblicarlo
inviandolo a tutti o di cestinarlo, qualora il suo contenuto sia offensivo o sgradevole. (per
approfondimenti vedere: Metitieri F., Manera G., Incontri virtuali, Apogeo, Milano, 1997).

2.4.4 Motori di ricerca

Internet rappresenta una risorsa informativa dalle dimensioni notevoli. In rete è possibile
trovare di tutto, ogni tipo di argomento, di concetto, di prodotto, di soggetto. Le categorie sono
infinite e riguardano ogni singolo aspetto dell’essere umano. L’informazione che Internet mette a
disposizione è di natura assai eterogenea e raggiungibile attraverso diversi canali. Gli strumenti che
l’utente ricercatore può utilizzare per trovare in modo efficiente le pagine che contengono le
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 31
informazioni su un determinato argomento sono i motori di ricerca e gli indici sistematici
(directory).
Grazie ai motori di ricerca (o search engine) l’utente riesce ad orientarsi e operare
nell’oceano dei documenti Web, venendo a conoscenza di siti, contenenti le informazioni che lo
interessano, pur non conoscendo l’indirizzo web, cioè l’URL.
I search engine sono strumenti per la ricerca su singole pagine che percorrono il Web
leggendo e catalogando le pagine che incontrano. L’utente, inserendo in un’apposita maschera una
o più parole chiave (keyword), riceve un elenco decrescente di siti ordinati in base alla pertinenza,
cioè in base a quanto il sito soddisfa il criterio di ricerca inserito. I motori censiscono i siti in base
alla posizione delle parole e alla loro frequenza. Essi verificano se le parole chiave inserite
compaiono nella parte superiore di una pagina, ad esempio nel titolo, nel sottotitolo o nei primi
paragrafi. Le pagine in cui le keyword compaiono nel titolo sono considerate più pertinenti delle
altre. Inoltre i motori di ricerca evidenziano le parole riportate più spesso nel sito, quelle più
frequenti, che si presume rappresentino l’argomento principale della pagina. Le pagine con una
frequenza più elevata sono considerate più pertinenti rispetto ad altre29.
Per fare tutto questo i motori, oltre ad inserire i siti segnalati dagli utenti, esplorano
continuamente il Web attraverso specifici software (detti spider o crawler), acquisendo tutte le
pagine non ancora presenti nei loro database. E’ bene sottolineare che non esiste un motore di
ricerca completo e che una stessa ricerca effettuata su motori diversi fornirà risultati diversi. Per
circoscrivere la propria ricerca, in modo che i siti risultanti siano congruenti con le proprie
necessità, è opportuno utilizzare più termini, indicando per prima le parole più importanti. Inoltre
molti motori mettono a disposizione delle funzioni aggiuntive in apposite sezioni, chiamate
“Advanced search”, dove è possibile specificare la lingua delle pagine che interessano, usare alcuni
operatori logici e matematici (AND, OR, NOT, +, -, “ “, ecc.) o richiedere quei documenti creati o
modificati prima o dopo una certa data. Tra i motori di ricerca più utilizzati vi sono Google,
Altavista, Hotbot, Lycos, Excite, ecc. Si ritiene che i motori di ricerca siano in grado di indicizzare
tra il 10 e il 25% dei siti disponibili in rete, per cui l’enorme quantità di informazioni e conoscenze
presenti in rete rimane per lo più sconosciuto, mettendo in discussione il luogo comune per il quale
trovare risorse in Internet sia più facile rispetto alla ricerca nel mondo fisico30.

2.4.5 Chat line

Le chat line rientrano nella categoria degli strumenti di comunicazione sincroni messi a
disposizione dalla rete, insieme alle audio/video conferenze e ai MUD31. Le chat sono luoghi di
incontro organizzati per stanze tematiche, in cui poter liberamente discutere con utenti di tutto il
mondo.
Gli utenti collegati ad Internet hanno la possibilità di conversare in tempo reale tramite il
computer grazie al protocollo IRC (Internet Relay Chat), una risorsa originariamente sviluppata in

29
Korper S., Ellis J., Il libro del commercio elettronico, Apogeo, Milano, 2000.
30
Biffi A., Net Economy. Tecnologie e nuovi paradigmi manageriali, Franco Angeli, Milano, 2001.
31
I MUD (Multi-Users Dungeon) sono degli scenari di gioco sviluppati in ambienti virtuali nei quali gli utenti possono
assumere maschere fittizie e interpretare avventure complesse in base a regole e istruzioni predefinite, e in cui ogni
mossa dei partecipanti viene messa in atto digitando dei comandi appositi immediatamente letti dagli altri giocatori
presenti in quel momento nel Mud.

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 32
Finlandia da Jarkko Oikarinen32 nel 1988 e diventata ben presto una delle più sfruttate e popolare
della rete.

3 La nuova Internet: Internet 2.0

Nel capitolo precedente abbiamo trattato la rete Internet in termini tecnici e abbiamo visto
quali sono i principali “servizi” che mette a disposizione degli utilizzatori e che fanno di Internet
stessa un vero e proprio luogo di comunicazione globale, consentendo a milioni di persone di
comunicare scambiandosi messaggi attraverso la posta elettronica, di consultare informazioni
attraverso il www, come se ci si trovasse all’interno di una “immensa Biblioteca”, di studiare, di
fare acquisti e così via.
Sostanzialmente, si può dire che Internet integra in se tutti i tradizionali sistemi di
comunicazione di massa che l’hanno storicamente preceduta, col vantaggio di consentire a tutti di
accedere liberamente alle informazioni e di poter comunicare liberamente e senza limiti spazio-
temporali. Grazie all’abbattimento dei costi degli strumenti tecnologici sempre più potenti e alla
portata di tutti, si pensi ad esempio alla tecnologia ADSL che consente di accedere a grosse quantità
di informazioni con collegamenti veloci a costi relativamente contenuti oppure ai veloci processori
ormai disponibili anche sui computer di uso domestico, si è assistito in questi ultimi tempi ad un
utilizzo sempre più crescente di tale sistema di comunicazione, facendolo diventare ormai quello
più utilizzato non solo in ambienti scientifici, accademici e aziendali, ma anche a livello di massa.
Oggi la possibilità di avere un proprio sito web è diventata una realtà, chiunque, anche a livello
personale e con poche conoscenze informatiche, può crearlo e pubblicarlo; è molto di moda oggi il
cosiddetto blog (vedi box), una sorta di diario on line che chiunque può attivare e pubblicare in
tempo reale opinioni, notizie, informazioni su argomenti tematici e consentire, a chi condivide gli
stessi interessi, di intervenire con propri commenti e/o critiche. Grazie a queste semplificazioni si è
venuto così a realizzare un rivoluzionario mezzo di comunicazione sociale in cui è possibile
attingere a fonti informative sempre più vaste e continuamente aggiornate. Oggigiorno le elevate
capacità tecnologiche a disposizione dell’uomo fanno di Internet un ecosistema tecnologico aperto
abilitato alla diffusione su larga scala dell’informazione e della condivisione del sapere. Occorre
comunque tener presente come la Rete e tutte le tecnologie ad essa associate possono sì migliorare
le capacità comunicative e interattive dell’uomo ma solo se queste vengono utilizzate in modo
dinamico e cosciente.
Comunque, è bene precisare che l’evoluzione tecnologica a cui si fa riferimento non è relativa
ad un aggiornamento, in termini tecnici, del protocollo TCP/IP, che come si ricorda è alla base della
Rete Internet, ma ai mezzi e agli strumenti (servizi) che utilizzano l’infrastruttura tecnologica sulla
quale essa poggia e che attualmente viene identificata con il termine “Internet 2.0”.

3.1 Web 2.0: il nuovo web

Con riferimento a quanto evidenziato nel paragrafo precedente, occorre ricordare che il
servizio più utilizzato di Internet è il Web (WWW); esso consente di presentare le informazioni in
forma multimediale: testi, immagini, suoni, e anche la trasmissione di filmati è ormai tecnicamente
accettabile, ovviamente con collegamenti a “banda alta” per esempio ADSL.

32
La nascita di IRC è brevemente raccontata dallo stesso Oikarinen in un documento dal titolo Early IRC history,
reperibile all’indirizzo www.the-project.org/history.html.
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 33
Anche per il World Wide Web si è assistito, nel corso degli anni, ad una continua evoluzione
tecnologica che ha visto il passaggio dai cosiddetti siti web statici ai siti web dinamici (v. par.
2.4.1.2), fino ad arrivare oggi ai Social web cioè veri e propri spazi sociali e relazionali dove le
persone si incontrano, si esprimono liberamente e si relazionano.
Fino a qualche anno fa l’uso più comune della Rete era legato alla consultazione dei siti web
per ottenere informazioni; oggigiorno, invece, si sta assistendo ad un radicale cambiamento
dell’approccio che gli utenti hanno con la Rete stessa. Questa non rappresenta più un insieme di siti
web isolati e indipendenti tra loro, ma viene ormai considerata come l’insieme delle capacità
tecnologiche fruibili dall’utente nell’ambito dell’elaborazione, della diffusione e della condivisione
dell’informazione e del sapere. Il punto di forza dell’evoluzione che sta interessando Internet risiede
proprio nella possibilità offerta agli utenti di sperimentare nuove forme di contatto, di relazione e di
espressione personale.
Queste nuove possibilità espressive e relazionali vengono esercitate attraverso una serie di
strumenti web come il blog, il wiki, il podcast, gli ambienti simulati di vita (tipo Second Life), vedi
riquadri, la cui logica è quella di consentire la partecipazione e la diffusione dei contenuti
multimediali (testo, immagini, suoni) prodotti dagli stessi utenti in modo semplice e senza
specifiche competenze tecniche; in pratica il provider (fornitore) dei contenuti diviene al tempo
stesso consumer (consumatore, utilizzatore). Ogni informazione, entrando a far parte di una rete di
relazione tra persone e tra altri contenuti, diviene immediatamente rielaborabile e conoscenza per
tutti gli altri. Ad esempio, i contenuti di un video on line, possono essere postati (inseriti) in un blog
ed essere commentati grazie all’aggiunta di osservazioni, note e riflessioni per poi essere pubblicati
su riviste e o giornali tematici.
Questa evoluzione del WWW viene riassunta nell’espressione Web 2.033. Il ricorso a questo
neologismo, più o meno condivisibile, fa intuire il processo di evoluzione nell’approccio ai mezzi
tecnologici: la pubblicazione delle pagine web non viene più messa al primo posto, in quanto
l’elemento fondamentale risiede nella partecipazione ai contenuti tra persone, che porta alla
creazione di un ambiente globale nel quale i software on line, gli applicativi multimediali e le
connessioni a larga banda propongono contenuti più ampi e una forte interazione fra gli utenti. In
altre parole, il concetto cardine alla base del Web 2.0 è la partecipazione dei contenuti pubblicati;
dove per “pubblicazione dei contenuti” si intende la condivisione dell’informazione, possibilmente,
arricchita di commenti e osservazioni da parte degli altri utenti. L’obiettivo del Web 2.0 è dunque
quello di pervenire ad un ambiente globale, una sorta di social network partecipativo che favorisce
lo scambio di contenuti e di interessi personali; questa “rete sociale”, è questa la traduzione letterale
del termine social network, è costituita da un gruppo di utenti uniti, in genere, da interessi comuni,
aperti alla condivisione di pensieri, conoscenze, ma anche disposti a raccontare esperienze della
propria vita, di segnalare link ai siti che ritengono utili ai fini della comunità, a pubblicare video e/o
foto personali. Si può dire dunque che a formare un social network sono le persone che senza
esperienze e competenze tecniche, grazie alla semplicità di impiego di computer, cellulari,
macchine fotografiche, registratori e videocamere digitali e di strumenti web, sempre più facili da
utilizzare, pubblicano i contenuti relativi alla propria esistenza o ai propri interessi e li condividono
con gli altri; in pratica riutilizzano il contenuto del web.

33
Il termine Web 2.0 è stato utilizzato per la prima volta da Dale Dougherty, vicepresidente della O’Reilly Media,
durante una conferenza promossa dalla stessa azienda nel 2004; in cui precisava che con tale termine occorre far
riferimento all’attitudine alla collaborazione e condivisione di contenuti, abilitata da sistemi software e sviluppati per
supportare l’interazione in rete. Questo approccio evolutivo è basato sull’utilizzo del Web come piattaforma. Per un
approfondimento si consulti: Web 2.0. Internet è cambiato e voi?, a cura di V. Di Bari, Edizione Il Sole 24 0re, Milano,
2007.
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 34
Le diverse definizioni date e dichiarazioni fatte sul Web 2.0 sono state riassunte in una sorta di
decalogo da Vito Di Bari34, qui di seguito riportato, che, anche se in versione beta come chiarisce lo
stesso autore, riesce a far comprendere le peculiarità di questo neologismo.

1. Il Web è una piattaforma. Dai software installati sul pc degli utenti si arriva ai software-
servizi accessibili online. Dati e software che li analizzano sono tutti online, non più scorporati.
2. Il Web è funzionalità. Si compie la transizione dei siti web da silos di informazione a fonti di
contenuto e servizi.
3. Il Web è semplice. Si facilita l'accesso e l'utilizzo dei servizi web anche da parte degli "early
adopter" (principianti) utilizzando interfacce utente leggere e basate, per esempio, su AJAX ma
ricche, interattive e facili da usare (user friendly).
4. Il Web è leggero. I modelli di sviluppo, i processi e i modelli di business diventano leggeri.
La leggerezza è connotata dalla condivisione di contenuti e servizi e abilitata
dall'implementazione di elementi modulari intuitivi e di facile utilizzo.
5. Il Web è sociale. Le persone fanno il Web, "popolano il Web", socializzando e spostando via
via maggiori componenti dalla vita fisica a quella online.
6. Il Web è flusso. Viene data fiducia agli utenti come co-sviluppatori e si accetta di vivere una
condizione di "beta perpetuo" (cioè sempre in continuo aggiornamento), che sancisce la morte
del ciclo di adozione del software.
7. Il Web è flessibile. Il software si colloca a un livello superiore rispetto al singolo dispositivo
(device) per fare leva sul potere della Long Tail (lunga coda) attraverso il customer self-service
e sulla gestione di dati algoritmici per raggiungere l'intero Web: le periferie e non solo il centro,
la coda lunga e non solo la testa.
8. Il Web è mixabile. La diffusione di codici per modificare le applicazioni web (come fa, per
esempio, Google con il suo Google Maps) permette a tanti smaliziati individui, non
necessariamente professionisti dell'informatica, di mixare un’applicazione con un’altra per
ottenerne una terza. È questa la potenza del Web 2.0, una catena senza fine di incroci (in gergo,
mashup).
9. Il Web è partecipativo. Si adotta un'architettura di partecipazione che incoraggi gli utenti ad
aggiungere valore all'applicazione mentre la usano, in alternativa al controllo gerarchico del
controllo all’accesso delle applicazioni.
10. Il Web è nelle nostre mani. Si implementa un’aumentata organizzazione e categorizzazione
dei contenuti, che enfatizza l’interazione mirata, mediante deep linking (termine utilizzato per
indicare il collegamento direttamente ad una specifica pagina, filmato o immagine e non alla
sua home page). Grazie a fenomeni come la "classificazione sociale" (social tagging) i
contenuti sono sempre più facilmente raggiungibili.

L’idea di fondo del Web 2.0 è appunto quella di produrre un tangibile rinnovamento non a livello
della tecnologia impiegata, ma a livello del suo uso e della sua interpretazione in termini di
socializzazione e interazione. Con il Web 2.0 si avvia un modo innovativo nell’utilizzo dei software
applicativi; si immagini per esempio che il word processor che si utilizza comunemente (Ms-Word,
…) non si trovi più sul proprio computer ma che sia accessibile via internet collegandosi ad un
indirizzo web e inserendo il proprio account; in tal modo è possibile scrivere e condividere un testo
con altri utenti, collaborare alla redazione del testo, apportare ognuno delle modifiche, instaurando
così una condivisione interattiva dei contenuti. Questi servizi, denominati Web Service, oggi sono
riscontrabili facilmente nella Rete, uno dei più diffusi è il servizio Google Docs, attraverso il quale
più utenti possono redigere e collaborare su un testo (vedi riquadro sotto).

34
Web 2.0. Internet è cambiato e voi?, op. cit.
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 35
In questo innovativo scenario alla base del Web 2.0, l’utente può decidere di condividere con
altri le proprie riflessioni e i propri pensieri personali, dal più serio al meno impegnativo, secondo
una condivisione ampia, aperta ma soprattutto libera, utilizzando un blog, che aggiornerà
periodicamente. Nel blog egli potrà inserire, ad esempio, alcuni collegamenti ad altre pagine web o
ai blog relativi ai più svariati interessi personali. L’utente può condividere i propri siti preferiti
dando vita al cosiddetto social bookmark, ovvero la condivisione degli indirizzi dei siti. Può
condividere contribuiti multidediali (video lezioni, audio lezioni, conferenze), attravero la
registrazione e la diffusione delle sue trasmissioni preferite attivando un podcast, e rendendole così
fruibili da tutti grazie ai tanti servizi reperibili in Rete. L’utente può altresì realizzare una radio on
line35; in questo modo le proprie preferenze musicali sono ascoltabili dovunque nel mondo. Molte
stazioni radiofoniche trasmettono anche on line e alcune, attraverso un vero e proprio podcasting,
inseriscono in Rete i servizi già andati in onda, ad esempio Radio 1 e Radio 2 della Rai.

Nei riquadri sono riportati alcuni esempi di applicativi e o servizi del Web 2.0.
Blog
Sito Web nel quale vengono pubblicati contenuti nella forma di diario
personale.
L’espressione web log, ovvero traccia su rete, è stata utilizzata per la prima
volta negli Stati Uniti nel 1997, ad opera di un utente web, che decise di aprire
una pagina web personale per condividere il proprio hobby, era un cacciatore,
con gli altri utenti della rete. Nel 1999 si diffonde su Internet l’espressione "we
blog", che più tardi origina il verbo "to blog" (bloggare, scrivere un blog).
Grazie ai blog tutti gli utenti (blogger) hanno la possibilità di pubblicare
documenti su Internet in modo semplice e veloce.
I blog hanno anche alcuni elementi in comune con i wiki (vedi), nel modo in cui
vengono favoriti i commenti dei lettori e gestiti gli aggiornamenti dei contenuti
pubblicati. Nel 2001 i blog si diffondono in modo sistematico anche in Italia,
con la nascita dei primi servizi gratuiti dedicati alla gestione di blog.
Indirizzo: http://www.blog.raisport.rai.it/

35
Pagando i diritti Siae per la trasmissione dei brani musicali coperti da diritto d’autore
© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 36
Wiki
Applicazione web che consente di raccogliere e condividere la “conoscenza” in modo collaborativo.
Il wiki consiste in un insieme di documenti ipertestuali, o anche un intero sito web, che può essere
modificato dai suoi utenti e i cui contenuti informativi sono sviluppati con la collaborazione di tutti
coloro che vi accedono, in un modo simile ad un forum. Il wiki consente la condivisione, l’aggiunta e
l’aggiornamento dei contenuti in maniera aperta e libera; la cronologia degli interventi viene registrata
permettendo in caso di necessità di riportare il contenuto interessato alla versione precedente. Alcuni
utenti utilizzano il termine wiki come acronimo della frase inglese "What I know is", che riassume la sua
caratteristica funzione di condivisione della conoscenza oltre che di immagazzinamento.
Il più famoso fra questi servizi e wikipedia, la biblioteca on line.
Indirizzo: http://it.wikipedia.org/wiki/Wikipedia

Podcasting
È un applicativo web in grado di automatizzare la possibilità di scaricare file (generalmente audio o
video) chiamati podcast, attraverso un apposito software client chiamato feeder. Di conseguenza, un
podcast è un documento (video o audio) pubblicato sul Web a disposizione di chiunque voglia
automatizzarne lo “scaricamento” (download). Il termine podcasting deriva dalla fusione delle parole:
iPod (il popolare lettore MP3 di casa Apple) e broadcasting. Questo termine risale all’epoca in cui si
diffuse l'uso dei feed RSS per lo scambio di file audio su lettori di musica digitale, palmari, telefoni
cellulari, computer e anche palmari.
Un esempio di sito con servizio podcasting è quello della Rai.
Indirizzo: http://www.radio.rai.it/radio2/podcast/podcast.cfm

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 37
Second Life
E’ la rappresentazione web di un mondo virtuale nel quale una comunità di utenti interagisce per mezzo di
un’interfaccia grafica in 3D (tridimensionale). Questo mondo virtuale fornisce ai suoi utenti gli strumenti
per creare all’interno di questo ambiente contenuti nuovi: fisionomie dei personaggi, contenuti audiovisivi
e oggetti di qualunque natura. All’interno di Second Life vi è un elemento distintivo degno di nota: gli
utenti hanno la possibilità di usufruire dei diritti d'autore sugli oggetti che essi creano; tali oggetti possono
essere venduti e scambiati tra gli “utenti residenti" utilizzando una speciale moneta chiamata Linden Dollar
che può essere convertita in veri dollari americani.All'interno del mondo virtuale gli incontri appaiono
dunque come reali scambi tra esseri umani attraverso appositi avatar.
Indirizzo: http://secondlife.com/

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 38
Google Docs.
E’ un sistema di produttività condivisa con funzionalità di word processing (come Microsoft Word) che
risiede sul server di Google e può essere avviato da remoto, non richiedendo nessuna installazione di software
sul computer locale. Google consente inoltre di creare, con le stesse caratteristiche di condivisione di Google
Doc, fogli di calcolo e presentazioni. L’elemento distintivo rispetto ad altri applicativi che lavorano da
remoto risiede nel fatto che neanche i dati vengono salvati in locale. Questa caratteristica consente di
condividere il documento con altri membri di un gruppo di lavoro, che possono accedervi con diversi livelli
di privilegio (accesso in scrittura ad alcune parti, all’intero documento o sola lettura). Ad ogni modo,
l’immagazzinamento dei dati su un server pone seri problemi di privacy per le aziende e per gli utenti stessi.
Infatti, chi gestisce il servizio potrebbe utilizzare le informazioni per la profilazione non autorizzata degli
utenti. In secondo luogo gli utenti subiscono il rischio di attacchi e manipolazioni da parte di soggetti esterni,
dal momento che i dati risiedono su server sempre connesso a Internet.
Indirizzo: http://docs.google.com/

© I contenuti di questa dispensa, protetti da Copyright, sono scritti ripresi e aggiornati da precedenti testi di cui Orlando De Pietro è
autore. La dispensa deve essere utilizzata esclusivamente a scopo didattico, pertanto, se ne diffida la riproduzione e la
diffusione. 39

Potrebbero piacerti anche