Sei sulla pagina 1di 24

CAPITOLO 1

La parola “Informatica” deriva dal francese “Informatique” e dall’unione di due termini:


infor(mazione) + (auto)matica.
Il termine è stato coniato per indicare la disciplina che studia l’uso dei calcolatori elettronici per
elaborare l’informazione.
La parola informatica può essere vista come corrispondente dell’inglese Computer Science
(Scienza dei Calcolatori). Un calcolatore elettronico è in grado di compiere operazioni in
maniera automatica o semiautomatica, e questo è possibile grazie al fatto che è programmabile
e può immagazzinare dati.
 L’ICT (Information & Communication Technology) indica l’insieme delle tecnologie che
uniscono le funzioni dell’informatica alla trasmissione dei dati, in modo da poter realizzare
applicazioni distribuite attraverso la cooperazione di più computer

Il concetto di Informazione
Esistono molte definizioni del concetto di informazione. La definizione più consona al campo
informatico è quella che vede l’informazione come scelta tra diverse alternative, situata in un
contesto che ne consente l’interpretazione.
Al fine di conservare e trasmettere l’informazione è molto importante rappresentarla.
La rappresentazione dell’Informazione è associata a simboli e ad un supporto fisico su cui
tracciare questi simboli: che possono essere Disegni, caratteri, note, ecc. o Pareti rupestri, carta,
legno, ecc. DUNQUE Un simbolo è qualcosa che rimanda ad un’altra cosa. E Noi ogni giorno
utilizziamo simboli che associamo ad immagini, suoni o oggetti.)
I concetti di “informazione” e “simbolo” sono collegati alla nozione di “dato”.
L’insieme dei simboli che percepiamo e riconosciamo constituisce i dati che il cervello
interpreta per estrarre informazione. I dati diventano informazione se interpretati in un contesto
utilizzando la conoscenza. La conoscenza può essere definita come un insieme di modelli
costruiti e utilizzati per comprendere il mondo.
Dunque, ricapitolando, i dati sono un insieme di simboli che trasportano informazione che
possono essere interpretati e diventare conoscenza (che a sua volta è fatta di informazioni.)
Il supporto fisico è utilizzato per trasmettere l’informazione.
L’informazione è una entità descrivibile a vari livelli: sintattico, semantico e pragmatico.
Un primo livello, SINTATTICO, è costituito dal mondo dei simboli che abbiamo scelto per
rappresentare fisicamente la nostra informazione.
Un secondo livello, SEMANTICA, fa corrispondere un significato ai simboli che abbiamo
scelto,. Coincide con la nostra capacità di associare i simboli.
Il terzo livello, PRAGMATICO, è quello in cui assumiamo la nostra capacità di
contestualizzare gli elementi e di associarli ad esempio a un’opera musicale utilizzando la
conoscenza del contesto.
I tre livelli introdotti sono oggi una schematizzazione della definizione di informazione.

Affinché un supporto possa portare informazione deve assumere configurazioni differenti a


ognuna delle quali venga associata una differente entità di informazione. Il caso più semplice è
quello in cui le configurazioni possibili dipendono da due sole possibilità, detta anche scelta
binaria. Per interpretare le differenti configurazioni del supporto in termini di informazione è
necessario conoscere il codice, cioè la regola che stabilisce quale significato è associato ad una
specifica configurazione.
QUINDI, Ciò che ha reso veramente versatile il computer è stata l’idea di rappresentare
l’informazione mediante un codice universale, adatto ad esprimere ogni tipo di informazione, il
cosiddetto codice binario.
Per effettuare una codifica abbiamo bisogno di un codice e di due insiemi:
Insieme 1. configurazioni
Insieme 2. entità informazione
Codice: Regola che consente di associare gli elementi dei due insiemi.
Nel caso di una scelta tra due sole possibilità si fa riferimento ai simboli “0” zero e “1” uno,
simboli che rappresentano i due soli numeri possibili in un’aritmetica binaria, ovvero
un’aritmetica che supponga di poter contare solo fino a due.

Da questa convinzione nasce il nome bit per definire la più piccola informazione possibile che
deriva dalla scelta tra due sole possibilità. La parola bit è un acronimo ricavato dall’inglese
binary digit = numero binario.
(bit = unità d’informazione di base dei calcolatori elettronici)
Con un unico bit possono essere rappresentate 2 differenti informazioni del tipo: si/no, on/off,
0/1 e in senso logico (vero, falso). Tuttavia, mettendo insieme più bit è possibile rappresentare
un numero, anche molto elevato, di informazioni. Attraverso 2 bit, per esempio, possono essere
rappresentate 4 differenti informazioni: 00, 01, 10, 11.
Esempio 1
Configurazione: {Do, Re, Mi, Fa, Sol, La, Si} OPPURE NEI PAESI ANGLOSASSONI {C, D, E, F, G,
A, B}
Entità di Informazione: {le sette note di una ottava musicale}
Codice: Associamo in sequenza ciascuna configurazione a una delle sette note.
Esempio 2
•Al concetto di “numero tre” possono corrispondere diverse rappresentazioni simboliche: “3”,
“III”, “tre”, “three” , “trois”.
• Tutti noi siamo abituati a codificare l’informazione
La lingua scritta: un (piccolo) insieme di simboli, i caratteri dell’alfabeto, sono utilizzati per
comporre parole e frasi che possono esprimere qualunque concetto. 31 simboli: 21 caratteri + 10
cifre.
Gli stessi simboli sono usati di volta in volta per esprimere matematica, poesia, letteratura,
economia, leggi…
Combinando i 21 simboli dell’alfabeto italiano ed i 10 simboli delle cifre decimali possiamo
codificare parole, frasi e numeri
. L’alfabeto italiano non è l’unico codice possibile, ad esempio c’è: l’alfabeto greco, cirillico, arabo.

È dunque possibile passare da una codifica a un’altra, operazione che viene chiamata
transcodifica, ovvero di corrispondenza tra due diversi codici che rappresentano le stesse
entità di informazione.
La codifica inoltre è una convenzione e la scelta del codice da adottare può dipendere da
molteplici fattori (culturali, ecc..).
Dunque, tra i vari possibili codici, il più semplice è quello binario. Il codice binario è
composto da soli due simboli “0” e“1” e usando opportune combinazioni (stringhe) di bit è
possibile codificare qualsiasi informazione.

Codici e codifiche
• L’associazione tra un insieme di simboli e un insieme di significati si chiama CODIFICA
• La codifica realizza una corrispondenza tra i simboli e il significato.
- In base a questa associazione, il simbolo porta l’informazione (anche se non è l’informazione
in sé)
- Ad esempio, il simbolo “3” è associato al numero tre
• L’insieme dei simboli utilizzati è detto alfabeto e la regola di associazione è detta codice.

Elaborare significa manipolare, modificare, trasformare qualcosa in qualcos’altro avendo uno


scopo preciso. Le attività di elaborazione dell’informazione possono essere svolte con aiuti
esterni (ad esempio una calcolatrice per un esame di fisica, ecc..).
I supporti fisici sono importanti poiché consentono la memorizzazione dell’informazione e la
sua trasmissione. Per garantire la memorizzazione si sceglie un supporto in grado di mantenersi
stabile nel tempo.
I dispositivi utilizzati dai calcolatori elettronici per memorizzare e manipolare l’informazione
sono particolarmente adatti ed efficienti quando la codifica scelta per l’informazione è quella
binaria.
La vera differenza tra il computer e tutti gli altri dispositivi sta nel fatto che il computer oltre a
essere una macchina dotata di una memoria capace di conservare nel tempo l’informazione è
anche programmabile, e ciò denota che il computer è in grado di eseguire un programma,
quindi di eseguire una serie di istruzioni per elaborare l’informazione.
Le istruzioni possono essere codificate in binario e conservate nella memoria del computer
stesso e in questo modo il computer diviene la macchina universale che conosciamo: una
macchina che esegue vari programmi e si adatta ai diversi tipi di informazione (audio, video,
testuale ecc.).

Sistemi di numerazione
Il sistema di numerazione è l’insieme di simboli che consentono di rappresentare i numeri e di
compiere calcoli. Il sistema di numerazione universalmente utilizzato viene chiamato arabico
poiché fu introdotto in Europa nel Medioevo dagli Arabi.
Le sue caratteristiche principali sono:
- decimale: rappresenta numeri che vanno da 0 a 9
- posizionale: un numero è rappresentato da una sequenza di cifre letta da sinistra verso destra.
I sistemi posizionali consentono di rappresentare numeri grnadi con una quantità limitata di
cifre. In generale un sistema di numerazione posizionale è caratterizzato dalla scelta di una base
b e di un alfabeto a. (Pag. 16)

Codifica binaria
Per passare da una rappresentazione decimale ad una binaria è sufficiente eseguire una serie di
divisioni intere in base 2.
E’ sempre possibile ricondurre una scelta tra molte possibilità a una sequenza di scelte binarie.
ESEMPIO:
Voglio scegliere lun nell’insieme [lun, mar, mer, gio, ven, sab, dom].
Divido l’insieme di partenza in due sottoinsiemi e ne scelgo uno:
0 1
[lun, mar, mer, gio] [ven, sab, dom]

Ripeto il procedimento:
0 1
[lun, mar] [mer, gio]

Ancora una volta:


0 1
[lun] [mar]
La scelta di lun equivale alle tre scelte binarie indicate dalla sequenza 000.

Operazioni sui numeri binari


La somma binaria è un’operazione algebrica importante perché grazie alla somma è possibile
esprimere qualsiasi altra operazione algebrica.
Quando si verifica che il risultato di una somma ha un numero maggiore di cifre rispetto al
numero di cifre dei singoli addendi si dice che si è verificato un overflow.

Nel mondo dei computer la rappresentazione binaria costituisce il punto di riferimento. La


misura dell’informazione indica il numero di bit necessari per rappresentare una data quantità
di informazione. Per esempio, per 1000 diverse entità di informazione avremo bisogno di
altrettante distinte configurazioni di bit diverse. Alcune semplici leggi combinatorie ci
consentono di capire quanti bit sono necessari per rappresentare un certo numero di oggetti.
Quanti bit (che indico con K) servono per codificare N oggetti? [formula logarittimo pag. 31
oppure vedi slides]

Quanti oggetti posso codificare con k bit?


‣1 bit  2 combinazioni (0, 1)  2 oggetti
‣2 bit  4 combinazioni (00, 01, 10, 11)  4 oggetti
‣3 bit  8 combinazioni (000, 001, …, 111)  8 oggetti
‣…
‣k bit  2 k combinazioni  2 k oggetti
Se ho 3 bit (quindi k = 3)  2 k  2 3 (due alla terza) = 8. Con 3 bit posso codificare 8
oggetti.

Multipli del bit


Se utilizziamo il bit come unità di misura dell’informazione, ci troveremo spesso a esprimere
multipli del nostro bit. Il più famoso multiplo del bit è il byte costituito da 8 bit. Su questa base
possiamo introdurre i multipli successivi:

In informatica si utilizza la parola file per indicare un contenitore di informazione digitale.


Esistono diverse tipologie di file: documenti, audio, video, sistema, immagini ecc…
La parola file multimediale ha origine dalla combinazione di multus e medium, e si intende la
combinazione di due o più modi di comunicare che devono essere riprodotti in sincrono
durante un preciso intervallo di tempo.

I segnali di un calcolatore (un segnale è un’onda)


In un calcolatore elettronico l’informazione binaria è ottenuta attraverso la variazione di un
valore di tensione elettrica che è memorizzata, rappresentata e modificata attraverso circuiti
elettronici.
Un segnale si ottiene grazie alla variazione nel tempo di una grandezza fisica che, assumendo
valori differenti, trasmette informazione. Alcuni valori prescelti, o tutti, della grandezza fisica
sono associati ad un simbolo differente per cui un segnale corrisponde ad una sequenza di
simboli con la quale è possibile codificare informazione.
Nel caso del segnale elettrico, la grandezza fisica I che varia nel tempo t è la corrente
all’interno di un elemento fisico conduttore. I livelli della grandezza fisica vengono anche detti
valori di ampiezza del segnale.
L’andamento di un segnale elettrico è rappresentato come una curva o funzione del tempo.
Se la grandezza fisica varia | assumendo un valore di ampiezza lungo l’asse del tempo t, allora
il segnale è detto a tempo continuo, se invece la grandezza assume valori solo in alcuni punti,
allora il segnale è detto a tempo discreto.
Se la grandezza fisica varia assumendo come valore di ampiezza uno dei valori reali compresi
tra un valore minimo e massimo, allora il segnale si dice ad ampiezza continua, se invece la
grandezza varia assumendo uno dei valori di un insieme discreto allora il segnale si dice ad
ampiezza quantizzata.
Il segnale analogico è continuo nel tempo, il segnale digitale è a tempo discreto e ad ampiezza
quantizzata.

Un’onda è una perturbazione che si propaga nello spazio e può trasportare energia da un
punto all’altro ed è variabile nel tempo. Se si parla di onde meccaniche a vibrare sono le
particelle del mezzo in cui si propaga l’onda. Se invece si parla di onde elettromagnetiche a
vibrare è un’entità immateriale, detta campo elettrico-magnetico e in questo caso non è
necessaria la presenza di un mezzo in cui l’onda possa propagarsi | in quanto può propagarsi
anche nel vuoto.
Ogni onda ha una direzione di propagazione e si parla dunque di onde longitudinali o
trasversali.
L’energia trasportata dalle onde può diventare informazione attraverso la modulazione.

Le caratteristiche quantitative principali di un’onda, e quindi di un segnale, sono: periodo,


frequenza, lunghezza d’onda, fase, tempo di ritardo, polarizzazione ecc…
Un segnale è detto periodico perchè la sua ampiezza varia nel tempo secondo un periodo T
costante misurato in secondi (s).
Per frequenza f si intende il numero di cicli che l’onda compie in un secondo | e si misura in
hertz (Hz). Quando si osserva la propagazione dell’onda, si parla di lunghezza d’onda, che si
misura in metri m e dipende dalla velocità v. Un’onda a frequenza alta ha una lunghezza d’onda
piccola e viceversa.

*Un’onda può essere scomposta in un insieme di componenti elementari sinusoidali. Fourier ha


dimostrato che ogni forma d’onda periodica complessa può essere sintetizzata partendo da sole
onde sinusoidali di diversa frequenza, ampiezza e relazione temporale.
A partire da una onda sinusoidale di frequenza f1 detta armonica fondamentale, si possono
definire le successive: ad esempio, quella con frequenza doppia seconda armonica, quella con
frequenza tripla terza armonica, ecc. Per quarta armonica, quinta armonica, ecc. si intendono
onde che hanno frequenza quadrupla, quintupla, ecc. rispetto alla fondamentale.
Fourier e i segnali periodici
La maggior parte dei segnali rappresentabili come “onde sonore” (ad esempio, la voce umana)
sono ben diverse da una semplice sinusoide.
Tuttavia, è molto interessante osservare che non ha importanza quanto complessa sia un’onda:
a condizione che sia periodica, essa può essere scomposta in un insieme di componenti
sinusoidali.
*Teoria di Fourier: Fourier ha dimostrato che ogni onda periodica complessa può essere
sintetizzata partendo da sole onde sinusoidali di diversa frequenza, di diverse ampiezza e di
diversa relazione temporale (fase).
Con lo strumento matematico chiamato trasformata di Fourier è possibile trasformare un
segnale e ottenere la sua rappresentazione in frequenza. Secondo questo metodo un segnale
infinito nel dominio del tempo si trasforma in un segnale limitato nel dominio della frequenza e
viceversa.
La rappresentazione in frequenza di un segnale si chiama anche spettro del segnale o
contenuto armonico del segnale. Secondo le teorie matematiche di Fourier lo spettro dovrebbe
essere composto da un numero infinito di armoniche.
Il concetto di contenuto armonico insieme al concetto di banda (rispettivamente spettro del
segnale e frequenza massima) sono fondamentali nel processo di digitalizzazione di un segnale
elettrico analogico.

Rappresentazione digitale dell’audio


L’onda sonora è un’onda meccanica generata dal propagarsi di una perturbazione nella
pressione di un determinato mezzo fisico (ad es., l’aria). Essa viene trasformata in un’onda
elettromagnetica da un dispositivo di trasduzione. In ogni caso, è un’onda continua.
Da un punto di vista matematico, essendo un segnale continuo, nello spettro di un segnale
sonoro dovrebbero essere presenti un infinito numero di armoniche. Per motivi di natura fisica
legati all’energia trasportata dalla perturbazione (onda) sonora, le armoniche di frequenza più
grande hanno intensità sempre minore.
Questo rende possibile definire una FREQUENZA MASSIMA oltre la quale si possono
considerare ininfluenti le successive armoniche.
L’intervallo di frequenze associate a un segnale viene detto banda passante del segnale.
Il segnale audio è un’onda meccanica continua che può essere rappresentata in funzione del
tempo

La digitalizzazione consiste nella conversione del segnale analogico in un segnale digitale.


La digitalizzazione avviene campionando il segnale audio a intervalli di tempo prefissato e
rappresentando ogni campione con una sequenza fissata di bit. Queste due fasi si dicono,
appunto, campionamento e quantizzazione.

> Campionamento: Un segnale audio analogico è una sequenza temporale di valori compresi in
un intervallo definito. Dato che il segnale audio è un’onda acustica meccanica, un segnale
continuo, il numero di valori che la descrivono sono infiniti. Una macchina, per la sua natura
discreta, può rappresentare solo sequenze finite di simboli…e dunque SELEZIONIAMO
SOLO ALCUNI VALORI…”CAMPIONANDO”
Quindi, in analogia con la rappresentazione dei numeri, possiamo immaginare un segnale audio
come una sequenza temporale finita di valori.

> Quantizzazione: Un segnale audio analogico è una sequenza temporale di valori compresi in
un intervallo definito. Seppur l’intervallo è finito, dato che il segnale audio è un’onda acustica
meccanica, un segnale continuo, le ampiezze dei valori che la descrivono possono essere
infinite. Per rappresentare un intervallo infinito di simboli servirebbero infiniti bit per
simbolo…ASSURDO…QUANTIZZIAMO.
Quindi, in analogia con la rappresentazione dei numeri e dei caratteri, possiamo immaginare un
segnale audio come una sequenza temporale di valori discreti appartenenti all’intervallo {a1 a2
a3 a4 a5 }.
Binarizzazione
L’intervallo {a1 a2 a3 a4 a5 } può essere rappresentato in binario. Ogni elemento di tale
intervallo può essere associato ad un numero intero la cui rappresentazione binaria è nota.
Nell’esempio riportato i valori da rappresentare sono 5, per cui 2 k ≥ 5, dunque k=3 bit.

Parametri
1. Un primo parametro che individua la qualità del segnale digitale è la: fc frequenza di
campionamento Questo valore indica il numero di campioni al secondo del segnale originale
che vengono rappresentati nel segnale digitale e la sua unità di misura è in Hertz (Hz). La scelta
di tale valore è imposta dal Teorema del campionamento o di Nyquist (fc ≥ 2B).
2. Un altro parametro che individua la qualità del segnale digitale è: Intervallo di
quantizzazione Questo valore indica il numero di simboli che si utilizzano per rappresentare i
campioni selezionati nel processo di campionamento. Più è elevato e più affidabile la
rappresentazione del segnale originale; più è basso e meno è affidabile.

Formati di rapprentazione
Segnale musicale: in ambito musicale è diventato uno standard de facto il Compact Disc (CD),
le cui caratteristiche vengono oramai prese come riferimento per il cosiddetto “audio ad alta
qualità”. I CD utilizzano codifiche stereo (due canali) con frequenza di campionamento
44.1KHz e valori di quantizzazione a 16 bit. Dunque, il bitrate di un tale segnale è pari a circa:
2 canali x 44100 Hz x 16 bit = 1.35 Mbit/sec.
Segnale vocale: in ambito vocale, come riferimento viene generalmente preso il sistema
telefonico digitale dove i segnali sono campionati con frequenza di campionamento 8 KHz e
quantizzati con parole da 8bit. Dunque, il bitrate di un tale segnale è pari a: 2 canali x 8000Hz
x 8 bit = 125 Kbit/s.

CAPITOLO 2

Una macchina non è altro che un oggetto, un artefatto, costruito dall’uomo per semplificare il suo
lavoro. Con una macchina l’informazione prende corpo nella sua codifica su di una supporto fisico:
così la macchina potrà manipolare, trattare e conservare un determinato supporto fisico che contiene
la codifica dell’informazione. La scelta della codifica binaria è dovuta al fatto che si è rivelato
semplice ed efficiente costruire una macchina elettronica, cioè costituita a circuiti elettronici in grado
di immagazzinare e manipolare questi simboli.

Un Sistema di Elaborazione dell’Informazione è l’insieme delle componenti hardware e software


che possono essere usate per elaborare, cioè trasformare secondo delle regole, l’informazione.
Il calcolatore elettronico può essere definito come una macchina per l’elaborazione
dell’informazione. Una macchina è un artefatto costruito dall’uomo allo scopo di semplificare un
determinato lavoro. Fino a cinquanta anni fa l’idea che una “macchina” potesse essere utilizzata per
elaborare l’informazione avrebbe destato stupore e scetticismo.
Il termine Computer ha un differente significato di origine tra Italiano, Francese e Inglese nel
denominare lo strumento base dell'informatica:
- calcolatore elettronico, in italiano, per le sue svariate capacità di elaborazione
- ordinateur, in francese, a sottolineare le sue capacità di organizzare i dati (oggi le informazioni)
- computer, in inglese, letteralmente calcolatore, in diretta discendenza delle calcolatrici, prima
meccaniche, poi elettromeccaniche, poi elettroniche.
È importante tenere a mente che, a dispetto di quanto comunemente si ritiene, quella dei computer
non è affatto classificabile come intelligenza. L'elaboratore non fa altro che eseguire istruzioni
preventivamente "impartitegli" da un essere umano, ma ad una velocità incredibilmente superiore.
Storia del computer
La storia dell'informatica può dirsi cominciare con l'introduzione in Cina dell'abaco nel 2000 a.C.
L’abaco è uno strumento costituito da una serie di guide (fili, scanalature, ...) parallele, che indicano
le unità, le decine, le centinaia e così via.
Lungo ogni guida possono essere spostate delle pietruzze (dette calcoli, da cui il termine moderno di
accezione matematica) o altri oggetti mobili per eseguire le operazioni aritmetiche.
Solo nel '600 la tecnica raggiunse un livello tale da permettere la costruzione di antenati delle
odierne calcolatrici famose, come ad esempio: la “pascalina”, progettata da Blaise Pascal (1623
-1662) tra il 1642 e il 1645, che sfruttava alcune ruote dentate: e ogni tacca rappresentava una cifra
(0-9), e ogni ruota un ordine decimale. Era anche possibile fare calcolo in base 12, usando altrettante
ruote. – la macchina da calcolo di Leibniz (in grado persino di estrarre la radice quadrata.
Nell’800 però furono definiti gli elementi concettuali alla base dei calcolatori moderni, ad opera
dell'inglese Charles Babbage (1791–1871). Egli progettò, su finanziamento del governo inglese, una
macchina (il “motore differenziale” o “macchina differenziale”, differential engine) che potesse
essere usata per calcolare tavole astronomiche senza il rischio di imprecisioni umane. Il progetto
prevedeva che il “motore” fosse in grado di eseguire non già una singola operazione ma una serie di
esse secondo un ordine prestabilito (il concetto di “programmazione”).
L'elaborazione automatica dei dati ebbe un grande impulso solo grazie al lavoro di Hermann
Hollerith (1860-1929), che nel 1890 inventò la “Macchina Tabulatrice” per il conteggio tramite
schede perforate che trovò largo uso negli uffici statunitensi per il censimento di quello stesso anno.
Questo tipo di macchine si diffuse rapidamente negli uffici sia governativi che privati e indusse
Hollerith a fondare una società per la commercializzazione di quelle che venivano chiamate
“meccanografiche”.
Questa società diventerà nel 1924 la International Business Machine (IBM).
Un forte impulso all’uso delle macchine per il calcolo derivò dalla II guerra mondiale. E’ durante la
guerra che venne costruito uno dei primi veri “computer”; nominato Colosso, ne furono costruite due
versioni (Mark I e Mark II), Il lavoro a cui Colosso era dedicato era la decifrazione dei messaggi
nazisti intercettati, codificati con una macchina chiamata Enigma, di progettazione americana ma
comprata e modificata dai reparti tecnici nazisti. Colosso, che riuscì a decifrare il codice utilizzato dai
nazisti, era prevalentemente composto da elementi meccanici, ma utilizzava parti elettroniche (aveva
2.400 valvole). Il vantaggio strategico derivante dalla decodifica di Enigma fu enorme e
probabilmente determinò il successivo corso della guerra.
Tra i matematici responsabili della realizzazione dell'algoritmo di decifrazione, usato poi da Colosso,
figurava Alan Turing , noto come il “padre della computazione”; Turing è considerato il padre della
teoria del calcolo automatico che è uno dei pilastri della moderna informatica.
ENIAC fu il primo computer a minimizzare la componente meccanica. Commissionato
dall'Esercito degli Stati Uniti durante la guerra per velocizzare complessi calcoli balistici, entrò in
funzione solo nel '44 e subì continue revisioni per tutto il biennio '45-'47 prima di entrare
effettivamente in attività.
L'innovazione più grande fu la sostituzione dei meccanismi di calcolo con valvole, che avevano una
velocità di molto superiore a quella delle ruote dentate (si pensi che Mark I poteva moltiplicare due
numeri di 23 cifre in circa 6 secondi, mentre ENIAC era in grado di effettuare nell'arco di un solo
secondo ben trecento moltiplicazioni simili)
• ENIAC usava 17.468 valvole
• ENIAC possedeva dimensioni “mostruose”, coprendo ben 180 m2, con diciottomila valvole e
seimila interruttori.
• Restò in funzione fino al 1955.
ENIAC aveva un grande problema: era sì programmabile nel senso moderno del termine, ma solo
modificando la disposizione di un grande numero di fili collegati a uno dei suoi pannelli;
Programmare ENIAC era una questione non solo di algoritmi ma anche di saldature e collegamenti
elettrici, rendendo l'operazione molto difficoltosa. L'ingresso e l'uscita dei dati avveniva invece su
schede di carta perforate.
DUNQUE Fu un grande passo in avanti l'architettura a | programma e dati registrati insieme;
l'origine di questo tipo di architettura è controversa: essa è contenuta in una bozza di rapporto scritta
da John von Neumann nel '45. Grazie all’elaboratore EDVAC, dovuto a Von Neumann ed il suo
gruppo, non solo l'ingresso dei programmi insieme ai dati su schede perforate, ma anche l'invio di più
bit (stati logici 1 oppure 0) in contemporanea, anziché uno dopo l'altro come nei computer precedenti.
Inoltre, è introdotto l'uso della memoria interna non solo per registrare i dati parziali e finali delle
operazioni da compiere, ma anche le operazioni stesse, rendendole facilmente modificabili.
Il calcolatore elettronico è una macchina costruita per aiutare l’uomo nell’elaborare
informazioni. Nella sua versione contemporanea, essa si basa sulla rappresentazione digitale
dell’informazione
Lo schema generale di funzionamento prevede:
1. Immissione dei dati iniziali nella macchina che deve elaborarli
2. Trasformazione dei dati dal decimale al binario }
INPUT
3. Elaborazione dei dati binari per ottenere dei risultati binari ELABORAZIONE
4. Trasformazione dei risultati dal binario al decimale
5. Restituzione dei risultati all’utilizzatore della macchina. }
OUTPUT

Esempi di dispositivi di input sono la tastiera e il mouse.


Esempi di dispositivi output sono lo schermo e la stampante.
Il calcolatore è una macchina programmabile in grado di eseguire automaticamente un
programma. L’aggettivo automaticamente sta a significare che la macchina è in grado di identificare
l’istruzione da eseguire in un dato momento, di interpretarla e di compiere le azioni a essa connesse,
senza interventi umani.
Per fare ciò è necessaria la presenza della memoria e la presenza di una componente chiamata
processore centrale o Central Processing Unit (CPU), che ha il compito di interpretare ed eseguire
le istruzioni.
Il processore centrale è composto da due parti: l’unità di controllo e l’unità aritmetico-logica. La
prima ha la funzione di coordinare mentre la seconda svolge i calcoli.
Un programma è formato da una sequenza di istruzioni che descrivono le operazioni per ottenere la
soluzione di un determinato problema.
Il funzionamento della macchina informatica è affidato all’unione di macchina e programma. La
prima componente ha le caratteristiche e le proprietà di un dispositivo fisico e viene denominata
hardware (che significa letteralmente strumenti fisici). La seconda componente ha la forma di un
testo scritto, di un elenco di istruzioni ed è stata denominata software. Ambedue sono le componenti
necessarie e complementari per la piena funzionalità del calcolatore.
 HARDWARE: la parte fisica della macchina
 SOFTWARE: i programmi che la macchina esegue.

Modello di Von Neumann


Il Modello di Von Neumann definisce tutte le componenti essenziali di un moderno calcolatore
elettronico.
In questo modello la memoria contiene istruzioni e dati ed è uno dei fattori fondamentali in quanto
consente alla macchina di diventare programmabile e ne condiziona le prestazioni. La memoria può
essere caratterizzata in base alla capacità, cioè alla quantità di informazioni che è in grado di
contenere, e la velocità che esprime il tempo necessario per immagazzinare. Altri parametri
importanti sono la volatilità, cioè la capacità di preservare nel tempo e il costo spesso espresso per bit
o byte.
La memoria può perdere l’informazione nel caso che questi dispositivi non vengano alimentati
elettricamente. Le principali tecnologie utilizzate per la realizzazione delle memorie sono:
- elettroniche, in cui la memoria viene realizzata sotto forma di chip;
- elettromeccaniche, tipicamente realizzate mediante l’uso di superfici nastri o dischi magnetizzabili;
- ottiche, caratterizzate dall’adozione di superfici otticamente sensibili.
Nel calcolatore abbiamo una memoria di lavoro, anche detta memoria centrale, e una memoria di
appoggio, anche detta memoria di massa. Quest’ultima è più grande, ma più lenta e scomoda.
I calcolatori elettronici sono dotati di diverse tipologie di memoria, organizzate secondo una
gerarchia che vede la presenza di memorie piccole e veloci accompagnate da quella di memorie via
via più grandi e più lente. Le memorie RAM (Random Access Memory) e le Cache sono esempi di
memorie centrali, mentre gli Hard Disk, i CD/DVD sono esempi di memorie di massa.

Il bus è un sistema di comunicazione condiviso tra le varie componenti della macchina, il cui scopo è
quello di consentire lo spostamento delle informazioni da una sezione all’altra. Per esempio, i dati di
input utilizzeranno il bus per essere trasferiti nella memoria.

CICLO DI ESECUZIONE
Il clacolatore deve distinguere tra: i momenti per prelevare le istruzioni,
interpretarle ed eseguirle. Questo procedimento si ripete per ogni istruzione del
programma e viene detto ciclo del processore centrale. Quindi, il ciclo del
processore descrive il modo di funzionare del calcolatore e viene ripetuto per
ogni singola istruzione del programma da eseguire e può essere a sua volta
pensato come un programma scritto fisicamente nella CPU.
Per poter correttamente eseguire tutte le operazioni descritte, tutte le parti della
macchina si riferiscono ad un orologio detto clock che detta la tempificazione
delle operazioni del calcolatore.

I TRANSITOR
Uno dei punti di forza della tecnologia elettronica applicata ai calcolatori elettronici è quello di
integrazione. L’integrazione corrisponde al numero di dispositivi elettronici che possono essere
realizzati su di un singolo dispositivo hardware. Nel nostro caso il dispositivo di riferimento è il
transitor che opera come una sorta di interruttore. Nonostante fossero stati inventati già nel '47 da
IBM, solo verso la fine degli anni '50 i transistor iniziarono ad avere una certa diffusione anche nel
campo della progettazione dei calcolatori, dando inizio a quella che viene poi chiamata la seconda
generazione dei computer.
Tre erano i vantaggi del transistor:
- le dimensioni (un transistor è centinaia di volte più piccolo di una valvola);
- la rapidità (l'impulso elettrico deve percorrere un tratto minore e dunque impiega meno tempo per
giungere, elaborato, dall'altra parte del transistor);
- l'affidabilità (il tempo medio prima della rottura di un transistor è di circa un milione di ore, contro
le diecimila della valvola).
Il transistor (abbreviazione del termine inglese transfer-resistor), detto anche transistore, è un
dispositivo a semiconduttore largamente usato sia nell'elettronica analogica che nell'elettronica
digitale.
I transistor hanno soppiantato le valvole in quasi ogni applicazione elettronica.
Le principali funzioni che gli vengono affidate all'interno di un circuito elettronico sono:
 L'amplificazione di un segnale in entrata.
 Il funzionamento da interruttore (switcher) utilizzato per rappresentare gli stati 0 e 1.

MICROPROCESSORI
I microprocessori sono dispositivi elettronici in grado di contenere all’interno di un unico circuito
integrato le funzioni di un’intera CPU.
Un microprocessore è realizzato su una singola lastrina di silicio, detta wafer o chip,
opportunamente protetta da un contenitore di pochi centimetri per lato. Malgrado le piccole
dimensioni, riunisce centinaia di migliaia di componenti e può essere programmato per svolgere un
gran numero di funzioni.
Molti dispositivi elettronici di uso quotidiano funzionano grazie a un microprocessore; tra questi, il
televisore, il telefono cellulare, videoregistratore, le automobili ecc.
I microprocessori Intel: i3-i5
L’Intel i3 è quello di fascia più bassa, ottenuto “tagliando” le caratteristiche più costose dei suoi
fratelli maggiori. In sostanza è una versione economica dell’i7, in cui il punto debole è
fondamentalmente la cache.
Tipicamente, è un dual-core, ovvero possiede due distinti “nuclei” di elaborazioni, detto
“grezzamente” due distinti processori.
La velocità di clock delle differenti versioni di i3 oscilla tra i 2,13 Ghz e i 3,06 Ghz per ogni singolo
core.
L’Intel i5 è più potente dell’i3, ma non è da escludere che il più prestante modello della serie i3 sia
migliore del meno prestante della serie i5. È un quad-core e quindi esegue massimo 4 thread in
contemporanea, esattamente come l’i3 (che però ne eseguiva 2 per ciascun core): questo significa
naturalmente un miglioramento delle prestazioni rispetto all’i3
I microprocessori Intel oggi: i7-i9
L’Intel i7 è tra i migliori processori Intel mai sviluppati se parliamo di processori per pc domestici.
Da 4 a 8 core, maggiore dimensione della cache (fino a 8 Mbyte) e maggiori frequenze di lavoro.
L’Intel i9 è di recente introduzione e offre prestazioni di élite effettive grazie a un equilibrio ottimale
di frequenza, numero di core e di thread. Velocità di clock fino a 5,3 GHz, 10 core, 20 thread e
supporto aggiornato per connettività e dispositivi ad elevata larghezza di banda

SOFTWARE
Il termine software prende origine durante la seconda guerra mondiale quando gli inglesi erano
impegnati nella decrittazione dei codici di Enigma, di cui già conoscevano la meccanica interna
grazie ai servizi segreti polacchi. Chiamarono software la parte che riguardava la decrittazione del
codice enigma che non era una parte fisica della macchina detta hardware, nel senso di ferraglia.
L’insieme dei programmi è chiamato software.
Possiamo distinguere il software in due categorie (tipi) principali:
 il software di base (Sistema Operativo)
 il software applicativo (Applicazioni)

SISTEMA OPERATIVO: è l’insieme dei programmi che consente il funzionamento di un


computer. E’ indispensabile per far funzionare tutti gli altri programmi. Quando un computer viene
acceso come prima cosa carica in memoria il sistema operativo che è memorizzato sul disco fisso.
Esso governa la gestione della memoria e le periferiche (tastiera, monitor, stampanti ...), la
temporizzazione del microprocessore e la destinazione dello spazio sui dischi.
Esempi di sistemi operativi sono:
- DOS: (Disk Operating System), sistema operativo a linea di comando, si digita un comando (come ad
esempio DIR per visualizzare i file presenti in una certa cartella) o il nome di un programma ed il
computer lo esegue. Utilizzato in molti sistemi operativi commercializzati per il mercato dei
computer IBM compatibili
- WINDOWS (sistema operativo grafico a finestre ed icone) nelle sue varie versioni Windows 3.X,
Windows 95, Windows 98, Windows NT, Windows 2000, Windows Xp, Vista, Windows 7, 8 e 10.
In questo S.O. si opera con un puntatore animato che va ad azionare programmi rappresentati da
icone. Ingloba anche una emulazione del DOS. Prodotto da Microsoft.
- UNIX: sistema operativo linea di comando ora aggiornato alla grafica con le nuove versioni (X-
Windows, Linux), fu il primo sistema operativo a consentire il funzionamento di più programmi
contemporaneamente, ma è attualmente afflitto da una differenziazione di versioni (dialetti Unix)
tutte incompatibili tra di loro prodotte dalle varie case produttrici di software (Novell, IBM ecc.).
- Linux: è una alternativa a Windows e a MacOS, e può essere installato al loro posto (o insieme, sullo
stesso computer). E’ il primo rappresentante del software cosiddetto "libero" ("freesoftware", in
inglese), ovvero quel software che viene distribuito con una licenza che ne permette non solo
l'utilizzo da parte di chiunque ed in qualsiasi circostanza ma anche la modifica, la copia e l'analisi.
- MacOS: noto come OS X e come Mac OS X, è il sistema operativo sviluppato da Apple Inc. per i
computer Macintosh. È nato nel 2001
- Android è un sistema operativo per dispositivi mobili sviluppato da Google e basato sul kernel Linu.

I primi Sistemi Operativi


Sono stati i Sistemi Operativi batch (1945-1955) in cui
- il programmatore consegnava agli operatori il programma
- più programmi sono organizzati in un lotto
- esecuzione del lotto
- restituzione dei risultati dei singoli programmi ai programmatori

MULTITASKING: Per sfruttare al meglio le risorse hardware disponibili (le varie componenti
del Modello di Von Neumann) è possibile eseguire diversi programmi «contemporaneamente».
Questa tecnica, chiamata multitasking, è oggi universalmente adottata dai calcolatori esistenti.
Supponiamo, ad esempio, di voler utilizzare il calcolatore per riprodurre un filmato dotato di audio e
di sottotitoli: per ogni componente del filmato (video, audio e titoli) avremo una sezione di input, una
di elaborazione e una di output.

Il Sistema Operativo semplifica l’uso della macchina per l’utente umano. Le sue componenti
principali sono:
- Il kernel ha lo scopo di “avvolgere” completamente lo specifico hardware generalizzandone
l’utilizzo
- Il gestore dell’interfaccia utente ha lo scopo di gestire le interazioni con l’utente umano (icona)
- Il gestore della memoria ha lo scopo di gestire la gerarchia delle memorie
- Il gestore dell’I/O ha lo scopo di gestire l’interazione con le periferiche,
I moderni Sistemi Operativi presentano le parti principali che assomigliano agli strati di una cipolla
avvolti attorno al cuore principale del sistema costituito dall’hardware.
Il sistema operativo prevede inoltre un file-system per la gestione dei file. Ogni sistema operativo
fornisce la possibilità di creare, spostare, copiare e cancellare un file.
Gerarchia delle Memorie
Tutte le informazioni che devono essere elaborate vanno prima memorizzate in formato digitale.
Esistono diversi tipi di memorie, classificabili sulla base di numerosi parametri.
Il gestore della memoria di un sistema operativo ha lo scopo di rendere semplice l’uso della
gerarchia delle memorie all’utente.
Alcuni dei parametri principali con i quali classificare le memorie sono i seguenti:
- Velocità di scrittura/lettura delle informazioni
- Capacità (quantità di bit memorizzabili)
- Tecnologia (elettronica, elettromeccanica, magnetica, ottica)
- Persistenza (volatità delle informazioni in assenza di alimentazione elettrica)
- Costo per bit memorizzato
Le informazioni sono conservate in archivi (file, in inglese, che sono dei contenitori generalizzati di
informazioni) a loro volta organizzati in indici, directories in inglese.
Alcuni tipi di memoria (detti “buffer”, sono aree di memoria assegnate temporaneamente a una
applicazione. Buffer = accumulo temporaneo di dati al fine di ottimizzare lo scambio tra periferica e
computer) possono essere utilizzati per adattare la velocità di trasmissione/elaborazione dei dati.
Questa funzione è particolarmente utile quando il calcolatore è collegato a una Rete.

Il gestore dell’Ingresso/Uscita (Input/Output o I/O) ha lo scopo di gestire le interazioni con le


diverse periferiche. Esistono innumerevoli tipi di periferiche classificabili in base alla loro funzione
(ingresso, uscita) e alla loro velocità (quanti bit/sec è necessario trasferire). Le periferiche sono
gestite dal sistema operativo attraverso opportuni programmi detti “piloti” (driver).

Le diverse periferiche possono essere gestite attraverso l’I/O programmato oppure da “interruzione”.
Nel primo caso, il calcolatore esegue un programma nel quale è previsto esplicitamente quando e
come scambiare dati con la periferica. L’I/O programmato è molto rigido e può rivelarsi inefficiente.
E’ possibile introdurre una modifica al ciclo del processore centrale per renderlo più flessibile.
L'iterruzione è un segnale che interviene a modificare il normale ciclo di esecuzione delle istruzioni.
Al termine dell’esecuzione di ogni singola istruzione il calcolatore si chiede se è opportuno
interrompere l’esecuzione del programma corrente.
Un simile meccanismo introduce la possibilità di affidare l’esecuzione delle istruzioni di I/O alla
periferica e di disinteressarsi di ciò che accade fino a quando non sarà la periferica stessa a richiedere
l’attenzione del processore. In questi casi è possibile prevedere un funzionamento dell’I/O sincrono
oppure asincrono.
Nel caso sincrono, il programma che ha richiesto l’operazione di I/O rimane in attesa che essa venga
completata; nel caso asincrono invece il programma che ha richiesto l’operazione può proseguire con
l’esecuzione di altre istruzioni.

Il “Plug & Play” è una tecnica molto diffusa nel campo delle periferiche multimediali e
automatizza il riconoscimento della periferica da parte del sistema operativo e l’istallazione del
driver corrispondente. Di conseguenza l’utente finale può limitarsi a connettere e usare la periferica
in questione.

Con il termine applicazione software intendiamo uno o più programmi scritti con lo scopo di
realizzare specifiche funzioni in ben determinati settori di interesse. Le applicazioni interagiscono da
un lato con l’utente, ricevendone gli input ed elaborando le opportune risposte, e dall’altro con il
sistema operativo, richiedendo l’esecuzione delle funzioni di base.
APPLICAZIONI PER LA GESTIONE DELL’AUDIO, DELLE IMMAGINI E DEL VIDEO
Esistono molti diversi tipi di applicazioni Informatiche per le Arti Visive, la Musica e lo Spettacolo.
E’ possibile classificare queste Applicazioni in base alla loro funzione e agli specifici tipi di dati
multimediali che esse consentono di elaborare. L’uso di applicazioni informatiche per la gestione
dell’audio, delle immagini e dei video si divide in tre parti:
1. Acquisizione, processo legato a schede di acquisizione audio/video che contengono convertitori
analogico/digitali;
2. Elaborazione, viene realizzata da applicazioni dette di editing;
3. Riproduzione, affidata a programmi detti player.

- Le applicazioni dedicate all’acquisizione consentono di controllare il processo di prelievo dei dati


dalle sorgenti.
- Le applicazioni di elaborazione consentono di controllare il processo di trasformazione dei dati
aquisiti.
- Le applicazioni di riproduzione consentono di controllare il processo di erogazione e distribuzione
dei dati elaborati.

CAPITOLO 3
La rete ha modificato la vita di tutti noi. Internet ha abbattuto ogni tipo di barriera e distanza
sociale, culturale e tecnologica, e ha reso possibile a tutti l’accesso a informazioni e servizi distribuiti
in diverse parti del globo terrestre.
Tra l’altro le reti di calcolatori hanno profondamente influenzato, e tuttora influenzano, il mondo
delle Arti Visive, della Musica e dello Spettacolo. Ma cos’è una rete di calcolatori?
Una rete di calcolatori è un insieme interconnesso di calcolatori autonomi. I calcolatori collegati alla
rete vengono anche detti nodi della rete. I nodi sono autonomi in quanto ciascuno è in grado di
funzionare anche da solo, e interconnessi perchè sono capaci di scambiare informazioni.
DUNQUE Scambiandosi i dati, le Reti di Calcolatori consentono la realizzazione di applicazioni
distribuite. Una applicazione distribuita è composta da più parti che risiedono su calcolatori diversi
e che cooperano tra loro scambiandosi messaggi. Esempio: il World Wide Web.
Per gestire la complessità della realizzazione della rete è stato introdotto il concetto di realizzazione a
livelli nel quale ciascun livello si occupa di uno specifico problema.
Ogni livello ha delle regole descritte da uno o più protocolli di rete (insieme delle regole che
governano lo scambio di messaggi tra i nodi della rete. Ogni livello della rete ha almeno un suo
protocollo specifico); i diversi livelli comunicano tra di loro attraverso delle interfacce.
I livelli sono cinque: fisico, collegamento dati, reti, trasporto e applicazione. I primi tre (fisico,
collegamento, reti) rendono possibile lo spostamento dei dati da un nodo all’altro, mentre il trasporto
e l’applicazione consegnano i dati alle applicazioni.

Reti geografiche e locali


Possiamo distinguere tra reti geografiche WAN (Wide Area Network) e reti locali LAN (Local
Area Network).
Le WAN sono nate per collegare tra di loro calcolatori a grande distanza utilizzando dispositivi
chiamati router (in italiano instradatori). Le LAN sono nate per collegare tra di loro calcolatori
relativamente vicini.
Le WAN sono nate utilizzando le reti telefoniche. MENTRE
Le LAN sono state progettate utilizzando il concetto di mezzo condiviso. Il loro modo di comunicare
(detto broadcast, è un tipo di collegamento) consiste nell’inviare il messaggio a tutti coloro che
condividono il mezzo in questione. Originariamente si utilizzò il cavo coassiale. Oggi si usano i
doppini in rame e la fibra ottica. Si va inoltre diffondendo l’uso delle connessioni senza fili
(wireless) basate sull’uso di onde radio.
Le LAN sono nate per consentire la condivisione di risorse: vengono condivise periferiche
(telecamera, macchina fotografica, registratore, stampante, plotter) ma anche memoria e capacità di
calcolo (server, ecc.). La condivisione delle risorse viene tipicamente consentita dall’esistenza di un
sistema operativo di rete. I più diffusi Sistemi Operativi attuali (Windows, Linux, Mac OSX) sono
tutti dotati di funzioni di condivisione su rete locale. Al giorno d’oggi, le LAN sono connesse tra di
loro a formare una Internet attraverso l’uso dei router.
Nelle LAN possono essere presenti numerosi dispositivi. Hub e Switch consentono di realizzare la
condizione di mezzo condiviso. I Bridge (“Ponti”) sono stati invece introdotti per unire tra loro due
LAN differenti. La funzione di bridging può essere svolta anche dai router. L’individuazione di un
qualsiasi “oggetto” sulla Rete avviene attraverso l’uso del concetto di indirizzo di rete.
La più nota rete di calcolatori è Internet. Internet nasce e si sviluppa come una rete di reti nel senso
che il suo scopo è quello di consentire il collegamento e l’integrazione delle diverse reti locali e
geografica attraverso l’adozione di una sorta di linguaggio comune e l’introduzione di dispositivi che
fungono da intermediari per realizzare la comunicazione (i router).

Internet (contrazione della locuzione inglese interconnected networks, ovvero "reti interconnesse")
è una rete mondiale di reti di computer ad accesso pubblico.
Attualmente rappresenta il principale mezzo di comunicazione di massa, che offre all'utente una vasta
serie di contenuti potenzialmente informativi e servizi.
L'origine di Internet risale agli anni sessanta, su iniziativa degli Stati Uniti, che misero a punto
durante la guerra fredda un nuovo sistema di difesa e di controspionaggio.
- ARPANET (1969): il progenitore e precursore della rete Internet è considerato il progetto
ARPANET, una agenzia dipendente dal Ministero della Difesa statunitense
- Da Arpanet a Internet (anni settanta e ottanta): In pochi anni, ARPANET allargò i suoi nodi
oltreoceano, contemporaneamente all'avvento del primo servizio a pagamento: Telenet. In Francia
inizia la costruzione della rete CYCLADES , mentre la rete norvegese NORSAR permette il
collegamento di Arpanet con lo University College di Londra.
- Nascita del World Wide Web (1991): Nel 1991 presso il CERN di Ginevra il ricercatore Tim
BernersLee venne definito il protocollo HTTP (HyperText Transfer Protocol), un sistema che
permette una lettura ipertestuale, non-sequenziale dei documenti, saltando da un punto all'altro
mediante l'utilizzo di rimandi (link o, più propriamente, hyperlink).

Il primo browser con caratteristiche simili a quelle attuali fu il Mosaic, e venne realizzato nel 1993.
Esso rivoluzionò profondamente il modo di effettuare le ricerche e di comunicare in rete. Nacque
così il World Wide Web.
Nel World Wide Web (WWW), le risorse disponibili sono organizzate secondo un sistema di pagine,
a cui si può accedere utilizzando appositi programmi detti web browser con cui è possibile navigare
visualizzando file, testi, ipertesti, suoni, immagini, animazioni, filmati.
Il 30 aprile 1993 il CERN, l'istituzione europea dove nasce il World Wide Web, decide di rendere
pubblica la tecnologia alla base del World Wide Web in modo che sia liberamente usata.

BROWSER
Per navigare le pagine web e informazioni testuali e contenuti multimediali (immagini, musica, video
ecc.) presenti su Internet utilizziamo un programma detto «browser» (traducibile come navigatore).
Oggi uno dei più noti è Google Chrome, ma ce ne sono molti altri: Internet Explorer, Edge, ecc..

Browser (client) e server: come interagiscono


1. La prima operazione per navigare su internet è quella di aprire un browser, ovvero un
programma che permette di visualizzare le pagine internet: sul desktop di ogni computer
dovrebbe esserci l’icona di uno o più browser su cui cliccare per accedere a internet.
2. Il browser non contiene al suo interno nessuna pagina internet: tutte le pagine internet non sono
contenute nel programma sul nostro computer: il computer ha una memoria limitata, e quindi è
impossibile che contenga tutte le pagine internet consultabili. Per questo motivo, quando si chiede di
visualizzare una pagina internet scrivendo l'indirizzo sulla barra in alto, il browser va a leggere cosa
c’è scritto in uno dei tanti grossi computer sparsi nel mondo, chiamati server, che ospitano una
quantità enorme di dati e in cui sono "immagazzinate" le pagine internet.
3. Quando si chiede di visualizzare un sito, il browser si collega al server che contiene questa
pagina e successivamente ottiene il permesso di leggere il file HTML di quella pagina. Quasi
simultaneamente, dopo aver letto il codice di quella pagina, il tuo browser lo “traduce”, lo “trascrive”
nella pagina che si ha davanti agli occhi in quel momento. Il browser, quindi, è come se fosse un
“traduttore” che riesce a mostrarti quello che c’è scritto nel file HTML.

Client / Server: Questo termine descrive il funzionamento del web, evidenziando la suddivisione
dei compiti.
Il server (il web server) immagazzina, interpreta e distribuisce i dati e il client (il browser) accede al
server per avere i dati.
I protocolli di Internet
Un protocollo di rete è un metodo per descrivere dei pacchetti di informazioni in modo che possano
essere inviati tramite la linea telefonica, fibra ottica o T1 da un nodo all'altro, finché non raggiungono
la destinazione desiderata.
In Internet viene utilizzato il protocollo TCP/IP. Che funziona in questo modo:
Quando l'utente dice al browser di prelevare una pagina web, il browser suddivide questa istruzione
usando un protocollo denominato Transmission Control Protocol (TCP). Fa sì che l'intero messaggio
sia impacchettato correttamente per la trasmissione (e che sia anche "spacchettato" e ricomposto
correttamente quando raggiunge la sua destinazione).
Il protocollo di rete TCP/IP è un modo per descrivere i pacchetti d'informazione in modo che possano
essere trasmessi tramite linea telefonica, cavo o linea T1 da un nodo all'altro.

HTTP - HyperText Transfer Protocol


Prima che i pacchetti di dati siano inviati in rete, devono essere indirizzati.
Quindi un secondo protocollo chiamato HyperText Transfer Protocol (HTTP) appone un'etichetta con
l'indirizzo, in modo che TCP/IP sappia dove inviare l'informazione.
HTTP è il protocollo usato dal World Wide Web per il trasferimento delle informazioni da una
macchina all'altra: quando vediamo un URL preceduto dal prefisso http:// sappiamo che il protocollo
Internet utilizzato è HTTP.
Il messaggio passato dal browser al web server è definito richiesta HTTP Quando il web server
riceve tale richiesta, controlla i dati memorizzati per trovare la pagina in questione. Se il web server
trova la pagina, suddivide in pacchetti l'HTML che vi è contenuto (usando TCP) e li restituisce
tramite la Rete.
Se il web server non riesce a trovare la pagina richiesta, compone una pagina contenente un
messaggio d'errore (in questo caso, il temuto Error 404: Page Not Found) e la invia al browser.
Il messaggio inviato dal web server al browser è chiamato risposta HTTP.

HTML: un linguaggio di formattazione


Il linguaggio HTML HyperText Markup Language (traduzione letterale: linguaggio a marcatori per
ipertesti), quindi, non è un linguaggio di programmazione, ma è un linguaggio di formattazione
(markup): non serve a dare delle istruzioni che il computer deve eseguire, né ad insegnare al
computer a risolvere dei problemi complessi attraverso le opportune procedure.
Serve invece a organizzare dei contenuti (testi, immagini, suoni, video) e a fare in modo che il
browser li disponga nel modo desiderato nella pagina internet.
Per capire che cosa si intende in generale per linguaggio di formattazione, è sufficiente che si guardi
la barra in alto che si trova in qualsiasi programma di videoscrittura (Microsoft Word): c’è una barra,
e che ci permette di "dare una forma" (e cioè formattare) un testo secondo le tue esigenze. Usando
i comandi presenti nella barra, si può scrivere in un testo con parole in grassetto o in corsivo,
scegliere il carattere, la grandezza, decidere di allineare il paragrafo a destra o a sinistra, e così via.
Il linguaggio HTML svolge una funzione per certi versi simile, soltanto che la ottiene inserendo nel
documento di testo che vuole mostrare dei marcatori, ovvero delle istruzioni che serviranno a dare al
browser comandi come “per questo testo metti il grassetto”, “qui colora la parola di giallo” oppure
“qui inserisci una colonna di testo”.Per questo HTML è un linguaggio di formattazione, perché
fornisce al browser tutte le informazioni di cui ha bisogno per mostrare la pagina internet nel modo
desiderato.

LE APPLICAZIONI
L’uso delle Reti di Calcolatori e, in particolare, di Internet hanno letteralmente trasformato il mondo
della musica, della televisione e del cinema.
Esempi noti di applicazioni multimediali sono la videotelefonia su rete, per esempio la notissima
applicazione skype, e l’audio e video streaming.
Classica e Moderna
Una applicazione “tradizionale” è fondata sull’affidabilità, mentre una applicazione “moderna” è
basata sulla multimedialità in diretta.
Le Applicazioni distribuite funzionano attraverso lo scambio di messaggi sulla Rete. I messaggi
viaggiano sulla Rete sotto forma di gruppi di bit detti pacchetti.
Le Applicazioni classiche (posta elettronica, file transfer, lo stesso WWW) hanno bisogno soltanto di
uno scambio affidabile (cioè senza errori o smarrimenti) dei pacchetti.
Le Applicazioni moderne, basate sulla trasmissione di flussi multimediali, hanno bisogno di uno
scambio affidabile e di una accurata tempificazione.
La visione di un filmato viene resa possibile dalla proiezione di una determinata velocità di una
sequenza di immagini fisse (i fotogrammi). I dati arrivano a destinazione in modo da poter rispettare
il giusto numero di fotogrammi a secondo.
Ad es. un filmato è composto da 25 fotogrammi al secondo; se ogni fotogramma composto di 1024 x
1024 punti, ciascuno rappresentato da 24 bit, avremo che per riproduzione un singolo secondo di
filmato richiede la ricezione di:
25 (fotogrammi) x (1024 x 1024) punti x 24 bit (per ciascun punto), ovvero circa
630 Mbps (megabit per secondo ) che, se dividiamo per 8 per trasformare in byte
al secondo, sono circa 78 MB/sec).

App: Musica per il Mondo


Uno dei primi settori che è stato rivoluzionato dall’avvento di applicazioni (e apparati) distribuiti è
stato quello musicale.
Al successo della distribuzione via rete di brani musicali hanno contribuito numerosi fattori:
- La diffusione di riproduttori portatili digitali a basso costo (il più famoso: l’iPod da parte
della Apple, all’inizio degli anni 2000)
- L’introduzione di tecniche di compressione delle informazioni (MP3) che hanno consentito
la drastica riduzione delle dimensioni dei file o La crescente fiducia nei sistemi di pagamento
on-line (iTunes, tra i primi)
- Un fattore chiave: un nuovo modo di concepire il brano musicale e il diritto di autore
correlato.
Nasce il podcasting.
App: Streaming
Il modo di funzionare degli store musicali si fonda comunque sul trasferimento completo di un file
all’utente. In molte situazioni questo non è possibile (ad esempio: eventi dal vivo, il file non esiste
ancora) oppure non desiderato (ad esempio, per evitare la copia). Nasce l’esigenza dello streaming,
che consiste nella fruizione di un flusso multimediale durante la sua trasmissione sulla rete.
App: YouTube
Dopo la musica è toccato ai video. Anche questa volta, numerosi fattori (simili a quelli esaminati per
la musica) hanno avuto una notevole influenza
- La diffusione di riproduttori portatili digitali a basso costo (videocamere e, poi, telefonini)
- L’introduzione di tecniche di compressione delle informazioni (MPEG) che hanno consentito la
drastica riduzione delle dimensioni dei file.
Questa volta, inaspettatamente, un grosso contributo è venuto dai video amatoriali.

Le CDN
Per garantire il funzionamento delle applicazioni distribuite moderne (cioè basate sullo streaming di
flussi multimediali) è necessario garantire la tempificazione accurata della consegna dei pacchetti.
Questo è possibile se i server di streaming sono vicini agli utenti finali. Nascono così le Content
Distribution Network, Reti di Distribuzione dei Contenuti che hanno appunto lo scopo di avvicinare
all’utente finale i server che memorizzano i contenuti multimediali.

Anche la televisione di va trasformando sotto l’influsso della Rete. Negli ultimi anni, si sono diffusi
degli ambienti software in grado di trasformare un normale personal computer in un media center,
connesso alla Rete. Il televisore diviene così una sorta di monitor “intelligente”. Le ultime
generazioni di TV, integrano le funzioni del media center nel televisore stesso che può essere
connesso direttamente alla Rete.

CAPITOLO 4
Sottotitolatura di flussi multimediali
Con il rapido sviluppo delle tecnologie dell’informazione si è assistito a una massiccia produzione e
distribuzione di prodotti audiovisivi su scala mondiale. Questa diffusione di contenuti ha un forte
limite di fruizione, ovvero la comprensione della lingua straniera. È nata quindi la necessità di
abbattere le barriere linguistiche che impediscono una piena accessibilità. Un ruolo fondamentale è
giocato dal concetto di “traduzione per i contenuti audiovisivi”, con cui si fa riferimento all’insieme
di metodologie e tecniche traduttive. Le forme di traduzione audiovisiva più note sono quelle legate
alla traduzione per il cinema e per la televisione, quindi il doppiaggio e la sottotitolazione.
La sottotitolazione interlinguistica è una metodologia che permette il trasferimento linguistico dalla
lingua straniera nella lingua madre del fruitore.
Gli attori di un processo di sottotitolatura sono il traduttore, cioè colui che traduce il contenuto
verbale, e il sottotitolatore, cioè colui che fisicamente associa la sottotitolatura al contenuto
audiovisivo attraverso l’utilizzo di strumenti informatici.
Per ottenere un buon lavoro e dunque una buona sottotittolatura, nel processo di realizzazione della
sottotitolatura gli attori devono tenere conto di:
- velocità con cui si susseguono gli scambi verbali tra i personaggi e
- le dimensioni limitate dello schermo.
Il processo di sottotitolatura: dal contenuto audiovisivo prima si estrae la componente audio in modo
che il traduttore possa avviare il processo di traduzione. Una volta terminata questa fase la
traduzione, in formato testo, viene passata al sottotitolatore che aggiungerà la sottotitolatura.
L’interesse per la sottotitolatura ha segnato la nascita di una comunità di appassionati che ha dato vita
ad un movimento in rete che prende il nome di fansubbing, termine che deriva dalla parola fan
(appassionato, sostenitore) e sub (abbreviazione di subtitle, sottotitolo in italiano). Il fansubbing
nasce negli anni ottanta con l’obiettivo di sottotitolare alcune serie di cartoni animati giaapponesi e le
traduzioni sono realizzate gratuitamente per mano di spettatori appassionati.
Un caso particolare di sottotitolatura è quella per persone con disabilità fisiche di tipo uditivo. Per
questo motivo questa tipologia di sottotitolatura, chiamata intralinguistica, non accompagna
necessariamente il contenuto audiovisivo. È necessario riportare nel sottotitolo tutti gli elementi
sonori in essa presenti, quindi non solo i dialoghi ma anche gli effetti sonori. Un ulteriore approccio
possibile è il name tags, ovvero la segnalazione esplicita del nome del personaggio che sta parlando,
e si può dunque ricorrere all’uso di lettere maiuscole per indicare un aumento del tono della voce
oppure spezzare un sottotitolo per riprodurre il senso di esitazione espresso con la pausa.
I sottotitoli per spettatori non udenti devono soddisfare alcuni requisiti: la loro permanenza sullo
schermo deve essere tale da permettere agli spettatori di decodificare tutti i segni alfabetici che
appaiono nei sottotitoli. Per questo motivo i sottotitoli devono comporsi di frasi lineari, brevi e
semplici.
SOTTOTITOLATURA IN TEMPO REALE
Nell’ultimo periodo è stato possibile introdurre un meccanismo di sottotitolazione simultanea o in
tempo reale che permette di associare a contenuti trasmessi in diretta la relativa sottotitolatura.
La modalità standard è quella che prevede la realizzazione di sottotitoli dal vivo attraverso l’utilizzo
di uno stenografo o di uno stenotipista che ha il compito di ascoltare quanto pronunciato in diretta e
trasferito in forma di sottotitoli scritti per poi pubblicarli sullo schermo. Si tratta di un approccio che
presenta comunque una leggera asincronia fra il contenuto visivo e la sottotitolatura.
Un’evoluzione di questa tecnica prende il nome di respeaking. In questo tipo di approccio è centrale
la figura del respeaker il quale, a partire dai contenuti audio espressi in diretta, è chiamato a
condensarli e dettarli attraverso un microfono connesso a un software di riconoscimento vocale che
trasformerà le sue parole in sottotitoli scritto, proiettati e visualizzati sugli schermi televisivi. Questo
approccio porta a prodotti qualitativamente non eccellenti.

SOPRATITOLAZIONE
La sopratitolatura è una tecnica particolare utilizzata a teatro a supporto di prosa, musical e lirica.
Questa tecnica, utilizzata a partire dagli anni ottanta, prevede la proiezione su un apposito supporto di
sequenze di testo tradotto o adattato, detti sopratitoli, durante l’esecuzione. Le principali differenze
con la sottotitolatura sono in effetti negli aspetti tecnici con cui si realizzano e trasmettono i
sopratitoli: Videoproiettori, Schermi a LED oppure Monitor integrati nelle poltrone.
Nella sopratitolazione un ruolo chiave è giocato dallo strumento utilizzato per proiettare il testo, che
deve essere posizionato strategicamente in palcoscenico, generalmente sopra di esso, in modo da
permettere a ogni spettatore presente di avere accesso alla traduzione.
Obiettivi della sopratitolatura sono:
- supportare lo spettatore nella visione e nella piena comprensione dello spettacolo;
- far emergere le emozioni e gli stati d’animo dei personaggi presenti nell’azione scenica
- mai entrare in contraddizione con quello che accade in scena
- non distrarre eccessivamente gli spettatori
Per ottenere una buona sopratitolatura bisogns:
- evitare la ripetizione di parole e frasi
- semplificare la struttura testuale
- sincronizzare il sopratitolo con l’azione scenica
- realizzare sopratitoli brevi (max due righe)
- scegliere opportunamente formati grafici e colori per i sopratitoli
Il processo di sopratitolatura si compone delle seguenti fasi:
- traduzione del testo teatrale
- segmentazione del testo
- proiezione del testo
Figure coinvolte nel processo di sopratitolatura sono:
- Traduttore: traduce il testo nella lingua di interesse
- Sopratitolatore: suddivide il testo tradotto nei vari sopratitoli e li realizza
- Proiezionista: finalizza il lavoro svolto dalle altre figure proiettando i sopratitoli in scena
coordinandosi con quanto accade sul palcoscenico

Sopratitolatura e Sopratitolazione: differenze


Sincronizzazione del testo:
- nella sottotitolatura bisogna essere precisi ragionando in termini di secondi e millesimi di
secondi
- nella sopratitolatura il processo di sincronizzazione avviene in tempo reale
Software:
- per la produzione dei sopratitoli possono essere utilizzati i software che si utilizzano per i
sottotitoli
- per la proiezione è necessario utilizzare software proprietari

PARAMETRI DEL PROCESSO DI SOTTOTITOLATURA


Nel processo di realizzazione dei sottotitoli numerosi sono gli aspetti di natura tecnica da tenere in
considerazione nel momento in cui ci si accinge a realizzare una sottotitolatura.
La sincronizzazione temporale tra i sottotitoli e la colonna sonora originale è uno dei fattori
principali che determinano il livello di apprezzamento di un prodotto sottotitolato da parte del
pubblico. Una buona sincronizzazione aiuta lo spettatore a comprendere meglio la trama e a capire
chi sta dicendo cosa, mantenendo altresì la coesione interna del programma sottotitolato.
Strettamente connesso alla questione della sincronizzazione è lo spotting, cioè la scelta
dell’intervallo di proiezione del sottotitolo e la sua durata. Lo spotting dei sottotitoli deve riflettere il
ritmo e la velocità delle battute dei personaggi di un film e, al contempo, deve tener conto di
eventuali pause, interruzioni e di tutti i vari elementi di natura prosodici (intonazione, ritmo, durata e
accento). Il sottotitolo dovrebbe apparire sullo schermo nel preciso istante in cui un personaggio
inizia a parlare e scomparire quando l’attore termina la sua battuta. Se un sottotitolo permane per un
lasso di tempo superiore vi è una tendenza da parte dello spettatore a rileggere lo stesso sottotitolo
una seconda volta, distogliendo l’attenzione da ciò che sta accadendo nel film.
Un’altra importante regola da seguire durante l’esecuzione dello spotting è quella di tener conto dei
vari cambi di scena. Un sottotitolo infatti non dovrebbe rimanere sullo schermo quando si è
verificato un cambio di scena.
Una buona sottotitolazione deve prevedere sempre la presenza di una pausa tra due diversi
sottotitoli in modo da permettere agli spettatori di rendersi conto del cambio di sottotitolo.
La durata di esposisione di un sottotitolo sullo schermo è un altro parametro che un buon
sottotitolatore deve sempre tenere in considerazione ed è strettamente collegato al concetto di
sincronizzazione.
Se il testo del sottotitolo occupa la lunghezza di due righe ci si dovrebbe attenere alla “regola dei sei
secondi”. Questa regola stabilisce che uno spettatore medio è in grado di leggere comodamente un
sottotitolo di due righe entro un lasso di tempo di sei secondi. Di conseguenza in ogni occasione in
cui uno stesso attore protrae il suo discorso per oltre sei secondi la battuta deve essere
necessariamente segmentata in frasi più brevi.

Di norma i sottotitoli vengono presentati in posizione orizzontale nella parte bassa dello schermo e
allineati al centro. Questa collocazione è giustificata dal fatto che nella parte inferiore dello schermo,
di solito, non vengono mostrati dettagli narrativi e informativi di particolare rilievo ai fini della
comprensione della trama filmica.
Per quanto riguarda il numero massimo di caratteri, il limite massimo consentito è di 40 caratteri per
ogni riga.

STRUMENTI SOFTWARE PER SOTTOTITOLATURA


L’operazione di sottotitolatura prevede l’utilizzo di ambienti che consentono la visualizzazione del
contenuto audiovisivo da sottotitolare a allo stesso tempo consentono all’utente di usufruire dei
servizi di sottotitolatura.
Gli ambienti per la sottotitolatura acquisiscono in ingresso un flusso audiovisivo e restituiscono in
uscita un file contenente la sottotitolatura corrispondente.
Il contonuto si arricchirà di un nuovo strumento in grado di veicolare i contenuti informativi in esso
presenti, ma perderà in versatilità: non sarà possibile infatti associare altre sottotitolature.

PRINCIPALI FORMATI DI SOTTOTITOLATURA


Non esiste ancora sul mercato uno standard per la codifica dei sottotitoli riconosciuto e condiviso.
Con standard intendiamo l’insieme delle regole e delle metodologie che vengono condivise da tutti
coloro che lavorano in un determinato settore.

Attualmente ci è la presenza di più di 50 formati diversi.


Un tentativo di introdurre un formato standard per i sottotitoli fu fatto con l’Universal Subtitle
Format (USF), un progetto il cui obiettivo era quello di creare un formato per la sottotitolazione
chiaro e facile da utilizzare.
Questo formato si doveva basare sul linguaggio XML (eXstensible Markup Language) al fine di
garantirne un elevato grado di flessibilità. Sebbbene questo formato sia ben progettato ed efficace,
non è riuscito a imporsi sul mercato.

I formati SSA e ASS


Il formato Sub Station Alpha (SSA) è uno di quelli maggiormente utilizzati. Questa tipologia di
formato è particolarmente efficace quando si intende sottotitolare contenuti audiovisivi che devono
essere riprodotti su Personal Computer. Attraverso SSA infatti è possibile definire effetti e stili per il
testo che possono essere interpretati. Tali effetti però non possono essere interpretati dai lettori DVD
e quindi SSA non risulta utilizzabile quando si intende sottotitolare contenuti audiovisivi che
richiedono l’utilizzo di questo tipo di lettori. Attualmente si è arrivati alla versione 4+ .
Attraverso il formato SSA o ASS si cerca di descrivere la sottotitolatura fornendo informazioni su
quando fare apparire il sottotitolo, il tempo di permanenza dello schermo e il contenuto del sottotitolo
stesso.
Il formato Advanced Sub Station Alpha (ASS) è un’evoluzione di quello SSA. Sia SSA che ASS
definiscono degli schemi attraverso cui specificare le informazioni connesse ai sottotitoli (durata,
tempo di comparsa, contenuto …)
Una sottotitolatura in formato ASS inizia sempre con una sezione denominata [Script Info] in cui
sono definiti: ScriptType; Collisions; PlayResX; PlayResY; Timer.
La sezione [V4+ Styles] definisce stile, aspetto e posizione dei sottotitoli. I campi utilizzati sono:
Name, Fontname, Fontsize, PrimaryColour, SecondaryColour, OutlineColour, BackColour, Bold,
Italic, Underline.

Formato SRT
Il formato Sub Rip Text (SRT) è adatto per sottotitolature da fruire in lettori DVD • Caratteristica di
questo formato è la semplicità

Formato SUB
Il formato Subtitle Format (SUB) è stato introdotto agli inizi del 2000 . L’obiettivo era quello di
riprodurre i testi che facevano da supporto ai contenuti video presenti nei primi DVD. Caratteristica
di questo formato è la semplicità: si inserisce il testo nel sottotitolo e poi si specifica l’istante di
apparizione e sparizione dellostesso nel formato ore:minuti:secondi:centesimi. Consente di introdurre
variazioni nello stile di riproduzione del testo, ad es. rendere alcune parole in corsivo, grassetto o
scegliere il colore dei sottotitoli.

Subtitle Workshop
Subtitle Workshop è un ambiente per la sottotitolatura di contenuti audiovisivi sviluppato dalla
URUSOFT.
Principali caratteristiche:
- è gratuito
- lavora in locale
- compatibilità con i principali formati video
- interfaccia di lavoro semplice ed immediata
- gestione di numerosi formati di sottotitolatura
- è possibile scaricare sia la versione installabile che quella portabile (senza la fase di
installazione sul PC
Funzionalità:
- navigazione del contenuto da sottotitolare
- segmentazione del contenuto audiovisivo in intervalli temporali dove inserire i sottotitoli
- esportazione della sottotitolatura nei principali formati presenti nel settore
- importazione di una sottotitolatura e automatica sincronizzazione con il contenuto audiovisivo

Overstream
Overstream: ambiente per la sottotitolatura di contenuti audiovisivi già presenti su repository in rete.
Principali caratteristiche:
- ambiente web-based
- interfaccia di lavoro semplice ed immediata
- compatibilità con i principali formati per la sottotitolatura
- possibilità di aggiungere metadata alla sottotitolatura

Descrizione Partiture Musicali


• Score Editor:
- Applicativi che permettono la scrittura di spartiti musicali direttamente in formato digitale
- Questi applicativi hanno forti analogie con i Word Processor
• Optical Music Recognition (OMR):
- Applicativi in grado di digitalizzare automaticamente uno spartito musicale
- Forti analogie con gli Optical Character Recognition (OCR)
Lo standard IEEE 1599-2008
Un possibile approccio è dato dallo standard di metadatazione IEEE 1599-2008
Standard sviluppato in XML (eXtensible Markup Language)
Questo standard associa al brano musicale tutte le informazioni (in vari formati) ad esso associati

Lo standard IEEE 1599-2008 introduce i seguenti livelli dove introdurre informazioni:


- General
- Logic
- Structural
- Notational
- Performance
- Audio

CAPITOLO 5
Rappresentazione digitale dell’audio
L’onda sonora è un’onda meccanica generata dal propagarsi di una perturbazione nella
pressione di un determinato mezzo fisico (ad es., l’aria). Essa viene trasformata in un’onda
elettromagnetica da un dispositivo di trasduzione. In ogni caso, è un’onda continua.
Da un punto di vista matematico, essendo un segnale continuo, nello spettro di un segnale
sonoro dovrebbero essere presenti un infinito numero di armoniche. Per motivi di natura fisica
legati all’energia trasportata dalla perturbazione (onda) sonora, le armoniche di frequenza più
grande hanno intensità sempre minore.
Questo rende possibile definire una FREQUENZA MASSIMA oltre la quale si possono
considerare ininfluenti le successive armoniche.
L’intervallo di frequenze associate a un segnale viene detto banda passante del segnale.
Il segnale audio è un’onda meccanica continua che può essere rappresentata in funzione del
tempo

La digitalizzazione consiste nella conversione del segnale analogico in un segnale digitale.


La digitalizzazione avviene campionando il segnale audio a intervalli di tempo prefissato e
rappresentando ogni campione con una sequenza fissata di bit. Queste due fasi si dicono,
appunto, campionamento e quantizzazione.

> Campionamento: Un segnale audio analogico è una sequenza temporale di valori compresi in
un intervallo definito. Dato che il segnale audio è un’onda acustica meccanica, un segnale
continuo, il numero di valori che la descrivono sono infiniti. Una macchina, per la sua natura
discreta, può rappresentare solo sequenze finite di simboli…e dunque SELEZIONIAMO
SOLO ALCUNI VALORI…”CAMPIONANDO”
Quindi, in analogia con la rappresentazione dei numeri, possiamo immaginare un segnale audio
come una sequenza temporale finita di valori.

> Quantizzazione: Un segnale audio analogico è una sequenza temporale di valori compresi in
un intervallo definito. Seppur l’intervallo è finito, dato che il segnale audio è un’onda acustica
meccanica, un segnale continuo, le ampiezze dei valori che la descrivono possono essere
infinite. Per rappresentare un intervallo infinito di simboli servirebbero infiniti bit per
simbolo…ASSURDO…QUANTIZZIAMO.
Quindi, in analogia con la rappresentazione dei numeri e dei caratteri, possiamo immaginare un
segnale audio come una sequenza temporale di valori discreti appartenenti all’intervallo {a1 a2
a3 a4 a5 }.

Binarizzazione
L’intervallo {a1 a2 a3 a4 a5 } può essere rappresentato in binario. Ogni elemento di tale
intervallo può essere associato ad un numero intero la cui rappresentazione binaria è nota.
Nell’esempio riportato i valori da rappresentare sono 5, per cui 2 k ≥ 5, dunque k=3 bit.

Parametri
3. Un primo parametro che individua la qualità del segnale digitale è la: fc frequenza di
campionamento Questo valore indica il numero di campioni al secondo del segnale originale
che vengono rappresentati nel segnale digitale e la sua unità di misura è in Hertz (Hz). La scelta
di tale valore è imposta dal Teorema del campionamento o di Nyquist (fc ≥ 2B).
4. Un altro parametro che individua la qualità del segnale digitale è: Intervallo di
quantizzazione Questo valore indica il numero di simboli che si utilizzano per rappresentare i
campioni selezionati nel processo di campionamento. Più è elevato e più affidabile la
rappresentazione del segnale originale; più è basso e meno è affidabile.

Formati di rapprentazione
Segnale musicale: in ambito musicale è diventato uno standard de facto il Compact Disc (CD),
le cui caratteristiche vengono oramai prese come riferimento per il cosiddetto “audio ad alta
qualità”. I CD utilizzano codifiche stereo (due canali) con frequenza di campionamento
44.1KHz e valori di quantizzazione a 16 bit. Dunque, il bitrate di un tale segnale è pari a circa:
2 canali x 44100 Hz x 16 bit = 1.35 Mbit/sec.
Segnale vocale: in ambito vocale, come riferimento viene generalmente preso il sistema
telefonico digitale dove i segnali sono campionati con frequenza di campionamento 8 KHz e
quantizzati con parole da 8bit. Dunque, il bitrate di un tale segnale è pari a: 2 canali x 8000Hz
x 8 bit = 125 Kbit/s.

Potrebbero piacerti anche