Sei sulla pagina 1di 18

sabato 15 gennaio 2022

informatica di base

Musica elettronica colta- Incontro tra arte e informatica

Informatica è una tecnologia digitale, cioè che funziona mediante i BIT (sequenze di 0 e 1).
La tecnologia precedente si chiamava “analogica” e funzionava grazie all’elettricità (circuiti).

TAPPE FONDAMENTALI DELLA MUSICA ELETTRONICA COLTA:

1. 1948: PARIGI, PIERRE SCHAEFFER (compositore e ingegnere) considerato il padre della


musica elettronica CONCRETA, fatta cioè di suoni concreti che si trovano nel mondo reale
(es. Apostrophe, Studio sulla ferrovia);

2. 1951-53: COLONIA, KARLHEINZ STOCKHAUSEN iniziò il secondo stile di musica


elettronica, detta PURA, che fa uso di suoni di sintesi (arti ciali)

3. 1955-56: MILANO, LUCIANO BERIO E BRUNO MADERNA usarono suoni sia arti ciali
che trovati per comporre musica elettronica.

Lo scopo della musica elettronica era la ricerca di suoni diversi dalle note musicali,
utilizzando sempre la musica tradizionale: infatti adesso tutti i suoni non solo quelli
provenienti dagli strumenti musicali tradizionali possono essere usati per comporre. La
novità della musica elettronica colta è la REGISTRAZIONE, cioè la tecnologia usata per la
musica concreta.

Il primo dispositivo pensato per la registrazione e la produzione dei suoni era il
FONOGRAFO DI EDISON (1877), successivamente si passò ai CIRCUITI ELETTRICI
(tecnologia analogica) e in ne si arrivò al SOFTWARE:che rientrano nel contesto
dell’informatica (a sorgente aperta) e dispongono di un codice che permette a tutti di poter
creare nuovi suoni perché può essere sempre modi cato. (ES: Csound, Pure Data,
Audacity, Processing).

Software open source

Richard Stallman fondò nel 1985 la Free Software Foundation (FSF), una organizzazione
senza ni di lucro per lo sviluppo e la distribuzione di software libero. In particolare lo
sviluppo di un sistema operativo completo, compatibile con UNIX (sistema operativo), ma
distribuito con una licenza permissiva, con tutti gli strumenti necessari altrettanto liberi. Si
tratta del progetto nato l'anno precedente, ovvero GNU, acronimo ricorsivo per collegarsi e
distinguersi da UNIX, ovvero "GNU's Not UNIX". Nel 1991 Linus Torvalds, studente di
informatica presso l'Università di Helsinki, decise di sviluppare un proprio sistema operativo
imitando le funzionalità di Unix; distribuì il proprio lavoro tramite Internet e ricevette
immediatamente un ampio riscontro positivo da parte di altri programmatori, i quali
apportarono nuove funzionalità e contribuirono a correggere errori riscontrati. Nacque così il
kernel Linux, il quale fu subito distribuito con una licenza libera. Nel 1996 B. Perens e E.S
Raymond fondano la OSI (Open Source Initiative) e negli anni a seguire vengono
rispettivamente aggiornate la LGPL (library general public license) cioè una variante più
blanda e permissiva, rilasciate le Licenze Creative Commons e la GNU/GPL (una licenza
copyleft per software libero che a di erenza di altre licenze libere non-copyleft, un'opera
protetta da GNU GPL deve rimanere libera, ovvero col susseguirsi delle modi che deve
continuare a garantire ai suoi utenti le cosiddette quattro libertà) Aggiornata alla versione 3
in cui veniva aggiunta la LGPL (una licenza di tipo copyleft ma, a di erenza della licenza
GNU GPL, non richiede che eventuale software "linkato" al programma sia pubblicato sotto
la medesima licenza), AGPL (A ero General Public License) che si occupa di prodotti liberi
che circolano in rete mentre le altre erano anche prodotti sici.

1
fi
fi
ff
ff
fi
fi
fi
ff
fi
fi
LICENZE CARATTERISTICHE

Qualsiasi opera rilasciata sotto la GNU GPL


dove rimanere libera anche dopo le modi che
GNU GPL
e ettuate dai fruitori garantendo le quattro
libertà

Non richiede che un eventuale software


LGPL
collegato sia pubblicato sotto la stessa licenza

AGPL Si occupa di prodotti liberi che circolano in rete

Quattro libertà:

Per gli sviluppatori, il software creato doveva essere:

1. Libero di eseguire il programma per qualsiasi scopo

2. Libero di essere studiato e modi cato

3. Libero di essere ridistribuito per aiutare il prossimo

4. Libero di essere migliorato e ridistribuire pubblicamente i miglioramenti a nché tutta la


comunità ne tragga bene ci

Per Stallman il concetto di free non era da intendersi come gratuito ma come freedom cioè
libero e questo valore etico andrà a perdersi con la OSI e OSD

OSI e OSD
- La Open Source Initiative ha redatto un documento (Open Source De nition) con
caratteristiche che una licenza deve rispettare per poter essere considerata Open Source

- Secondo la classi cazione generale dei tipi di software libero e open source sono
coincidenti praticamente.

- FOSS (Free Open Source Software) o FLOSS (Free/Libre Open Source Software) è un
software sia libero che open source in cui chiunque è liberamente autorizzato a utilizzare,
copiare, studiare e modi care il software in qualsiasi modo, e il codice sorgente è
apertamente condiviso in modo che le persone siano incoraggiate a migliorare
volontariamente la progettazione del software.

Creative Commons
Nel 2001 Lawrence Lessig, avvocato e insegnante di giurisprudenza, esperto nel copyright,
fonda l’organizzazione Creative Commons che ha stilato e pubblicato nel 2002 diversi tipi di
licenze note come licenze Creative Commons (o "licenze CC") che forniscono un modo
semplice e standardizzato per comunicare quali diritti d'autore dell'opera si riserva e a quali
altri rinuncia, a bene cio degli utilizzatori. Grazie a quest’organizzazione per la prima volta
viene introdotto il concetti di “alcuni diritti sono riservati’’ che si pone al centro tra il rigido
“tutti i diritti sono riservati’’ del copyright e il pubblico dominio

2
ff
fi
fi
fi
fi
fi
fi
fi
ffi
LICENZE CARATTERISTICHE

- ’Permesso d’autore’’

- I diritti d’autore sono gestiti tramite una


licenza con cui il detentore dei diritti
indica ai fruitori che l’opera può essere
distribuita, modi cata, con alcune
condizioni

COPYLEFT
- A nché i prodotti restino liberi i prodotti
devono sempre restare aperti

- Questa licenza rientra nei diritti d’autore a


di erenza del copyright che parte dai
divieti, il copyleft parte dalle libertà (con
condizioni) che il fruitore può avere
- Il riferimento è la GNU GPL

COPYLEFT FORTE - Tutte le opere derivate devono essere


rilasciate sotto la stessa licenza
- È relativo ad un software che può
funzionare in relazione ad un altro
software proprietario

- Il riferimento è la GNU LGPL

COPYLEFT DEBOLE
- L’obbligo della stessa licenza è previsto
solo per le modi che relative al
programma stesso e non a prodotti più
ampi che incorporano il codice (che deve
restare separato e individuabile)
- Network Protective

- regola esclusivamente i software in


COPYLEFT NETWORK
internet

- Es. A ero GPL vers 3


- Molto vicino al pubblico dominio

- BSD Berkeley standard distribution

- BL Berkeley license

- Le condizioni sono pochissime rispetto ai


permessi. Il codice è utilizzabile con
codice rilasciato sotto qualsiasi altra
LICENZE PERMISSIVE licenza, anche proprietaria. Generano
cortocircuito, perché si può copiare
migliorare e “chiudere” con l’unica
esigenza di dichiarare il creatore
originario. L’esempio più conosciuto è
quello di Mac OS Apple con il progetto
Darwin (open), citandone il creatore
originario ma vendendolo come
proprietario.

3
ffi
ff
ff
fi
fi
Clausole (combinazione tra simboli e icone)

SIGLA CLAUSOLA CARATTERISTICHE

Permette che altri copino,


distribuiscano, mostrino ed
eseguano copie dell’opera e
dei lavori derivati da questa
BY Attribuzione a patto che venga indicato
l'autore dell’opera con le
modalità di questi speci cati
in modo che sia possibile
attribuirne la paternità
Permette che altri copino,
distribuiscano, mostrino ed
eseguano copie dell’opera e
NC Non Commerciale
lavori derivati da essa o sue
rielaborazioni, solo per scopi
non commerciali
Permette che altri copino,
distribuiscano, mostrino ed
eseguano soltanto copie
ND Non Opere Derivate
identiche dell’opera, non
sono ammesse opere
derivate o sue rielaborazioni
Permette che altri
distribuiscono lavoro derivati
dall’opera solo con una
SA Condividi allo Stesso Modo
licenza identica, compatibile
con quella concessa con
l’opera originale

Arte e tecnologia

Fluxus fu un importante movimento artistico di avanguardia. Gli artisti di Fluxus volevano


fondere le discipline artistiche ed esplorare territori nuovi. Volevano includere tutte le arti
nelle opere ed erano propensi alla performance.

Alea

Quando si parla di musica aleatoria si parla di musica che coinvolge sia l’esecutore che
l’audience. L’esecutore, in questo caso, diventa anche interprete dello spartito che ha
davanti a sé, in quanto decide di suonare un’opera nella maniera che gli è più congeniale.
Dalla performance si passa all’interattività, al mondo digitale. Già a partire dalla ne degli
anni ‘60, alcuni artisti americani (tra cui lo stesso Cage) iniziarono ad integrare delle prime
forme di interattività nelle loro opere, grazie all’avanzamento della tecnologia: mediante
l’uso di sensori applicati su uno strumento, questo modi cava le note prodotte. C’è un
esempio, nel 1967, cioè la nascita dell’EAT (Experiment in Art and Technology) che vede la
collaborazione tra Rauschenberg e Kluver.

Studio Azzurro

4
fi
fi
fi
E’ un gruppo innovativo che ha messo insieme musica, performance teatrale, immagine
video, proiezioni multiple e ambienti interattivi. In questi ultimi il centro dell’opera è
costituito dal dialogo che lo spettatore instaura con il sistema. Per esempio, le installazioni
sonore interattive (opere d’arte sonore interattive) sono basate sul dialogo tra i movimenti
del fruitore che si muove nello spazio sonoro (spazio sensibile ai suoi movimenti e che
risponde ad essi). Un esempio è Very Nervous System dal 1982, che mette in relazione
azione, movimento, ascolto, percezione e reazione. C’è un concetto molto importante alla
base di questo, il FEEDBACK: l’elemento centrale, il “ritorno”, nel rapporto tra l’uomo e la
macchina.

Interazione Uomo-Macchina

Questo interesse all’interazione uomo-macchina è dovuto probabilmente all’avvicinamento


tra tecnologia e scienze umanistiche. A partire dagli anni ‘70 abbiamo avuto dei
consolidamenti nei linguaggi informatici e anche dei progressi nell’ambito delle scienze e
delle tecnologie, che hanno portato alla creazione di:

● IPER-STRUMENTI: strumento tradizionale arricchito da sensori che gli permette di andare


oltre le sue capacità normali;

● STRUMENTI VIRTUALI: strumenti nuovi mediante il quale si crea uno spazio vivo che
reagisce ai gesti dell’esecutore. Ricerca sviluppata nell’università di Padova;

● STRUMENTI INTERATTIVI MULTIMEDALI (portano al teatro tecnologico): controllo totale


di ciò che avviene sul palcoscenico. Ricerca realizzata nell’università di Genova

Alla nuova era tecnologica mancano ancora termini di espressione, in quanto molti ancora
non sanno cosa creare con certi programmi. Inoltre, c’è ancora un dibattito in corso sul
rapporto tecnologia-arte, perché se da un lato alcuni credono nell’e cacia di questa
combinazione, altri (i passatisti) credono che la tecnologia rovini l’aura dell’arte.

Rivoluzione Digitale

L’autore principale della rivoluzione digitale è stato Claude Shannon(1916-2001),ingegnere


americano nonché padre della teoria dell’informazione.

Ad egli si deve l’invenzione del BIT (binary digit), che assume un duplice signi cato:

- In senso stretto è una cifra binaria che può essere raggruppata in ottetti (byte), ovvero
uno dei due simboli del sistema numerico binario cioè 0 e 1

- Mentre nell’ambito della teoria dell’informazione è l'unità di misura de nita come la


quantità minima di informazione che serve a discernere tra due eventi equiprobabili.

Quando esprimiamo un’info in bit si appiattisce (0010110) pertanto la sua natura è


irrilevante. Questo medioto è impiegato in particolare modo per la semplicità ed e cacia
della trasmissione ed elaborazione delle informazioni, garantendo l’impossibilità di perdere i
dati di un'informazione.

Per digitalizzazione si intende trasformare un segnale continuo in uno discontinuo e


quanti cato; non a caso può essere sempli cato mediante un’”equazione” cioè
campionamento + quantizzazione= digitalizzazione.

Con il campionamento si prelevano valori del e dal segnale continuo a intervalli regolari:
questi valori sono detti campioni. In questo modo il segnale diventa discontinuo: nel
momento in cui preleviamo dei campioni, il segnale rimane con alcuni dei suoi valori di
partenza. La quantizzazione si occupa della precisione dei campioni rispetto ai valori del
segnale originale.


5
fi
fi
ffi
fi
fi
ffi
Immagine Digitale

Nel 1988 l’ISO (International Standard Organisation) ha nominato un sottocomitato 29, che
a sua volta ha dato origine al gruppo JPEG (Joint Picture Expert Group) e MPEG (Moving
Pictures coding Expert Group).

- Il JPEG studiava i sistemi di compressione per l’immagine e la fotogra a digitale; il MPEG


studiava i sistemi per le immagini in movimento e per il suono.

- Il gruppo MPEG è nato grazie all’interesse di un ingegnere italiano, Leonardo


Chiariglione, che al tempo lavorava alla CSELT (Telecom) di Torino.

La fotogra a è stata prima ELETTRONICA ( ne anni ‘60) e poi DIGITALE: nel primo caso le
immagini vengono registrate su un nastro/disco magnetico. La fotogra a elettronica risale
alla scoperta del CMOS (Complementary Metal Oxyde Semiconductor) che permette la
registrazione di foto su nastro/disco. Nel 1969, nasce la fotogra a digitale nei laboratori Bell
Labs (oggi proprietà della Nokia), dove viene inventato CCD (Charge Coupled Device), un
circuito elettronico che rende la nostra immagine pronta alla digitalizzazione.

All’inizio degli anni ‘90 la prima fotocamera digitale immessa nel mercato è la LOGITECH
FOTOMAN. Un primo uso delle immagini digitali avvenne nel 1964 alla NASA, che
elaborava le immagini dello spazio eliminando tutti gli elementi di disturbo.

Computer Art

A partire d’ala digitalizzazione della fotogra a si arriverà alla creazione di immagini generate
con il computer, senza rapporto diretto con la realtà a partire già dagli anni ‘60. Il concetto
a onda le radici nella negazione della guratività e si basa sulle ricerche su software e
hardware. Nel 1968 si tenne a Londra la mostra Cybernetic Serendipity, di cui fu curatrice
Jasia Reichardt. Gli artisti invitati furono: Jean Tinguely, Nicolas Scho er, Eugenio Carmi,
Michael Noll, Leon Harmon, Kenneth Knowlton, Ben Laposky, Nam June Paik

Frattali: gure derivate da automi cellulari. Nei lavori di computer art si rende possibile la
creazione di pattern visivi geometrici e astratti e del random (artista= Vera Molnar).

MuDA: Museum of Digital Arts

Nella Computer art rientra anche il cinema sintetico, inteso come pittura dinamica e
immagini in movimento, in cui operò Liliana Schwartz (di cui abbiamo visto l’opera
Olympiad). Charles Csuri fu il primo a creare programmi per la trasformazione del segno.
Una coppia di artisti, i Vasulka, furono attivi negli anni ‘70 nella computer art, specialmente
in questo settore della trasformazione del segno. Un altro ambito della computer art è la
tridimensionalità, in cui operò Larry Cuba.

Net.Art

I suoi primordi risalgono alla ne degli anni 80, quando alcuni artisti comunicavano tra loro
tramite gli BBS (Bulletin Board System). Qui i creativi potevano scambiarsi idee sui loro
progetti, perciò sono considerati gli antenati dei nostri social. Alla ne degli anni ‘80 viene
fondato l’Hacker BBS da Tommaso Tozzi, che aveva creato questa chat ante litteram dove
tutti potevano accedere: per lui era un esempio di opera d’arte collaborativa.

Nella Net art avviene una vera e propria smaterializzazione, perché l'opera d'arte, come
quella di Tozzi, per essere usata, aveva bisogno di un supporto hardware (un computer).
Dunque si tratta di una virtualizzazione dell’opera.

Un’altra caratteristica della Net Art è la delocalizzazione dell’opera: il luogo in cui le
informazioni artistiche vengono immagazzinate è diverso dal luogo in cui si può fruirne.
Inoltre, l’opera d’arte può manifestarsi contemporaneamente su diversi dispositivi (ubiquità).

6
ff
fi
fi
fi
fi
fi
fi
fi
fi
ff
fi
fi
La Net art non consiste in un processo di digitalizzazione e di usione di un’opera
preesistente (Art on the net).

Le opere della net art hanno diverse proprietà:

- PERFORMATIVITA’: possibilità di diventare una performance

- PROCESSUALITA’: processo per la costruzione dell’opera

- DECOSTRUZIONE DEL MEDIUM: smontare e capire come funziona, per poi usare

queste informazioni per i propri web projects.

Jenny Holzer creò alcune opere per questo sito: inizialmente realizzava “truisms” (slogan,
modi di dire proiettati su sfondi cittadini) che, per questo sito, vennero inseriti tutti sulla
piattaforma in modo da poter essere modi cati dagli utenti.

www.the leroom.org è un’altra opera di net.art, un archivio aperto che l’utente può
consultare o integrare con tutti i casi di censura nella storia.

King Cross Phone In è un’opera di H. Bunting (inglese): lui ha di uso su internet il numero di
36 cabine telefoniche di King Cross, invitando gli utenti a chiamare ad una certa ora,
volendo così realizzare una performance. All’inizio degli anni ‘90 la net.art veniva vissuta
con entusiasmo e sperimentazione che, verso la ne degli anni ‘90, si trasforma in un
approccio critico verso il web.

www.jodi.org è creato da un duo di artisti che vogliono generare una sorta di rovesciamento
tra schermata della pagina e il codice sottostante.

www.wrongbrowser.jodi.org

Olia Lialina (russa) faceva parte della scuola europea di Net art e realizzò per il sito
www.etoy.comwww.teleportacia.org/war l’opera “My boyfriend came back from the war”, in
cui lei cerca di fondere net art e cinema. Racconta la storia di una coppia che si ricongiunge
dopo una lunga separazione dovuta alla guerra, ma le azioni e i dialoghi possono essere
modi cati dall’utente.

www.hijack.org questo lavoro ha lo scopo di far ri ettere sui limiti della rete: quando l’utente
cercava determinate parole selezionate dal creatore, questo veniva reindirizzato sul sito
hijack.

www.0100101110101101.org o anche 01.org che nel 2000 realizzarono un lavoro chiamato


Life_sharing, dove gli utenti possono condividere e modi care le (non a caso le è
l’anagramma di life).

Hacktivism: queste opere di net.art hanno peculiarità sia artistiche che politiche, perché
trattano temi come il sabotaggio, la controinformazione. Questo termine è un neologismo
che viene da “activism” e “hacking”.

La software art nacque dagli anni 2000 e consiste nella manipolazione di codici già esistenti
al ne di creare opere d’arte (la programmazione è arte).

Scenografia Virtuale

Nacque negli anni ‘50-’60 e contempla la collaborazione di gure come: art director
(scenografo capo che coordina il lavoro creativo), computer graphic (creazione ed
elaborazione di immagini e video tramite computer. Questa si di erenzia dalla computer art
perché le immagini e video possono essere tratte dalla realtà, al contrario di quello che
avviene nella computer art), illustratore, concept artist (si focalizza sulla parte concettuale),
storyboard artist. La scenogra a virtuale dà vita ad un set virtuale in cui viene inserito un
cast reale, che non ha idea di quello che lo circonda. Questo si può realizzare grazie al
chroma key (chiave cromatica, nota anche come green screen, blue screen), che permette

7
fi
fi
fi
fi
fi
fi
fl
fi
fi
ff
fi
ff
ff
fi
la sovrapposizione di più video in una sola immagine. Con l’uso di questi sistemi si è
pensato anche alla realizzazione di real time, con workstation gra che con software per i
calcoli e il rendering.

JOSEF SVOBODA (1920-2002)

Nato a Praga, fu il precursore tra lo spazio teatrale e l’immagine nta. La scenogra a per lui
non doveva essere una decorazione, ma doveva entrare proprio all’interno della narrazione.
Lavorò in Italia, da cui ricavò la scenogra a del teatro all’italiana e a cui unì un set virtuale.
Un’invenzione di Svoboda è il polyécran, un multischermo formato da tanti altri piccoli
schermi quadrati o trapezoidali su cui venivano proiettate immagini diverse. Il pubblico
quindi vedeva tante situazioni diverse. Il polyécran si è evoluto poi negli anni nella
multivisione, che consiste nel far diventare tridimensionali i piccoli schermi: sulla scena, non
saranno più gli schermi, ma dei solidi a diventare super ci su cui verranno proiettate le
immagini.

JACQUES POLIERI (1928-2011)

Dai primi anni ‘80 ha iniziato a usare il digitale per proiezioni sse e mobili. Lui predisse la
presenza di attori sulla scena dotati di sensori (mobilità e virtualità tridimensionale data
dell’emissione e della ricezione dei dati visivi e acustici). Ambienti performativi che oscillano
tra realtà e immaginazione.

Storia dell’informatica

La storia delle macchine da calcolo ha origini molto antiche, il primo vero strumento
realizzato per eseguire calcoli risale al 2000 A. C., era l'abaco, utilizzato nell'antica Cina, poi
anche dai Greci e dai Romani.

Le prime vere macchine compaiono nel XVII° secolo: "macchine" nel senso che non si
limitano a fornire un semplice supporto sico agli operandi, ma sono insiemi di organi
meccanici che consentono l'automatizzazione delle operazioni. Nel 1642 Blaise Pascal,
matematico e losofo francese, riuscì ad eseguire dei calcoli in modo assolutamente
meccanico. Nasce così la prima macchina addizionatrice la Pascalina. Una serie di ruote
dentate che rappresentano le unità, le decine, le centinaia ecc., portano sulla circonferenza
le cifre da 0 a 9 e sono collegate tra loro mediante ingranaggi. La rotazione completa di una
ruota fa avanzare di una unità la ruota alla sua sinistra: per la prima volta una macchina
esegue addizioni e sottrazioni sulla base del riporto automatico, utilizzato anche nelle
calcolatrici attuali.

Successivamente venne ideato dal matematico inglese Charles Babbage (1791–1871) il
primo prototipo di un computer meccanico sviluppato per eseguire compiti generici ovvero
la macchina analitica (Analytical engine in inglese) che però non venne mai e ettivamente
realizzato del tuo ma solo parzialmente da Babbage prima della morte. Dopo l’esperienza
della macchina analitica ci fu il Colossus, uno dei primi computer elettronici programmabili
nella storia dell'informatica e pochi anni più tardi vi fu l’ENIAC (Electronic Numerical
Integrator and Computer) cioè il primo calcolatore digitale. 

Gli anni più importanti furono i ‘60 ovvero il periodo in cui Robert Noyce e Gordon Moore
fondano la Integrated Electronics Corporation, successivamente abbreviata in Intel
Corporation e rivoluzionarono il mondo dell’informatica prima nel 1971 quando Federico
Faggin sviluppò il primo microprocessore (contenente tutti i circuiti per realizzare un piccolo
elaboratore), l'Intel 4004 e poi, successivamente migliorato con l’8086 che permetterà lo
sviluppo del pc negli anni ‘80.

Le tecnologie dell'informazione e della comunicazione (ICT, dall'inglese information and
communications technology) sono l'insieme dei metodi e delle tecniche utilizzate nella
trasmissione, ricezione ed elaborazione di dati e informazioni.

8
fi
fi
fi
fi
fi
fi
fi
ff
fi
Per rappresentare un’informazione (un numero, una lettera, ecc.) sono su cienti due soli
simboli. L'alfabeto Morse, per esempio, creato nella seconda metà dell’800 per la
trasmissione telegra ca delle informazioni, è basato sui due simboli 'punto' e 'linea' che
opportunamente combinati rappresentano tutte le lettere e le cifre. 

Questa possibilità viene sfruttata anche nell'elaboratore, i cui componenti si possono
trovare solamente in due condizioni diverse: in un circuito passa o non passa corrente. Per
far si che l'elaboratore registri le informazioni, si indicano convenzionalmente con "1" e "0"
le due possibili condizioni dei suoi componenti, "on" e "o ", e cosi si possono
rappresentare numeri, lettere e caratteri. Il sistema di numerazione adottato normalmente
dall'uomo è il sistema decimale, che utilizza dieci simboli. Il posto che le cifre occupano
rappresentano le unità, le decine, le centinaia ecc., cioè le potenze crescenti di dieci. 

Il sistema binario impiega invece solamente due simboli (1 e 0) e il posto che essi occupano
rappresenta le potenze crescenti di due: infatti è un sistema posizionale, cioè la posizione
più importante è quella a sinistra, in quanto moltiplichiamo la cifra per la potenza più alta di
2.

MIPS, FLOPS, B, bps

ACRONIMO SIGNIFICATO FUNZIONE

Millions of Instructions Per Indicare la frequenza di


MIPS
Second esecuzione delle istruzioni
indicare il numero di
FLoating point Operations operazioni in virgola mobile
FLOPS
Per Second eseguite in un secondo dalla
CPU
Indicare la capacità di
B Byte
immagazzinare dati

Indicare la velocità di
bps bit per second
trasmissione

Codice binario

È un sistema numerico posizionale in base 2 che pertanto utilizza solo due simboli (0 e 1)
attraverso i quali riesce a rappresentare numeri o lettere. Inoltre è un sistema di codi ca che
utilizza il computer per processare i dati.

Dati n bit quanta informazione si può rappresentare?→ 2^n 



Es. 3 bit -> 2^3= 8 (000, 001, 010, 011, 100, 101, 110, 111)

Data k informazione, quanti bit servono per rappresentarla?



Log[2]k

Codi ca numeri

Primi sistemi di numerazione risalgono al 3500-3000 a.C. ed erano sistemi decimali mentre
quello del codice binario è un sistema posizionale: in questo sistema il valore attribuito ad
ogni sua cifra dipende dalla sua posizione e la base indica il numero di cifre usate. Nel
sistema posizionale di riferimento 1000= 1•10ˆ3+ 0•10ˆ3+0•10ˆ2+0•10ˆ1+0•10ˆ0

Da sistema binario a sistema decimale



Es. 01101→0•16+1•8+1•4+0•2+1•1=13 

perché →01101→ 0•2ˆ4+1•2ˆ3+1•2ˆ2+0•2ˆ1+1•2ˆ0=13

9
fi
fi
ff
ffi
fi
Da sistema decimale a sistema binario

Si divide il numero per 2 e si distinguono Quoziente e Resto; si memorizza R e si ripetono
queste operazioni nche Q=0. Si considerano R ottenuti nell’ordine di calcolo disponendoli
da dx verso sx.

Es. Trasformare 25 in codice binario

CALC Q R

25/2 12 1

12/2 6 0

6/2 3 0

3/2 1 1

1/2 0 1

10011→ 11001

NUMERI POSITIVI E NEGATIVI


Secondo i sistemi di codi ca (le regole secondo quale un certo dato viene rappresentato) se
vogliamo indicare segno positivo, dobbiamo usare lo 0, per quelli negativi l’1.

I sistemi di codi ca sono:

- MODULO E SEGNO: ormai caduto in disuso, consiste nel non trattare il primo bit come
una cifra signi cativa al ne di ottenere il risultato nale, ma solo come segno + o -. Questo
sistema risulta essere problematico, poiché più complesso.

- COMPLEMENTO A DUE: qui succede che, come nella notazione modulo a due, il primo
bit viene trattato come segno, ma anche come cifra per ottenere il valore assoluto della
cifra.

0110 = +6

-n(2)*2^2 +n(1)*2^1+n(0)*2^0

1010 = -6

Per passare dal decimale al binario, un numero negativo si codi ca il corrispondente


positivo, si invertono i bit e si somma 1:

-5= +5=0101=1010= 1011 (ho aggiunto l’1 alla ne)

10
fi
fi
fi
fi
fi
fi
fi
fi
Codi ca in virgola ssa cioè xed point è in disuso perché prevede un certo numero di
cifre dopo la virgola ssato a priori; si preferisce pertanto adottare la codi ca in virgola
mobile cioè oating point che a seconda del calcolo n un numero di cifre dopo la virgola
puòaumenta o diminuisce più liberamente.

Es. 0,0012= 12•10ˆ(-4).

N= (+/-)M•r^e [M=mantissa, ovvero solo le cifre signi cative del numero.]

NUMERO FISSO DI BIT



Ogni dispositivo usa un certo numero di bit sso, che costituisce l’esponente massimo del
2 (Es. se il mio calcolatore ha 8 bit, allora la cifra più grande è 2^8, e il numero più grande
rappresentabile è 255, cioè 2ˆ8 contando anche lo 0 lo stesso computer potrà
rappresentare 127 cioè 2ˆ7).

I dispositivi hanno un intervallo di rappresentazione nito e ciò potrebbe portare al
cosiddetto errore di “over ow”, ovvero un calcolo che ci fa ottenere un risultato al di fuori
delle capacità del dispositivo. Inoltre, avviene sempre un errore di approssimazione, perché
in ogni computer i numeri vengono approssimati male:

- PER TRONCAMENTO: 35,569=35,5

- PER ARROTONDAMENTO: 35,569=35,6

CODIFICA DI CARATTERI E TESTI



Dall’invenzione del telegrafo elettrico (1837) e del codice morse, esiste questo problema
della traduzione dei caratteri dei testi in simboli. Nel 1960 viene introdotto l’ASCII (American
Standard Code for Information Interchange), un codice a 7 bit per rappresentare le lettere
dell’alfabeto inglese e alcune azioni (spazio, andare a capo). Nel 2004, l’ASCII viene esteso
a 8 bit, viene adottato dall’ISO e lo chiama ISO/IEC 8859.

Questa tabella indica le regole speci che per la scrittura di ogni simbolo: per scrivere un
simbolo bisogna mettere 4 bit della colonna e poi 4 della riga. Nel 1992 abbiamo
l’introduzione dell’UNICODE introdotto dall’omonima organizzazione. Questo codice
funziona come l’ASCII, ma a di erenza di quest’ultimo non è 4+4, ma 8+8. Con questi
sistemi di codi ca creiamo testi formattati (.doc) e non (.txt). Dato che può essere
problematico dal punto di vista della compatibilità, l’ISO ha introdotto l’ODF (open
document format) che doveva essere un formato che conservava non solo l’ASCII, ma
anche altri sistemi di codi ca. Chiaramente, nel tempo anche questo ODF risultò essere
limitante, dunque si optò per i Page description languages, in grado di incorporare anche le
immagini: prima si adottò il Postscript e poi il PDF(portable document format). Il PDF è
stato lanciato dalla Adobe e nel 2008 l’ISO l’ha adottato come standard.

I SUONI

Inizialmente i computer trattavano solo testi e immagini, ma ben presto dovettero anche
trattare i suoni (sempre convertiti in bit). I suoni sono causati da compressioni e rarefazioni
delle molecole d’aria. Queste compressioni e rarefazioni devono essere tradotti in segnale
elettrico, compito che spetta al MICROFONO, dispositivo trasduttore che trasforma
l’energia meccanica in energia elettrica. Il segnale che trasmette il microfono è analogo al
segnale sonoro originale, trasmesso da chi parla. Questi segnali analogici vengono poi
convertiti in digitale mediante i dispositivi ADC (analogue to digital converter). Questa
conversione avviene prima con il campionamento (sampling), ovvero la rilevazione a
intervalli regolari dei valori assunti dai segnali. L’obiettivo di questi è, chiaramente, rimanere
quanto più fedeli possibile al segnale originale.

PERIODO DI CAMPIONAMENTO (T in secondi): periodo di tempo che passa tra le volte in


cui il dispositivo e ettua il campionamento.

FREQUENZA DI CAMPIONAMENTO (f): numero di volte in cui avviene il campionamento in


un periodo di tempo.

11
fi
fl
fi
ff
fi
fi
fi
fl
fi
ff
fi
fi
fi
fi
fi
TEOREMA DEL CAMPIONAMENTO : fu messo a punto da Claude Shannon e a metà degli
anni’50, Enuncia che la frequenza di campionamento deve essere maggiore o uguale al
doppio della frequenza massima contenuta nel segnale da campionare.

Es. Ho 500 Hz (hertz) = 1000 Hz

I sistemi audio professionali usano come minimo 44100 (= 2x20000 +...) perché 20000 è la
frequenza massima dell’udito umano.

Introduzione alla programmazione

I linguaggi di programmazione sono quei linguaggi scritti per far svolgere determinate
funzioni al computer.

Le info (dati, istruzioni) trattate dai computer sono codi cate secondo i linguaggi del
calcolatore ma scritte secondo un linguaggio più vicino al nostro.

Per linguaggio macchina si intende il bit, noi tuttavia, scriviamo con dei linguaggi che sono
più vicini ai nostri modi di esprimerci che vengono poi tradotti in linguaggio macchina dallo
stesso computer.

I primi linguaggi di programmazione erano molto più vicini al linguaggio macchina, con
l’evolversi dei linguaggi di programmazione questi si sono avvicinati molto più al nostro
modo di comunicare.

Ci sono i linguaggi di programmazione non evoluti (low level) cioè il primi ad essere stati
introdotti e ne fanno parte: il linguaggio macchina e i linguaggi assemblativi.

Ci sono anche i linguaggi di alto livello (high level) e ne fanno parte i linguaggi generici e
speci ci (es Csound è un linguaggio di programmazione che serve speci camente per
l’audio).

Linguaggi non evoluti

Sono quei linguaggi coi quali sono rappresentati e trattati le informazioni (istruzioni e dati)
dentro al calcolatore ed è l'unico linguaggio che il calcolatore comprende.

* Usa 2 simboli: 0 e 1 indicati come bit -› informazione sono opportune successioni di bit

* Codice di istruzione -› 8 bit che individuano l'istruz, le locazioni di memoria di dati e istr,
ecc...

L. indirizzamento, indirizzi...

Primi anni dell'era informatica i programmatori dovevano usare il linguaggio macchina e


presentava molte di coltà in quanto è lontano da come il programmatore si esprime

- diverso da calcol. a calcol.

- possibiltà di errori elevata...

Linguaggi non evoluti: assemblativi

Non usano più i bit, ma simboli mnemonici opportuni con i quali si potevano scrivere frasi e
cioè istruzioni da dare alla propria macchina.

• In forma simbolica: anche indirizzi, operandi..

12
fi
ffi
fi
fi
› frasi = istruzioni macchina

Es. su calcolatori IBM classe 370:

• Frasi per il programma assemblatore assembler: es. START ... END

› programma è costituito da frasi comprese; OUTPUT DS CL 120 -> riservare locaz di mem
di 120 byte per il valore di un dato chiamato OUTPUT (START OUTPUT DS CL 120 END)

• Frasi di macchina: che rappres. istruzioni di macch. es. AR 2,3 -› sommare il contenuto
del registro 2 con il 3 mettendo il risultato in 2

• Frasi di input/output: attivano programmi o

routines già pronti x le fasi di I/0

Progr. in L. ass. è caricato nella memoria centrale dell'elaboratore

› no immediatamente eseguito perchè la macchina "non capisce"

› elaboratore richiama da memoria secondaria un programma ovvero l'assembler che passa


dalla memoria secondaria alla centrale e traduce il programma sorgente (quello scritto dal
programmatore) in programma oggetto in linguaggio macchina

› sorgente e assembler sono cancellati dalla mem. centr. e elaboratore esegue queso
programma poiché è stato tradotto

• per traduz si intende la sostituz dei comandi simbolici delle operazioni e degli indirizzi con
codice macch.

"Storia" › Assembler

• anni '50 e '60

• chiamato Assembly o linguaggio assemblativo

• Basso livello

• Il più vicino al Iinguaggio macchina, ma senza formato binario

› caratteri "mnemonici" es. ADD per sommare…..

• Non uno solo cioè non andava bene per tutti i computer. Questo va contro il concetto di
portabilità, cioè quella peculiarità che fa sì che quel linguaggio sia leggibile e alla portata
di qualsiasi computer

"Storia" -C

• Alto livello introdotto negli anni ‘70

• Portabilità cioè se scrivo un programma in C qualsiasi computer lo legge. Ad oggi è usato


per scrivere sistemi operativi, librerie etc

L. strutturato e compilato, cioè utilizza la programmazione compilata

C ++

13
Alto livello

• L. OOP (object oriented) e compilato

• 1983 - Biarne Stroustrup

• Dal C inizialmente suo miglioramento, "C con Classi”

Linguaggi Compilati/Compilativi

Sono linguaggi evoluti e permettono al programmatore di usare un linguaggio vicino al


proprio: il calcolatore usa un programma traduttore detto Compilatore che traduce il
programma sorgente in programma oggetto e successivamente in linguaggio macchina (-›
eseguibile, altro le). È utilizzabile su diversi calcolatori. es di linguaggi compilativi Algol,
Cobol, Fortran, Pascal, C, C++, ObjectiveC, Go

Linguaggi Interpretati/Interpretativi

Anch’essi fanno parte dei linguaggi evoluti. Il programmatore usa un linguaggio vicino al
proprio: es. algebrico, aziendale e man mano avviene la traduzione in linguaggio macchina
a opera di un programma traduttore detto Interprete (non è eseguibile, non viene prodotto
un altro le) e l’esecuzione è immediata. Inoltre si parla, nel caso dei linguaggi interpretativi,
di "livello conversazionale" cioè sostituzione avviene per ogni frase tramite un sotto
programma e se avvengono errori il computer lo percepisce immediatamente. Esempi: Perl,
Javascript, Python, Ruby...

Sia compilatore che interprete servono a tradurre un programma da alto livello a basso
livello in modo che il programma sia comprensibile alla macchina. In particolare: il
compilatore riceve un programma scritto ad alto livello (il codice sorgente), lo traduce in un
programma oggetto e solo alla ne la macchina esegue il codice tradotto. Un interprete,
viceversa, non traduce il codice tutto in un colpa ma alterna la traduzione del codice. Per
meglio dire un interprete prende pezzi di codice, li traduce e li esegue immediatamente.

Linguaggi Ibridi

Sono sempre linguaggi evoluti che possono funzionare sia come compilatore che come
Interprete; alcuni esempi sono Basic, Lisp, Java, Scala...

Stili di Programmazione

"Modo primitivo": uno dei primi stili di programmazione, consisteva nel scrivere il codice da
inizio a ne senza sottoporlo al computer il che comportava un accumulo di errori o bugs. in
esecuzione il programma se incontra errore deve fermarsi subito e/o avvertire il
programmatore e ripartire se c'è una correzione

Gli errori più comuni possono essere: di sintassi (i più facili) o logici (errori di pensiero- errori
di algoritmo)

Non si utilizza mai il copia-incolla, ma si racchiude il tutto in un sotto programma (funzione)


e poi si richiama tale funzione

* (Analisi del progr., debugger...)

Cos’è la funzione?

È una sequenza di istruzioni a cui viene dato un nome e che viene chiamata quando serve,
all'interno di un programma ed è riutilizzabile. Può avere ingressi e/o uscite e può
scomporre i problemi complessi in problemi semplici ogni funzione può richiamare un’altra/
e al suo interno

Programmazione Strutturata

14
fi
fi
fi
fi
Ideata per la prima volta negli anni '70, il programma è progettato come insieme di più
moduli piccoli ognuno specializzato per fare una determinata cosa. Esso è legato alle
funzioni facciamo l’esempio di una sveglia: essa dve indicare l’ora, leggerla, confrontarla
con...e in ne suonare l’allarme. Ecco, queste sono tutte funzioni diverse. I pro dello
scomporre un problema lungo in tanti più piccoli sono la semplicità e la velocità in quanto
non solo impiega meno tempo ma scomponendo il problema gli errori sono più risolvibili

• C, Pascal, Algol...

OOP=Obiect Oriented Programming

• Non più passaggi x risolvere un problema, ma dati e loro interazione

• Oggetto = entità con delle sue proprietà e metodi (cioè azioni che può compiere per
interagire)

Es. oggetto= mezzo di locomozione; proprietà= n°ruote, n°porte, colore... metodi= vola,
galleggia..

• Istanza = caso particolare di un oggetto (es. aereo, macchina...)

• C++, ObjectiveC, Object Pascal

• Anni '80. '90

Dati. Strutture di Dati

• Variabili, vettori, matrici (altre: array, liste...)

• Variabili = coppie (nome, valore)

• Vettori = variabili che contengono insiemi di valori

› elementi del vettore, il loro n° dimensione del vettore, ogni elemento è indicato con un

indice che ne identi ca la posiz. nel vettore B= (L(1))

• Matrici = vettori con più dimensioni. Es: a 2 dimensioni: riga e colonna -› entrambe

indicano la posiz. el. (M(3,4)).

Successioni ordinate di istruzioni = operazioni da eseguire sui dati x risolvere problema

-› Programma è la descrizione di un algoritmo in una forma comprensibile e eseguibile


dall'elaboratore

• Es. compressione loseless dei formati audio digitali ( ac)

-Simbolo -AAAABCDDEEE = 4A*B*C*2D*3E


15
fi
fi
fl
Architettura degli elaboratori

Il computer non ha una capacità decisionale ma può solo eseguire determinate procedure:
pertanto il computer è un esecutore che può svolgere solo quei lavori speci cati che può
comprendere e mettere in pratica attraverso un algoritmo comunicato in modo che sia
comprensibile (programma). Il processo è il lavoro svolto dall’esecutore seguendo
l’algoritmo e colui che lo svolge è chiamato processore.

Il computer è diverso dalle altre macchine a partire dalla sua architettura: questo secondo il
modello di Von Neumann (dal nome del ricercatore che ha proposto questa struttura alla
metà degli anni ‘40) che la suddivide in tre blocchi e sono:

- la CPU Central processing unit (unità centrale di elaborazione) coordina l’esecuzione


delle operazioni

- Memoria contiene l’algoritmo da seguire e i dati su cui deve operare

- Dispositivi di input (immettono informazioni alla memoria) e output (ricevono informazioni


dalla memoria) sono le interfacce verso il mondo esterno

Tutte queste unità costituiscono l’hardware cioè tutto ciò che possiamo toccare, l’insieme
dei componenti del computer. Questo modello non è mai stato lasciato per la sua
semplicità, per la sua velocità e a dabilità, capacità di memoria e costo vantaggioso.

Per velocità si intende il milione di istruzioni al secondo MIPS

L’a dabilità cioè non può fare errori

Capacità di memoria si misura in byte cioè il numero di informazioni immagazzinabili.

Dispositivi di input sono ad esempio tastiera, mouse, tavoletta gra ca etc

Dispositivi di output sono ad esempio stampante, altoparlanti, cu e, monitor etc

Memoria

È un registro che si misura in byte. Si può fare riferimento alla memoria tramite l’indirizzo di
memoria che si riferisce ad una locazione di memoria che contiene una determinata
informazione. E una posizione della memoria dentro il quale metto cose diverse nel senso
che nelle varie locazioni di memorie si può fare store and load. Le azioni consentite sono
scrittura (sovrascrivo eliminando quello che c’era prima) e lettura (leggo il valore che c’è
dento quel valore di memoria)

La cpu indica un indirizzo di memoria a seconda delle istruzioni del programmatore: la


memoria abilita quindi solo quella locazione per la scrittura e la lettura. Però quando una
certa locazione di memoria viene abilitata il dato viene copiato da un bu er nella memoria: il
bu er è un’area di transito tra cpu e memoria perchè le azioni richiedono dei tempi di
azioni.

Si dicono volatili quelle memorie che perdono informazioni allo spegnimento del computer
mentre si dicono permanenti quelle memorie che non perdono i dati allo spegnimento. Lo
schema di Von Neumann sono state messe le memorie di massa cioè delle memorie che
hanno una grandissima capacità in cui è possibile immagazzinare molte più informazioni
rispetto alla memoria centrale (quella centrale prende le info comunica direttamente con la
CPU mentre le memorie di massa devono passare le loro info alla memoria centrale per
arrivare al cpu). La memoria centrale è più piccola ma pi+ veloce per questo sono state
introdotte le memorie di massa

Cache ram e rom fanno parte della memoria centrale; le cache dati usati frequentemente.
Ram Random access memory è quella parte della memoria centrale che permette lettura
scrittura ed è volatile. La rom read only memory, solo per la lettura ed è permanente (serve
per contenere ad esempio tutte per istruzioni per accendere il computer)

CPU

Contiene tutti quei dispositivi elettronici che servono per acquisire, interpretare ed eseguire i
programmi nella cpu

È suddivisa in 3 parte

Control unit

Arithmetic logic unit (logica intesa come confronto tra dati)

Registro interno interpreta tutte le istruzioni dei programmi: se un programma necessita dei
dati contenuti nella memoria la CPU va a prenderli nella memoria

16
ff
ffi
ffi
ffi
fi
ff
fi
Bus

Canali tramite quali la cpu comunica;: collegano due unità alla volta. Questa comunicazione
avviene sempre sotto contrllo della cpu. A seconda delle informazioni che circolano sui
canali possiamo avere:

- dati= permette la circolazione dei dati che passano per esempio dalla CPU alla meno
prima per essere scritti o letti oppure dalla memoria centrale a quelle di massa

- Indirizzi address bus= serve al cpu per comunicare l’indirizzo interessato dalla lettura o
della scrittura. La cpu è l’unica che può fornire gli indirizzi

- Comandi o controlli porta le comunicazioni di controllo es start/stop/read/wright

Clock

IN TUTTO QUESTO INSIEME di azioni serve qualcosa che coordini le stesse azioni:
orologio interno che da una cadenza temporale; è un segnale periodico/ un’onda quadra
cioè un’onda di controllo che raggiunge tutti i dispositivi e lo devono naturale te seguire. La
frequenza di questo clock è molto importante oerché è sulla base di frequenza del clock
che si basa il compimento di tante nazioni. La CPU sarà tanto è più e cace quando la
frequenza del clock è alta

La codi ca delle immagini

• possiamo codi care le immagini a colori individuando un certo numero di sfumature,


gradazioni di colore di erenti e di codi care ognuna mediante un'opportuna sequenza di bit

• Qualsiasi colore può essere rappresentato dalla composizione del rosso, del verde e del
blu.

• Quindi, invece che rappresentare alcune sfumature di tanti colori diversi, possiamo
rappresentare molte sfumature dei tre colori: dalla combinazione di essi otteniamo tanti
altri colori. Ogni pixel viene rappresentato con una combinazione dei tre colori

• Per ogni colore primario si usa un certo numero di bit per rappresentarne la gradazione (la
“quantità”)

• Ad esempio, utilizzando 8 bit per colore primario, otteniamo 256 diverse gradazioni,
ovvero 256x256x256=16777216 colori diversi. In questo caso un pixel richiede tre byte di
informazione Le sequenze di bit relative ad ogni colore primario si possono interpretare
come la rappresentazione di una quantità (la gradazione, la sfumatura) quindi si possono
esprimere in base decimale:

Ad esempio, se il colore di un pixel fosse sarebbe espresso con la seguente sequenza


di bit: 100010111101001011011000 allora potremmo, più comodamente, scrivere 139 210
216.

Avendo 8 bit a disposizione per rappresentare la gradazione di un colore fondamentale, tutti


e tre i numeri sono compresi tra 0 e 255

Spesso, per comodità di scrittura, tale codi ca è espressa in base esadecimale. In questo
modo, lo stesso colore dell’esempio sarebbe espresso nel modo seguente: 8B D2 D8
(8B-16 = 139-10, e così via...).

100010111101001011011000 equivale a 139 210 216 ed a 8B D2 D8

La rappresentazione di un'immagine mediante la codi ca dei pixel, viene chiamata codi ca


bitmap o raster

• La risoluzione dell’immagine è il numero di pixel che la costituiscono, espressi in termini di


larghezza x altezza. Ovviamente, aumentando il numero di pixel a disposizione, migliora la
qualità dell’immagine.

• La profondità dell’immagine è invece il numero di bit che servono per rappresentare un


singolo pixel dell’immagine.

• Il numero di bit richiesti per memorizzare un’immagine dipende dalla risoluzione e dalla
profondità

numero di bit per immagine = risoluzione x profondità

Esistono delle tecniche di compressione delle informazione che consentono di ridurre


drasticamente lo spazio occupato dalle immagini

• codi che di compressione: le più famose sono la CompuServe Graphic Interface (GIF) e la
Joint Photographic Experts Group (JPEG). I le che usano tali codi che riportano
rispettivamente le estensioni .gif e .jpg (o anche .jpeg) Tali formati (detti anche codec:

17
fi
fi
fi
ff
fi
fi
fi
fi
fi
ffi
fi
compression/decompression), usano un sistema per comprimere l’informazione prima di
memorizzarla e per decomprimerla prima di visualizzarla.

• entrambi i formati tendono ad eliminare i pixel ripetitivi,

• Entrambe le soluzioni sono compressioni con perdita di informazione. Tale perdita non
può essere recuperata in alcun modo. La codi ca JPEG consente di manipolare tale
fattore di compressione.

Gra ca vettoriale: descrizione di elementi geometrici primitivi, i quali vengono speci cati
individualmente. Non si descrivono i pixel singolarmente.

• si de niscono le curve e tutti gli elementi geometrici che compongono l’immagine


memorizzando solo le loro coordinate

• un programma che gestisce immagini in gra ca vettoriale dovrà prima leggere le


coordinate e riprodurre pixel per pixel le curve

• formato testuale (si crea e modi ca con un editor di testi)

• meno occupazione di memoria + elaborazione per la riproduzione

18
fi
fi
fi
fi
fi
fi

Potrebbero piacerti anche