Sei sulla pagina 1di 32

Accademia di Belle Arti di Bologna

CORSO DI INFORMATICA DI BASE


Danisi / Ghisellini

DISPENSA 5
AUSILIO PER L’ESAME
Il corso di Fondamenti di Informatica in Ababo

Il corso di informatica proposto in Accademia di Belle Arti di Bologna con frequenza obbligatoria al
70% per un totale di circa 40 ore di lezione, che se superato risulterà come un esame di idoneità (ovvero
senza valutazione in trentesimi), erogando 4 crediti formativi, è un corso diviso in due parti principali:
A) la prima parte del corso riassume le nozioni principali di base del funzionamento dei personal
computer. Questa prima parte risulta come un corso, simile per nozioni, alle certificazioni della ECDL base
(patente europea del computer), dove vengono prese in analisi le caratteristiche principali che costituiscono
il computer e la sua architettura di funzionamento. Vengono trattati ed analizzati elementi funzionali come
RAM, ROM, output/input, Bios, CPU, scheda madre, misure utili (Kilobyte, Gigabyte, GigaHertz etc…), presi
in analisi i sistemi operativi ed alcuni elementi fondamentali quali la gestione del disco, la formattazione, la
partizione, etc.. senza escludere argomentazioni sulle differenze di memorizzazione tra sistemi analogici
e digitali… Non vengono trattati invece nello specifico nè i linguaggi di programmazione più comuni (Java,
C++, Visual Basic, HTML4 etc…), nè i software tipicamente da “ufficio”, ovvero gli elaboratori di testo (Word),
di gestione database (Access), di foglio di calcolo (Excel), di presentazione dati (PowerPoint) etc… sia per
limiti oggettivi nella tempistica della didattica sia perchè non necessariamente coerenti con il percorso di
studio accademico/artistico. (software e linguaggi che comunque, in alcuni casi, potrebbero risultare anche
particolarmente utili ad uno studente di Belle Arti.)
B) La seconda parte del corso, modulata questa sulle reali necessità specifiche dello studente medio
di una Accademia di Belle Arti, analizza invece tutto il settore dell’”Informatica per la grafica” o più in
generale della Computer Graphic. Analizza ovvero tutte quelle nozioni principali, che sono alla base di
una comprensione ed un utilizzo cosciente della maggiorparte delle applicazioni per l’elaborazione delle
immagini. Software come Photoshop, Illustrator, Gimp, oppure software di modellazione tridimensionale
(Cinema 4d, Maya, Modo, Zbrush etc…) o ancora di pittura digitale, vengono utilizzati al meglio se alla base
c’è una comprensione cosciente delle nozioni fondanti la Computer Graphic. Termini quali RGB, CMYK,
canale alpha, grafica vettoriale, grafica bitmap/raster, grafica procedurale, mesh, nurbs, maniglie di bezier…
etc… sono solo alcuni tra gli elementi che vengono trattati durante questa seconda parte.
A compendio delle trattazioni teoriche, vi saranno spesso integrazioni attraverso video, filmati, cortometraggi.
C’è da considerare oggi, un importante dato culturale e contemporaneo, relativo alla didattica dell’informatica
in Accademia: attualmente l’utilizzo generico di alcuni software di elaborazione per le immagini (es: Photoshop)
è possibile anche procedendo intuitivamente, o per tentativi ed errori, ovvero senza necessariamente andare
a fondo nelle nozioni di base dell’informatica per la grafica. Più in generale, tutto il mondo delle applicazioni
per i computer, ed ora anche per i mobile-phones, si sta spostando progressivamente verso un utilizzo
sempre più user friendly, ovvero semplice ed intuitivo, delle funzioni di base: questo utilizzo è coadiuvato
da interfacce sempre più facilitanti e semplificate. E tuttavia, questo stesso processo di facilitazione e
semplificazione, è rende le interfacce dei software sempre più “opache” rispetto al funzionamento reale
delle immagini numeriche ed a chi vuole personalizzare l’utilizzo di certe funzioni, piuttosto che appoggiarvisi
superficialmente. Proprio per questo motivo, sarà nel momento in cui bisognerà ottenere un risultato quanto
più professionale e personalizzato possibile che si espliciterà l’enorme differenza tra lo studente che ha
appreso le nozioni fondanti dell’informatica per la grafica e chi invece fa pratica intuitiva da “smanettone”,
più o meno improvvisato. E’ nel momento in cui si affronteranno alcune difficoltà tecniche impreviste che
tali nozioni saliranno a galla permettendo allo studente di risolvere, o quanto meno comprendere e quindi
direzionare e magari risolvere, i problemi incontrati.
Questo discorso vale non solo per chi segue corsi tendenzialmente tecnologici come Design di Prodotto,
Design Grafico, Cinema etc… ma vale anche e soprattutto per chi dovrà esporre opere in mostra o inviare
le proprie immagini a differenti qualità (o compressione) per un catalogo artistico (pittori, scultori, decoratori)
o per un database web, elaborare e restaurare pellicole (restauro), effettuare complesse elaborazioni per
pattern ridondanti da stampare in moduli a parete (decorazione), scansionare tavole fumettistiche per poi
colorarle (fumetto e illustrazione), catalogare immagini a differenti definizioni (didattica e comunicazione),
elaborare una texture o un logo per un capo d’abbigliamento (fashion), produrre sperimentazioni grafiche
da convertire da serigrafia a digitale e viceversa in un flusso di ricerca estetica tecnologicamente innovativa
(grafica d’arte), sperimentare la glitch art, hackerare una macchina da cucito, videomappare la chiesa di San
Petronio con immagini tecnologiche, diffondere suoni in modalità olofonica e morfologicamente coerenti con
fasci di light design sinestetico e responsivo al battito cardiaco dei visitatori. Magari utilizzando l’italianissimo
hardware “Arduino”.
O più semplicemente farsi un selfie (ma in bitmap monocromatico, animato, e con differenti tipologie di
dithering).
Nel 2020 non è -ammissibile- che un giovane studente di Accademia non conosca almeno le nozioni fondanti
delle immagini digitali e del funzionamento di un computer. Equivale a restare, per grossa parte, fuori dai
giochi. Il nostro orientamento proposto agli studenti è che - si può anche scegliere di rimanere fuori dai giochi
- e talvolta questa pratica può risultare addirittura utile artisticamente parlando (!) - Ma dovrà risultare come
una scelta, e non come un limite.

Questa dispensa riassume in maniera stringata, le principali tematiche che si potranno incontrare durante
le sessioni dell’ESAME SCRITTO del corso di Fondamenti di Informatica in Ababo.

ATTENZIONE ! >>>> Questa Dispensa nr.5 NON sostituisce le altre dispense, ma le integra con un
linguaggio più leggero e discorsivo, con argomentazioni strutturalmente simili alle spiegazioni effettuate
durante le lezioni, con lo scopo di facilitarti a superare l’esame di idoneità.
PER TUTTE LE NOZIONI TECNICHE SPECIFICHE, e le relative immagini a corredo, bisogna riferirsi
necessariamente alle restanti 4 dispense !

>>>>>> OGNI VOLTA CHE VEDRAI UN TESTO SOTTOLINEATO IN NERO COME QUESTO,
memorizzalo bene e approfondisci l’argomento sia online che sulle altre dispense: vi sarà un’alta probabilità
che questo argomento possa trasformarsi in una domanda d’esame.
PARTE PRIMA
(INFORMATICA BASE)
LISTA DEGLI ARGOMENTI DA APPROFONDIRE PER L’ESAME:

Accenni di storia del computer


Concetto di Hardware
INPUT / OUTPUT concetti generali
INPUT / OUTPUT periferiche più comuni
I quattro elementi fondamentali del computer
HARD DISK
misure dell’hard disk
velocità dell’hard disk
caratteristiche dell’hard disk
partizionamento
formattazione
tabelle di allocazione dei files
differenze rispetto alla ram
frammentazione dei files
Tracce / Cluster / Settori
RAM
misure della ram
caratteristiche della ram
differenze rispetto all’hard disk
CONCETTO DI MEMORIA DI MASSA
CONCETTO DI MEMORIA VOLATILE
CPU
clock / velocità cpu
core (double, quad etc…)
misure della velocità delle CPU
cache
SCHEDA MADRE
Modalità di funzionamento e interazione base tra CPU, RAM e HARD DISK
ROM
Bios
Bootstrap
Concetto di Firmware
Concetto di Software
Software (o sistemi) Operativi
Software Applicativi
Plug-In
Files
Concetto di file
Concetto di estensione e dimensione di un file
Concetto di file esecutivo
Codice Binario
Analogico vs. Digitale
Unità di misura del computer (dai bit, ai PetaByte, passando per multipli di 1024…)
Concetto di linguaggio di programmazione
Introduzione all’Informatica.

Il termine “Informatica” deriva deriva da quello francese “informatique”, contrazione di informat(ion) (automat)
ique, coniato da Philippe Dreyfus nel 1962. La relativa voce di Wikipedia, in sintesi, recita:

“L’informatica è la scienza che si occupa del trattamento dell’informazione mediante procedure automatizzate. In particolare ha per oggetto
lo studio dei fondamenti teorici dell’informazione, della sua computazione a livello logico e delle tecniche pratiche per la sua implementazione e
applicazione in sistemi elettronici automatizzati detti quindi sistemi informatici. Come tale è una disciplina fortemente connessa con
l’automatica, l’elettronica e anche l’elettromeccanica.
Assieme all’elettronica e alle telecomunicazioni  unificate insieme sotto la denominazione  Tecnologie dell’informazione e della
comunicazione (ITC o ICT), rappresenta quella disciplina e allo stesso tempo quel settore economico che ha dato vita e sviluppo alla terza
rivoluzione industriale attraverso quella che è comunemente nota come rivoluzione digitale.

Il principio fondamentale dell’informatica, che è anche il significato della parola stessa, è che attraverso un calcolatore l’utente ottiene
delle  informazioni a partire da dati, per mezzo di una elaborazione automatica (mediante una procedura stabilita in precedenza, cioè
il  programma). Il programmatore organizza e scrive le istruzioni  del programma (attraverso specifici  linguaggi di programmazione), il
programma viene installato su un calcolatore e infine quest’ultimo ne esegue le istruzioni programmate, rispondendo agli input dell’utente.
Un input è una immissione, inserimento, ingresso di dati, a cui segue l’elaborazione, che si conclude con l’output, ovvero una
uscita di informazioni organizzate in modo tale da trarne conoscenza. Dunque, l’attività di un calcolatore è essenzialmente l’esecuzione
di calcoli logico-aritmetici, che vengono svolti eseguendo istruzioni precedentemente impartitegli da un programmatore.”

INPUT E OUTPUT

Dal testo precedente si può facilmente intendere, come si vedrà più dettagliatamente avanti, che le nozioni
di input ed output sono concettualmente fondamentali per capire la ragione d’esistere dell’informatica,
poichè riassumono esattamente ciò in cui è specializzato un computer: ricevere dei dati in input per poter
generare un risultato in output. Questa elaborazione può essere A) una semplice operazione aritmetica
(3+2 = 5) oppure B) la modifica di un’immagine in photoshop (input) attraverso un filtro cromatico (output)
e la sua successiva visualizzazione a schermo o carta (output di nuovo), C) la registrazione di un suono
attraverso il microfono (input) della scheda audio e l’elaborazione di un effetto di riverbero o una semplice
equalizzazione (output), o ancora D) la ricezione o l’invio di un’email (input/output), E) l’elaborazione di un
testo scritto attraverso l’input dei tasti della tastiera, F) il movimento di un personaggio di un videogioco
controllato dall’input del joypad… in tutti i casi si tratta sempre di valori in entrata (input) che vengono
elaborati per dare un risultato in uscita (output). Potremmo immaginare il computer come una sorta
di “calderone” in costante attività, all’interno del quale vengono generati costantemente e ad una velocità
incredibile, milioni/miliardi di elaborazioni logico/aritmetiche semplici, di dati in input che generano dati in
output. Questo succede sia a livello di funzionamento interno, ovvero non visibile/gestibile dall’utente, sia a
livello di utilizzo pratico da parte di un utente (user) per tramite del software operativo/applicativo. Spesso
a lezione, scherzosamente, parliamo del computer come di una enorme “calcolatrice matematica”. Una
calcolatrice matematica a tutti gli effetti, solo estremamente più complessa e stratificata, estremamente duttile
e personalizzabile rispetto alle normali calcolatrici da scrivania a cui eravamo abituati qualche decina di anni fa.
Ai fini dell’esame saranno molto importanti le nozioni di:
- Input ed Output
- Riuscire a distinguere i dispositivi nella loro funzione di input, di output o di entrambi. Ovvero quali sono
i dispositivi che inviano principalmente Input al computer (es: tastiera ed altri), i dispositivi che ricevono
principalmente Output (es: monitor ed altri), i dispositivi che fanno sia input che output (es: touch screen ed altri)
NUMERI NUMERI NUMERI
Come vedremo, in ultima analisi, tutta questa elaborazione di dati è possibile poichè un computer, utilizzando
un infelice neologismo, è fondamentalmente un “numerizzatore”: ovvero può convertire qualsiasi dato in
entrata dalla realtà (input), sia questo un testo, un’immagine, un suono etc... in un “dato numerico”, dandoci così
a possibilità di manipolarlo matematicamente, generando quindi un possibile nuovo risultato/valore in output.
Facili esempi di conversione numerica possono essere: un’immagine fotografica scansionata dallo scanner,
che viene convertita in “una mappatura di bit, una bitmap!”; un suono registrato attraverso il microfono del pc,
anch’esso convertito in numeri a seconda della frequenza di campionamento (nei fatti denominato proprio
“campione sonoro”); un testo digitato tramite tastiera, in cui ogni lettera dell’alfabeto è associata ad un codice
identificativo numerico per tramite della tabella di conversione ASCII; il movimento del mouse x,y, anche
questo convertito in due valori numerici relativi alla posizione x,y del puntatore sullo schermo, e così via… tutto
questo sistema di conversione numerica sarà passibile quindi di elaborazioni attraverso le normali operazioni
matematiche, generando quindi possibili nuovi risultati. Un esempio di “nuovo risultato”?
> Ecco un tipico esempio “accademico” (di belle arti…) del funzionamento di questo processo NUMERICO
di manipolazione numerica e generazione di nuovi risultati: la conversione di un’immagine da colori RGB
a Grayscale. Convertire un’immagine da metodo colore “RGB” a metodo colore “Grayscale”, comporta
sostanzialmente che i dati numerici relativi all’immagine RGB, che sono originariamente caratterizzati da tre
valori numerici/cromatici per ogni pixel, vengono “ridotti” ad un solo dato numerico (di luminosità) per ogni pixel,
il che si traduce esattamente in un’immagine di soli toni in bianco e nero (appunto: Grayscale). Un’immagine
che peserà anche 3 volte meno in memoria, in virtù del fatto che avrà un solo canale/valore per ogni pixel al
posto dei tre valori tipici dell’RGB. Da un’immagine a colori, ho ottenuto attraverso un processo semplicissimo
e velocissimo, una “nuova” immagine in soli toni di bianco e nero.
Chiaro ? :-)
Tutto viene convertito in numeri dal computer. Per poter essere successivamente “manipolato”/modificato.
Non è esagerato affermare che il computer converte la realtà “materiale”, in realtà “numerica”. E questo
darebbe adito a tutta una serie di necessarie osservazioni, anche filosofiche, sulla tecnologia in questione.
Ma al di là di possibili speculazioni filosofiche, come sono in realtà “interpretati” e memorizzati poi questi
numeri dal pc? Come vedremo più avanti, in ultima analisi, alla base delle tecnologie informatiche esiste un
sistema numerico utilizzato/utilizzabile dai calcolatori, strettamente connesso con la presenza o assenza dei
segnali elettrici: il sistema binario, composto ovvero di due soli valori e non divisibili in sottovalori, chiamati BIT.
Ed un bit può assumere un solo stato logico/numerico, ovvero: valore “uno” oppure valore “zero”. 1 = acceso
(on), 0 = spento (off) / 1 = vero, 0 = falso / Dal punto di vista tecnico, 1 = sta per corrente elettrica attiva, 0 = sta
per corrente elettrica assente. Un bit non può assumere un valore intermedio (esempio: 0,5) ma solo uno dei
due stati 0, 1. Avrai sicuramente sentito parlare di questo sistema! Il sistema binario di numerazione, di soli due
valori, basato sostanzialmente sulla presenza o assenza di un differenziale elettrico, è un sistema di conteggio
esattamente al pari di quello decimale (che conta con 10 valori, da 0 a 9) con la differenza che contiamo con
due soli valori, 0 e 1: un sistema questo che al pari di quello decimale, permette di contare tutti i numeri da zero
ad infinito ed effettuare, seppur con qualche difficoltà in più, tutti i calcoli matematici immaginabili.
Piccola parentesi etimologica: le denominazioni di “calcolatore” nella lingua italiana, “ordinateur” in quella
francese, “ordenador” in spagnolo, “computer” in inglese e tedesco (computatore), dovrebbero chiarirti il
compito principale di “ordinamento”, “computazione”, “elaborazione di dati” proprio del computer.
Ai fini dell’esame sono importanti soprattutto le nozioni di:
- BIT
- Codice Binario
STORIA DEL COMPUTER

Tutto ciò di cui stiamo parlando, ovviamente, ha una storia ben delineata nel corso degli ultimi due secoli. Ma
non sarà questo il luogo ove ne parleremo. A grosse linee, basta cercare su Internet qualsiasi pagina sulla
storia dell’informatica, per avere un quadro storico più o meno generale.
E’ molto importante però ricordarsi che dal punto di vista dell’evoluzione tecnologica, gli step fondamentali
evolutivi delle tecnologie informatiche sono stati principalmente: 1) tecnologie basate su “congegni meccanici”
(es: macchina di Turing); 2) successivamente, Valvole Termoioniche (es: ENIAC) che prima di funzionare
dovevano “riscaldarsi” (ricordi i film retrò di 007?) e con grosse problematiche di stabilità; successiva
introduzione dei 3) più evoluti Transistor, miniaturizzati e che lavorano “a freddo”; infine, si arriva agli odierni
4) Microchip (in italiano microprocessori) che sono dei circuiti microscopici stampati su blocchetti di silicio.
Da qui in avanti c’è la contemporaneità e tutta la ricerca tecnologica attuale, dalle reti neuronali, ai computer
quantistici, dalla più datata fuzzy logic, agli enormi flussi di dati attraverso enormi server, reti wireless, qubit
e tutto ciò che di fantastico puoi trovare relativamente alle nuove tecnologie.

Ai fini dell’esame potrebbe essere utile, in maniera molto riassuntiva, acquisire nozioni sintetiche e di base
su:
- La macchina di Turing
- Il modello di Von Neuman
- Il computer ENIAC
- la storia della nascita di Internet (Arpanet)
- cosa sono gli algoritmi
- cosa sono i linguaggi di programmazione ed i sistemi operativi

- Per una storia del computer si veda: https://it.wikipedia.org/wiki/Storia_del_computer


- Per un riassunto sui principali sistemi operativi si veda: https://it.wikipedia.org/wiki/Storia_dei_sistemi_operativi
- Per una storia dei linguaggi di programmazione si veda: https://it.wikipedia.org/wiki/Linguaggio_di_programmazione

HARDWARE, SOFTWARE, FIRMWARE

“Ware” in lingua inglese vuol dire molto genericamente “roba”, “merce”. Hardware = “roba dura”, tangibile,
concreta, tutto ciò che c’è di materiale in un computer (dalla tastiera, al più piccolo circuito di connessione
all’interno della scheda madre). Software = “roba morbida”, ovvero tutto ciò che è immateriale, rappresentato
principalmente dai dati e dai programmi che utilizziamo. Software, ovvero: programmi, files, memorizzati
in codice binario su un supporto, o trasmessi via cavo, via frequenze radio etc... Inutile dire che il software
senza l’hardware sarebbe inesistente; non vale invece il contrario.
Tra i due, software ed hardware, esiste anche una via di mezzo, il così detto Firmware (firm = azienda). Questo
è fondamentalmente del software, ma scritto in forma di circuiti stampati (hardware), dunque tangibile nonchè
difficilmente riscrivibile. Esempi comuni possono essere il Bios all’interno della Rom (talvolta aggiornabile),
oppure ancora più comunemente una qualsiasi “cartridge” per vecchie console di videogaming (Nintendo
DS, Atari 2600 etc..), o ancora il firmware della sveglia sul comodino, il firmware della tua lavatrice, la scheda
madre di un vecchio cabinato arcade, etc... Per ulteriori informazioni consultare la rete.
I quattro elementi hardware fondamentali di un computer:
Scheda Madre / CPU / RAM / Hard Disk.

ATTENZIONE! >>>> Tutte le informazioni tecniche e specifiche sui 4 device fondamentali, si trovano sulle
altre dispense ! Qui ti ricordiamo solo alcune argomentazioni che possono tornarti utili per la comprensione
generale e soprattutto, per l’esame.

Piccola premessa necessaria, in palese nonchè sadomasochistica contraddizione col titolo di questo
paragrafo: in un computer, in realtà, qualsiasi elemento hardware sarebbe fondamentale ai fini del suo
funzionamento e del suo utilizzo corretto. Dal più piccolo connettore, alla minima cella di memoria cache
nella CPU, al funzionamento dell’uscita su scheda video, finanche alla quantità in risoluzione e/o qualità del
monitor, o addirittura all’usabilità del design della tastiera... basta che uno di questi componenti non funzioni
bene o sia mal calibrato, che ne può inficiare l’intera l’esperienza di utilizzo o addirittura il funzionamento
stesso del pc.
Ma a lezione, spesso, introduciamo il mondo dell’informatica elencando come fondamentali, almeno 4 elementi
(hardware) del computer, proprio come nel titolo del paragrafo: Scheda Madre, CPU, RAM, Hard disk.
Perchè questi 4 elementi?
E’ una scelta di campo: questi 4 elementi, non solo sono -essenziali- e caratterizzanti del funzionamento
in primis, ed alla comprensione poi, dell’architettura logica di un computer; ma sono anche gli elementi che
più ne influenzano le performances (scheda grafica a parte) e sono quindi argomento di prima trattazione e
comprensione anche all’atto dell’acquisto di un nuovo computer, che possa servirci o aiutarci per lavorare/
creare, Pc, Mac o Linux based che sia.
Anche la scheda video o grafica, come accennavamo, per uno studente dell’Accademia, potrebbe essere
un elemento di ulteriore e attenta valutazione, soprattutto in merito alle performances di elaborazione dei
dati video. Tuttavia una scheda video non “caratterizza” l’essenza dell’architettura di un computer, per
questo motivo non l’abbiamo inclusa tra i 4 elementi dichiarati come fondamentali. E volendo qualcuno
potrebbe obbiettare, non a torto, che anche senza una ROM, con un Bios scritto all’interno, il computer non
partirebbe e questo qualcuno non starebbe sbagliando del tutto, la sua sarebbe un’affermazione “vera”: ma
non abbiamo mai sentito nessuno che abbia scelto un computer, in base alla tipologia di “Rom” installata…
sarebbe come acquistare una casa basandosi sul colore della maniglia della porta di ingresso (e sappiamo
bene che in un’accademia, un’eventualità psicopatica come questa potrebbe addirittura essere allettante...)
- Quindi fidatevi, con i “4 elementi fondamentali del pc” ci riferiamo a: Scheda Madre, CPU, RAM, Hard disk.

Bisogna principalmente capire che, molto riassuntivamente:

- La Scheda Madre (Motherboard): è il “corpo” del computer, sul quale sono connessi tutti gli hardware utili
al funzionamento del computer ed alla circolazione dei segnali elettrici / dati numerici. E’ nei fatti un enorme
circuito stampato che costituisce il “corpo” più visibile ed ingombrante del computer, definendone spesso le
dimensioni. (comparazione col corpo umano: “corpo” del computer).

- Il Processore o CPU (Central Processing Unit) è il cervello del computer, il centro di elaborazione logico/
matematica dei dati numerici. Il “calcolatore” vero e proprio: strettamente connesso e spesso univocamente
compatibile con la scheda madre; è l’unità di elaborazione principale, motivo stesso dell’esistenza della
parola “computer” (comparazione col corpo umano: cervello del computer).

- La Ram (Random Access Memory): è la memoria “di lavoro”, non molto estesa ma velocissima e quindi
utile ad un’istantanea reperibilità e scambio dei dati da elaborare, utilizzata principalmente dal processore
insieme ad altre piccole memorie per leggere, scrivere e memorizzare dati in maniera estramemente veloce
e funzionale. (comparazione col corpo umano: memoria a breve termine).

- Il Disco Rigido (Hard Disk) che oggi comincia ad essere sostituito/integrato con i più nuovi e veloci SSD (Solid
State Drive): è il dispositivo di memoria di massa di default, utilizzato dal sistema computer per l’archiviazione
“permanente” dei dati ed il loro utilizzo in momenti successivi allo spegnimento e successiva riaccensione del
computer (da qui il termine “massa”): su questo dispositivo sono memorizzati anche il sistema operativo ed i
programmi che utilizziamo. Senza un Hard Disk, bisognerebbe ricominciare sempre tutto d’accapo! Compresa
l’installazione del sistema operativo ! :) (comparazione col corpo umano: memoria a lungo termine)

Come funziona tutto questo:

Chi fa i calcoli in un computer, chi elabora i dati che immettiamo in input (ad esempio la richiesta “2+2”=?) e
calcola il risultato che vogliamo ottenere in output (risposta: 2+2=4) è quindi principalmente la CPU: questi dati
passano quasi sempre temporaneamente per la RAM che costituisce una vera e propria memoria lavorativa
di scambio (tra la RAM stessa e la CPU, o tra la CPU e l’HARD DISK o altri dispositivi, sempre attraverso
la RAM). I dati elaborati, ovvero un testo, un’immagine, un suono, un’operazione matematica etc… possono
quindi essere memorizzati in maniera “permanente” su un dispositivo di memoria di massa esterno o interno,
al fine di accedervi o utilizzarli in un secondo momento. Un dispositivo di “massa” è quindi un dispositivo ove
l’informazione permane anche dopo lo spegnimento del computer, ovvero in -assenza- di corrente elettrica.
Il dispositivo di massa di default è proprio il nostro Hard Disk di sistema, di cui parlavamo prima (oggi,
sempre più spesso, un SSD), che normalmente è pre-installato nel computer all’atto dell’acquisto ed è anche
connesso direttamente sulla scheda madre, motivo di migliore performance (per questo si dice “hard disk
primario e interno”): alternativa possiamo registrare i nostri dati anche su hard disk esterni, o una chiavetta
USB, un CD-ROM o addirittura…. una “scheda di carta perforata!” (molto retrò e affascinante…)
In merito ai dati registrabili: si deve pensare che fino a 20 anni fa, nei primi computer da casa ad 8 bit, non
esistevano gli hard disk interni e si utilizzavano ancora i così detti floppy disk esterni per la memorizzazione
ed il caricamento di dati e programmi! Questo avveniva attraverso uno o 2 slot per dischi estraibili (che
venivano denominati come “A:” e “B:” - per questo motivo l’hard disk, la cui introduzione è storicamente
successiva ai floppy, viene identificato con la lettera “C:” dai sistemi operativi… (piccola chicca per veri nerd
teneroni alle prime armi...!). Si consideri addirittura che i primi home computer, registravano i dati su cassette
audio, utilizzando quindi alcune tecnologie decisamente analogiche! Da ciò si comprende l’importanza che
hanno sempre assunto i dispositivi di memorizzazione esterna, ovvero di massa, anche in tempi remoti, al
fine di non dover riscrivere dati e istruzioni ogni qualvolta si riaccendeva un computer !
Per concludere, non dimenticare che tutto questo smistamento ed elaborazione di dati e comunicazioni
numeriche digitali, non può che avvenire grazie alle -connessioni elettriche e logiche messe a disposizione
dalla Scheda madre, che risulta quindi come il -corpo principale del computer- ove ogni elemento hardware
è connesso agli altri per tramite di connessioni elettriche e bus dati.
Alcuni esempi MOLTO pratici di funzionamento della comunicazione tra Hard
Disk, Ram, Cpu per tramite della Scheda Madre, spiegati come se fossimo al
bar (e un pò brilli...)

Esempio 1: aprire ed elaborare un file immagine:


- Forse non lo sapevi, ma tutte le volte che “clicchi” due volte con il mouse su un file “aprendolo”, (es:
immagine “gattino.jpg”, la foto del tuo gatto che magari occupa 10000 Kb), non stai facendo altro che:
- a) chiedere innanzitutto al computer di leggere l’estensione del file (la sigla “.jpg” dopo il nome “gattino”) che
indica al sistema operativo quale software utilizzare per decodificare il file specifico, per poterlo visualizzare
e/o elaborare; nel nostro caso ad esempio, il computer utilizzerà il software Photoshop per aprire gattino.jpg.
- b) la prima cosa che succederà quindi è che Il software associato con l’estensione .jpg, nel nostro caso
Photoshop, verrà prioritariamente “aperto”; ovvero verrà “eseguito” e contemporaneamente copiato dall’Hard
disk alla Ram > occupandone quindi un (grosso) spazio. In questo momento si dice quindi che “Photoshop
è aperto”, ovvero è attivo e campeggia in Ram, finché non lo “chiuderai.” (Ricordati che “apertura” di un file
o di un programma, in generale, vuol dire non solo lettura o attivazione, ma anche e soprattutto passaggio/
copia dei suoi dati dall’Hard disk alla Ram.)
- c) il computer, una volta “che Photoshop è stato aperto (ovvero reso eseguibile con una copia nella Ram),
prosegue chiedendo allo stesso Photoshop di leggere ed accedere a “gattino.jpg”: per il computer “aprire
gattino.jpg con Photoshop”, significa a tutti gli effetti, copiare “gattino.jpg” dall’Hard disk alla Ram e fornire al
software Photoshop le “autorizzazioni” per accedere e modificare i suoi dati.
In questo momento, popolarmente, si dice che “gattino.jpg” è “aperto in Photoshop”. Ovvero che i due processi
sono in Ram, Photoshop ha decodificato gattino.jpg, permettendoti di visualizzarlo e magari elaborarlo.
Tutto questo è già successo in pochissimi secondi, a seconda di quanto è veloce il tuo computer e di quanto
è grande “gattino.jpg”, in termini di kbytes.
- d) il computer quindi tiene temporaneamente in Ram questi dati in modo che tu possa lavorarci, fino all’atto
della loro chiusura con eventuale salvataggio.
- e) Nel frattempo tu hai cominciato a lavorare su “gattino.jpg” con Photoshop, magari effettuando dei
filtri e delle modifiche all’ immagine, delle interpolazioni… e qui sta intervenendo a pieno regime la CPU,
magari coadiuvata dalla GPU, elaborando tutti i calcoli numerici necessari per arrivare a quel risultato
visivamente sgradevole che stai cercando di ottenere con tutto il tuo sforzo ed impegno ! Peggio di un Van
Gogh digitale e sedicenne alle prime armi! :-)
E nel frattempo, attraverso tutte le modifiche che stai operando sull’immagine, questo file che inizialmente
“pesava solo” 10000 Kb in Ram, sta indubbiamente crescendo in kbytes, ed è arrivato magari (esempio
casuale) a “30000” Kb, vuoi perchè dopo le tue elaborazioni presenta più pixels in risoluzione, vuoi perchè ne
hai aumentato la “complessità tessiturale” o aggiunto livelli immagine, o semplicemente perchè hai eseguito
una serie di modifiche successive che permangono temporaneamente in Ram, dandoti la possibilità di un
bel CTRL+Z. Stai capendo quindi che i dati nella Ram relativi a “gattino.jpg”, dati che stai “lavorando”, sono
costantemente “fluidi”, crescono, si allungano, si rimpiccioliscono, si sviluppano, si spostano….
- f) quando cliccherai su “Salva File”, non starai facendo altro che chiedere al computer di effettuare una
copia dei nuovi dati modificati, all’inverso, dalla Ram > all’Hard Disk, mantenendo a) lo stesso nome del file,
oppure b) indicandone uno nuovo. Se a) il nome del file è identico, i 30000 Kb andranno a sovrapporsi ai
vecchi 10000 Kb sull’Hard disk, cancellandone e sovrascrivendone la vecchia versione. Se b) il nome del
file è nuovo invece, avrai due copie del file, una vecchia ed una nuova/modificata. (fortemente consigliato!)
- g) quando infine cliccherai su “Chiudi” gattino.jpg, dirai alla Ram di “svuotarsi” del peso di quei dati immagine.
- h) quando chiuderai anche Photoshop, avrai effettuato la stessa operazione, ovvero avrai svuotato la Ram
anche dal “peso” di Photoshop. (ed il tuo computer torna ad essere più allegro ed ottimista!)
Quindi nel momento in cui stai elaborando un file, in realtà i dati di questo file sono permanentemente
presenti nella Ram, occupandone una certa quantità di spazio, insieme al software utilizzato. Va da sé
che se dopo alcune modifiche, il tuo gatto (quello vero, quello che puzza e graffia) si offende, e decide di
ribellarsi appoggiandosi quindi sulla presa elettrica del tuo computer, staccandoti la corrente per dispetto, e
morendo per la scossa appena presa, tu avrai perso non solo il gatto ma probabilmente tutto ciò che c’era
nella Ram, quindi anche il gatto-immagine.jpg > ciao ciao: per questo motivo si dice che la Ram è volatile (e
non perché puoi lanciarla dalla finestra con movimenti rotatori insieme al gatto morto): la Ram “perde” i dati
se viene spenta. Sarebbe ad ogni modo più corretto dire che ad essere volatili sono “i dati nella Ram”. E non
dimenticare che tutto ciò può accadere perché esistono connessioni che permettono ai dati di passare dalla
Ram, alla CPU, all’Hard disk, etc… e ciò avviene sempre per tramite della benedettissima Scheda Madre.

Esempio 2: l’avvio di un sistema operativo

La partenza, l’avvio, lo “start” o il boot di un sistema operativo è un argomento che viene trattato
normalmente a parte, specificamente, perchè contiene all’interno tutta una serie di informazioni molto
importanti per il funzionamento stesso del computer, quali Rom, Bios, Traccia Zero dell’Hard disk etc...
Lo troverai molto ben spiegato nelle altre dispense messe a disposizione, tuttavia questo processo
noto come “Bootstrap” può essere preso anche a modello esemplificativo per spiegare come interagiscono
Scheda Madre, Hard Disk, Ram, CPU.
Riassumendo molto velocemente:
a) Quando premi magicamente il pulsante “On” sul tuo computer, la corrente elettrica “accende” tutti i
componenti tra cui, fondamentale tra tutti, un componente specifico per l’avvio del tuo Pc che si chiama
“ROM” (Read Only Memory), all’interno del quale si trova un firmware denominato BIOS (Basic Input Output
System). Questo componente, situato sulla scheda madre, si occupa principalmente di controllare che “tutto
funzioni” e che tutto sia “connesso correttamente” per poi dare l’avvio al sistema vero e proprio.
Cosa vuol dire “dare l’avvio vero e proprio” al sistema (operativo) ?
b) Significa principalmente che il BIOS va a “cercare” sull’Hard Disk di avvio, detto anche “master”, o primario,
(differente da “slave”, o secondario) una così detta “Traccia Zero” (che è la prima traccia del tuo hard disk di
sistema), cercando di “capire” se a partire da questa traccia è memorizzato il codice di un qualche Sistema
Operativo (SysOp) che permetterebbe al tuo computer di essere.... utile ! Non solo come arredamento.
c) Se il responso è positivo, ovvero se sulla Traccia Zero è presente il codice iniziale di un qualsiasi sistema
operativo, il BIOS “innesca” la parte esecutiva (.exe) del sistema operativo e qualcosa sembra che stia
cominciando a funzionare (cosa sono i sistemi operativi? > Vedi Internet !!! Riassumendo per dummies:
Windows, Linux, MacOs sono tutti quei sistemi che permettono a te di utilizzare questa diabolica macchina.
Senza di questi, faresti molta più fatica, dovresti imparare a programmare in linguaggio macchina, il che è
decisamente sconsigliato se vuoi vivere una vita allegra.)
Questa parte esecutiva (.exe) si occupa di caricare la parte principale (Kernel) del sistema operativo,
dall’Hard Disk alla Ram, proprio come un “normalissimo” e volgarissimo Photoshop, auto eseguendosi.
Non lo sapevi? Il sistema operativo è un software come tutti gli altri. E’ scritto sull’Hard Disk, come un
qualsiasi altro file e viene copiato lentamente (poichè moooolto lungo) nella Ram durante l’avvio del pc.
Differentemente dagli altri software, il suo codice occupa la posizione zero dell’Hard disk, o per dirla più
correttamente, il suo codice “parte” dalla posizione Zero dell’Hard Disk. Ed è un codice mooooolto esteso.
Tutto il dannato tempo che il tuo computer impiega a “partire”, tutto il tempo che guardi ipnotizzato il logo
di Windows o la mela di Apple, tempo che potresti impiegare meglio per fare un pò di flessioni o il caffè...
tutto questo è il tempo che impiega il computer per “spostare” il Kernel del sistema operativo, dall’Hard Disk
> alla Ram! Capirai che il sistema operativo non solo è composto da un codice lunghissimo e diversificato
in svariati files e drivers, ma che a causa della sua lunghezza, occupa anche molto più spazio nella Ram
essendovi ulteriormente e perennemente presente quando il computer è acceso!. Da qui ne deriva che
sistemi operativi contemporanei, notoriamente più estesi di quelli obsoleti, possono convivere difficilmente
con estensioni ridotte della RAM! (Pensa che Windows 95 pesava solo 200 Mb circa di RAM, contrariamente
a Windows10 che ne occupa almeno 1 Gbyte! 5 volte di più!). Un regalo costante al mercato delle tecnologie
digitali... Comunque.... critiche sociali a parte... una volta che il Kernel del sistema operativo è stato caricato
in Ram, finalmente il sistema operativo “parte” e tu puoi cominciare a muovere la freccina del mouse. :-(
(il Kernel è il cuore del sistema operativo, ovvero le sue funzioni principali; il che non include tutta la pletora di
software accessori ed applicazioni secondarie incluse “gratuitamente” in un Windows o in un MacOs, come
ad esempio il “blocco note”, o il fantastico “Microsoft Paint”, o l’applicazione di Mail, iTunes su Mac, Windows
Media Player su Pc etc.... Se volessimo caricare tutte queste applicazioni in Ram all’avvio, ci vorrebbe
il quadruplo dei banchi di memoria della Ram, senza considerare che probabilmente il tuo computer si
bloccherebbe prima di avviarsi. Questo argomento deve farti pensare che non è mai una buona idea avere
troppe applicazioni “aperte” nello stesso tempo, poichè mangiano velocemente lo spazio della RAM ed
il computer “fatica” nell’elaborazione se ha troppi processi in background, con il rischio di cominciare a
generare gli odiatissimi file di paging.)

Ai fini dell’esame:
- approfondisci cos’è il processo di bootstrap (avvio) di un sistema

Questi due esempi da bar paesanotto, ti hanno mostrato due tipici schemi di funzionamento di un Personal
computer e di interazione tra i suoi 4 elementi fondamentali; va da sè che ulteriormente fondamentali
sarebbero un Monitor, senza il quale i risultati sarebbero non visibili o interpretabili, una Tastiera o un
Mouse attraverso i quali inserire dati attraverso la digitazione di appositi tasti, Drivers utili e fondamentali alla
comunicazione interna tra differenti hardware con il sistema operativo... etc... Il Sistema operativo stesso!
che gestisce tutta la comunicazione tra utente e macchina, e tra hardware e software… o sempre più
spesso una buona scheda grafica in grado di coadiuvare le operazioni di visualizzazione della CPU; e
ancora un’alimentazione elettrica, un convertitore di voltaggio, un sistema in grado di far “partire” il computer
non prima di un check elettronico delle sue componenti quale il Bios etc…etc… Tanti elementi e dispositivi:
eppure nella valutazione delle performance base di un computer, scheda grafica a parte, risulta essenziale
per noi che tu conosca le caratteristiche principali dei 4 elementi fondamentali.

ATTENZIONE! >>>> Tutte le informazioni tecniche e specifiche sui 4 device fondamentali, si trovano sulle
altre dispense ! Qui ti ricordiamo solo alcune argomentazioni che possono tornarti utili per la comprensione
generale e per l’esame.
MOTHERBOARD
La scheda madre è l’elemento del quale ci occuperemo di meno, e paradossalmente: è il vero e proprio
corpo del computer, grazie al quale sono possibili tutte le interconnessioni tra i vari elementi hardware interni
ed esterni (periferiche) del computer.
Val la pena di sapere riassumento a grosse linee, che:
- La scheda madre spesso è “specifica”, ovvero univocamente compatibile solo con alcune CPU. Sostituire
la scheda madre è un dramma, non solo economico: sostituire la CPU per quanto rischioso, lo è meno.
- Quasi sempre la scheda madre ospita attraverso degli slot specifici, altre schede “ospiti”, come quella
audio, quella video, quella di rete etc… specializzate in compiti che altrimenti graverebbero ulteriormente sul
carico di lavoro, già pesante, della CPU.
- Che tutto ciò che è connesso sulla scheda madre normalmente ha una velocità di passaggio di dati
superiore a qualsiasi altro genere di connessione esterna (come le USB, USB 3.0, Thunderbolt etc..).
Proprio per questo motivo normalmente gli hard disk interni sono molto più performanti degli esterni. La
stessa RAM, ovviamente, è montata direttamente su alcuni slot specifici della scheda madre.
- La dimensione fisica della scheda madre può variare soprattutto in funzione di quanti devices o slot (schede
aggiuntive e drives) può ospitare. Più alto il numero degli slot interni sui quali installare schede aggiuntive, più
grande la scheda madre.
- Che la sua “potenza” deriva principalmente dalla qualità degli elementi stampati e connessi che la
costituiscono, ovvero dalla sua architettura interna: questa qualità non è facilmente “quantificabile” attraverso
semplificazioni in valori numerici come per esempio ve ne sono nella valutazione di una CPU (Gigahertz ad
es:) o della RAM (Gigabyte), poichè è un misto di fattori variegati, tra cui qualità costruttiva degli elementi,
materiali utilizzati, ingegneristica, posizionamento e architettura delle connessioni etc...
- E Che se si rompe…. son dolori ! E’ come cambiare il motore e tutta la meccanica di un’automobile !
Meglio cambiare auto ! Se la valutazione di una scheda madre oramai esula quasi del tutto dalle scelte di
un utilizzatore comune, tranne in caso in cui si abbia intenzione di assemblare da zero un computer (vedasi:
computer assemblato) è molto importante invece conoscere le caratteristiche degli altri 3 componenti principali.

CPU
L’abbiamo già detto e ripetuto varie volte: la Central Processing Unit, è il cervello del computer. E’ il computer.
Da questa dipende la capacità e la velocità di elaborazione dei dati.
Su alcune delle altre dispense, potreste trovare misure abbastanza obsolete di misurazione delle performance
di un computer, anche se ben spiegate e con dovizia di particolari.
Ma quel che a noi interessa che voi capiate sulle CPU, ai fini dell’esame, sono i principi generali, ovvero:
- Molte CPU si installano solo su alcune schede madri, o su un range ristretto di queste. C’è una forte
specificità reciproca tra alcune famiglie di CPU e Schede Madri.
- I principali produttori di CPU -consumer- attualmente leader di mercato, sono Intel e AMD, queste ultime,
AMD, storicamente un pò più economiche ma non per questo meno performanti. AMD e Intel non sono gli
unici produttori, sebbene siano i principali protagonisti del mercato. Altri produttori noti sono Sun, Motorola,
Ibm, Samsung, quest’ultimo specializzato in CPU per cellulari. I recentissimi computer Mac (2019/2020)
montano, per citare una novità, nuovi processori prodotti interamente in casa Apple (processori M1)
- La “potenza” nominale di una CPU, si basa sulla sua velocità di elaborazione, la così detta “Frequenza di
clock” esemplificata da una sigla che attualmente si attesta su un valore dato in GigaHertz (GHz).
- Hertz (Hz), in generale, significa = “un ciclo al secondo”. Per esempio: dire che un monitor ha una velocità
di “refresh” (“ridisegno” dello schermo) di 60 Hz, vuol dire che ogni secondo il monitor “si aggiorna” nr. 60
volte, ridisegnando quel che c’è a schermo (con il risultato che vediamo immagini in movimento “fluide” e non
a scatti). Conseguentemente dire che una CPU “ragiona” a 100 MegaHertz (obsoleto), vuol dire che ogni
secondo effettua un milione di cicli (operazioni). Attualmente un processore Intel i5, può arrivare anche a 3.10
Ghz, ovvero esegue 3,10 miliardi di operazioni al secondo! Impressionante no? Non più tra qualche mese...
- Queste operazioni vengono effettuate attraverso un linguaggio specifico, proprio della CPU, non proprio
semplice e intuitivo, decisamente non-user friendly, complesso da decifrare e da scrivere, chiamato “Linguaggio
Macchina”, un linguaggio di basso livello (spesso confuso con l’Assembly) che parla “direttamente” all’hardware
senza compilatori intermedi che ne rallentano le istruzioni. Roba da programmatori tosti. Non ci dilungheremo.
- Ovviamente le operazioni logico/aritmetiche che effettua la CPU in generale sono operazioni molto semplici
(addizioni, sottrazioni, and/or). Tuttavia la “performance” di una CPU non è data dalla sola velocità nominale
di elaborazione (Ghz) ma anche da un’altra serie di parametri molto specifici, che qui non tratteremo e che
rendono l’utilizzo del processore davvero ottimale per alcuni processi piuttosto che per altri (per esempio,
operazioni su numeri interi oppure a virgola mobile/float, nulla che possa realisticamente far parte delle
preoccupazioni primordiali di uno studente di Belle Arti ;-) )
- Un’altro parametro utile a “comprendere” la reale potenza di una CPU è il numero di “Core” installati in una
CPU, ovvero i nuclei d’elaborazione interna. E’ un valore che oggi non viene più dichiarato e pubblicizzato
come una volta. Basti però sapere che una Cpu “Dual Core” ad esempio, avrebbe teoricamente il doppio
di facilitazione di una CPU “Single Core” di pari portata, ovvero con la stessa velocità nominale (GHz) nella
gestione di più processi. E’ come se avesse due “cervelli” che lavorano in sincrono, potendo gestire più lavoro
e ottimizzando addirittura la dissipazione di calore. Quad Core, ha 4 “cervelli”, rispetto al Dual core e così via…
- Infine, non bisogna dimenticare anche la memoria “Cache” della CPU (memory cache), o memoria
nascosta, che è una piccola SRam di dimensioni ridottissime (! 512 kbytes !) che è normalmente installata
-direttamente- sul processore e che “facilita” gli accessi dal processore alla Ram e viceversa. Roba da Nerd.
- Altri valori di valutazione non verranno presi in considerazione ai fini dell’esame

RAM
Ram, Random Access Memory = Memoria ad accesso casuale. Sul perchè l’accesso viene detto casuale
possiamo anche tralasciarlo, non ci interessa ai fini pratici. Potremmo forse meglio dire che non è sequenziale
(come nell’Hard Disk), ma è argomento che necessita troppa nerditudine. Piuttosto bisogna capire che la Ram
è una memoria principalmente gestita dal sistema. In rarissimi casi l’utente vi ha accesso a livello di gestione,
se non per svuotarla con appositi software e/o funzioni all’interno di software specifici (es: Photoshop).
Della RAM bisogna capire un’unica, fondamentale affermazione da bar: quanta più ce n’è, meglio è! E’ una
memoria di lavoro che serve al processore per accedere ai dati in lavorazione. Non solo quanta più Ram
abbiamo a nostra disposizione, quanti più software possiamo tenere aperti contemporaneamente (a patto di
avere un processore decentemente potente e multi-core), ma quanto più la Ram è estesa, quanto più i files
sui quali lavoriamo, pur essendo di dimensioni enormi, diventano di gestione facilitata da parte del sistema.
Attualmente avere 8-16 Gbytes di Ram, è un buon punto di partenza per lavorare con le applicazioni grafiche.
Tutta la Ram, fisicamente, è poi divisa normamente in 2 o 4 banchi di memoria separati e di misura
possibilmente uguale. Ovvero: se il mio computer ha 16 Gb di Ram in totale, è molto probabile che dal
punto di vista hardware, aprendo il computer, troverò 2 banchi di memoria fisici da 8 Gb l’uno, o addirittura 4
banchi di memoria da 4 Gb l’uno. La Ram è normalmente uno degli elementi più facilmente “upgradabili” del
computer. Si può acquistare un banco di memoria con capacità superiore a quello che si possiede e sostituirlo
facilmente. Lo stesso smontaggio e montaggio di un banco di memoria RAM è cosa semplicissima: si tratta
semplicemente di rimuovere e inserire una piccola scheda stampata nel suo apposito slot. Per ragioni che
qui non ci interessano, è molto sconsigliabile montare banchi di RAM asimmetrici, ovvero ad esempio, 2
banchi da 2Gb ed un banco da 4GB (per un totale di 8Gb su 3 banchi). Sarebbe sempre buona norma avere
una suddivisione dei banchi di Ram quanto più simmetrica possibile. Ed attenzione anche alla tecnologia
che caratterizza i banchi di Ram: oggi quasi tutte le RAM hanno uno standard di costruzione chiamato
DDR4, che è più recente, veloce ed ecologico del vecchio DDR3, e degli ancora più obsoleti DDR2 e
DDR1 e così via. Non si possono installare banchi con DDR differenti. Per una conoscenza della storia delle
tecnologie RAM, pur non essendo argomentazione d’esame, visitare la voce RAM sotto Wikipedia.

HARD DISK (Hd)


E veniamo infine all’Hard Disk (acronimo: Hd): l’elemento forse più variegato da capire, proprio perchè ne
abbiamo la piena gestione come utenti. Sull’Hard Disk di sistema infatti sono memorizzati tutti i nostri dati, i
nostri programmi, lo stesso sistema operativo. Come è facilmente intuibile, non solo sarebbe buona norma
avere sempre un Hard disk di backup/sicurezza, ma sarebbe anche buona norma suddividere il nostro Hard
disk primario (interno) in almeno 2 o più partizioni.
L’hard disk, in italiano disco rigido, è il principale dispositivo di memorizzazione DI MASSA del computer.
Le sue caratteristiche principali sono: dimensione estremamente estesa (oggi: da 1 Tb a 8 Tb), memorizzazione
dei dati magnetica, velocità della lettura/scrittura lenta rispetto alla Ram e misurata in RPM (Roots per
Minute, giri al minuto), permanenza dei dati in assenza di corrente elettrica. Dire infatti “memoria di massa”
significa indicare una memoria dove l’informazione permane anche in assenza di corrente elettrica.
Quasi tutte le memorie esterne che utilizziamo sono in utlima analisi “memorie di massa”, poichè l’informazione
non si perde, diversamente dalla RAM che per questo è detta volatile.
Quel che è importante conoscere e capire dell’Hd sono i seguenti termini:
- Formattazione
- File System
- Tracce / Settori / Cluster
- Partizionamento
- Frammentazione / Deframmentazione dei files

La Formattazione, o inizializzazione, è tecnicamente la “preparazione alla scrittura” dell’Hd. Spesso questa


comporta anche la cancellazione (più o meno consistente) dei dati, ma bisogna capire che la cancellazione
è una conseguenza e non lo scopo primario della formattazione. La cancellazione vera e propria dei dati
è infatti un’altra cosa. La formattazione è quindi la scrittura nell’Hd, di una struttura logica, detta anche File
System, utile (necessaria) alla memorizzazione/gestione dei files.
La formattazione oltremodo, riassumendo molto genericamente, può essere o di basso livello o di alto livello.
Contrariamente a quanto verrebbe da pensare, la formattazione di alto livello, è quella più semplice ed indolore.
La formattazione più comune che effettuiamo è proprio quella chiamata “di alto livello”. Questa operazione
non cancella “fisicamente” i files dal disco, ma si limita a “ristrutturare” come se fosse vuoto, l’Hd. Diciamo
che nel caso della formattazione di alto livello, il computer si limita a “recidere” gli indici di indirizzamento dei
files (ovvero i numeri che indicano al computer “dove comincia e dove finisce” un file sull’hard disk) senza
operare sovrascritture di zeri (zero-filling). Dopo una formattazione di alto livello il computer “crede” che
l’Hard Disk sia vuoto, perchè non trova alcun “indice” dei files, e lo tratta come tale.
Teoricamente, fino a che non vengono sovrascritti da nuovi file, sarebbe possibile recuperare il contenuto
dei file precedenti alla formattazione per mezzo di appositi programmi. Questa formattazione definisce
anche ciò che prima abbiamo accennato essere come il “File System”.
Conosciuta anche come “tabella di allocazione dei files” (File Allocation Table, originariamente FAT) il File
System è la “struttura” con la quale viene suddiviso in tante piccole cellette l’Hd. Questa struttura a cellette,
è spesso dipendente e specifica rispetto al sistema operativo utilizzato (Windows, MacOS, Linux etc...
Bisogna pensare ad un’hard disk, un pò come ad una piazza o uno stradone pieno zeppo di indirizzi,
utili a memorizzare i files: bene, è proprio il file system a definire la struttura di questi “indirizzi” durante la
preparazione del disco. Ed ogni sistema operativo, “preferirebbe” un file system specifico piuttosto che un
altro. (ps: da qui possono nascere alcuni problemi di compatibilità, sebbene quasi sempre risolvibili, quando
si tratta di leggere e soprattutto scrivere, Hd formattati con un File System non nativo del sistema operativo
in utilizzo. Ad esempio un Hard Disk formattato da sistema Mac in HFS+, che deve essere scritto da un
sistema operativo Windows...)
Il file system definisce quindi la struttura di un Hd, essendo responsabile della gestione delle sue tracce
e settori. Cosa sono le tracce e i settori di un hard disk? I settori sono l’unita’ minima leggibile o scrivibile
su disco - raggruppati spesso “logicamente” in cluster (= ragguppamenti di settori). I settori si trovano poi
allineati ulteriormente all’interno delle “tracce”, che sono suddivisione concentriche degli hard disk (un pò
come le linee del vecchio e caro LP). Senza la presenza delle tracce e dei settori, l’HD assomiglierebbe
di piu’ ad un territorio senza riferimenti. Le tracce, come i settori, vengono gestiti quindi dal file system per
suddividere l’hard disk in indirizzi discreti e rintracciabili.
La Partizione di un Hard Disk è invece, una macro-suddivisione “logica” dell’Hard Disk (Hd). Può sembrare
una cosa un pò strana, ma creare per esempio 2 partizioni su un Hd, significa far credere al sistema operativo
che “esistono due hard disk fisici”, quando in realtà ve ne è soltanto uno di fisco, ma diviso “logicamente” in
due. E’ come se il nostro Hd fosse diviso in due macro-aree, formattabili indipendentemente e diversamente.
A che servirebbero dunque le partizioni ? Perchè è conveniente partizionare un hard disk ?
Fondamentalmente vi sono due motivi:
1) per sicurezza, per evitare la perdita dei files personali in caso si renda necessaria la formattazione dell’Hd
di sistema. Bisogna ricordare infatti che la formattazione può tranquillamente essere effettuata su singole
partizioni e non necessariamente su tutto l’hard disk intero! Partizionando quindi l’Hd, possiamo ottenere
una partizione1 del disco fisico riservata al sistema operativo ed ai software applicativi (Photoshop, Word
etc..), facilmente ri-reperibili, ed un’altra partizione2 del disco ove memorizziamo i nostri dati/lavori (immagini,
testi, musiche etc...), di sicuro più preziosi! In caso di problemi al sistema, nel qual caso si renda necessaria
la formattazione del sistema operativo (virus? errori non riparabili?), potremo riformattare tranquillamente
la prima partizione1 contenente sistema operativo e software commerciali, lasciando intatta la partizione2,
ovvero quella con i nostri dati.
2) perchè si intende installare un ulteriore secondo sistema operativo insieme a quello nativo (ad esempio
Windows su partizione1 + linux su partizione2, oppure Macos su p.1 + Windows su p.2 etc...). Ovviamente
posso creare quante partizioni voglio su un singolo Hd fisico ed il computer crederà di avere altrettanti hd.
La formattazione di basso livello infine, è una formattazione più “pesante” rispetto a quella di alto livello,
per questo più lunga e rischiosa, ove oltre ad essere ripristinato il disco attraverso il normale processo
di preparazione alla scrittura con conseguente file-sytem, viene effettuata però anche una cancellazione
vera e propria dei dati attraverso un processo di sovra-scrittura di bit, detta anche Zero-Filling. A seconda di
quanto sia profonda ed accurata questa sovra-scrittura, la formattazione a basso livello può impiegare anche
moltissime ore per poter essere effettuata! E’ l’unico sistema sicuro di cancellazione quasi certa dei dati.

HARD DISK RAM


Memoria di Massa Memoria volatile
Molto capiente Poco capiente
Lento Veloce
Memoria di Archiviazione Memoria di Lavoro
Lettura/scrittura Magnetica Lettura/Scrittura Elettrica

File
Cos’è un file? Un file è una sequenza di informazioni codificate, registrate in codice binario, che hanno un indirizzo
di apertura ed un indirizzo di chiusura. Le informazioni scritte all’interno di un file, sono normalmente scritte in
maniera specifica e decodificabili correttamente solo dai software dedicati. La maniera con la quale vengono
codificate le informazioni all’interno del file, viene normalmente esplicitata dall’estensione del file: questa è una
sigla di 3 lettere (è modificabile, attenzione!) preceduta da un punto dopo il nome del file, che indica al sistema
operativo quale software aprire per decodificare il file in oggetto. Ad esempio, la sigla .JPG (immagine Jpeg)
indica al sistema operativo di aprire un visualizzatore immagini, o un programma di grafica per visualizzare e/o
modificare quel file. Diversamente, un lettore .mp3 probabilmente, non ci riuscirebbe. Particolari tipi di estensioni
sono quelle dedicate ai file esecutivi (.exe - .bat - .app ed altre) che non hanno bisogno di software utente
per essere aperte, ma contengono codice “esecutivo”, ovvero che esegue comandi direttamente all’interno del
sistema operativo. Quasi tutte le applicazioni (word, photoshop, google chrome etc...) sono dei files esecutivi.
Se trovi un file .exe come allegato di una mail però, fai molta attenzione, potrebbe essere un virus. (lo è, lo è...)
La dimensione del file è invece la sua estensione sull’hard disk, ovvero quanti bit/bytes/kbytes etc... occupa. In
merito alle dimensioni dei files, c’è da sottolineare un particolare tipo di caratteristica dei files nel momento in cui
vengono registrati sul disco, ovvero la Frammentazione dei files. Cos’è la frammentazione? E’ quel processo
per cui un singolo file può essere “spezzato” in più parti sull’hard disk, al fine di ottimizzare gli spazi vuoti nati
in seguito alla cancellazione di altri files precedentemente registrati e magari più piccoli. Questo processo, se
esteso nel tempo e non corretto, può dare seguito ad un pericoloso processo di “frammentazione” dell’Hd,
con consumo eccessivo delle testine dell’hard disk costrette a “saltare di qua e di là” per leggere un unico
file spezzato in più parti. Il processo di correzione inverso, si chiama quindi Deframmentazione dei files, e
riposiziona sequenzialmente i dati in maniera ordinata sull’Hard Disk. Questo processo oggi è fortunatamente
quasi del tutto automatizzato dal sistema operativo, e lavora in “background”.
La normale cancellazione dei files, infine, è un processo che se effettuato normalmente (gettare nel cestino un
file), si limita a “recidere” gli indirizzi di apertura e di chiusura di un file e non a cancellarne realmente i dati. Un
pò come una formattazione di alto livello: vengono rescissi gli indirizzi, non i dati. In pratica il sistema “crede” che
quel file non esiste più, semplicemente perchè non vede più dove inizia e dove finisce. Il file c’è, ma il sistema
non lo vede, crede che ci sia spazio disponibile. Se in questo spazio “disponibile” fortunosamente non verrà
sovra-scritto nulla, il file cancellato sarà tranquillamente recurabile da software specializzato. Diversamente si
avrò una sovra-scrittura e quindi “perdita” definitiva dei dati cancellati. Se vuoi cancellare definitivamente un file,
devi operare in realtà una cancellazione “sicura”, ovvero sovrascrivere i bit, gli “zero ed uno” che lo costituiscono,
con processo chiamato “Zero Filling”. Trattandosi di una sovrascrittura a tutti gli effetti, è un processo molto lento.
Cartelle, Folders, Directory.
I files vengono raggruppati visivamente dall’utente e dal sistema stesso in una serie di “cartelle”, dette
anche “folders” in inglese, utilissime in quanto a comodità visiva di archiviazione. Ma cosa sono in realtà le
cartelle dal punto di vista informatico? Sono degli “indirizziari” di files, in inglese dette anche Directory. Sono
delle liste di nomi di files, con le loro caratteristiche e posizioni (indirizzi) sull’hard disk. Non bisogna quindi
assolutamente immaginare le cartelle (o le directory...) come degli “spazi” delimitati all’interno degli hard disk
(come le partizioni...), ma bisogna pensarle come delle vere e proprie “liste della spesa” che contengono
i nomi dei files e le loro posizioni e caratteristiche. Il fatto che le visualizziamo a schermo “raggruppate”
in... cartelle... appunto, è semplicemente una scelta grafica effettuata a livello di interfaccia. L’interfaccia è
un sistema (visivo, grafico, progettuale, un oggetto) che mette in comunicazione uomo e macchina. In tal
caso una cartella è propriamente l’interfaccia grafica del concetto di Directory. Se la Directory è un listato di
nomi di files e loro posizioni, la cartella è semplicemente la stessa cosa, o meglio, la sua visualizzazione a
schermo semplificata, graficizzata, “facilitata” per l’utente.
In ultima analisi, potremmo considerare addirittura l’intero sistema operativo del computer, ed il suo sistema
di visualizzazione, come un’unica grande mega interfaccia con la quale interagire con il computer....

Ed il sistema operativo... ?
Qui non lo spiegheremo nel dettaglio, è cosa fin troppo nota. Windows, MacOs, Linux, sono esempi attuali
di sistema operativi (SysOp) per Pc. Mentre Android ed iOs, sono sistemi operativi per cellulari. Ed esistono
moltissimi tipi di SysOp. Il vecchissimo MS-DOS è l’acronimo di “MicroSoft, Disk Operating System”
ovvero: un software che serve a gestire il Disco, l’Hard Disk. Era un sistema operativo a riga di comando,
diversamente da quelli attuali che sono progettati ad interfaccia grafica: “a riga di comando” significa che
bisognava conoscere il linguaggio specifico dell’Ms-Dos per operare con il sistema, anche per far partire
semplicemente un normale programma o conoscere il contenuto di una directory. Quasi tutte le versioni di
Linux, includono oggi ancora la possibilità di operare a riga di comando, il che offre molte più possibilità di
personalizzazione e ottimizzazione delle funzioni e delle prestazioni, contrariamente ai sistemi “chiusi” di
Windows e MacOs. I sistemi operativi nascono per gestire non solo l’hardware del disco, ma gestire tutto il
“sistema” del computer. Il sistema operativo E’ il software principale che utilizziamo sul nostro computer e da
questo sono dipendenti anche i software applicativi che utilizziamo: il che vuol dire che un “Photoshop” per
Windows non gira su MacOs, e viceversa. Un’Hard disk partizionato permette di avere più sistemi operativi
“bootabili”, sebbene ve ne sia sempre uno “primario”.

Da wikipedia:
Un sistema operativo (abbreviato in SO), in informatica, è un software di sistema, detto anche piattaforma operativa (composto normalmente
da più sottosistemi o componenti software: kernel, scheduler, file system, gestore della memoria, interfaccia utente e spooler di stampa), che
gestisce le risorse hardware e software della macchina, fornendo servizi di base ai software applicativi. Tra i sistemi operativi per computer
desktop si citano Microsoft Windows, MacOS, le distribuzioni GNU/Linux, sistemi Unix-like, BSD e Chrome OS, mentre per i dispositivi
mobili, quali smartphone e tablet, vi sono iOS, Android, Windows Phone, Sailfish OS, Symbian OS.

Consultare: https://it.wikipedia.org/wiki/Sistema_operativo

Ai fini dell’esame:
- Approfondisci perchè MOLTO importante, la differenza tra tecnologia analogica vs. digitale
- Approfondisci, a linee molto generali, cosa è un linguaggio di programmazione
- cosa sono i linguaggi di programmazione ed i sistemi operativi
Misure Informatica

0 = spento
1 = acceso

0 e 1 si chiamano “BIT” (Binary Digit), e corrispondono alla presenza o meno di un impulso elettrico

8 BIT in sequenza = 1 byte

il numero minimo di un byte è 0, ovvero:


0000 0000

il numero massimo di un byte è 255, ovvero:


1111 1111

1 byte può assumere quindi da 0 a 255 valori, ovvero 256 valori compreso lo 0

La conta in “bit” è abbastanza semplice; stesso sistema di conta decimale, ma con 2 sole basi invece di 10

0000 0000 = 0
0000 0001 = 1
0000 0010 = 2
0000 0011 = 3
0000 0100 = 4
0000 0101 = 5
0000 0110 = 6
0000 0111 = 7
0000 1000 = 8 e così via....

come si fa a calcolare in inverso ? ovvero quanto misura ad esempio il numero: 0101 0111 ?

molto semplice, utilizzando questo schema semplificato per la conta:

128 64 32 16 8 4 2 1

0 1 0 1 0 1 1 1
64 16 4 2 1 = 87

0101 0111 = 87
Basta sommare i campi “attivi” dei valori con 1 e si ottiene il risultato
8 bit = 1 byte

8 x 2 = 16
16 x 2 = 32
32 x 2 = 64
64 x 2 = 128
128 x 2 = 256
256 x 2 = 512

512 x 2 = 1024

1024 x 1 byte = 1 KiloByte (1 Kb)


1024 x 1 Kbyte = 1 Megabyte (1 Mb)
1024 x 1 Mbyte = 1 Gigabyte (1 Gb)
1024 x 1 Gbyte = 1 Terabyte (1 Tb)
1024 x 1 Tbyte = 1 Petabyte (1 Pb)

Kilo = mille
Mega = milione
Giga = miliardi
Tera = mille miliardi
Peta = milione di miliardi

Le stesse misure si applicano agli “Hertz” nel caso del calcolo della velocità della CPU... MegaHertz...
GigaHertz.... etc....

-----

Codice Binario:

- Nel contesto della programmazione, “codice binario” si intende come “codice eseguibile da un processore”, ovvero si riferisce a un
programma (o altra porzione di software) scritto in linguaggio macchina
- Nel contesto della rappresentazione dei dati, “codice binario” si può riferire a un modo di rappresentazione dei numeri interi corrispondente
al sistema numerico binario o a un sistema derivato (per esempio la rappresentazione in complemento a due)
L- ’espressione potrebbe essere usata anche in senso generico per intendere un codice (nell’accezione della teoria dell’informazione, della
crittografia o di altre discipline analoghe) che utilizza un alfabeto composto da due soli simboli(zero e uno).

Il sistema numerico binario è un sistema numerico posizionale in base 2. Esso utilizza solo due simboli, di solito indicati con 0 e 1, invece delle
dieci cifre utilizzate dal sistema numerico decimale. Ciascuno dei numeri espressi nel sistema numerico binario è definito “numero binario”.

In informatica il sistema binario è utilizzato per la rappresentazione interna dell’informazione dalla quasi totalità degli elaboratori elettronici, in
quanto le caratteristiche fisiche dei circuiti digitali rendono molto conveniente la gestione di due soli valori, rappresentati fisicamente da due
diversi livelli di tensione elettrica. Tali valori assumono convenzionalmente il significato numerico di 0 e 1 o quelli di vero e falso della logica
booleana.
PARTE SECONDA
(COMPUTER GRAPHIC)
LISTA DEGLI ARGOMENTI DA APPROFONDIRE PER L’ESAME:

Le funzioni della Scheda Grafica


Differenze tra grafica Raster/Bitmap/Pixel vs. grafica vettoriale
Pixel
Risoluzione vs. Definizione dell’immagine digitale (raster)
Curve matematiche, maniglie di bezier (vettori), 3 tipologie di punti vettoriali (punti
angolo, punti curva, punti misti)
Compressione dell’immagine - algoritmi
Interpolazione > creazione di valori intermedi da un valore a ad un valore b

DPI - Dot per Inch / Inch = 2,54 cm (inch = pollice)


Immagini a 300 DPI > immagini a risoluzione ottimale 1:1 scansione/stampa
La “bufala” dei 72 DPI

Cmyk / rgb / grayscale

Formati più comuni per salvataggio di immagini raster e vettoriali: .JPG / .TIF / .GIF / .PSD
/ .PNG / AI / RAW etc...
Il formato .PDF

Software più utilizzati per le immagini digitali


Scheda grafica

Compresi i principi generali sui quali si basano i sistemi digitali, viene il momento di addentrarsi sulla parte
più specifica riguardante l’utilizzo del computer ai fini visivi, estetici, artistici, che dir si voglia: ovvero lavorare
con le immagini digitali.
Innanzitutto dal punto di vista hardware, vale la pena di spendere due parole sulla scheda grafica, a solo
scopo conoscitivo: oramai quasi tutti i pc/mac sono dotati di una scheda grafica aggiuntiva, che supporta il
processore nelle operazioni di visualizzazione a schermo. Oggi anche il più semplice sistema operativo, fa
un uso massiccio di immagini pesanti ed effettistica video, che per peso e dati da elaborare in tempo reale,
necessitano di una potenza di elaborazione che non può più essere “caricata” solo sulla CPU.
Normalmente con il termine GPU (Graphic Processing Unit), ci si riferisce proprio ad una CPU specializzata
nel “calcolare le immagini”. Questa GPU, o processore grafico, dotato di una VRAM specifica (Video
RAM), non solo può essere utilizzata dal sistema per i normali processi di visualizzazione a schermo del
sistema operativo, ma può essere soprattutto “spinta” al massimo delle sue prestazioni nel momento in
cui si utilizzano particolari software grafici (o si gioca con alcuni videogames, particolarmente quelli in 3d),
sgravando notevolmente il processore di potenza di calcolo spesa.
Le principali GPU installate nei comuni pc/mac sono la Nvidia o la AMD. Entrambe, come per le CPU,
hanno caratteristiche leggermente diverse, e sono in costante evoluzione competitiva, nel tentativo di
monopolizzare il mercato rispetto alla concorrenza.
Alcuni software, o alcune sezioni dei software, come i motori di rendering 3D all’interno dei più comuni
programmi di grafica tridimensionale, “attivano” le funzionalità di queste schede nel momento in cui devono
calcolare o pre-calcolare grosse quantità di dati 3D. Si parla in questo caso di accellerazione 3D.

GRAFICA RASTER / PIXEL / BITMAP vs. GRAFICA VETTORIALE

Il primo argomento di massima importanza per quanto riguarda l’informatica per la grafica, è la distinzione
necessaria tra i due principali sistemi di elaborazione/creazione/visualizzazione di immagini digitali: grafica
raster e grafica vettoriale. Per quanto vi siano altri sistemi ulteriori di visualizzazione/creazione di immagini
digitali (grafica 3d, voxel, grafica generativa, etc….), la grafica vettoriale e la grafica raster sono i due “mondi”
con i quali ci si scontra subito, attraverso i più comuni software di creazione di immagini. (Photoshop,
Illustrator, Indesign, Dreamweaver, Painter, etc…)
Raster in inglese significa “griglia”; Bitmap è l’acronimo di “mappatura di bit”; Pixel è la contrazione di “picture
element”. Questi 3 termini sono sinonimi dello stesso concetto: ovvero un sistema di immagini basate su
piccoli puntini cromatici posti gli uni accanto agli altri, i pixel appunto. Un mosaico, a tutti gli effetti.
Ovviamente quanto più un’immagine contiene pixel, quanto più si dice che ha “un’alta risoluzione.” Anche se
come vedremo più avanti non sempre questo concetto è sinonimo di “qualità” dell’immagine.
Quindi, l’immagine raster/bitmap o pixel, come la si voglia chiamare, è una sorta di mosaico digitale, fatto di
tanti pixel. E stiamo attenti: stiamo parlando dei Pixel “software”, da non confondere con i pixel “hardware”,
ovvero quelli del monitor, della tv digitale o di qualsiasi altro sistema hardware di visualizzazione in output. La
prima differenza sostanziale, importante, tra il “pixel” hardware della tv, dello schermo, o del monitor ed il pixel
“software” che compone le immagini digitali, è la “dimensione”: il pixel “hardware” della tv o dello schermo, ha
una dimensione fisica tangibile. E’ un oggetto della realtà. Il “pixel software” invece non è un “oggetto della
realtà”. Bisogna assolutamente comprendere che il pixel software che compone una qualsiasi immagine
JPEG, TIFF, BITMAP o altro formato, NON HA DIMENSIONE FISICA. Il pixel software è un’informazione.
Questa è una cosa assolutamente fondamentale, poichè riguarda la problematica fondamentale che investe
tutte le immagini composte di “quadratini colorati”.
Il pixel infatti è una informazione numerica, generalmente composta da due valori di posizione x,y e da un
numero di valori numerici che ne identificano il colore, ad esempio r,g,b.
Questo pixel assume una “dimensione” della quale possiamo discutere SOLO NEL MOMENTO IN CUI
VIENE VISUALIZZATO SU UN DISPOSITIVO (su schermo, su carta etc…), ma fino a quel momento il pixel
è decisamente una informazione numerica, e niente di più. Sembra un’argomentazione banalissima e invece,
nella stragrande maggioranza dei casi, si fa sempre un pò fatica a considerare questo nodo concettuale
come il nocciolo principale della quesione riguardante la “qualità” o il miglioramento/peggioramento della
resa delle immagini digitali.

Come vengono “interpretati” i dati visivi in pixel dal computer.


Un piccolo esempio, attraverso una schematizzazione estrema:
un’immagine quadrata RGB di 2x2 pixel ove i primi due pixel sono neri ed i successivi due sono bianchi,
potrebbe essere scritta in questa forma numerica sull’hard disk, secondo una sintassi x,y,r,g,b
x,y r,g,b
(inizio)
0,0, 0,0,0
1,0, 0,0,0 (accapo)
0,0,0 = nero
0,1, 255,255,255
255,255,255 = bianco
1,1, 255,255,255 (accapo)
(fine)

dove i primi due valori per ogni pixel sono le posizioni x e y del pixel, i successivi tre valori sono la codificazione
cromatica in rgb dei colori (nel nostro caso colore 0,0,0 (nero) per i primi due pixel e colore 255,255,255
(bianco) per i successivi due)
Tradotto realmente in codice binario, sempre schematizzando ed astraendo, si potrebbe avere una stringa
di valori simile alla seguente

(inizio)
00000000,00000000,00000000,00000000,0000000
00000001,00000000,00000000,00000000,00000000 (accapo)
00000000,00000001,111111111,111111111,11111111
00000001,00000001,111111111,111111111,11111111 (accapo)
(fine)

Non ci si spaventi!
Tutto ciò che è registrato sull’hard disk, alla fine dei conti, assumerà una forma del genere, in _codice
binario_ !
In questo senso si capisce perchè un’immagine composta di pixel, una “griglia” di puntini colorati, viene detta
anche “mappatura di bit”. Poichè effettivamente è un listato, una mappatura, spesso enorme, di valori 0 e
valori di 1 (in realtà qualsiasi file o elemento digitale, riducendo la questione all’osso, sarà sempre un listato
più o meno esteso di valori 0 e valori 1)
Il discorso è ancora più evidente nelle immagini propriamente chiamate “bitmap monocromatiche”, tipiche
degli anni ‘80, poichè propriamente composte di due soli pixel possibili: completamente neri o completamente
bianchi.

La grafica vettoriale

La grafica vettoriale invece, diversamente dalla grafica raster, è basata su curve matematiche,
geometricamente disegnate per tramite di “vettori” (le famose “maniglie di Bezier”) che definiscono
curvatura, forza ed orientamento delle curve. Non è una grafica composta da “tanti puntini colorati”, ma è
una grafica definita geometricamente, infinitamente scalabile, e che dunque viene ricalcolata/renderizzata
dal computer ogni volta che la si visualizza a schermo, o nel momento in cui la si deve stampare su carta.
Essendo una grafica “definita geometricamente”, è fatta di valori numerici che definiscono linee e curve
e che quindi non hanno “problematiche di risoluzione” tipiche delle griglie di pixels. Nei fatti si dice che la
grafica vettoriale è “indipendente dalla risoluzione”. Essa si adatta alla risoluzione del dispositivo d’uscita in
maniera estremamente flessibile ed alla massima definizione disponibile per quel sistema di output.
E’ una grafica molto adatta per forme geometriche “semplici”, quali loghi, testi, impaginati, o anche illustrazioni
semplici, pochissimo utile invece (o quasi per niente) per una resa delle immagini fotografica, dove invece c’è
bisogno di molte sfumature e dettagli cromatici, tipici del “regno delle immagini raster.”
E’ un sistema quindi estremamente flessibile e leggero dal punto di vista della computazione, e proprio
per la sua “infinita scalabilità”, si adatta perfettamente al massimo della risoluzione disponibile dall’output di
uscita. (in parole povere: la grafica vettoriale si adatta ai “pixel hardware” del dispositivo di visualizzazione)

Tutte le forme geometriche derivanti dal sistema della grafica vettoriale, possono essere disegnate attraverso
3 e solo 3 tipologie specifiche di punti di controllo:
- punto angolo. Un punto dal quale si diramano linee rette. Questo punto non ha quindi “maniglie di Bézier”
- punto curvo. Un punto dal quale si dirama una linea curva, che ha “maniglie di Bézier” che condividono lo
stesso orientamento, ma non necessariamente la stessa “forza”.
- punto misto. Un punto misto angolare/curvilineo, dal quale si dirama una curva che ha le maniglie di Bézier
“spezzate” (in gergo) ovvero, che non condividono nè orientamento, nè forza.
Attraverso queste 3 tipologie di punti, è possibile disegnare quasi tutte le forme immaginabili.
E’ molto importante capire che da un punto di controllo vettoriale si può diramare una ed una sola linea/
curva alla volta; ovvero non possono esistere ramificazioni di più linee dallo stesso punto. Se vogliamo
disegnare dei “rami di un albero” ad esempio, dobbiamo trovare dei sistemi di sovrapposizione tra più vettori
separati che “simulano” la ramificazione.

A = punto angolare
B = punto curvilineo
C = punto misto
- Le linee tratteggiate corrispondono
alle maniglie di Bézier che servono
a regolare gli andamenti delle
geometrie vettoriali
La grafica vettoriale e la grafica raster possono convivere in uno stesso documento.
IL FORMATO PIU’ FAMOSO ED UTILIZZATO IN TAL SENSO E’ IL FORMATO .PDF (Portable Document
Format) che serve sia ad andare in stampa, che a visualizzare anteprime a schermo.
Photoshop al suo interno può includere elementi di grafica vettoriale, così come Illustrator, e soprattutto
Indesign, al proprio interno, possono includere importazioni ed utilizzi, anche effettati, di immagini raster/
bitmap/pixel. Ovviamente con problemi da tenere d’occhio rispetto alla risoluzione di quest’ultime.

Grafica raster/pixel/bitmap: Risoluzione vs. Definizione !

Il numero di pixel che compone un’immagine digitale si chiama Risoluzione. E la risoluzione è’ un dato
numerico. E’ un dato certo: quanti pixel per la x, quanti per la y. Ad esempio: posso dire che la mia immagine
misura 2000x1000 pixel (software): questa è la risoluzione della mia immagine in pixel.
Attenzione: la risoluzione di un’immagine digitale a schermo conviene definirla proprio attraverso la misura
in pixel e non attraverso la misura in centimetri, o pollici. La dimensione in centimetri o pollici può essere
fuorviante, perchè può variare a seconda del dispositivo di visualizzazione, e nel caso della stampa, di
quanto “fitti” vengono stampati questi puntini colorati sulla carta, ovvero a quanti DPI.
Un esempio molto semplice è questo: ho un’immagine di 2000x1000 pixel (software) ed ho un monitor la
cui risoluzione massima è prioprio 2000x1000 pixel (hardware): questa immagine, visualizzata al 100%
in software come Photoshop, occuperà esattamente per intero tutto il monitor. Visualizzare un’immagine
raster al 100% nei software, vuol dire che un pixel software (dell’immagine) corrisponde esattamente al
pixel hardware (del monitor.) ! - Se il mio monitor però avesse 4000x2000 pixel di risoluzione (il doppio), la
mia immagine ne occuperebbe decisamente un quarto. Mi sembrerebbe più piccola, nonostante lo stesso
numero di pixel (software). Lo stesso discorso varrebbe per la stampa. Ma lo affronteremo più tardi.
La “Definizione” di un’immagine invece è la sua qualità percettiva vera e propria. Un esempio molto stupido:
se scatto una foto in condizioni pessime di illuminazione con il mio cellulare, probabilmente questa foto
avrà artefatti di visualizzazione, disturbo ed altri elementi non perfettamente definiti. Stesso risultato, se
sbaglio a mettere a fuoco. La mia foto sarà sfocata. Magari avrà una risoluzione di 8000x8000 pixels
(64 Megapixels! pazzesco!) ma sarà sfuocata. Se questa è un’argomentazione abbastanza stupida e
comprensibile, bisogna però considerare che ALCUNI FORMATI DI SALVATAGGIO, come il formato JPG o
quello GIF effettuano delle operazioni di “riduzione della qualità delle immagini” chiamati COMPRESSIONE,
che operano proprio in tal senso: “sfocano” o elaborano secondo algoritmi pre-programmati, alcune parti
dell’immagine riducendone la quantità di dati salvati sull’hard disk. Quasi tutte le immagini che ricerchiamo
su Google Image e che magari decidiamo di utilizzare, con le opportune modifiche, nei nostri lavori, hanno
degli artefatti di risoluzione. Ancora peggio è il caso in cui io scarico un’immagine dalla rete, la carico in
Photoshop, e ne aumento il numero di pixel attraverso un processo di ingrandimento automatico che si
chiama INTERPOLAZIONE. Questo processo aumenta il numero di pixel di un’immagine secondo algoritmi
matematici abbastanza semplici che non “inventano alcun dato nuovo”, ma si appoggiano a semplici regole
di interpolazione numerica di valori numerici/cromatici, ma in tutti i casi non aumentano la “definizione”
dell’immagine, bensì SOLO la sua “risoluzione” (numero di pixel, non qualità immagine). In entrambi i due
casi, io quindi potrei avere immagini (Immagine Compressa o Immagine Interpolata) con un numero enorme
di pixel, ovvero un’altra risoluzione, ma con una qualità “artefatta”, “interpolata”, dunque, una qualità bassa,
una definizione bassa. (può essere vero anche il contrario: immagini con alta definizione e bassa risoluzione).
Piccolo accenno sull’interpolazione delle immagini

Nota bene: il termine “interpolazione” è un termine generico, non essendo riferito solo all’ingrandimento
informatico delle immagini pixel: Interpolazione si riferisce ad un processo matematico, di creazione di valori
numeri intermedi, a partire da 2 o più valori di riferimento. Ad esempio interpolare da 1 a 2, in base 10, significa
creare 10 valori intermedi, ovvero 1,1 - 1,2 - 1,3 - 1,4 etc… fino a… 1,9 - 2. Il processo di interpolazione di
“ingrandimento delle immagini” di Photoshop, dovendo aggiungere all’immagine dati dove non ne ha, crea
dei valori cromatici intermedi tra due pixel di differente colore; ad esempio tra un pixel nero ed uno bianco,
photoshop inserirà una sfumatura (un gradiente) di valori grigi, dal nero al bianco.
Anche la grafica vettoriale ha delle tipologie di interpolazione, ma essendo una grafica numerica, non eredita
sicuramente problemi di definizione in tal senso, tranne quando è ibridata con effettistica raster.

DPI

Se conosciamo la dimensione massima in risoluzione del nostro monitor, possiamo tranquillamente capire
quanto può essere grande un’immagine per essere visualizzata al 100% sul nostro monitor senza subire
alcun processo di ridimensionamento forzato da parte del sistema. In questo caso potremmo pure parlare
di PPI (Pixel per Inch), anche se non risulterebbe molto utile nel caso qualcun’altro debba visualizzare
sul suo monitor, la nostra immagine. Perchè monitor di produttori differenti, hanno sicuramente risoluzioni
massime differenti. Quindi il problema si potrebbe complicare in alcuni casi, ma fortunatamente, la flessibilità
della grafica digitale, fa sì che oramai l’adattamento automatico a schermo delle immagini è diventato un
processo abbastanza “indolore” per la perdita o il guadagno in dettaglio delle immagini.

Diversamente invece succede per la stampa. Cosa succede infatti su carta ? Cosa succede se devo
stampare la mia immagine su carta?
In questo caso ci vengono in aiuto i DPI, ovvero: Dot per Inch.
Dot per Inch tradotto significa “Punto per Pollice”. 1 Pollice equivale a 2,54 cm. (ATTENZIONE: nel momento
in cui utilizzo la parola Dot, ovvero punto, sto implicitamente dichiarando un utilizzo PER LA STAMPA di
quell’immagine. Non sto parlando di PPI - Pixel Per Inch), che riguardano il monitor, misura abbastanza
controversa e limitata al monitor di riferimento, ma mi sto riferendo al mondo della stampa in punti. Puntini
stampati ! )
Un Inch, ovvero un pollice, misura quindi 2,54 cm.
Un’immagine per la stampa a 100 DPI, significa in parole povere, che in 2,54 cm di carta, trasferirò 100 pixel
dell’immagine digitale in 100 puntini colorati stampati. Il risultato vuol dire che in uno spazio di 2,54 cm di
carta avrò 100 puntini colorati.
100 puntini colorati in 2,54 cm riesco ancora a “vederli”, a discernerli. Ovvero riesco a identificare, seppur
con difficoltà, 100 elementi singoli, discreti, 100 quadratini. Non è abbastanza per una qualità ottimale. “Ne
vedo i pixel” si dice in gergo. “L’immagine sembra sgranata!” è un’altra delle tipiche affermazioni.
Per avere un’immagine la cui risoluzione in stampa è così alta da confondersi con “un’immagine fotografica
analogica”, devo avere 300 puntini in 2,54 cm, così che io non possa più distinguerli come unità discrete,
come “pixel”, come quadratini che me la fanno apparire “sgranata”.
Un’immagine del genere ha quindi 300 DPI. 300 DPI è il valore ottimale in stampa se voglio un’immagine
stampata ove non ne vedo la “quadrettatura”. 300 DPI è il valore ottimale se voglio scansionare una foto
e ristamparla, magari rielaborata, alla stessa dimensione, ovvero in rapporto 1:1. Se voglio stamparla al
doppio, rapporto 1:2, dovrò scansionarla a 600 DPI. Se voglio stamparla al quadruplo... 1200 DPI e così
via... Potresti pensare che a questo punto è meglio lavorare sempre e solo con immagini ad altissima
risoluzione... Ma attenzione! Ad altissime risoluzioni, le foto cominciano a pesare non poco sulla stabilità dei
software e quindi sulle performances generali! Quindi bisognerà spesso trovare dei compromessi tra qualità
e peso dell’immagine. Oltretutto un file a 1200 DPI è inutile se stampato 20x20 cm.
Molto importante: l’informazione in DPI è un’informazione che viene scritta all’interno del file immagine! Di
conseguenza i software grafici vettoriali come Illustrator o Indesign, leggono quest’informazione dichiarata e
visualizzano l’immagine raster all’interno del proprio spazio di lavoro, in maniera più o meno ridimensionata,
seguendone le indicazioni memorizzate in DPI e non in pixels, proprio perchè trattasi di software vettoriali,
e non raster! E’ un processo un pò difficile da spiegare a parole, senza vederlo nella pratica su un software.
Il rischio è l’illusione di avere a che fare con un’immagine raster di enormi dimensioni quando il realtà la
risoluzione di questa immagine è bassa ed è memorizzata con un DPI esiguo (es: 72). Bisogna quindi fare
sempre attenzione a settare correttamente la giusta corrispondenza tra misure in pixel e misure in centimetri
per la stampa. Bisogna sempre controllare in software come Photoshop che le informazioni sulla risoluzione
dell’immagine, all’interno della funzione “Dimensione Immagine” siano correttamente settate su 300 DPI.
Stiamo sempre parlando di stampa ovviamente.
Altrimenti, come detto prima, un’immagine a “72” DPI, importata in Illustrator o Indesign, potrebbe sembrarvi
illusoriamente grande quanto tutto lo schermo, quindi pensereste “ad alta qualità”, mentre in realtà stampata
scoprireste essere completamente inadatta e “pixellata”. In questo senso la piccola casella “campiona” nel
pannello della funzione “Dimensione Immagine” di Photoshop, ci aiuta a settare correttamente il dato.

Che misura ha un formato A4 a 300 DPI, ovvero un A4 fotografico ?


Facile: Si dividono le misure di larghezza (L) e di altezza (H) dell’A4 (L = 21 cm x H = 29,7 cm), per 2,54
cm e si moltiplica per 300. Il risultato è 2480 (L) x 3507 (H) pixels. (A scopo mnemonico si può anche
memorizzare il più semplice 2500x3500 pixels.)
2480 pixels, moltiplicati per 3507 pixels, danno 8.699.527 pixels, ovvero poco più di 8,5 milioni di pixels.
Ovvero circa 8/9 MegaPixel. (1 Mega pixel = 1 milione di pixels). Un A4 a 300 DPI misura circa 8 Megapx.
Quindi se avete un dispositivo fotografico che effettua fotografie con un valore nominale di 8 Megapixels,
sappiate che _teoricamente_ ammesso che il dispositivo sia stato assemblato seguendo valori costruttivi
seri, professionali, potete stampare degli A4 ad alta risoluzione!
Ricordate: 2500x3500 pixel, oppure 8/9 megapixel, può essere un termine di paragone mentale per avere
un’ordine di idee sulle misure generali in riferimento ad un A4 stampato.

La bufala dei 72 DPI


Molti ancora pensano che un’immagine “a risoluzione per lo schermo” debba essere di 72 DPI. Questa è
una delle più grandi bufale della storia dell’informatica per la grafica. Che senso ha parlare di DPI a schermo,
se lo schermo di un produttore può essere diverso da un altro sia in termini di dimensioni che di proporzioni,
e soprattutto, se sullo stesso schermo, ho a disposizione diverse varianti di risoluzioni possibili?
La bufala dipende da un’artefatto storico: i primi computer Mac, che avevano il monitor integrato, erano
settati effettivamente su una risoluzione a schermo di 72 DPI. Ovvero in 2,54 cm di schermo del Mac,
campeggiavano 72 pixel, e perfettamente. Il Mac è stato il primo computer casalingo ad essere stato utilizzato
per la grafica professionale, stampata; di conseguenza questa consuetudine si è diffusa nel tempo, ed è
diventata un finto standard, ed oggi genera ancora una certa confusione, anche negli addetti ai lavori.
Fate molta attenzione, poichè molte macchine fotografiche digitali, i cellulari stessi e le immagini scaricate
da google, presentano all’interno i 72 DPI come informazione di risoluzione per la stampa. Quando aprirete
queste immagini in Illustrator o Indesign, le vedrete “enormi”. Bisognerà fare un piccolo passo indietro, e
risettare correttamente i valori in DPI all’interno di Photoshop. Il dato “72 DPI” può esserci utile solo perchè
“ci ricoda” che l’origine di quell’immagine che state utilizzando è “digitale”...

RGB vs CMYK vs GRAYSCALE


I dispositivi digitali di visualizzazione in output, ovvero monitor e schermi, ad esclusione dei sistemi Kindle
e pochi altri, utilizzano di default il sistema cromatico RGB. RGB sta per Red + Green è Blue: un sistema di
sintesi “addittiva”, che funziona aggiungendo energia luminosa (luce) per ottenere i colori.
Il valore numerico minimo in un sistema del genere è il nero RGB (0,0,0), mentre il massimo è il bianco
RGB (255,255,255). Questa maniera di identificare un sistema cromatico, viene detto anche Spazio Colore
(Color space), ove lo spazio colore è il “numero di possibilità cromatiche definite all’interno di un sistema
di visualizzazione”. Lo spazio RGB ha quindi 3 valori numerici, chiamati anche Canali cromatici. Ognuno
di questi canali è come se fosse un’immagine in bianco e nero a sè stante. La cosa è facilmente visibile/
intuibile all’interno di photoshop sotto la palette dei canali. Ed ognuno di questi canali essendo un’immagine
a parte, occupa anche un “peso” numerico sull’hard disk. CONVIENE SEMPRE lavorare in RGB quando
effettuiamo delle operazioni sulle immagini digitali e non ci dilungheremo qui sul perchè.
Altro discorso è invece quando dobbiamo andare in stampa con la stessa immagine: l’immagine sarà
convertita in quadricromia (CMYK), il sistema utilizzato dalle stampanti sia offset che digitali per miscelare
i 4 inchiostri fondamentali, Cyano, Giallo, Magenta e Nero al fine di ottenere tutti i colori possibili. Questo
sistema ha 4 canali, ed è un sistema “sottrattivo” perchè effettivamente il colore percepito è dato dalla
sottrazione di luce, ovvero dall’aumento di pigmento. Funziona esattamente al contrario di RGB. Nel metodo
sottrattivo il valore minimo è il bianco della carta, ovvero l’assenza di pigmento, ovvero il valore CMYK
0,0,0,0 mentre il valore massimo è il nero ricco, ovvero il CMYK 100,100,100,100
Lo spazio colore CMYK, ha paradossalmente meno estensione di quello RGB, quindi attenzione quando si
passa dal monitor alla stampa! Alcuni colori, soprattutto quelli molto saturi, potrebbero risentirne!
Se un’immagine in RGB pesa “300”, la stessa immagine convertita in quadricromia peserà “400” perchè vi
si aggiunge un canale. Un’immagine in Grayscale invece peserà “100”, poichè è un’immagine con un solo
canale, dove ogni pixel ha solo 255 valori di luminosità dal nero al bianco. E’ un’immagine ottimale se devo
stampare immagini fotografiche in bianco e nero “pure”.
Internet è piena di informazioni facilmente reperibili sulle qualità dei metodi RGB e CMYK.
Consultarla facendo però sempre attenzione che: RGB = addittivo, CMYK = sottrattivo. NON il contrario: su
alcuni siti questa informazione è erroneamente invertita.

Ai fini dell’esame:
- Approfondisci quali sono i principali software commerciali per l’elaborazione delle immagini digitali, sia
statiche, che in movimento, estendendo il range a software specializzati di, per esempio, modellazione
3D, videomapping, vjing, installazioni interattive, etc...
- Approfondisci tutto ciò che trovi di “sottolineato” in neretto, come questo testo.
FORMATI COMUNI DI SALVATAGGIO IMMAGINI DIGITALI

Raster:
Compressione RGB CMYK Grayscale Video Stampa Trasparenze
JPG Distruttiva, su blocchi 8x8 px SI Non standardizzato SI SI Meglio No NO

TIF Distruttiva e Non distruttiva (LZW) SI SI SI NO SI 1 livello

GIF Distruttiva, max.128 colori SI NO SI SI (animaz) NO 1 livello

PNG Non distruttiva SI NO SI SI NO 128 livelli

BMP NO SI NO NO SI NO NO

RAW NO SI SI SI SI SI (convers.) NO

PSD NO (formato nativo Photoshop) SI SI SI SI SI SI

Vettoriale:

AI (formato nativo Illustrator)

EPS (Encapsulated PostScript)

SWG (obsoleto)

PDF Portable Document Format

Raster/Vettoriale:

PDF Portable Document Format


EPS (Encapsulated PostScript)

Una nota a parte merita il formato PDF

Il .PDF sviluppato da Adobe negli anni 90, è un formato multipagina, multipiattaforma, misto raster / vettoriale,
che può essere utilizzato sia per l’anteprima a Video (subendo compressione), sia per la stampa di alta
qualità (senza compressione), prevede RGB, CMYK, Grayscale ed altri metodi cromatici (es: canali di tinte
piatte, allo stesso modo dei formati EPS), prevede differenti livelli di protezione via password, può includere
al suo interno elementi multimediali di qualsiasi genere, video, interattivi, audio e comprende un’altissima
gamma di utility interne, quali la visualizzazione in thumbnails delle pagine, link multimediali, link ipertestuali
interni ed esterni, note di editing e tutta una serie di altre possibilità per il workgroup.
E’ attualmente il formato più esteso e flessibile per la pubblicazione di documenti grafici e multimediali, sia
semplici che complessi.

Nota bene: non ha senso salvare un’immagine “raster” in PDF a meno che il tuo stampatore, o un service
online, non te lo richieda esplicitamente. Si utilizza il PDF nel caso in cui ci sia la necessità di visualizzare
dati vettoriali (es: loghi, testi, manuali etc..) da far convivere magari con immagini raster, oppure nel caso in
cui ci sia l’esigenza di generare un file multipagina.

Potrebbero piacerti anche