Sei sulla pagina 1di 1

Il Codice ASCII.

Il calcolatore, nato per trattare numeri, col passare degli anni ha trovato impiego anche in
quelle attività che devono trattare caratteri, frasi, parole, ecc. Nasce, quindi, l’esigenza di
individuare dei meccanismi che realizzino una corrispondenza tra la rappresentazione
dell’informazione più vicina all’uomo con quella propria degli elaboratori digitali.
A tale scopo, vengono create delle tabelle che fanno corrispondere ad ogni carattere una
sequenza di bit. Tale sequenza viene letta come valore numerico binario; quindi, queste tabelle di
conversione sono anche delle tabelle di “codifica numerica” dei caratteri.
Mediante l’utilizzo di queste tabelle di conversione, qualsiasi elaboratore può codificare in
binario le informazioni ricevute, memorizzarle, manipolarle e trasmetterle (con un processo inverso
detto di decodifica) in formato comprensibile all’uomo.
Da notare che elaboratori diversi (da diversi costruttori) possono avere tabelle di
conversione diverse, di conseguenza le informazioni non possono essere scambiate tra elaboratori
diversi, problema che esisteva con la nascita dei primi calcolatori. Per evitare questi inconvenienti
vengono utilizzati delle tabelle di codifica standard; la più utilizzata universalmente è il Codice
ASCII (American Standard Code for Information Interchange), questo codice è divenuto uno
standard ISO 646.
Il Codice ASCII codifica 128 simboli diversi utilizzando 7 bit (2 7=128), numerati, in
decimale, da 0 a 127. I primi 32 caratteri non sono stampabili e sono utilizzati per il controllo del
video, della stampa, ecc.; gli altri caratteri comprendono le cifre del sistema decimale, i caratteri
dell’alfabeto (maiuscolo/minuscolo), i segni di punteggiatura.
Il Codice nella codifica rispetta l’ordine alfabetico, i valori numerici in ordine crescente;
inoltre, una caratteristica di questo Codice è che la distanza tra una lettera maiuscola e una
minuscola è costante, quindi per convertire un carattere maiuscolo in uno minuscolo e viceversa,
basta aggiungere o togliere dalla codifica del carattere la differenza tra la codifica del carattere “A”
e la codifica del carattere “a”.
Dal momento che l’unità di memorizzazione dei dati in un calcolatore è il byte, utilizzando
la codifica ASCII avanza un bit, utilizzando anche questo è possibile codificare altri 128 simboli
(28=256); i caratteri da 128 a 255 vengono utilizzati per supportare gli alfabeti di alcune lingue
europee che richiedono simboli aggiuntivi.
In una tabella ASCII in corrispondenza di ogni carattere viene riportato la corrispondente
codifica in binario, in ottale e in esadecimale.

O. De Pietro - Appunti di Informatica - -1-

Potrebbero piacerti anche