Sei sulla pagina 1di 13

CAPITOLO 1

EVOLUZIONE DEI SISTEMI


DI CALCOLO

PREMESSA

Questo capitolo inizia con un paragrafo dedicato alla storia degli elaboratori elettronici, o
meglio, del trattamento automatico delle informazioni. A questa prima parte fa seguito una
breve presentazione degli aspetti applicativi dell'informatica, che si incentra più sulle
problematiche affrontate che sugli strumenti.

1. QUALCHE CENNO SULLA STORIA DEI SISTEMI DI CALCOLO

Fin dalla più remota antichità, l'uomo ha cercato di rimediare alle difficoltà di calcolo
utilizzando strumenti di vario genere: da semplici ciottoli, a nodi praticati con corde di
cuoio, ai "sofisticati" abachi, utilizzati indipendentemente da popoli appartenenti a varie
culture.
Bisogna tuttavia arrivare al XVII secolo per assistere a sostanziali progressi in questo campo.
Infatti, in tale epoca, Blaise Pascal e Gottfried Leibniz ideano e realizzano macchine
calcolatrici di tipo meccanico in grado di effettuare somme e sottrazioni (nel caso di quella
di Leibniz anche moltiplicazioni e divisioni) con il riporto automatico, principio
fondamentale utilizzato da tutti gli strumenti di calcolo (e di misura) successivamente
realizzati. Nello stesso secolo, un matematico scozzese, Giovanni Nepero, dà un diverso, ma
certamente non meno importante, contributo alle problematiche "computazionali", ideando
i logaritmi. 1
Negli anni successivi, assistiamo a progressi continui in questo campo, progressi
sicuramente incentivati, sempre di più, sia dalle reali necessità di calcolo, che uomini
d'azienda, bancari, ricercatori, ecc. vedono sorgere con frequenze via via maggiori nelle loro
attività, ma anche dal desiderio puramente speculativo di sviluppare macchine sempre più
perfezionate.
Nel 1820 il francese Charles-Xavier Thomas de Colmar idea e realizza uno strumento in
grado di eseguire le quattro operazioni dell'aritmetica, molto più pratico dei precedenti, che
verrà prodotto e venduto in alcune migliaia di esemplari, senza avere altre industrie
concorrenti fino al 1878.
Ma l'ottocento è un secolo fondamentale anche per il calcolo automatico in generale (e,

1 In realtà, nel XVII secolo Nepero pubblicò le prime tavole logaritmiche. La formulazione del concetto di logaritmo
fu da lui effettuata nel 1594. Nepero descriverà in una pubblicazione anche l'uso di bastoncini di avorio per eseguire
moltiplicazioni e divisioni, in modo meno lento che con l'abaco: questi studi consentiranno, in seguito, di realizzare il
regolo calcolatore.

1
almeno in prospettiva, non solo per quello meccanico). In questi anni, infatti, nasce la scheda
perforata, che tanta parte avrà nella storia dell'informatica, e che verrà utilizzata fino quasi
agli anni ’90 del secolo scorso. Viene ideata da un francese per rendere automatiche alcune
operazioni eseguite dai telai meccanici: è il 1804 e si tratta di Joseph-Marie Jacquard che, in
realtà, perfeziona una idea di Falcon del 1728.
Ancora più importante, sia pure soprattutto a fini concettuali, è l'opera di Charles Babbage,
un matematico inglese. Nel 1812 idea una macchina per calcolare in modo automatico i
logaritmi utilizzando il "metodo delle differenze" (detta appunto macchina differenziale);
tuttavia, ne sarà realizzato solo un modello di limitate dimensioni, a causa dello stato della
tecnologia in quegli anni (1822). Si tratta comunque, a livello teorico, di una macchina
"dedicata" a risolvere un particolare problema.
Alcuni anni più tardi Babbage inizia, invece, a concepire l'idea di costruire una macchina in
grado di effettuare una serie qualunque di operazioni aritmetiche (scelte in base ad
istruzioni fornite dall'utilizzatore, insieme ai dati, per mezzo di schede perforate). Anche se
l'elaborazione è qui concepita solo per mezzo di strumenti meccanici (ruote dentate) tale
macchina, detta "macchina analitica", ha già una struttura logica molto vicina a quella degli
elaboratori elettronici: è infatti dotata di memoria centrale (capace di contenere fino a 1000
cifre), di unità di calcolo, di lettore e perforatore di schede e di stampante, ed è in grado di
seguire un programma di lavoro letto, come sopra accennato, da schede, insieme ai dati.
Una sua amica, Ada Augusta, contessa di Lovelace, si dedica allo studio della macchina
analitica ed al suo modo di operare, ideando anche un "programma" per il calcolo dei
numeri di Bernulli. Solo nel 1871, dopo la sua morte, il figlio di Babbage, insieme ad altri
studiosi, potrà realizzare un modello di tale macchina, azionata a vapore.
Il contributo concettuale di Babbage, tuttavia, si verrà a concretizzare realmente solo negli
anni quaranta del secolo scorso, quando, grazie all'elettronica, potranno essere realizzate
macchine in grado di operare con precisione e velocità, leggendo non solo dati, ma anche
istruzioni, da schede (o da nastri di carta perforati) e stampando (o perforando) i risultati.
Per molti anni, infatti, pur non rinunciando a sviluppi nel campo del calcolo automatico
saranno seguite strade diverse, concentrando l'attenzione su problematiche con
caratteristiche abbastanza differenziate rispetto a quelle affrontate dagli studiosi che ab-
biamo fin qui citato.
Si può, infatti, affermare che fin qui il problema fondamentale da risolvere con l'uso di
strumenti meccanici sia quello di poter effettuare una serie, anche molto complessa di
operazioni aritmetiche su pochi dati. In realtà, gran parte delle applicazioni concrete, che si
stanno prospettando, per l'impiego effettivo dei dispositivi di calcolo meccanico,
riguardano, almeno nelle aziende, la necessità di eseguire poche e semplici operazioni su
moltissimi numeri (a differenza di ciò che si poteva verificare in ambienti di ricerca,
soprattutto, di tipo matematico).
Ecco quindi, sul finire dell'ottocento, che prende vita un nuovo "approccio" al calcolo
automatico, che fa nascere tutta una serie di macchine, dette "macchine meccanografiche",
che si diffonderanno in migliaia di esemplari in tutto il mondo, e che, solo negli anni
cinquanta del nostro secolo, inizieranno ad essere gradualmente sostituite dagli elaboratori
elettronici.
L'occasione che fa sorgere la necessità di uno strumento di questo genere riguarda
un'applicazione di tipo statistico: l'elaborazione dei dati raccolti a seguito del censimento
della popolazione degli Stati Uniti d'America. Oltre che avere un interesse statistico, tali dati
sono importanti anche a fini giuridici, per determinare le rappresentanze dei vari Stati nel

2
Congresso Federale, in quanto ciò è previsto dalla Costituzione. Ora, il censimento
americano del 1880 non è stato ancora completamente elaborato dopo sette anni, nonostante
l'utilizzo di centinaia di impiegati; molti guardano con preoccupazione al successivo
censimento del 1890, per il quale si prevede un notevole aumento di popolazione, facendo
pensare all'ottenimento dei dati definitivi in tempo non utile per la successiva rilevazione.
Per ridurre i tempi richiesti per elaborare i dati censuari, lo statistico Herman Hollerith,
incaricato dal governo di risolvere tale problema, pensa di trasferire il contenuto dei moduli
usati per la raccolta dei dati censuari, utilizzando schede perforate destinate ad essere lette
con apposite macchine. Hollerith definisce le caratteristiche standard che devono avere le
schede ed i criteri da usare per rappresentare su di esse, mediante perforazioni, le
informazioni raccolte. 2 Il tipo di codifica da lui ideata, sia pure con modifiche anche
rilevanti, è rimasta sostanzialmente in uso sino ai nostri giorni, ossia finché si sono
continuati ad utilizzare questi supporti per contenere informazioni.
In questo modo, utilizzando macchine perforatrici, selezionatrici e tabulatrici, funzionanti
elettricamente, si riesce ad elaborare i dati dell'intero censimento degli Stati Uniti in "soli"
due anni e mezzo, nonostante un aumento della popolazione di circa il 25 per cento.
Ben presto tali macchine vengono perfezionate, integrate con altri dispositivi e rese
suscettibili di un sempre più vasto impiego in campo commerciale. Lo stesso Hollerith fonda
una società, la "Tabulating Machine Corporation", che, successivamente (1911), fondendosi
con altre, verrà a costituire l'International Business Machines Corporation, meglio nota con
la sua sigla: IBM.
Le applicazioni dei centri meccanografici riguardano, almeno inizialmente, gli enti
governativi e le aziende che hanno bisogno di trattare notevoli quantità di informazioni (ad
esempio: aziende telefoniche, ferroviarie, assicurazioni, banche, ecc.). 3
Successivamente, però, si inizia a tenere maggior conto del notevole vantaggio che, rapidità
e precisione, possono giocare nelle procedure amministrative, visto che le macchine
meccanografiche permettono anche di eliminare le innumerevoli ricopiature dei dati
(operazione che è sempre fonte di errori) permettendo di trattare una stessa informazione
in molti modi differenti, utilizzando, in sostanza, la scheda come uno strumento di
memorizzazione permanente delle informazioni aziendali. Questo permette di usare le
schede, anche per gestire, ad esempio, dati anagrafici e contabili di clienti e fornitori,
magazzini di prodotti e materie prime, per calcolare paghe e stipendi e così via. In altre
parole, si iniziano a delineare impieghi sempre più diversi dal semplice ausilio al calcolo,
con cui è iniziato il nostro discorso.
Mentre le macchine meccanografiche si stanno sempre più perfezionando e diffondendo,

2 Tali schede prevedono 240 zone, ognuna delle quali può essere o meno perforata; solo successivamente le schede
meccanografiche assumeranno la dimensione della banconota da un dollaro e prevedranno 12 righe e 45 colonne da
perforare, sempre con fori tondi. In seguito, pur rimanendo invariate le dimensioni, i fori diverranno rettangolari e le
colonne 80 (con un totale, quindi, di 960 zone).
3 I centri meccanografici prevedono un notevole numero di macchine con funzioni specializzate: le perforatrici, per
registrare le informazioni perforando le schede, le verificatrici, per controllare l'esattezza dei dati perforati, le interpreti,
per stampare sul bordo superiore del cartoncino le informazioni contenute nelle schede (in futuro si avranno macchine
che riuniscono le tre funzioni), le selezionatrici, per ordinare le schede in base a campi numerici ed alfanumerici, le
inseritrici, per estrarre particolari schede da un pacco, per controllare la sequenza e per inserire od accoppiare due pacchi
di schede, le calcolatrici, per svolgere le quattro operazioni di base dell'aritmetica, le riproduttrici-multiperforatrici, in
grado di riprodurre schede, di perforare schede riepilogative e di ripetere su più schede descrizioni ed altre informazioni,
le tabulatrici, per la stampa e la totalizzazione dei risultati.
Una parte di queste macchine possono essere programmate tramite un pannello, munito di fori, che possono essere
collegati fra loro tramite cavi muniti di spinotti. I pannelli possono essere considerati, in senso molto lato, come memorie
di sola lettura che guidano l'elaborazione.

3
alcuni nuovi pionieri, Konrad Zuse e Howard Aiken, riprendendo indipendentemente ed
inconsapevolmente (almeno agli inizi del loro lavoro) le idee di Babbage, 4 realizzano,
durante la seconda guerra mondiale, calcolatori elettromeccanici, in grado di seguire pro-
grammi perforati su nastri di carta, ed in grado di eseguire, mediante relais, operazioni
aritmetiche, trigonometriche, esponenziali e logaritmiche. Questi modelli, pur non avendo
un seguito commerciale, riescono a dare una prima effettiva risposta al processo iniziato tre
secoli prima da Pascal e Leibniz, anche se, come abbiamo visto, le applicazioni concrete del
calcolo automatico si stanno affermando, almeno in questi anni, seguendo soprattutto altri
criteri. Un contributo concettuale non indifferente, anche in prospettiva, è dato dal fatto che
le macchine di Zuse utilizzano per prime un nuovo sistema di numerazione, quello binario,
cioè a base 2, che sarà il futuro "alfabeto" di base di tutti gli elaboratori elettronici.
Proprio in quegli anni, tuttavia, presso la Pennsylvania University, J. Presper Eckert, John
W. Mouckly ed Herman H. Goldstine iniziano a studiare, in collaborazione con il ministero
della Guerra, l'ENIAC, la prima macchina quasi interamente basata su componenti
elettronici. Tale macchina, priva di una memoria in grado di conservare le istruzioni e
costruita per eseguire calcoli balistici, può però essere utilizzata per risolvere altri problemi,
di tipo scientifico, modificando manualmente ed in tempi molto lunghi la disposizione dei
circuiti, azionando interruttori e spostando cavi elettrici.
Nonostante il notevole miglioramento delle prestazioni, che l'uso delle componenti
elettroniche (valvole termoioniche) permettono rispetto a quello dei relais (trecento
moltiplicazioni al secondo, anziché una ogni sei secondi), rispetto al Mark I di Aiken, si ha
quindi un regresso nelle capacità logiche: la possibilità di seguire, in modo flessibile, serie
di istruzioni, di volta in volta, diverse e fornite dall'utente in modo semplice. 5
Un decisivo progresso, nella realizzazione di una macchina avente tutte le caratteristiche
funzionali dell'elaboratore elettronico, viene compiuto da John von Neumamn, che, nel
1945, oltre a definire caratteristiche strutturali praticamente uguali a quelle dei moderni
sistemi elettronici, teorizza anche la necessità di usare uno stesso metodo di codifica per dati
ed istruzioni, rendendo possibile la memorizzazione anche di queste ultime all'interno del
sistema elettronico. E' la prima formulazione del concetto di programma memorizzato ed
“auto-modificabile”, caratteristica necessaria perché una macchina elettronica, a stati
discreti, sia considerata un elaboratore elettronico, nel senso più completo della parola. 6
A seguito di questa elaborazione concettuale, vengono realizzati diversi prototipi: l'EDSAC
(a Cambridge, U.K., nel 1949)7, l'EDVAC (a Princeton, USA, nel 1950), e poi il MADM,
l'UNIVAC, il LEO I, il SEAC, il MANIAC, il NORC, ecc..

4 Un contributo importante allo sviluppo teorico della moderna informatica si va ad aggiungere proprio in quegli
anni all'opera di Babbage; si tratta della definizione rigorosamente scientifica del concetto di "macchina universale"
formulata da Alan Mathison Turing nel 1936. Il contributo di Turing si basa sulla dimostrazione che è sempre possibile
costruire una macchina in grado di eseguire qualunque elaborazione che sia suddivisibile in passi. Le macchine di Turing
sono basate su di un nastro infinito e su una unità di calcolo; l'unità di calcolo, caratterizzata da un numero finito di stati
interni può leggere o scrivere ogni casella del nastro e spostarsi a destra o a sinistra lungo tale supporto. Tutti i calcolatori
digitali oggi esistenti sono equivalenti a particolari macchine di Turing.
5 Il 26 giugno del 1946 viene presentato il brevetto dell'ENIAC (Electronic Numerical Integrator and Calculator) in
grado di effettuare 300 moltiplicazioni al secondo. Tale brevetto sarà dichiarato nullo il 19 ottobre del 1973 da una corte
statunitense che riconoscerà al fisico John V. Atanasoff la realizzazione del primo calcolatore elettronico, basato su
valvole termoioniche e sull'aritmetica binaria, l'ABC, tra il 1939 ed il 1942.
6 L'insieme di queste caratteristiche sarà utilizzato per dare una definizione teorica di elaboratore; definizione che
presenteremo nel capitolo 2, dando i necessari chiarimenti sulla terminologia utilizzata.
7 L'EDSAC (Electronic Delay Storage Automatic Calculator) è quindi il primo elaboratore elettronico, in senso
stretto, che sia mai stato prodotto.

4
Il 1951 segna l'avvento dall'uso commerciale (o più precisamente, pratico) dell'elaborazione
elettronica dei dati e, quindi, della, così detta, prima generazione degli elaboratori
elettronici, costruiti utilizzando valvole termoioniche, che durerà fino al 1958.
Ancora una volta è il Census Bureau degli Stati Uniti che dà luogo al primo impiego di una
macchina destinata ad uscire dai laboratori e a diffondersi, costruita in serie, in enti ed
aziende: è l'UNIVAC I, costruito da John W. Mauchly e da J. Presper Eckert, per conto della
Rand Corporation. Questo dispositivo rappresenta, fra l'altro, il primo elaboratore
elettronico che non viene costruito essenzialmente per scopi militari e scientifici, ma che
viene progettato con lo scopo di essere impiegato per effettuare applicazioni di tipo
aziendale, in concorrenza, quindi, con le ormai affermate macchine meccanografiche.
Anche se le previsioni iniziali degli esperti ipotizzano una diffusione limitata a poche unità
(in pratica solo in grandissime aziende, oltre che in enti governativi), in soli due anni siamo
arrivati a circa 100 elaboratori elettronici, installati in tutto il mondo.
Proprio nel 1953, anche l'IBM, industria ormai all'avanguardia nel calcolo automatico,
soprattutto a fini aziendali, produce i primi elaboratori elettronici: il 701, seguito, nel 1954,
dal 650. Queste macchine iniziano a riunire in sé la capacità di risolvere un numero sempre
crescente di problematiche, non solo quelle di tipo scientifico, connesse con le necessità della
ricerca universitaria, o di tipo militare (entrambe caratterizzate, in genere, dal trattamento
di un numero limitato di dati con una serie molto complessa di operazioni), ma anche quelle
di tipo aziendale, che stanno appunto trovando soluzione con l'uso di macchine
meccanografiche (e caratterizzate da necessità opposte). In altre parole, si stanno per
riunificare i diversi approcci di fine ottocento, inizi del novecento, in un unico tipo di
macchina.
Molti elaboratori della prima generazione sono, in realtà, ancora orientati a risolvere,
principalmente, problemi di tipo scientifico; ciò nonostante, non si può negare che sta già
diffondendosi, sempre di più, il criterio di realizzare macchine "general purpose", modulari
e sempre più economiche e facili da gestire.
In un primo momento, accanto ad una circuiteria a valvole e ad una memoria magnetica (in
genere a tamburo), queste macchine utilizzano dispositivi meccanografici, come lettori e
perforatori di schede, oltre a macchine da scrivere elettriche, per trattare e stampare dati ed
istruzioni, riuscendo, in breve, a superare come prestazioni, anche dal punto di vista pratico,
le più perfezionate tabulatrici e calcolatrici elettromeccaniche dell'epoca. Successivamente
nascono nuovi dispositivi "periferici": memorie ausiliarie, a nastro magnetico e a disco,
stampanti sempre più perfezionate, ecc..
Anche dal punto di vista della programmazione, basata ormai stabilmente su criteri di
codifica interna che utilizzano il sistema di numerazione binario, si verificano in questi anni
nuovi sviluppi, che permettono all'uomo di usare un linguaggio diverso da quello della
macchina. Nasce, infatti, nel 1952 ad opera di Grace Hopper il primo linguaggio di
programmazione simbolico, che richiede di essere tradotto in linguaggio macchina prima
di essere eseguito, e, a partire dal 1954, si inizia a realizzare il primo linguaggio simbolico
ad alto livello: il FORTRAN, che costituisce il prototipo dei linguaggi di una nuova
generazione di elaboratori. 8
Negli anni '50 assistiamo ad un notevole fervore di iniziative anche in Italia. L'Università di
Pisa, avvalendosi della collaborazione dell'Olivetti, progetta e realizza la "Calcolatrice
Pisana". La stessa Olivetti crea, nel Canavese, un importante laboratorio di ricerca, seguito

8 I linguaggi di programmazione sono trattati nel capitolo 6. In tale ambito si può trovare anche una classificazione
di tali linguaggi.

5
poi da una grande divisione industriale; realizza propri modelli di elaboratori fino ad
arrivare alla serie Elea (nel 1959). Purtroppo cinque anni dopo si vedrà costretta, per motivi
economici, a cedere il proprio settore elettronico alla General Electric.
Altre aziende italiane realizzano in quegli anni "calcolatrici elettroniche", come ad esempio
la Ferranti LTD, che nel 1955 installa, presso l'Istituto di Calcolo del Consiglio Nazionale
delle Ricerche, il primo grande calcolatore elettronico entrato in funzione in Italia, dopo
quello del Politecnico di Milano (1954).
Con l'avvento dei transistori vengono costruiti, dal 1958 e fino al 1964, gli elaboratori della
seconda generazione: più piccoli, meno costosi, molto più veloci e con minori necessità
"ambientali", come, ad esempio, quelle legate al condizionamento dell'aria. Le loro memorie
centrali sono, in genere, costituite da migliaia di minuscoli anelli di ferrite, mentre si
perfezionano sempre di più le memorie ausiliarie, di tipo magnetico, a nastro, a disco e a
tamburo; gli altri dispositivi periferici, di ingresso e di uscita, diventano sempre più
sofisticati ed efficienti (stampanti parallele, lettori di schede ad alta velocità, ecc.). In pratica
gli elaboratori elettronici cessano di usare le vecchie periferiche ereditate dalla
meccanografia.
In particolare, i dischi magnetici rendono possibile l'accesso diretto (in tempi estremamente
ridotti) a singole informazioni, permettendo un sempre più efficace trattamento di grossi
archivi, facendo così presagire anche importanti sviluppi in ambito aziendale.
In questo periodo si diffondono i linguaggi ad alto livello, non solo le varie nuove versioni
del FORTRAN, ma anche un linguaggio con sviluppate capacità di trattare archivi e
dispositivi di input-output: il COBOL. Pur andandosi riducendo, rimane una certa
distinzione fra elaboratori orientati a risolvere problemi di tipo scientifico (ad esempio, in
ambito IBM, il 1620 di piccole dimensioni ed il 7090 di grosse dimensioni) ed elaboratori
"business-oriented", come l'IBM 1401, di ridotte dimensioni e di costo assai contenuto,
destinato a risolvere principalmente problemi contabili, di fatturazione e gestione del per-
sonale, anche in aziende di medie dimensioni. Si può senz'altro affermare che il 1401 diviene
un vero e proprio "best seller" nel mercato informatico di questi anni.
In questo periodo, grazie all'uso sempre più diffuso dei dischi magnetici, all'estendersi delle
dimensioni delle memorie centrali, all'aumento delle prestazioni in termini di velocità di
calcolo e di sicurezza, si incominciano a sperimentare collegamenti a distanza, utilizzando
linee telefoniche e telegrafiche, ed applicazioni in "tempo reale"9.
Agli inizi degli anni sessanta, vengono posti in vendita alcuni modelli di elaboratori che
iniziano ad usare anche un nuovo tipo di componente elettronica: il circuito integrato. I
primi due sono l'IBM 1130 (un piccolo sistema prodotto a partire dal 1962 ed orientato a
risolvere problemi di tipo scientifico) e l'IBM 1800 (prodotto a partire dal 1963 ed orientato
a risolvere applicazioni di gestione di archivi, utilizzando la filosofia dell'aggiornamento e
della consultazione in tempo reale). Ben presto l'utilizzazione di questi nuovi componenti
porta l'elaborazione elettronica dei dati ad un nuovo salto di qualità: nasce la terza
generazione degli elaboratori (1964-1971).
Convenzionalmente si fa segnare il passaggio a questa nuova generazione dall'annuncio, da
parte dell'IBM, della serie 360, una "famiglia" di elaboratori in grado di risolvere problemi
di ogni genere, ossia elaboratori non specializzati o "general purpose". Lo stesso nome della

9 Il concetto di “tempo reale”, dall'inglese “real time”, si riferisce alla possibilità utilizzare queste macchine per
gestire ed ottenere informazioni in tempo utile ossia tale da per interagire con un processo in corso permettendone il
controllo. Anche questo argomento è trattato nel capitolo 6, mentre all'elaborazione dei dati a distanza (teleprocessing) è
dedicato una parte del capitolo 2.

6
serie trae origine da questo concetto: sono, infatti, 360 i gradi dell'angolo giro. I modelli della
serie 360 sono estremamente modulari, in grado, cioè, di potersi adattare alle varie
situazioni d'impiego e di crescere insieme alle esigenze dell'utilizzatore; hanno fra loro un
notevole livello di compatibilità (compreso il linguaggio macchina usato per guidare l'unità
di controllo durante l'esecuzione dei programmi), tanto da costituire, come sopra accennato,
una vera e propria "famiglia", essendo dotati di caratteristiche comuni ad un tale livello da
permettere anche i così detti passaggi di modello. Come conseguenza è, infatti, finalmente
possibile acquisire un nuovo elaboratore elettronico, più potente del precedente, con la
semplice sostituzione dell'unità centrale di elaborazione, senza modificare le caratteristiche
fisiche dell'intero sistema ed i programmi applicativi già tradotti in linguaggio macchina.
I circuiti integrati, utilizzati inizialmente per compiti di controllo e di elaborazione, vanno
gradatamente a sostituire anche funzioni di memorizzazione, cominciando da dispositivi
specializzati (ad esempio le memorie di transito ad alta velocità o "core memory") e da
macchine di ridotte dimensioni. 10 In questo modo si arriverà ben presto ad ottenere
prestazioni ancora più elevate, raggiungendo per la prima volta tempi di accesso alle
informazioni contenute nelle memorie centrali talmente rapide da dover essere misurate in
nanosecondi (ns)11. Si riducono così, non solo i tempi impiegati per effettuare le ela-
borazioni, ma anche le dimensioni delle macchine, i costi di produzione, i consumi di
energia e le conseguenti emissioni di calore, e così via.
Tutte queste innovazioni, oltre a cambiare l'architettura fisica delle macchine, vengono a
modificare, direttamente od indirettamente, soprattutto le modalità di programmazione e,
più in generale, la filosofia d'impiego degli elaboratori elettronici. In questi anni, si assiste,
infatti, anche ad un notevole sviluppo del software di base e, in particolare, dei sistemi
operativi.12 Questi ultimi erano stati introdotti per consentire un buon utilizzo delle
macchine dotate di nastri e dischi magnetici, già a livello di seconda generazione; in questo
nuovo contesto i sistemi operativi divengono, ormai, strumenti indispensabili per tutta una
serie di scopi: per controllare i modelli via via più complessi che vengono prodotti, per
facilitare il "dialogo" con gli operatori, ma, soprattutto, per limitare al massimo le necessità
di intervento manuale nelle operazioni, per permettere sempre più sofisticati livelli di
multiprogrammazione 13 e per consentire elaborazioni interattive in teleprocessing.
Questi progressi portano allo sviluppo delle applicazioni in tempo reale, tramite l'uso di
dispositivi periferici anche remoti (ossia i terminali); nasce anche la tecnica del "time-sha-
ring"14 e si sviluppano apposite aziende specializzate nella realizzazione di applicazioni
specifiche, le così dette "software house", che cominciano ben presto a progettare e a
distribuire programmi generalizzati, ma adattabili alle esigenze di utenti anche molto
differenziati: i package.

10 Si tratta dei primi mini-computer, macchine di ridotte dimensioni, con elevato impiego di queste nuove
componenti, come, ad esempio, la serie PDP della Digital ed i MITRA della francese CII.
11 È necessario precisare che il termine nanosecondi significa miliardesimi di secondo (in sigla ns, con un ordine di
-9
grandezza pari a 10 secondi); relativamente alle misure dei tempi sono rilevanti, ai nostri fini, anche i microsecondi (µs),
-6 -3
nonché i millisecondi (ms), che sono rispettivamente dell'ordine di grandezza di: 10 secondi e 10 secondi.
12 Per il concetto di software di base come livello di interfaccia uomo macchina vedasi i capitoli dedicati alla
programmazione ed al software; i sistemi operativi, sono trattati nell’ultimo capitolo.
13 La multiprogrammazione è una tecnica che consente ad un elaboratore di svolgere "contemporaneamente" più
lavori; per teleprocessing intendiamo un insieme di risorse hardware e software che consentono l'uso a distanza di un
elaboratore elettronico. Per una trattazione un po' più ampia della multiprogrammazione si veda l’ultimo capitolo.
14 Questa tecnica permette, soprattutto in ambienti scientifici, l'uso di un potente strumento di calcolo da parte di
molti utenti, anche diverse centinaia. Gli utilizzatori sono in gran parte collegati al sistema tramite terminali interattivi ed
usano modalità operative che simulano, almeno in apparenza, il collegamento con una macchina dedicata.

7
Negli anni '70, secondo alcuni dal 1971, con l'annuncio della serie IBM 370, caratterizzata da
un punto di vista hardware da circuiti a larga scala di integrazione (LSI = Large Scale
Integration) e poi a larghissima scala di integrazione (VLSI = Very Large Scale Integration),
secondo altri dal 1972, con la nascita del microprocessore 15, si inizia a parlare di elaboratori
della quarta generazione. Oltre ai conseguenti ulteriori miglioramenti in costi, dimensioni,
velocità, ecc., cresce notevolmente la modularità e la compatibilità dei sistemi elettronici ed
il livello di sofisticazione dei dispositivi di input/output e di memorizzazione.
In questo decennio si diffondono, in modo generalizzato, i videoterminali, le unità a disco,
con capacità via via crescenti e nascono i floppy-disk, con il compito principale di sostituire
le schede perforate. Anche dal punto di vista delle applicazioni si assiste ad uno sviluppo
prima impensabile: banche dati, applicazioni telematiche, impiego degli strumenti
informatici nella didattica, fino ad arrivare a concepire i sistemi esperti e le così dette
applicazioni di intelligenza artificiale, che fanno presagire, proprio su tali basi, non più
esclusivamente legate ai progressi dell'elettronica, la nascita di una nuova generazione di
elaboratori.
Da un punto di vista pratico, gli sviluppi dell'hardware e del software, oltre a rendere
sempre più potenti e sofisticati i grossi sistemi elettronici, generano anche, proprio in questi
anni, un diverso fenomeno: la nascita di sistemi di piccola e piccolissima dimensione (prima
praticamente irrealizzabili), che, dati i costi sempre più ridotti, vanno via via diffondendosi,
e diventano un fenomeno che non è certamente possibile trascurare.
Questo processo, prima embrionalmente realizzato con la costruzione di macchine di
dimensioni limitate, si era gradatamente sviluppato a partire dalla terza generazione degli
elaboratori. Alcuni costruttori avevano infatti iniziato a realizzare i primi modelli di
minicomputer: elaboratori di modeste dimensioni, con struttura fisica diversa da quella dei
grossi sistemi ed orientati, in genere, ad applicazioni di tipo scientifico, se non, addirittura,
molto specifico. Con la tecnologia disponibile a livello di quarta generazione, si ha un
notevole sviluppo di queste macchine, che vengono largamente impiegate sia in usi
specifici, come il controllo della produzione, la progettazione dei prodotti industriali, il
controllo di qualità. I minicomputer si diffondono poi, in misura sempre più rilevante, anche
in ambienti tipicamente amministrativi, non solo in piccole aziende, ma anche in reparti
specializzati di aziende più grandi, divenendo, in molti casi, anche terminali intelligenti di
sistemi di grosse dimensioni.
La tecnologia degli anni settanta ha creato le premesse per un ulteriore tipo di elaboratore,
quello basato su un solo, o su pochi, microprocessori: nascono gli home ed i personal
computer, destinati, via via, anche ad usi non più esclusivamente domestici e/o personali,
a cui erano in un primo tempo relegati per mancanza di software e per lo scarso sviluppo
delle periferiche. Ormai il personal computer è strumento di lavoro, consente di colloquiare
in rete con altri elaboratori simili od uguali, funziona da terminale rispetto a grossi sistemi
elettronici, ma, soprattutto, consente applicazioni di informatica personale, prima
impensabili, si sostituisce in misura sempre crescente alle macchine da scrivere ed ai sistemi

15 Il microprocessore è un dispositivo elettronico, realizzato con la tecnica dei circuiti integrati, che può eseguire
operazioni logiche ed aritmetiche su dati seguendo in modo autonomo un programma; in questo modo, vengono ad
identificarsi in un solo chip le funzioni di unità di controllo e di unità logico-aritmetica: in pratica l'intera CPU (Central
Processing Unit) di un elaboratore. I microprocessori sono tuttavia adoperati anche per il controllo di unità periferiche (ad
esempio, stampanti) e di macchine diverse dagli elaboratori elettronici (impianti industriali, strumenti di misura, ecc.).
Nella costruzione dei microprocessori ha un ruolo fondamentale l'italiano Federico Faggin che, nel 1968, presso la
Fairchild integra una CPU in un solo chip permettendo significative riduzioni di costo e di complessità. Entro una decina
di anni i microprocessori divengono la tecnologia utilizzata per le CPU e per molti altri componenti.

8
di duplicazione, divenendo sempre di più qualcosa di simile ad un nuovo tipo di penna.
Queste innovazioni hanno un significato estremamente importante per tutta la nostra
società. A tal punto, che, secondo noi, è possibile asserire che sia proprio l'avvento di queste
macchine basate su microprocessore, come elemento principale della circuiteria logica, a
farci entrare nella quinta generazione degli elaboratori. In altre parole, ancora una volta non
si è trattato di una evoluzione indipendente dall'hardware (come si stava ipotizzando alla
fine degli anni '70, e come abbiamo accennato), anche se la rilevanza delle nuove filosofie
applicative non è certamente un elemento da trascurare. Quanto appena affermato si
giustifica non solo per gli effetti che producono queste macchine di per sé, ma anche, e
soprattutto, per le conseguenze di ordine teorico, oltre che pratico, che hanno
sull'organizzazione generale dell'informatica e sulla progettazione di tutti gli altri
dispositivi.
Siamo ormai arrivati a produrre elaboratori elettronici di piccolissime dimensioni (poco più
grandi di una penna, se non inclusi in un orologio), con un uso ridottissimo di energia, con
notevoli capacità di memoria (ormai costituita da tecnologie non magnetiche) e notevoli
velocità di trattamento dei dati, con costi ridottissimi, cui si aggiunge una notevole
evoluzione dei prodotti applicativi che rendono sempre più facile ed intuitivo il loro
utilizzo.
In questo quadro tecnologico si sviluppa la nostra cultura: il problema è di farlo capire a
tutti. A questo si aggiunge la necessità di far usare, a più persone possibile ma in modo
veramente consapevole ed attivo (e quindi non solo come banali utilizzatori), gli strumenti
sempre più perfezionati, che abbiamo a disposizione; solo così “non subiranno”
l'informatica, ma potranno utilizzarla come, e forse meglio di, una qualunque altra
tecnologia. 16
Concludo il paragrafo con una semplice disquisizione sul termine “elaboratore elettronico”
che forse può sembrare obsoleto. In realtà è l’uso del termine “calcolatore” che pur
largamente usato (si pensi alla dizione “personal computer”) non corrisponde più allo scopo
principale di queste macchine, che era quello citato all’inizio del presente paragrafo: il
calcolo. Ora i così detti “pc” non servono solo per fare elaborazioni numeriche, anzi per la
grande maggioranza degli utenti “personali” servono a comunicare, a navigare in rete, a
prenotare viaggi, a pagare bollettini, per informarsi, ecc.. In altre parole si utilizza questo
strumento per elaborare informazioni: da qui l’assurdo di non utilizzare quasi più il termine
che oggi è più corrispondente ossia quello di elaboratore elettronico, ma si sa che le sigle, e
le parole brevi in genere, attirano sempre di più.

16 Una delle sfide ancora in corso, ben lontana dagli aspetti di cui ci stiamo occupando in questo testo, è quella
relativa ai super calcolatori. Non esiste una definizione rigorosamente scientifica di queste macchine: si tratta di sistemi
elettronici dotati di una altissima potenza di calcolo e caratterizzati da costi molto elevati. Da anni i progettisti di queste
macchine si stanno allontanando dalle architetture tradizionali: prima sono nate macchine parallele, dotate di un numero
sempre maggiore di processori (unità centrali di elaborazione) e macchine vettoriali, dove un processore è in grado di
trattare contemporaneamente insiemi di valori (naturalmente i due tipi di approccio possono anche coesistere), ma
soprattutto da cluster di macchine, anche collegate in rete. Un obbiettivo che si prospetta è quello di costruire una macchina
in grado di compiere mille miliardi di operazioni al secondo (un Teraflop), dotata di mille miliardi di byte di memoria
centrale (un Terabyte) ed in grado di scambiare dati alla velocità di mille miliardi di byte al secondo. I cluster possono
essere locali o territorialmente diffusi e collegati in rete. Come si può osservare l'evoluzione dell'informatica, anche in
relazione ai soli aspetti hardware, non si limita certo ai personal computer.
In questo quadro, un gruppo di fisici italiani, diretto da Nicola Canibbio, presidente dell'Istituto Nazionale di Fisica
Nucleare, ha presentato già nel febbraio 1991, l'APE 100, il calcolatore attualmente più veloce del mondo (100 sta per
100 Gigaflop, anche se in un primo momento funziona a "soli" 0.4 Gigaflop). Gli APE (Array Processor Experiment)
sono una famiglia di elaboratori sviluppata in Italia a partire dal 1984; in pratica i precursori dei cluster Linux di oggi.

9
2. ASPETTI APPLICATIVI DELL'INFORMATICA

Parlando della storia degli strumenti di calcolo, con particolare riferimento agli elaboratori
elettronici, abbiamo fatto solo qualche cenno agli aspetti applicativi, o meglio alle pro-
blematiche che dovevano essere affrontate con questi strumenti. Vediamo ora di ripensare
meglio a queste implicazioni, sicuramente importanti.
Inizialmente il problema che gli uomini vogliono risolvere per mezzo di un qualche
dispositivo è essenzialmente meccanico: fare i calcoli in modo più rapido e sicuro di come
si possa fare manualmente o con il solo ausilio di semplici strumenti quali, ad esempio,
carta, penna, tavole, ecc.. Già i primi veri e propri mezzi di calcolo utilizzati e meritevoli di
questo nome, in quanto ideati e realizzati con questo scopo, come, l'abaco (diffuso da
migliaia di anni in Cina ed in Medio Oriente) o i sistemi basati sulle corde con i nodi, hanno,
sia pure in modo limitato, anche lo scopo di fare ricordare delle quantità, cioè, in altre parole,
di memorizzare dei valori, per tempi più o meno brevi. È questa, quindi, una ulteriore
funzione che hanno o hanno avuto molti degli strumenti che abbiamo preso in esame.
In realtà, se riflettiamo maggiormente su questo ultimo aspetto, possiamo arrivare a
concludere che, fin dalla più remota antichità, o meglio da quando è sorta una qualche
primitiva forma di civiltà, l'uomo avverte la necessità di registrare, elaborare e trasmettere
informazioni. E le prime ad essere trattate sono soprattutto le informazioni di tipo numerico.
Sembra, infatti, dimostrato che l'uomo impara a contare, ed a svolgere quindi una attività
razionale in questo campo, prima di imparare a scrivere concetti diversi dai numeri.
A conferma dell'esistenza di una necessità ben più ampia ed articolata della semplice
esigenza di effettuare, in modo sempre più preciso e veloce, operazioni aritmetiche,
assistiamo, parallelamente alla evoluzione dei mezzi di calcolo che contribuiscono a
semplificare il problema delle "elaborazioni", allo sviluppo di codici e di mezzi di
conservazione e trasmissione delle informazioni.
Dopo la nascita dei primi rudimentali sistemi di numerazione, e a parte la diffusione dei
numeri romani, si arriva, nel tempo, a capire l'importanza dei sistemi posizionali: in partico-
lare, di quello a base dieci, cui viene a corrispondere un metodo di rappresentazione che
utilizza dieci simboli (fino ad arrivare a quelli che usiamo attualmente, portati in occidente
dagli arabi e di probabile origine indiana). Di alcuni sistemi di numerazione con basi diverse
(ad esempio dodici e venti) e di origine europea (latina e celtica) rimangono, tuttavia, tracce
nella lingua e nelle abitudini commerciali del nostro continente. 17
Anche se, per molto tempo, gli strumenti realizzati sono in genere soltanto strumenti di
calcolo, nascono parallelamente, allo scopo di trasmettere le informazioni, alfabeti codificati,
fino a giungere a quello ideato da Morse, che diventa ben presto uno standard, prima per la
telegrafia e poi per le trasmissioni radiotelegrafiche.
Abbiamo anche visto che, già nell'ottocento, si sono anche differenziate due classi di
applicazioni: quelle che implicano molte operazioni e pochi dati e quelle dove, viceversa,
sono molti i dati e poche e semplici le operazioni da compiere. Anche se, rispettivamente, si
è soliti riferirsi ai problemi del primo tipo parlando di elaborazioni a carattere scientifico e,
viceversa, chiamando applicazioni di tipo commerciale quelli dell'altro tipo, è un dato di
fatto, che la tecnica dell'epoca non permette di risolvere con un'unica macchina queste due
classi di problemi, che, comunque, rimangono categorie astratte; generalmente nella pratica
i problemi si pongono in genere a livello intermedio: non esistono, quindi, (solo)

17 Questi concetti sono ripresi con un taglio più applicativo nel capitolo 3.

10
applicazioni scientifiche e commerciali, a parte il fatto che lo stesso soggetto può avere più
problemi, di tipo anche molto diverso, da risolvere. Ma ogni campo ha le sue problematiche,
particolari sono ad esempio le esigenze della statistica, da un lato disciplina da considerarsi
nell’ambito della matematica applicata con tutte le problematiche della ricerca scientifica,
dall’altro come strumento di conoscenza necessario al “governo dello stato” (da questo
deriva infatti il suo nome), con la necessità di trattare ingenti masse di dati, per arrivare a
indagini di grosse dimensioni fino ad arrivare ai censimenti.
La macchina di Babbage crea le premesse per individuare una prima soluzione, anche se
solo teorica, alle due problematiche. Costituisce, infatti, la prima idea di macchina
universale, in grado cioè di risolvere tutti quei problemi che possono essere scomposti in
passi, corrispondenti ad operazioni che la macchina può eseguire. Ma il passaggio dalla
teoria alla pratica è ovviamente condizionato dalla tecnologia e molto dipende, in vista della
risoluzione di problemi eterogenei, dal tipo di operazioni che una macchina del genere è in
grado di compiere. Le prime concretizzazioni di tale idea, con macchine elettromeccaniche
ed elettroniche non sono ancora suscettibili di risolvere tutte le problematiche, ma solo
quelle di tipo scientifico.
Le macchine di Hollerith raggiungono molto presto una ragguardevole diffusione, ma non
rappresentano certamente la soluzione finale dei problemi di calcolo e, più in generale, di
trattamento dei dati in senso più ampio. Consentono, tuttavia, di elaborare con rapidità, via
via crescente, moltissime informazioni; queste qualità, come abbiamo detto, non sono
trascurabili per le aziende, ma sono meno importanti, almeno in questa epoca, in campo
scientifico. La statistica, come appena accennato e come avremo occasione di ripetere,
rappresenta un esempio importante di disciplina scientifica che può giovarsi notevolmente
anche di queste macchine.
Con le macchine meccanografiche si diffonde anche la scheda perforata, che rappresenta
anche un innovativo sistema di memorizzazione delle informazioni. Infatti, sebbene questo
ultimo aspetto non sia certamente lo scopo primario della sua ideazione, questo piccolo
cartoncino permette non solo di elaborare, ma anche di conservare i dati raccolti. Si creano
quindi le premesse per poter perseguire, attraverso le macchine, nuovi obiettivi, ben diversi
da quelli limitati di solo ausilio al calcolo.
La ricerca di uno strumento veramente flessibile, anche e soprattutto in senso logico, è
tuttavia sempre più necessaria e, cosa certamente non trascurabile, anche dal punto di vista
economico, soprattutto in relazione alle problematiche aziendali, che si vanno via via
sviluppando, uscendo dai ristretti ambiti computistici e contabili. Quando la macchina di
Babbage è ormai divenuta realtà, e funziona grazie all'elettronica, la sua naturale fusione
con gli strumenti meccanografici e con le nuove tecnologie magnetiche realizza finalmente
una macchina modulare ed adattabile a tutte le problematiche, purché riducibili in forma di
algoritmo. 18
Fino ad allora la tecnologia aveva limitato le applicazioni concrete di concetti già ben
sviluppati a livello teorico; da questo momento tali limitazioni sono sempre più ridotte fino
a divenire quasi inesistenti, almeno per il nostro livello di problematiche. È, caso mai, più
difficile adeguare la mentalità della sempre crescente moltitudine di uomini che vengono
ad interagire con gli elaboratori elettronici. Se la loro mancanza costituiva un elemento
frenante per lo sviluppo concreto di idee già teorizzate, la loro presenza permette, via, via,
nuove e più avanzate elaborazioni teoriche. L'elaboratore, ormai, non serve che in minima

18 Il termine "modulare" è trattato in modo ampio nel capitolo 2. Il concetto di algoritmo è spiegato diffusamente a
partire dal capitolo 4.

11
parte ad effettuare calcoli, e va progressivamente riducendosi anche la pur "moderna"
funzione di conservazione delle informazioni, che, evolutasi grazie alla ideazione di ben più
avanzati strumenti di memorizzazione (nastri e dischi magnetici, prima, dispositivi ottici,
strumenti “solid state” come le così dette memory pen, poi), si estende, in modo notevole,
anche al trattamento delle informazioni non numeriche.
Con l'uso congiunto di memorie di massa sempre più ampie, economiche e veloci, di unità
di elaborazione sempre più potenti e di linee di trasmissione dati con più elevate prestazioni
e maggiore affidabilità (si pensi all'uso sempre crescente delle fibre ottiche), si chiude,
almeno concettualmente, un primo ciclo che vede la realizzazione di un sistema completo
per: conservare, trattare e trasmettere le informazioni, ossia di quello strumento che risolve
in modo così rapido ed efficiente, ma soprattutto "integrato", tre fondamentali
problematiche che, come abbiamo accennato, l'uomo ha dovuto affrontare sino dal sorgere
delle prime civiltà.
La disponibilità di questo mezzo non è certamente rimasto senza conseguenze. Un esempio
importante di nuove elaborazioni teoriche che prendono lo spunto dall'esistenza di questo
strumento è costituito dal notevole sviluppo di studi sui sistemi informativi (aziendali o
non). Certo il concetto di sistema informativo ed il processo di elaborazione logica di simili
problematiche possono benissimo prescindere dall'esistenza dello strumento informatico;
nessuno può negare, però, che in questo caso sia stata proprio la disponibilità di queste
macchine a stimolare la nascita e lo sviluppo della teoria. Se oggi le discipline aziendali
affrontano problematiche avanzate, come ad esempio i sistemi a supporto delle decisioni,
non è certamente trascurabile il contributo che ha dato, soprattutto in questi ultimi anni,
uno strumento concepito, almeno inizialmente, per fare quasi esclusivamente dei calcoli.
Possiamo ribadire che è stata la disponibilità degli elaboratori elettronici a stimolare e a
condizionare, con le loro caratteristiche, le elaborazioni teoriche di un gran numero di
metodologie di recente concezione all'interno di queste discipline. 19
Discorso analogo può essere fatto per i "data base" (basi di dati) e i "data bank" (banche dati),
certamente realizzabili in vario modo, ma sviluppatesi e note a molti studiosi, ed alla grande
massa degli utilizzatori, perché esistono gli elaboratori e gli strumenti di trasmissione dati
a distanza. 20 Tutto questo vale, ovviamente, per tutte le moderne applicazioni della tele-
matica.
A livello scientifico, ed anche in statistica, il discorso è forse meno evidente, almeno per il
momento. In questo ambito, infatti, è tuttora rilevante il fatto che l'elaboratore elettronico
abbia reso possibile applicare teorie nate a prescindere dall'elaboratore, ma che senza tale
strumento non avrebbero mai potuto trovare concreta applicazione Non sono, tuttavia,
assenti, anche per queste discipline, progressi condizionati da nuove elaborazioni teoriche,
derivate dalla presenza di questo strumento; si pensi, ad esempio, al data mining e al data

19 L'elaboratore elettronico ha provocato per il personale impiegatizio delle aziende, i così detti "white collar", una
rivoluzione paragonabile a quella che l'avvento del vapore prima, e dell'energia elettrica poi, hanno causato, con la mec-
canizzazione del lavoro d'officina, ai così detti "blue collar", ma, forse, ancora più radicale. Abbiamo assistito infatti ad
una serie di innovazioni che, dopo aver visto l'uso degli elaboratori nei processi amministrativi e gestionali, hanno portato,
ad esempio, alla nascita dell'office automation, ossia alla nascita di tutto quell'insieme di procedure automatiche che
consentono il trattamento dei testi, l'interrogazione di archivi a fini conoscitivi, l'uso di sistemi di posta elettronica,
l'effettuazione di calcoli non espressamente previsti da apposite transazioni, fino ad arrivare, appunto, ai "decision support
system" (che consentono agli elaboratori di dare un contributo sempre più importante alle attività decisionali
dell'imprenditore) ed all'uso dell'informatica per lo svolgimento di compiti personali: agenda, scadenzario, ecc.. Va
precisato che anche “in officina” la meccanizzazione delle attrezzature, prima basato sull’uso di circuiteria elettronica
dedicata, non può più prescindere dall’uso di microprocessori, che “animano”, ad esempio, anche i così detti robot.
20 Gli strumenti hardware utilizzati per la trasmissione dei dati sono illustrati nel capitolo 2.

12
warehousing.
Naturalmente, anche se, come abbiamo visto, possiamo considerare concluso un primo
ciclo, non viene certamente a fermarsi, accanto al progresso tecnologico che porta sempre a
più avanzate sofisticazioni, un parallelo processo evolutivo che riguarda la filosofia d'uso
di questi strumenti
La possibilità di costruire nuova informazione sulla base di informazione precedentemente
acquisita (chiamata inferenza), utilizzando tecniche sia deduttive che induttive, ha portato
alla nascita della, così detta, "intelligenza artificiale" (A.I.). Questo nuovo approccio ha visto
lo sviluppo di un numero sempre crescente di linguaggi non procedurali, ossia di strumenti
particolarmente adatti alla descrizione di modelli per rappresentare la conoscenza. Un
sottoinsieme di queste nuove filosofie d'impiego degli elaboratori ha portato alla nascita dei
"sistemi esperti", che consentono, sia a livello didattico, che applicativo, di ampliare in
misura sempre meno trascurabile l'uso di questi strumenti in ambiti dove finora non si
poteva nemmeno pensare di utilizzarli. L'integrazione di questi strumenti con le basi di dati
fa intravedere notevoli prospettive per tutte quelle discipline dove la gestione non
strettamente procedurale di notevoli quantità di dati è condizione indispensabile per il
raggiungimento degli obiettivi perseguiti.

13

Potrebbero piacerti anche