Sei sulla pagina 1di 15

Dario Tomasella

History & Computing Association

Note sulla conferenza inaugurale Londra 21-23 marzo 1986

Introduzione

Tra il 21 e il 23 marzo di quest’anno si è tenuta al Westfield College, una delle Università di Londra, la conferenza inaugurale di fondazione della neonata associazione History and Computing. Questa si propone come scopo il tenere in collegamento tra loro, magari informatico, tutti coloro che si interessano dell'applicazione dei computer alla ricerca storica. La conferenza si presentava piuttosto ben nutrita sia di nomi che di argomenti, anche perchè, oltre alle relazioni sui vari lavori in corso di svolgimento o appena compiuti, presentava anche, in contemporanea, delle dimostrazioni pratiche di lavoro ed una esposizione di vari tipi di computer e di programmi. In questi tre giorni quindi ci sono state qualcosa come 44 relazioni e 20 dimostrazioni pratiche, a cui hanno assistito quasi trecento persone provenienti, oltre che da tutta Europa, anche dal Canada e dagli USA. L’unico fatto rimarchevole negativamente era la scarsa presenza italiana, sei persone in tutto, delle quali solo tre si occupavano di storia in senso stretto. Purtroppo non di tutte le relazioni e dimostrazioni si sono potuti avere i testi scritti, di molte non sono stati distribuiti per niente e di molte altre sono stati dati solo degli schemi per poter seguire la relazione orale. Questi ultimi però sono scarsamente utili per poter dare un resoconto della relazione originale, quindi per scrivere queste note sui lavori della conferenza utilizzeremo solo le relazione complete avute. Ne risulterà senz’altro un lavoro solo parziale e monco in molte sue parti, ma pensiamo sia sufficente per dare un’idea generale della situazione attuale riguardante le metodologie utilizzate nel campo della ricerca storica mediante l’uso del computer. D’altra parte, per poter avere il panorama completo delle relazioni svolte bisognerà attendere la pubblicazione degli atti, cosa che avverrà in occasione della prossima conferenza, la quale si terrà probabilmente nel periodo marzo-aprile del prossimo anno. I nomi più conosciuti tra i presenti erano quelli di Manfred Thaller, di Jean- Philippe Genet e Michael Hainsworth. Purtroppo di entrambe le loro relazioni non abbiamo avuto il testo scritto, comunque, detto in sintesi, il primo si è soffermato sulla ricerca nel mondo del software, così come viene portata avanti al Max Planck Istitute fur Geschicte di Gottinga, e gli altri due invece hanno parlato del sistema PRQSQP, un sistema di ricerca e ricostruzione familiare basato sulla prosopografia.

La mappa catastale di Carpi

L’unico intervento italiano è stata una dimostrazione pratica della professoressa Francesca Bocchi e del dottor Fermando Lugli, entrambi dell’Università di Bologna, sull’analisi e la ricostruzione computerizzata, della mappa catastale della città di Carpi. In questa città infatti, nel 1472 furono istituite due tasse sulla proprietà: l’affitto e la sopraguardia. Mentre quest’ultima dipendeva unicamente dalla classe sociale

1

d'appartenenza del proprietario, la prima dipendeva anche dalla lunghezza della facciata dell’immobile. Per la riscossione di queste imposte era necessario dunque uno strumento adatto e fu quindi costruito un catasto vero e proprio. Ogni casa vi venne

riportata con il nome del proprietario, la lunghezza della facciata, il nome dei vicini e i limiti toponomastici. Purtroppo l’unica informazione numerica era appunto la lunghezza della facciata e quindi tutti gli studi effettuati su questo catasto, anche se avevano fornito sempre nuove informazioni, non avevano però permesso la ricostruzione della pianta catastale. C’erano però due motivi che spingevano in tal senso: da una parte, dato che furono eseguiti numerosi lavori urbanistici all’inizio del 1500 da Alberto III Pio e siccome la città si presentava come socialmente specializzata, si voleva sapere se questa specializzazione era antecedente o successiva

a questi lavori, se si era cioè sviluppata nel tempo oppure era stata imposta dall’alto.

Dall’altra parte, era nelle intenzioni del Consiglio Comunale lo svolgimento di alcuni lavori nel centro storico e li si voleva nel pieno rispetto della conservazione storica ed

urbanistica. La ricostruzione della pianta catastale si presentava irta di difficoltà, in quanto il

catasto non riportava nèla profondità delle case, nèla larghezza delle vie, nè se c’erano

o meno portici davanti alle case. È stato quindi deciso di provare a trattare i dati

elettronicamente, in maniera tale da poter definire i luoghi dove erano situate le quasi mille proprietà recensite dal catasto. Da questa recensione però non si potevano ricavare tutti gli edifici della città in quanto mancavano quelli della famiglia

dominante, i Pio, e quelli di proprietà della Chiesa, non gravati da alcuna imposta e quindi non registrati. Oltre ai nobiles exempti, non gravati da tasse, le altre classi sociali cittadine erano: i castellani antiqui ed i castellani adiuncti, paganti tasse ridotte, ed i burgenses paganti invece le tasse complete. La prima operazione fu quella di memorizzare tutti dati contenuti nel catasto su di un computer (un mini Commodore). Le case erano 851 e 46 le aree fabbricabili,

ognuna accompagnata da circa una trentina di informazioni. Nell’immagazzinamento di tutti questi dati è stata rispettata il più possibile la loro frastagliatura e quindi essi sono ora disponibili in forma completamente disaggregata, riutilizzabili pienamente dunque per qualsiasi nuovo tipo di ricerca: sarà sufficente riaggregarli in funzione dello studio che si intende effettuare.

I primi programmi sviluppati sono serviti ad ottenere due liste: in ordine alfabetico

quella dei proprietari e per ordine di grandezza quella delle facciate. I programmi successivi servirono invece alla ricostruzione delle serie di proprietà. Per poter compiere questa operazione sono stati presi in esame i seguenti dati:

- borgo nel quale si trovava la proprietà

- suo orientamento rispetto alla strada

- i confini topografici

- i nomi dei proprietari vicini

- gli appunti sulla compravendita Mediante questo programma si sono ricostruite le file di case via per via. Il computer partiva dalla proprietà impostata dall’operatore per poi passare a quella immediatamente vicina e cosi via fino ad arrivare ad un confine topografico dove si fermava. Veniva quindi impostata una nuova direzione di ricerca ed il computer ripartiva fermandosi al successivo confine topografico e così via, fino all’esaurimento delle proprietà. A questa punto sono state costruite delle griglie in plastica trasparente riproducenti ognuna una fila di case in scala 1:1OOO. Queste griglie vennero poi adagiate su delle

2

planimetrie particellari della citta datate 1893, le più antiche e precise a disposizione, e

si è visto che esse andavano ad incastrarsi quasi perfettamente, dando così una prima

ed abbastanza precisa idea del piano catastale del 1472. Utilizzando poi delle planimetrie aerofotografiche in scala 1:1OOO, fatte esguire dal Consiglio Comunale nel 1983, questa pianta catastale venne definita ancora più precisamente con la

ricostruzione di tutti passaggi interni ai blocchi di case (androni) che correvano lungo i confini delle proprietà. Per la costruzione finale del piano catastale fu utilizzato un altro computer, dotato

di una periferia grafica e di uno schermo a colori ad alta risoluzione. Il programma

utlizzato era il CAD (Computer Aid Design) il quale permise di tracciare le griglie delle file di case verificandole mentre le disegnava, costituendole quindi in un modello matematico suscettibile d’essere ulteriormente manipolato in modo da poter ottenere ingrandimenti, riduzioni, prospettive, etc. Questo programma ha permesso anche la costruzione di alcune carte tematiche per la rapida comprensione visiva della struttura urbanistica e sociale della citta di Carpi del 1472.

Cartografia storica

Questo della cartografia storica è stato il tema affrontato direttamente dalla relazione di Renée-Arlette Faugeres, dell’Istitut d'Histoire Moderne et Contemporaine

di Parigi. Secondo la relatrice, la cartografia storica è una parte molto importante della

ricerca storica in generale, come è stato dimostrato dalla scuola storica francese ed in particolare dalla “scuola delle Annales". La mappa storica, intesa come carta tematica, aiuta infatti la comprensione in quanto permette di visualizzare immediatamente il fenomeno che si sta studiando, aiutati in ciò dall’uso della condensazione, della grafica simbolica e delle legende. La sua forza sta nel fatto che essa permette di correlare

immediatamente i dati di un fenomeno con l’area geografica interessata, dando così un subitaneo quadro generale. La sua debolezza invece sta nel fatto che per lo storico questo è un impegno molto pesante, in quanto prende tempo e presuppone una conoscenza abbastanza buona delle tecniche cartografiche. Un’altro difetto sta nel fatto che ogni studioso elabora una propria grafica simbolica e le sue proprie legende e questo porta ad una profonda eterogeneità con conseguente difficoltà d’interpretazione delle mappe. Per suplire a questa mancanza di standardizzazione, l’IHMC ha elaborato

un metodo di cartografia automatica per il computer. Questo programma, così come descritto dalla relatrice, si basa, sui seguenti punti principali: scelta dei contorni di mappa, costruzione di un archivio dei dati di mappa, costruzione di un archivio dei dati storici, collegamento di questi due archivi, sia tra loro che con la legenda grafica, definizione grafica finale della mappa. Alcuni contorni di mappe sono già disponibili sul mercato dei software, nella maggior parte dei casi però lo storico si deve costruire da solo la sua mappa, la quale deve essere ovviamente in una scala compatibile con lo strumento. Se non sono disponibili dei contorni mappa numerici, la costruzione di questa può essere effettuata mediante delle periferie grafiche (plotter, mouse o videocamera) ed i dati memorizzati nell’archivio dati di mappa. L’archivio dati storici serve per l’immagazzinamento delle informazioni che si vogliono visualizzate sulla mappa. L’unico particolare da non perdere mai di vista è il mantenere la stessa unità di lavoro, cioè se la mappa è per dipartimenti, anche i dati devono essere per dipartimenti. Naturalmente se i nudi dati storici non sono significativi, possono essere trasformati matematicamente in

3

frequenze, percentuali, densità, etc. Il collegamento tra i due archivi avviene mediante un identificatore comune. Inoltre i dati storici vanno classificati e ad ogni classe assegnato un simbolo grafico. A questo punto si può iniziare la cartografazione automatica, alla quale si possono aggiungere annotazioni, legende, titoli, etc. Tutto ciò è attuabile con i mezzi tecnici disponibili oggi sul mercato ed il relativo software è in continuo aumento. È una cartografia un pò approssimativa rispetto a quella dei geografi, ma per gli storici è una approssimazione sufficente ed in più permette loro di essere indipendenti dall’aiuto di una specialista e possono quindi mantenere tutta la loro autonomia.

Memorizzazione delle immagini d’arte

Un’altra relazione che si è occupata di immagini computerizzate è stata quella di Michael Greenhalgh, docente di Storia dell’Arte all’Università di Leicester. Com’è facilmente comprensibile, ciò che differenzia profondamente la Storia dell’Arte dalle altre discipline storiche è l’ineliminabile necessità di immagini. La memorizzazione di queste a parole è estremamente difficile e comunque riduttiva, anche se si usa un linguaggio unificato. Un’altra difficoltà, che nasce però dagli storici dell’arte e non dalla disciplina in se stessa, è che essi pretendono una altissima flessibilità dei record per l’immagazzinamento dei dati. Quest’ultima, lo ammette il relatore stesso, è una pretesa che però può essere comune a tutti coloro che si occupano di scienze umanistiche. Il problema nasce dal fatto che si vorrebbe che la bancadati potesse riflettere il mondo reale e quindi la possibilità di complessità di quella si avvicini il più possibile alla complessità di questo; c’è insomma la pretesa che qualsiasi classificazione sia possibile. Come si vede, da un problema di procedura scaturisce immediatamente un problema logico, in quanto il computer, con la sua ferrea necessità di rigide classificazioni e indicizzazioni per non perdere le informazioni, impone a chi lo usa, se non una completa revisione, almeno una rigida definizione delle proprie classificazioni e categorie d’analisi. II primo problema avrà in un immediato futuro una risoluzione strettamente tecnologica: i videodischi. Questi potranno essere analogici o digitali, dotati di una migliore plasticità d’immagazzinamento e d’uso i secondi, molto più semplici da consultare, grazie alla grande possibilità di indicizzazioni semplici ed incrociate, i primi. I videodischi analogici potranno insomma essere sfogliati come un comune libro di figure, ma come un libro di figure avranno solo l’immagine fissa, senza possibilità di ingrandimento di dettagli o cambi di prospettiva, possibilità che sono invece realizzabili con quelli digitali. Le difficoltà più grosse sono comunque comuni ad entrambi: alto costo di invio delle immagini data la bassa velocità standardizzata di trasmissione dei segnali, i problemi del copyright legale delle immagini e l’alto costo dell’equipaggiamento. Per il secondo problema, la parte tecnologica della soluzione è invece già realizzata. Si tratta dell’utilizzo del modello relazionale al posto di quello gerarchico. Le differenze tra i due sono: nel primo i dati sono separati dai programmi mentre nel secondo ne sono legati, in quanto è l’unico modo per esprimere la gerarchia; nel primo, i dati sono memorizzati nella loro forma più semplice, mentre nel secondo è il concetto gerarchico stesso che impone il punto di vista dell’operatore sui dati; nel primo è possibile a chiunque applicare qualunque programma ai dati mentre il secondo pretende dei programmi ad hoc per ogni elaborazione complicata. Tutte queste però

4

sono una pluralità di facce di uno stesso argomento: l’indipendenza dei dati dai programmi. È questa indipendenza che permette di classificare, riclassificare e classificare di nuovo con grande facilità e quindi decreta la superiorità del modello relazionale su quello gerarchico. La seconda parte della relazione invece verteva su come costruire una bancadati ed elencava una serie di consigli in merito. Prima di tutto bisogna chiedersi se il computer è veramente necessario o se una soluzione manuale del problema che si sta affrontando non è forse migliore; poi bisogna tenere conto dei fattori tempo e spesa, controllare se esiste già un software adatto, se la bancadati avrà una ulteriore utilizzazione e probabilmente quale, decidere quindi se è meglio una piccola all’uopo, inutilizzabile per eventuali altre ricerche sullo stesso argomento, o una grande, che poi però dovrà essere mantenuta ed ampliata, ed infine non perdere mai di vista il fatto che, al di là dell’hardware e del software, quello che deve interessare principalmente sono i dati. Una volta che si è deciso di costruire una grande bancadati è preferibile utilizzare una macchina molto comune con abbondanza di software, che sia facilmente espandibile, con un sistema operativo standard e che sia utilizzabile anche per le periferiche. Per quanto riguarda la parte software, la bancadati dovrà utilizzare il modello relazionale ed essere pensata come una serie di files indipendenti e facilmente utilizzabili. Il package dovrà essere compatibile con più sistemi operativi ed avere un insieme di strumenti che permettano la creazione di banchedati più piccole ad uso degli utenti all’interno di quella generale. Poi sono stati presi in esame anche i problemi relativi alla standardizzazione dei dati all’interno del modello relazionale, sia per una loro maggior facilità d’uso che per poter lavorare in networking. Quando quest’ultimo verrà realizzato in maniera tale da poter avere un’alta velocità di trasmissione dei segnali, abbassando cosi i tempi e quindi i costi, si potranno eliminare le grandi e monolitiche banchedati a favore di quelle più piccole e specializzate in connessione tra loro. L’obiettivo massimo dovrebbe essere, secondo il professar Greenhalgh, una orchestrazione generale di tante piccole banchedati in collegamento tra loro, dove i dati verrebbero immagazzinati in una unica maniera standard e completamente svincolati dai programmi.

L’emigrazione degli Ugonotti

Un progetto che ha molte di queste caratteristiche è quello su cui ha relazionato Michelle Magdelaine dell’Istitut d'Histoire Moderne et Contemporaine di Parigi. Il suo nome è "CLEO" e si propone di analizzare l’emigrazione all’estero degli Ugonotti francesi tra il 1680 e il 1700. Lo scopo principale era costruire una grande bancadati che fungesse da fonte secondaria per la ricostruzione delle strade percorse da questi fuggitivi. Le fonti primarie si trovavano sia in Francia (registri di stato, liste di fuggitivi, liste di tasse sui loro possedimenti, etc.) che negli altri paesi europei, come Svizzera, Germania, Paesi Bassi, Gran Bretagna, Irlanda, che furono da essi attraversati o dove essi si stabilirono. I problemi da superare quindi erano i seguenti:

ottenere la collaborazione degli altri paesi, elaborare un programma di memorizzazione in grado di immagazzinare sia le fonti francesi che quelle degli altri paesi (liste di distribuzione, liste di carità, liste di quelli che vi si erano stabiliti, fonti legali, etc.) e l’adozione di un singolo metodo d’analisi per tutti i paesi.

5

Questi problemi furono risolti e, sia le università che le altre strutture che cooperano con il progetto, diventato quindi di dimensione europea, hanno accettato il metodo d’analisi unico. Le fonti sono state dunque memorizzate all’interno di un programma che ha ridotto al minimo le codifiche e che quindi ha mantenuto la maggior parte delle informazioni in "chiaro". Ciò è stato fatto per non perdere lo spirito della fonte. È ora possibile seguire ogni famiglia dalla sua partenza dalla Francia fino al suo arrivo in uno qualunque dei paesi citati. L’utilità di questa bancadati è dunque notevole, sia per la demografia che per la storia, sia politica che religiosa, sia per qualsiasi altra disciplina che vi voglia attingere informazioni.

Demographic Data Base

Sempre in tema di demografia storica, è stata molto interessante anche la relazione

di Gun Steflo e Jan Sundin, il primo dell’Università di Linkoping ed il secondo del

Demographic Data Base di Umeå. Essi hanno descritto il lavoro del Demographic Data Base appunto, una bancadati demografica nata nel 1973 con lo scopo di fornire ai ricercatori un più facile accesso ai dati di demografia storica svedese. Divenne poi dipartimento universitario ad Haparanda nel 1978. Il comitato direttivo è composto da ricercatori delle più svariate discipline (storia, geografia umana, etnologia, antropologia, sociologia, etc.) di tutte e cinque le università svedesi. Lo staff tecnico si basa su cinque gruppi di lavoro: il primo è formato da circa cinquanta persone che lavorano all’immissione delle informazioni nella bancadati ad Haparanda, il secondo è formato da circa venti persone che lavorano all’emissione dei dati ad Umeå, gli altri tre

gruppi, di circa quindici persone ciascuno, si occupano del reperimento delle informazioni da memorizzare in cooperazione con il gruppo di Haparanda. Un gruppo si occupa delle fonti primarie (principalmente registri parrocchiali), un altro delle fonti parallele (registri di tasse, registri scolastici, liste paga di fabbriche, registri di ospedali, liste di citazioni e tutte le altre fonti simili), ed il terzo sia delle statistiche compilate dai parroci tra il 1749 ed il 1890, sia di quegli individui che si spostavano spesso da una parrocchia all’altra, persone che dal diciannovesimo secolo in poi vennero riportate su di un registro particolare. Il periodo che principalmente interessa è

il diciannovesimo secolo appunto, ma i suoi limiti vengono spesso scavalcati. L’

obiettivo di questa bancadati è poter seguire un qualunque individuo dalla nascita alla morte, avere cioè la "possibilità" di poter ricostruire l’intera storia svedese.

I due relatori hanno svolto una puntuale spiegazione critica di tutte le fonti

utilizzate, sia primarie che parallele, fonti che risultano essere molto accurate ed abbondanti di informazioni. Le due più particolari sono le statistiche compilate dai sacerdoti ed il registro delle migrazioni. Queste non vengono classificate, nè tra le fonti primarie (quelle che contengono tutta la popolazione), nè tra quelle parallele (quelle che ne contengono solo una parte come la lista delle paghe di una fabbrica o dei sussidi di povertà), ma formano una classe a sé.

Le prime nascono nel 1749 con la nascita del primo uffico statistico svedese. Da

quell’anno in poi i parroci dovevano compilare ogni anno delle tabelle statistiche delle

nascite, dei matrimoni e delle morti. Ogni serie di anni (prima 3, poi 5 ed infine 10) dovevano inoltre fare delle tabelle statistiche sulla distribuzione della popolazione per età e sesso e dettagliare la loro occupazione.

Il registro delle migrazioni invece appare, come detto, nel diciannovesimo secolo

per la registrazione dello spostamento delle famiglie e delle singole persone in

6

conseguenza alla rivoluzione industriale. Questo registro rende dunque possibile seguire ogni persona durante la sua vita, anche se questa si sposta definitivamente nel corso di essa. Esso è un utilissimo completamento di quella operazione, purtroppo ancora da compiersi manualmente, che è il collegamento delle fonti. Quest’ultima infatti permette di seguire tutta la vita di un soggetto ed anche di rimediare agli errori compiuti dai parroci in fase di registrazione ed ai dati mancanti, in quanto permette la ricostruzione del contesto sociale. Gli errori compiuti dagli operatori in fase di memorizzazione dei dati sono invece compresi negli specifici limiti dei controlli logici. La comprensione da parte dell’utente delle informazioni della bancadati comunque dipende, in primo luogo, dalla sua comprensione del funzionamento del sistema di registrazione utilizzato dai parroci. Ciò di cui deve tener principalmente conto è che questi non prendevano continuamente in mano i registri e quindi le registrazioni si concentrano nei giorni di aggiornamento intensivo o in occasione di verifiche, inoltre alcuni dati interessano loro molto di più (nascite, matrimoni, morti) e dunque sono più curati rispetta ad altri che li interessano meno (occupazioni lavorative). I dati così raccolti sono talmente flessibili e ricchi da poter permettere un ampio ventaglio di possibilità di ricerca: dalla nunzialità alla fertilità, alla mortalità infantile, alla storia delle malattie, alla cura della salute, alle migrazioni, allo sviluppo dell'industria e dell’agricoltura, alla scolarità, alla struttura della proprietà terriera e del mercato del lavoro. La seconda parte della relazione era invece centrata su problemi e considerazioni sulla costruzione di una grande bancadati. Dal punto di vista dei due relatori questa costruzione deve essere tale per cui il trasferimento dei dati dalla fonte al computer deve essere fatto in maniera che non ci siano limiti per ulteriori possibilità di ricerca sulla fonte stessa ed inoltre non deve esserne tradito lo spirito, quindi nell’ immagazzinamento dei dati le considerazioni personali devono essere il più possibile evitate e quelle indispensabili ben documentate. Secondo i relatori infatti queste sono le tre regole di base:

1. Create few and simple rules.

2. Guarantee that the rules are follewed.

3. Put the user in charge, producing good documentation. [relazione Steflo-Sundin, pg.14]

La ragione è data dal fatto che la registrazione deve rimanere costante e non variare con il variare dell’operatore, da una parte, e dall’altra seguendo queste regole si facilita di molto il lavoro dell’utente. Quest’ultimo infatti deve essere certo che i suoi risultati dipendono direttamente dalla fonte e che l’operazione di registrazione non influisce minimamente su di essi. La documentazione generale e le istruzioni per l’uso della bancadati devono essere semplici e di tipo modulare, in maniera tale che l'utente possa esaminare solo ciò che lo interessa, senza annoiarlo o appesantirgli il lavoro. Nella costruzione della bancadati comunque la fase più importante, dopo aver naturalmente effettuato un accurata analisi critica delle fonti, è quella preliminare di pianificazione del sistema e, per conseguenza, la prova di funzionamento del sistema stesso. Se si è fatta una buona pianificazione delle registrazioni, corretta poi alla luce dei risultati della prova, si renderà molto più semplice lo stendere una buona stadardizzazione delle codifiche e quindi gli spazi per le interpretazioni personali

7

saranno ridotti al minimo, rendendo con ciò molto più affidabile la bancadati come fonte secondaria.

Registri Portuali di Gloucester

Un’altra relazione sulla costruzione di una grande bancadati, questa volta però incentrata su una fonte unica, è stata svolta da Peter Wakelin del Wolverhampton Polytechnic. La fonte in questione sono i Registri Portuali di Gloucester. Questi registri riportano in maniera vasta e dettagliata tutti i commerci costieri dell’ovest dell’ Inghilterra e dell’est del Galles. Gloucester era infatti una dogana portuale e quindi tutte le merci di tutti i tipi e tutti i mercanti che passarono per questo porto tra la fine del sedicesimo secolo e la fine del diciottesimo vennero regolarmente registrati. Attraverso questi registri è quindi possibile ricostruire tutta l’economia di questa parte della Gran Bretagna nel periodo di accellerazione dei commerci che portò alla Rivoluzione Industriale. I motivi per cui questi registri non sono ancora stati studiati a fondo sono pricipalmente due: la vastità del materiale, ininvestigabile con i metodi manuali tradizionali, ed il pregiudizio che i registri portuali in genere non siano una fonte affidabile. Con il computer si è facilmente superato il primo scoglio ed è diventato possibile studiare questa enorme massa di materiale, materiale che si è invece dimostrato di buona affidabilità. Il risultato è molto importante, in quanto questa è l’ unica fonte che permette di studiare i traffici costieri e fluviali della Gran Bretagna del periodo. Il lavoro di computerizzazione iniziò nel 1983 alla Schools of Humanities and Applied Science al Wolverhampton Polytechnic. Il suo scopo era di memorizzare completamente questa fonte in maniera tale che possa essere consultata e studiata non solo dai componenti lo staff di lavoro, ma da qualunque altro studioso, anche straniero, che lo volesse. Il problema principale era come immettere tutta questa enorme quantità

di dati nel computer. Per risolverlo è stata creata una rete di trascrittori volontari che, o

dalle loro case o dalle classi di ricerca del Politecnico, riportano i dati in forma leggibile dal computer. Come forma di pagamento essi hanno libero accesso alle informazioni della bancadati. Il lavoro più lungo è il controllo dei dati registrati, sia

perchè i volontari spesso lavorano da copie di scarsa qualità, sia perchè un registro può passare per le mani di una decina di persone prima di essere completato. Per poter memorizzare tutte le informazioni ricavabili dai registri, il package INFORMATION del computer PRIME comprende 19 tipi di fields in ciascun record, numero che può anche essere aumentato, cosicché un record medio ha circa 40 fields.

Si cerca di memorizzare tutto e se alcune informazioni sono ritenute di scarso valore

vengono immagazzinate in forma impaccata, pronte ad essere spacchettate qualora servissero. La bancadati è già funzionante, ancorché non completa, ed è già pronta a gettare luce sul consumo di generi di prima e seconda necessità (prodotti agricoli, manifatture tessili, carbone, ferro, etc.) Le analisi principali saranno incentrate sulla tipizzazione delle merci in movimento in questi due secoli, ma si potrà anche vedere come si comportavano i trasporti delle varie merci in corrispondenza di siccità, innondazioni, guerre, etc. Potranno essere estratti dati per rilevazioni statistiche ed essere fatte correlazioni con altre fonti. Secondo l’autore insomma, il potere informativo di questa fonte è quasi senza limiti.

8

Domesday Book

Un’altra fonte storica che è attualmente in corso di memorizzazione sono i Domesday Book e su questo lavoro ha svolto la relazione il professor John Palmer dell’Università di Hull. Il Domesday Book è il catasto imposto da Guglielmo I il Conquistatore nel 1086 per la definizione dell’appartenenza delle proprietà terriere, quindi come base per la riscossione delle imposte. Finora sono stati portati avanti tre progetti d’analisi di questa fonte: a Manchester sono stati fatti alcuni lavori statistici su dei valori riguardanti le contee del Midland usando lo Statistical Package for Social Sciences (SPSS); all’Università di Santa Barbara in California è stata creata una bancadati comprensiva di gran parte del testo e messa a disposizione degli studiosi; all’Università di Hull una versione più sofisticata del Package Domesday ha preso il posto di quella precedente e viene utilizzata per un corso postlaurea su History and Computing. Questi lavori hanno però un limite: le elaborazioni computerizzate fanno assegnamento su di una estrazione manuale dei dati. Secondo il professor Palmer questo approccio è inadeguato, in quanto porta ad una rigida selezione iniziale delle variabili e si possono anche sollevare dubbi sulla accuratezza della loro codifica. Inoltre questo approccio elimina automaticamente ogni possibilità di una qualche analisi linguistica. A tutt’oggi manca infatti sia un dettagliato indice del Domesday Book che il primo indispensabile strumento di ricerca, cioè una concordanza. Ma, al di la di tutto ciò, il problema principale è quello dell’interpretazione del testo, in quanto per uno stesso problema sono possibili differenti soluzioni, a secondo dell'interpretazione che si dà ai dati ricavati dal testo stesso. L’attuale progetto vuole ovviare a tutti questi difetti e si propone una memorizzazione totale dei Domesday Book nel mainframe dell’Università di Hull. Le principali fasi di questo lavoro sono: memorizzazione sia del testo inglese che di quello latino, strutturazione del testo, costruzione di una bancadati ad accesso casuale ed infine la creazione di programmi applicativi per le analisi. Per quanto riguarda la prima fase, il testo latino è un’edizione del 1733 che tenta di riprodurre la versione originale, comprese le abbreviazioni, le inserzioni, le annotazioni a margine e le idiosincrasie degli scrivani. Il testo inglese è la traduzione Phillymore. In totale si tratta di quasi cinque milioni di parole memorizzate. Per la seconda fase, il testo va strutturato in maniera tale che tutti i nomi di luoghi, i nomi personali, le parole che vengono usate per categorizzare, vengano ad essere contrassegnate per poter essere riconoscibili dalla macchina. Questa è la fase che crea maggiori problemi, in quanto deve essere fatta una rigida indicizzazione per poter maneggiare agevolmente il testo computerizzato ed inoltre vanno identificati individualmente sia tutte le persone che tutti i luoghi citati nel testo. In un prossimo futuro sarà possibile una indicizzazione automatica con il programma SMOBOL; per adesso è stato strutturato manualmente il testo della contea di Bedfordshire per permettere lo sviluppo delle altre fasi. La terza di queste fasi riguarda la costruzione della bancadati. Per permettere le analisi interattive del testo infatti, è necessario assegnare ad ogni parola un indice, per far sì che sia possibile un accesso casuale. Ciò è stato appunto fatto per il Bedfordshire e quindi per questa bancadati è ora possibile ogni analisi di tipo linguistico e paleografico.

9

La quarta e ultima fase è quella che riguarda i programmi applicativi. L’unico di questi sviluppato finora è dedicato all’analisi testuale. Il prossimo servirà al collegamento dei records per le analisi sociali. Lo scopo ultimo di questa fase è creare una serie di programmi che permettano all’utente di svolgere qualsiasi tipo d’analisi statistica, di tabulare, fare grafici e mappe dei dati in maniera interattiva. Ciò permetterà non solo di confrontare la struttura sociale dei proprietari terrieri prima e dopo la conquista normanna, ma di sviluppare anche qualsiasi altro tipo di ricerca sia linguistica, che sociale, che geografica, che di altro genere.

Danish Data Archives

Hans J. Marker dei Danish Data Archives ha parlato invece dell’analisi da lui compiuta sui prezzi e sulle paghe danesi tra il 1536 e il 1660. Queste due date sono molto importanti nella storia danese dal punto di vista delle fonti, in quanto prima di questo periodo queste sono quasi inesistenti, mentre dopo diventano sovrabbondanti, adirittura non affrontatili se non da un punto di vista statistico. In questo lasso di tempo di circa 13O anni invece le fonti esistono, ma sono completamente disorganizzate. C’è quindi stata la necessità di collazionare i dati da parecchie fonti differenti per poter svolgere questo lavoro. Comunque l’autore afferma di aver utilizzato, per una maggior sicurezza, solo quelle che lui chiama "transazioni genuine", ovvero quelle di cui sono riportati nelle fonti sia la quantità di merce, o il servizio erogato, che il corrispondente prezzo pagato. In un primo tempo sono state utilizzate le seguenti fonti: i diari di Eske Brok, i registri della proprietà Rantzau ed il libro mastro di Sophie Brahe. Queste infatti avevano la caratteristica di essere relative a proprietà nel distretto di Sonderhold e, oltre ad essere geograficamente concentrate , erano anche contemporanee, provenienti dalla stessa classe sociale ed in più erano già state edite a stampa. Tutto ciò naturalmente riduceva di molto i problemi metodologici. Queste fonti sono state utilizzate per uno studio pilota, studio che è poi stato allargato a comprendere anche i libri mastri dei feudi di Kala e di Dronningborg. Essi hanno una notevole estensione di dati e, all’interno di questi, sono facilmente distinguibili le "transazioni genuine" da quelle a prezzo imposto dal feudatario o addirittura dal Re stesso. Le transazioni riportate sono relative a derrate alimentari ed agricole, acquisti di materiale, pagamento di manodopera, di artigiani e di personale di servizio. I registri feudali però non erano editi a stampa e quindi è stato necessario microfilmarli, i microfilm sono stati poi letti e stampati da un reader/printer ed immagazzinati nel computer. La stampa si è rivelata necessaria, sia per non lavorare contemporaneamente su due schermi (molto stancante per la vista), sia per eventuali riferimenti posteriori. Numericamente parlando, dallo studio pilota l’autore ha ricavato qualcosa come 2380 prezzi e 192 paghe e dai registri feudali di Kala 2475 prezzi e 360 paghe. I registri di Dronningborg invece sono ancora in corso di studio. I programmi per la memorizzazione dei dati sono stati elaborati dall’autore stesso, sia quello relativo alle paghe che quello relativo ai prezzi, ed hanno una decina di fields ognuno, riportanti tutte le informazioni relative. Uno dei più grossi problemi affrontati è stato quello di uniformare i dati, i quali non sono omogenei nelle fonti. In quel periodo infatti c’erano parecchie unità monetarie e ancor di più unità quantitative. I dati quindi sono stati riconvertiti in una unica unità ed inoltre, dove l’unità di misura non era chiara, sono stati ricalcolati sia la

10

quantità che il prezzo. Non appena saranno stati memorizzati anche i registri del feudo di Dronningborg, l’intero complesso dei dati verrà trasferito in un mainframe e là completamente elaborato. È da tener presente però che i risultati di questa ricerca non permetteranno di trarre grandi risultati, in quanto lavori di questo tipo sono rari in Danimarca e quindi non ci sono altre distribuzioni statistiche con le quali fare dei confronti. Nello studio pilota l’analisi è stata suddivisa in due: da una parte le paghe e dall'altra i prezzi. Molti dei dati mancanti sono stati trovati per interpolazione matematica dalle celle di memoria vicine e quindi si sono ricostruiti molti dei prezzi di acquisto e di vendita mancanti. Sono quindi stati computati gli indici di sviluppo dei prezzi delle proprietà terriere della nobiltà nell’est dello Jutland e nella stessa maniera anche gli indici di sviluppo dei prezzi del cibo consumato per nutrire tutti gli impiegati di un castello. Per le paghe fare questo non era possibile, in quanto i dati mancanti erano cinque volte più numerosi dei dati presenti. Sono state allora considerate una serie di paghe erogate al personale dei castelli e delle proprietà e assunto che facessero parte di un trend. Sono stati quindi ricavati i logaritmi neperiani di queste paghe e i diagrammi d'indagine dimostrano che le paghe seguivano logaritmicamente la distribuzione di Gauss. Per controllare se vi fossero eventuli sviluppi lineari nelle relative paghe logaritmiche furono applicati sia il test dell’omogeneità della varianza di Bartlett (ipotesi accettata al 41%) } sia la regressione lineare (accettata all’8%). L’accettare l'ipotesi di uno sviluppo lineare dei logaritmi delle paghe significa dunque accettare una loro crescita esponenziale, crescita che fu poi calcolata antilogaritmicamente (1.

7%).

L’industria mineraria spagnola

Charles Harvey e Peter Taylor, entrambi del Bristol Polytechnic, nella loro relazione si sono occupati più della elaborazione dei dati che non della costruzione della bancadati in se stessa. Il loro studio riguardava gli investimenti finanziari inglesi nell’industria mineraria spagnola tra il 1851 e il 1913 e le relative accuse di "sfruttamento coloniale" rivolte dagli spagnoli agli inglesi. Le "tesi ufficiali" su questa vicenda infatti erano, da una parte, l’idea che il grande numero di ditte che si stabilirono in Spagna lo facessero con facilità grazie all’abbondanza di depositi minerari e, dall’altra, la convinzione che queste ditte ebbero profitti molto alti e derubarono la Spagna di una ottima occasione di sviluppo dell’economia nazionale. Secondo i due autori, le analisi computerizzate smentirono queste affermazioni ed invece dimostrarono che le miniere spagnole furono un affare a grande rischio dove molte imprese fallirono e, tenendo conto del rapporto rischi/profitti, questi ultimi non furono molto alti:

Queste analisi furono pricipalmente quattro e precisamente:

1.

capital and earnings series and internal rates of return of six leading companies in Spanish mining,

2.

the sarne for 174 British companies on an aggregated, disaggregated and individual basis.

3.

the analysis of the birth, life and death characteristics of the 174 companies.

3.

the analysis of output, labour and productivity of the individuai mining concerns listed in the Spanish Mining Survey of 1981. (relazione Harvey-Taylor, pp.2-3)

11

Le prime due analisi furono effettuate con dei programmi appositamente scritti, mentre le altre vennero elaborate con lo SPSS. La principale difficoltà incontrata stava nell’estremamente alto numero di dati da memorizzare, si trattava infatti di analizzare i bilanci di 174 ditte per 53 anni di attività. In realtà, questi si presentarono poi in numero inferiore in quanto molte ditte ebbero vita breve, ma ne rimanevano pur sempre una buona quantità. Per l’immagazzinamento fu creata una matrice per ogni ditta e all’interno di questa furono riportati tutti i dati della ditta stessa. Le matrici vennero poi impaccate per occupare meno spazio di memoria. Ciò portò alla necessaria scrittura di un programma di spacchettamento per poterla usare. Non fu utilizzato il sistema interattivo, ma quello in batch con schede perforate, ognuna delle quali aveva 80 colonne ed era un record. Furono così occupati 16OO records nel file. Questa procedura si dimostrò un errore. Se si fossero infatti registrati i dati file per file solo per gli anni di vita delle compagnie si sarebbero sì immagazzinati 2004 records, ma si sarebbe risparmiato tutto il tempo di scrittura del programma di spacchettamento. La parte rimanente della relazione è stata dedicata ad una accurata descrizione di tutti i calcoli e di tutte le elaborazioni applicate dai due relatori ai dati, parte che omettiamo di riassumere in quanto si tratta di analisi matematiche di stima degli investimenti. Come conclusione comunque, essi hanno affermato che, secondo la loro esperienza, i metodi più semplici e diretti sono probabilmente più efficaci di quelli sofisticati, anche se questo lavoro non avrebbe potuto essere compiuto senza l’aiuto del computer.

The lessons are thus: first to have a very good knowledge of the overall form and extent of the data before deciding on the best way of inputting it, and not second, to be seduced by the glamour of fancy computing. (relazione Harvey-Taylor pg.10).

Biblioteca Storica Austriaca

La professoressa Ulrike Winkler dell’Università di Klagenfurt ha invece parlato in merito ad una bancadati storico-bibliografica e precisamente quella della Biblioteca Storica Austriaca, la quale contiene tutto ciò che è stato pubblicato in Austria in tema politico-umanistico: monografie, saggi, tesi di laurea, articoli, atti di congressi, giornali, dichiarazioni politiche programmatiche. Contiene circa 70.000 registrazioni catalogate per soggetto. Essa è anche disponibile, oltre che memorizzata su un UNIVAC 1100-System, in volumi a stampa, uno per ogni anno dal 1945 al 1983.

Insegnamento con il computer

Un lavoro interessante, anche se esce dallo stretto contesto della ricerca storica con il computer, è stato presentata da Martin Wild dell’Advisory Unit for Computer Based Education di Hartfield. La sua relazione infatti descriveva un progetto di ricerca, che si è avviato quest’anno, per lo studio delle possibilità d’insegnamento della storia ai bambini per mezzo del computer. Questo progetto si inserisce nel contesto filosofico di quella che viene chiamata la Nuova Storia, filosofia che ha come

12

punto centrale lo sviluppo della comprensione dei processi e dei metodi dell’inchiesta storica. Quindi nell’insegnamento ai bambini, la storia non deve essere presentata più come un blocco monolitico di fatti accaduti, ma è necessario insegnare loro come

acquisire la conoscenza del passato. Insegnamento di strumenti, dunque e non di risultati, su un passato che deve essere visto in maniera dinamica e non statica. Il punto di partenza di questo nuovo tipo di insegnamento dovrebbero essere gli studi di Piaget e di Peel e l’uso degli schemi di lavoro da loro proposti. In termini valutativi, il risultato dovrebbe essere l’apprendimento da parte dei bambini di nuove abilità tecniche, di nuovi concetti e conoscenze. Questo nuovo approccio all’insegnamento della storia porta con sè tutta una serie

di problemi come: il ruolo dell’insegnante ed il suo stile pedagogico, il ruolo dei

bambini come allievi ed il loro uso delle fonti, l’immagine della storia ai loro occhi.

Questi sono esattamente i problemi che questo progetto si propone di affrontare attraverso una approfondita ricerca nel campo del software e del suo utilizzo per l'insegnamento.

Conclusioni

Ci siamo dilungati nel riassunto di queste relazioni per mostrare alcuni dei lavori che il computer è chiamato a svolgere nell’ambito della ricerca storica. Si sarà senz'altro notato che il compito che gli viene assegnato in misura maggiore è quello di bancadati, sfruttando quelle che sono le sue enormi capacità di memoria, ma, come abbiamo visto, può venir utilizzato anche per elaborazioni grafiche e per analisi matematiche di dati storico-numerici. Come bancadati però il suo utilizzo è molto più semplice, in quanto non richiede ulteriori conoscenze in altre discipline. Un’altro motivo, senz’altro più importante, che giustifica questo tipo di diffusione è che la

costruzione di una bancadati, piccola o grande che sia, è sempre l’indispensabile passo preliminare di tutte le elaborazioni. Queste infatti non possono avvenire senza che il computer abbia un magazzino dove attingere il materiale su cui deve lavorare e dove depositare i risultati raggiunti: una bancadati appunto. Questo fatto trova conferma diretta nel piccolo panorama di relazioni viste; all’interno di tutti questi lavori infatti c’ erano sempre delle banchedati, da quelli più "semplici", come la Biblioteca Storica Austriaca, a quelli che hanno sviluppato più complicate elaborazioni, come l’analisi degli investimenti inglesi nelle miniere spagnole o l’analisi dei prezzi e delle paghe danesi. A ben guardare però queste banchedati non sono tutte uguali, anzi, dal punto di vista della fonte memorizzata, le potremmo suddividere in due "tipi": memorizzazione

di una fonte vasta e complessa, di difficile investigazione con metodi manuali

tradizionali, come nel caso dei Registri Portuali di Gloucester o dei Domesday Book, e la memorizzazione collazionata di molte piccole fonti dello stesso tipo, come nel caso del lavoro Steflo-Sundin sulla demografia storica svedese. È da osservare però che questa distinzione non è della bancadati in quanto tale, ma nel suo modo di costruzione. Ciò che invece rimane comune ad entrambi i "tipi" è il fatto che, una volta memorizzata la fonte primaria, la bancadati, e per conseguenza lo strumento stesso, diventa una fonte secondaria di più facile e pratica consultazione. Per questo motivo tutti gli autori hanno posto l’accento sulla fedeltà di registrazione e si sono fortemente preoccupati di non perdere lo "spirito" della fonte, appunto perché il computer, inteso

13

come bancadati, sia una fonte secondaria di pari dignità ed affidabilità di quella primaria. Tutto ciò naturalmente non è così semplice come può sembrare a prima vista. È vero che in questo modo il ricercatore, avendo piena fiducia in coloro che hanno curato l’immissione dei dati nella macchina, può risparmiare il tempo che avrebbe speso nella ricerca dei dati in polverosi archivi ed utilizzarlo per pensare, cosa che in campo matematico avrebbe fatto urlare di gioia sia Gottfried Wilhelm Libeniz che Charles Babbage; per contro però chi organizza fattivamente la memorizzazione delle informazioni è costretto a fare un grosso sforzo di pensiero per una loro classificazione e categorizzazione. Questo perché la bancadati non è come una cassapanca dove ci si possono buttare dentro tutte le informazioni e poi, quando servono, cercarle con comodo. La bancadati computerizzata pretende delle classificazioni e delle indicizzazioni perfette e la pena per l’inosservanza di questa regola è massima, cioè la perdita delle informazioni memorizzate. Di conseguenza, anche l’utente si trova costretto a seguire le classificazioni e le indicizzazioni definite dai pianificatori della bancadati, in quanto egli non può mettersi di cercare una informazione a casaccio, trovarla sarebbe pressocché impossibile. Uno degli effetti più positivi quindi che l’uso del computer può avere sugli storici, sia come pianificatori che come utenti, è appunto il costringerli a rivedere ed a ridefinire le loro classificazioni e le loro categorie d’ analisi e questa volta senza ambiguità, ma con la precisione necessaria all’uso di questo strumento. La relazione sulle banchedati per la storia dell’arte da questo punto di vista è molto significativa. Ultimamente però tutto ciò è diventato molto più semplice, in quanto sono state semplificate le possibilità di lavoro con lo strumento. Prima di tutto, perché ci si può lavorare in modo interattivo, cioè dialogandoci direttamente per mezzo della tastiera anche nel caso di mainframe, essendo stata tecnologicamente superata la necessità di lavorare in batch, cioè per mezzo delle schede perforate. Poi perché, grazie alla ulteriore espansione delle possibilità di memoria, è ora possibile utilizzare il modello relazionale al posto di quello gerarchico. Il modello relazionale difatti, come affermata anche dal professor Greenhalgh, permette la memorizzazione delle informazioni in maniera completamente sganciata dai programmi, su files indipendenti. Ciò naturalmente permette di classificare e categorizzare i dati più e più volte, senza correre il rischio di rovinarli e rendendo possibile quindi il tentare tutte le classificazioni desiderate. Per le ulteriori elaborazioni delle informazioni contenute nella bancadati, da quelle grafiche alle analisi matematiche, si sarà notato dalle relazioni che ci sono delle enormi possibilità. La relazione della professoressa Bocchi sulla mappa catastale di Carpi da una parte, e le relazioni di Marker sui prezzi e le paghe danesi e quella di Harvey-Taylor sugli investimenti inglesi dall’altra, ne sono una chiara dimostrazione pratica. Queste possibilità però non sono sfruttate appieno e la ragione di ciò ci sembra vada ricercata appunto in quel bisogno di ulteriore preparazione specifica a cui accennavamo più sopra. Questo sempre restando nell’ottica di una piena autonomia dello storico, naturalmente se egli decide di rinunciarci può sempre farsi aiutare da altri specialisti. Ma se lo storico decide, come speriamo, di mantenere la sua autonomia anche nel corso di queste ulteriori elaborazioni, ciò avrà senz’altro degli effetti positivi sulla ricerca storica, in quanto lo studioso di scienze umanistiche si troverà a dover imparare nuovi linguaggi simbolici d’analisi, contribuendo così ad abbattere quella barriera pregiudiziale che inutilmente divide le scienze tecniche da quelle umanistiche.

14

Può darsi che un giorno si arriverà al punto di trasformare i modelli storici in equazioni matematiche, come prevedeva Fernand Braudel 1 , ma per oggi intanto accontentiamoci di poter effettuare delle indagini storiche, molto più vaste e dettagliate, con l’aiuto di questo strumento che, se opportunamente usato, ci permette di risparmiare molto del nostro tempo e di poterlo utilizzare in maniera più interessante e produttiva.

Trieste, maggio 1986

1 Cfr. Braudel, Fernand, Storia e scienze sociali, in La “lunga durata", in Braudel, Fernand: La storia e le altre scienze sociali (a cura di), Bari, Laterza, 1974.

15