Sei sulla pagina 1di 15

Dario Tomasella

History & Computing Association


Note sulla conferenza inaugurale Londra 21-23 marzo 1986 Introduzione Tra il 21 e il 23 marzo di questanno si tenuta al Westfield College, una delle Universit di Londra, la conferenza inaugurale di fondazione della neonata associazione History and Computing. Questa si propone come scopo il tenere in collegamento tra loro, magari informatico, tutti coloro che si interessano dell'applicazione dei computer alla ricerca storica. La conferenza si presentava piuttosto ben nutrita sia di nomi che di argomenti, anche perch, oltre alle relazioni sui vari lavori in corso di svolgimento o appena compiuti, presentava anche, in contemporanea, delle dimostrazioni pratiche di lavoro ed una esposizione di vari tipi di computer e di programmi. In questi tre giorni quindi ci sono state qualcosa come 44 relazioni e 20 dimostrazioni pratiche, a cui hanno assistito quasi trecento persone provenienti, oltre che da tutta Europa, anche dal Canada e dagli USA. Lunico fatto rimarchevole negativamente era la scarsa presenza italiana, sei persone in tutto, delle quali solo tre si occupavano di storia in senso stretto. Purtroppo non di tutte le relazioni e dimostrazioni si sono potuti avere i testi scritti, di molte non sono stati distribuiti per niente e di molte altre sono stati dati solo degli schemi per poter seguire la relazione orale. Questi ultimi per sono scarsamente utili per poter dare un resoconto della relazione originale, quindi per scrivere queste note sui lavori della conferenza utilizzeremo solo le relazione complete avute. Ne risulter senzaltro un lavoro solo parziale e monco in molte sue parti, ma pensiamo sia sufficente per dare unidea generale della situazione attuale riguardante le metodologie utilizzate nel campo della ricerca storica mediante luso del computer. Daltra parte, per poter avere il panorama completo delle relazioni svolte bisogner attendere la pubblicazione degli atti, cosa che avverr in occasione della prossima conferenza, la quale si terr probabilmente nel periodo marzo-aprile del prossimo anno. I nomi pi conosciuti tra i presenti erano quelli di Manfred Thaller, di JeanPhilippe Genet e Michael Hainsworth. Purtroppo di entrambe le loro relazioni non abbiamo avuto il testo scritto, comunque, detto in sintesi, il primo si soffermato sulla ricerca nel mondo del software, cos come viene portata avanti al Max Planck Istitute fur Geschicte di Gottinga, e gli altri due invece hanno parlato del sistema PRQSQP, un sistema di ricerca e ricostruzione familiare basato sulla prosopografia.

La mappa catastale di Carpi Lunico intervento italiano stata una dimostrazione pratica della professoressa Francesca Bocchi e del dottor Fermando Lugli, entrambi dellUniversit di Bologna, sullanalisi e la ricostruzione computerizzata, della mappa catastale della citt di Carpi. In questa citt infatti, nel 1472 furono istituite due tasse sulla propriet: laffitto e la sopraguardia. Mentre questultima dipendeva unicamente dalla classe sociale
1

d'appartenenza del proprietario, la prima dipendeva anche dalla lunghezza della facciata dellimmobile. Per la riscossione di queste imposte era necessario dunque uno strumento adatto e fu quindi costruito un catasto vero e proprio. Ogni casa vi venne riportata con il nome del proprietario, la lunghezza della facciata, il nome dei vicini e i limiti toponomastici. Purtroppo lunica informazione numerica era appunto la lunghezza della facciata e quindi tutti gli studi effettuati su questo catasto, anche se avevano fornito sempre nuove informazioni, non avevano per permesso la ricostruzione della pianta catastale. Cerano per due motivi che spingevano in tal senso: da una parte, dato che furono eseguiti numerosi lavori urbanistici allinizio del 1500 da Alberto III Pio e siccome la citt si presentava come socialmente specializzata, si voleva sapere se questa specializzazione era antecedente o successiva a questi lavori, se si era cio sviluppata nel tempo oppure era stata imposta dallalto. Dallaltra parte, era nelle intenzioni del Consiglio Comunale lo svolgimento di alcuni lavori nel centro storico e li si voleva nel pieno rispetto della conservazione storica ed urbanistica. La ricostruzione della pianta catastale si presentava irta di difficolt, in quanto il catasto non riportava nla profondit delle case, nla larghezza delle vie, n se cerano o meno portici davanti alle case. stato quindi deciso di provare a trattare i dati elettronicamente, in maniera tale da poter definire i luoghi dove erano situate le quasi mille propriet recensite dal catasto. Da questa recensione per non si potevano ricavare tutti gli edifici della citt in quanto mancavano quelli della famiglia dominante, i Pio, e quelli di propriet della Chiesa, non gravati da alcuna imposta e quindi non registrati. Oltre ai nobiles exempti, non gravati da tasse, le altre classi sociali cittadine erano: i castellani antiqui ed i castellani adiuncti, paganti tasse ridotte, ed i burgenses paganti invece le tasse complete. La prima operazione fu quella di memorizzare tutti dati contenuti nel catasto su di un computer (un mini Commodore). Le case erano 851 e 46 le aree fabbricabili, ognuna accompagnata da circa una trentina di informazioni. Nellimmagazzinamento di tutti questi dati stata rispettata il pi possibile la loro frastagliatura e quindi essi sono ora disponibili in forma completamente disaggregata, riutilizzabili pienamente dunque per qualsiasi nuovo tipo di ricerca: sar sufficente riaggregarli in funzione dello studio che si intende effettuare. I primi programmi sviluppati sono serviti ad ottenere due liste: in ordine alfabetico quella dei proprietari e per ordine di grandezza quella delle facciate. I programmi successivi servirono invece alla ricostruzione delle serie di propriet. Per poter compiere questa operazione sono stati presi in esame i seguenti dati: - borgo nel quale si trovava la propriet - suo orientamento rispetto alla strada - i confini topografici - i nomi dei proprietari vicini - gli appunti sulla compravendita Mediante questo programma si sono ricostruite le file di case via per via. Il computer partiva dalla propriet impostata dalloperatore per poi passare a quella immediatamente vicina e cosi via fino ad arrivare ad un confine topografico dove si fermava. Veniva quindi impostata una nuova direzione di ricerca ed il computer ripartiva fermandosi al successivo confine topografico e cos via, fino allesaurimento delle propriet. A questa punto sono state costruite delle griglie in plastica trasparente riproducenti ognuna una fila di case in scala 1:1OOO. Queste griglie vennero poi adagiate su delle
2

planimetrie particellari della citta datate 1893, le pi antiche e precise a disposizione, e si visto che esse andavano ad incastrarsi quasi perfettamente, dando cos una prima ed abbastanza precisa idea del piano catastale del 1472. Utilizzando poi delle planimetrie aerofotografiche in scala 1:1OOO, fatte esguire dal Consiglio Comunale nel 1983, questa pianta catastale venne definita ancora pi precisamente con la ricostruzione di tutti passaggi interni ai blocchi di case (androni) che correvano lungo i confini delle propriet. Per la costruzione finale del piano catastale fu utilizzato un altro computer, dotato di una periferia grafica e di uno schermo a colori ad alta risoluzione. Il programma utlizzato era il CAD (Computer Aid Design) il quale permise di tracciare le griglie delle file di case verificandole mentre le disegnava, costituendole quindi in un modello matematico suscettibile dessere ulteriormente manipolato in modo da poter ottenere ingrandimenti, riduzioni, prospettive, etc. Questo programma ha permesso anche la costruzione di alcune carte tematiche per la rapida comprensione visiva della struttura urbanistica e sociale della citta di Carpi del 1472.

Cartografia storica Questo della cartografia storica stato il tema affrontato direttamente dalla relazione di Rene-Arlette Faugeres, dellIstitut d'Histoire Moderne et Contemporaine di Parigi. Secondo la relatrice, la cartografia storica una parte molto importante della ricerca storica in generale, come stato dimostrato dalla scuola storica francese ed in particolare dalla scuola delle Annales". La mappa storica, intesa come carta tematica, aiuta infatti la comprensione in quanto permette di visualizzare immediatamente il fenomeno che si sta studiando, aiutati in ci dalluso della condensazione, della grafica simbolica e delle legende. La sua forza sta nel fatto che essa permette di correlare immediatamente i dati di un fenomeno con larea geografica interessata, dando cos un subitaneo quadro generale. La sua debolezza invece sta nel fatto che per lo storico questo un impegno molto pesante, in quanto prende tempo e presuppone una conoscenza abbastanza buona delle tecniche cartografiche. Unaltro difetto sta nel fatto che ogni studioso elabora una propria grafica simbolica e le sue proprie legende e questo porta ad una profonda eterogeneit con conseguente difficolt dinterpretazione delle mappe. Per suplire a questa mancanza di standardizzazione, lIHMC ha elaborato un metodo di cartografia automatica per il computer. Questo programma, cos come descritto dalla relatrice, si basa, sui seguenti punti principali: scelta dei contorni di mappa, costruzione di un archivio dei dati di mappa, costruzione di un archivio dei dati storici, collegamento di questi due archivi, sia tra loro che con la legenda grafica, definizione grafica finale della mappa. Alcuni contorni di mappe sono gi disponibili sul mercato dei software, nella maggior parte dei casi per lo storico si deve costruire da solo la sua mappa, la quale deve essere ovviamente in una scala compatibile con lo strumento. Se non sono disponibili dei contorni mappa numerici, la costruzione di questa pu essere effettuata mediante delle periferie grafiche (plotter, mouse o videocamera) ed i dati memorizzati nellarchivio dati di mappa. Larchivio dati storici serve per limmagazzinamento delle informazioni che si vogliono visualizzate sulla mappa. Lunico particolare da non perdere mai di vista il mantenere la stessa unit di lavoro, cio se la mappa per dipartimenti, anche i dati devono essere per dipartimenti. Naturalmente se i nudi dati storici non sono significativi, possono essere trasformati matematicamente in
3

frequenze, percentuali, densit, etc. Il collegamento tra i due archivi avviene mediante un identificatore comune. Inoltre i dati storici vanno classificati e ad ogni classe assegnato un simbolo grafico. A questo punto si pu iniziare la cartografazione automatica, alla quale si possono aggiungere annotazioni, legende, titoli, etc. Tutto ci attuabile con i mezzi tecnici disponibili oggi sul mercato ed il relativo software in continuo aumento. una cartografia un p approssimativa rispetto a quella dei geografi, ma per gli storici una approssimazione sufficente ed in pi permette loro di essere indipendenti dallaiuto di una specialista e possono quindi mantenere tutta la loro autonomia.

Memorizzazione delle immagini darte Unaltra relazione che si occupata di immagini computerizzate stata quella di Michael Greenhalgh, docente di Storia dellArte allUniversit di Leicester. Com facilmente comprensibile, ci che differenzia profondamente la Storia dellArte dalle altre discipline storiche lineliminabile necessit di immagini. La memorizzazione di queste a parole estremamente difficile e comunque riduttiva, anche se si usa un linguaggio unificato. Unaltra difficolt, che nasce per dagli storici dellarte e non dalla disciplina in se stessa, che essi pretendono una altissima flessibilit dei record per limmagazzinamento dei dati. Questultima, lo ammette il relatore stesso, una pretesa che per pu essere comune a tutti coloro che si occupano di scienze umanistiche. Il problema nasce dal fatto che si vorrebbe che la bancadati potesse riflettere il mondo reale e quindi la possibilit di complessit di quella si avvicini il pi possibile alla complessit di questo; c insomma la pretesa che qualsiasi classificazione sia possibile. Come si vede, da un problema di procedura scaturisce immediatamente un problema logico, in quanto il computer, con la sua ferrea necessit di rigide classificazioni e indicizzazioni per non perdere le informazioni, impone a chi lo usa, se non una completa revisione, almeno una rigida definizione delle proprie classificazioni e categorie danalisi. II primo problema avr in un immediato futuro una risoluzione strettamente tecnologica: i videodischi. Questi potranno essere analogici o digitali, dotati di una migliore plasticit dimmagazzinamento e duso i secondi, molto pi semplici da consultare, grazie alla grande possibilit di indicizzazioni semplici ed incrociate, i primi. I videodischi analogici potranno insomma essere sfogliati come un comune libro di figure, ma come un libro di figure avranno solo limmagine fissa, senza possibilit di ingrandimento di dettagli o cambi di prospettiva, possibilit che sono invece realizzabili con quelli digitali. Le difficolt pi grosse sono comunque comuni ad entrambi: alto costo di invio delle immagini data la bassa velocit standardizzata di trasmissione dei segnali, i problemi del copyright legale delle immagini e lalto costo dellequipaggiamento. Per il secondo problema, la parte tecnologica della soluzione invece gi realizzata. Si tratta dellutilizzo del modello relazionale al posto di quello gerarchico. Le differenze tra i due sono: nel primo i dati sono separati dai programmi mentre nel secondo ne sono legati, in quanto lunico modo per esprimere la gerarchia; nel primo, i dati sono memorizzati nella loro forma pi semplice, mentre nel secondo il concetto gerarchico stesso che impone il punto di vista delloperatore sui dati; nel primo possibile a chiunque applicare qualunque programma ai dati mentre il secondo pretende dei programmi ad hoc per ogni elaborazione complicata. Tutte queste per
4

sono una pluralit di facce di uno stesso argomento: lindipendenza dei dati dai programmi. questa indipendenza che permette di classificare, riclassificare e classificare di nuovo con grande facilit e quindi decreta la superiorit del modello relazionale su quello gerarchico. La seconda parte della relazione invece verteva su come costruire una bancadati ed elencava una serie di consigli in merito. Prima di tutto bisogna chiedersi se il computer veramente necessario o se una soluzione manuale del problema che si sta affrontando non forse migliore; poi bisogna tenere conto dei fattori tempo e spesa, controllare se esiste gi un software adatto, se la bancadati avr una ulteriore utilizzazione e probabilmente quale, decidere quindi se meglio una piccola alluopo, inutilizzabile per eventuali altre ricerche sullo stesso argomento, o una grande, che poi per dovr essere mantenuta ed ampliata, ed infine non perdere mai di vista il fatto che, al di l dellhardware e del software, quello che deve interessare principalmente sono i dati. Una volta che si deciso di costruire una grande bancadati preferibile utilizzare una macchina molto comune con abbondanza di software, che sia facilmente espandibile, con un sistema operativo standard e che sia utilizzabile anche per le periferiche. Per quanto riguarda la parte software, la bancadati dovr utilizzare il modello relazionale ed essere pensata come una serie di files indipendenti e facilmente utilizzabili. Il package dovr essere compatibile con pi sistemi operativi ed avere un insieme di strumenti che permettano la creazione di banchedati pi piccole ad uso degli utenti allinterno di quella generale. Poi sono stati presi in esame anche i problemi relativi alla standardizzazione dei dati allinterno del modello relazionale, sia per una loro maggior facilit duso che per poter lavorare in networking. Quando questultimo verr realizzato in maniera tale da poter avere unalta velocit di trasmissione dei segnali, abbassando cosi i tempi e quindi i costi, si potranno eliminare le grandi e monolitiche banchedati a favore di quelle pi piccole e specializzate in connessione tra loro. Lobiettivo massimo dovrebbe essere, secondo il professar Greenhalgh, una orchestrazione generale di tante piccole banchedati in collegamento tra loro, dove i dati verrebbero immagazzinati in una unica maniera standard e completamente svincolati dai programmi.

Lemigrazione degli Ugonotti Un progetto che ha molte di queste caratteristiche quello su cui ha relazionato Michelle Magdelaine dellIstitut d'Histoire Moderne et Contemporaine di Parigi. Il suo nome "CLEO" e si propone di analizzare lemigrazione allestero degli Ugonotti francesi tra il 1680 e il 1700. Lo scopo principale era costruire una grande bancadati che fungesse da fonte secondaria per la ricostruzione delle strade percorse da questi fuggitivi. Le fonti primarie si trovavano sia in Francia (registri di stato, liste di fuggitivi, liste di tasse sui loro possedimenti, etc.) che negli altri paesi europei, come Svizzera, Germania, Paesi Bassi, Gran Bretagna, Irlanda, che furono da essi attraversati o dove essi si stabilirono. I problemi da superare quindi erano i seguenti: ottenere la collaborazione degli altri paesi, elaborare un programma di memorizzazione in grado di immagazzinare sia le fonti francesi che quelle degli altri paesi (liste di distribuzione, liste di carit, liste di quelli che vi si erano stabiliti, fonti legali, etc.) e ladozione di un singolo metodo danalisi per tutti i paesi.
5

Questi problemi furono risolti e, sia le universit che le altre strutture che cooperano con il progetto, diventato quindi di dimensione europea, hanno accettato il metodo danalisi unico. Le fonti sono state dunque memorizzate allinterno di un programma che ha ridotto al minimo le codifiche e che quindi ha mantenuto la maggior parte delle informazioni in "chiaro". Ci stato fatto per non perdere lo spirito della fonte. ora possibile seguire ogni famiglia dalla sua partenza dalla Francia fino al suo arrivo in uno qualunque dei paesi citati. Lutilit di questa bancadati dunque notevole, sia per la demografia che per la storia, sia politica che religiosa, sia per qualsiasi altra disciplina che vi voglia attingere informazioni.

Demographic Data Base Sempre in tema di demografia storica, stata molto interessante anche la relazione di Gun Steflo e Jan Sundin, il primo dellUniversit di Linkoping ed il secondo del Demographic Data Base di Ume. Essi hanno descritto il lavoro del Demographic Data Base appunto, una bancadati demografica nata nel 1973 con lo scopo di fornire ai ricercatori un pi facile accesso ai dati di demografia storica svedese. Divenne poi dipartimento universitario ad Haparanda nel 1978. Il comitato direttivo composto da ricercatori delle pi svariate discipline (storia, geografia umana, etnologia, antropologia, sociologia, etc.) di tutte e cinque le universit svedesi. Lo staff tecnico si basa su cinque gruppi di lavoro: il primo formato da circa cinquanta persone che lavorano allimmissione delle informazioni nella bancadati ad Haparanda, il secondo formato da circa venti persone che lavorano allemissione dei dati ad Ume, gli altri tre gruppi, di circa quindici persone ciascuno, si occupano del reperimento delle informazioni da memorizzare in cooperazione con il gruppo di Haparanda. Un gruppo si occupa delle fonti primarie (principalmente registri parrocchiali), un altro delle fonti parallele (registri di tasse, registri scolastici, liste paga di fabbriche, registri di ospedali, liste di citazioni e tutte le altre fonti simili), ed il terzo sia delle statistiche compilate dai parroci tra il 1749 ed il 1890, sia di quegli individui che si spostavano spesso da una parrocchia allaltra, persone che dal diciannovesimo secolo in poi vennero riportate su di un registro particolare. Il periodo che principalmente interessa il diciannovesimo secolo appunto, ma i suoi limiti vengono spesso scavalcati. L obiettivo di questa bancadati poter seguire un qualunque individuo dalla nascita alla morte, avere cio la "possibilit" di poter ricostruire lintera storia svedese. I due relatori hanno svolto una puntuale spiegazione critica di tutte le fonti utilizzate, sia primarie che parallele, fonti che risultano essere molto accurate ed abbondanti di informazioni. Le due pi particolari sono le statistiche compilate dai sacerdoti ed il registro delle migrazioni. Queste non vengono classificate, n tra le fonti primarie (quelle che contengono tutta la popolazione), n tra quelle parallele (quelle che ne contengono solo una parte come la lista delle paghe di una fabbrica o dei sussidi di povert), ma formano una classe a s. Le prime nascono nel 1749 con la nascita del primo uffico statistico svedese. Da quellanno in poi i parroci dovevano compilare ogni anno delle tabelle statistiche delle nascite, dei matrimoni e delle morti. Ogni serie di anni (prima 3, poi 5 ed infine 10) dovevano inoltre fare delle tabelle statistiche sulla distribuzione della popolazione per et e sesso e dettagliare la loro occupazione. Il registro delle migrazioni invece appare, come detto, nel diciannovesimo secolo per la registrazione dello spostamento delle famiglie e delle singole persone in
6

conseguenza alla rivoluzione industriale. Questo registro rende dunque possibile seguire ogni persona durante la sua vita, anche se questa si sposta definitivamente nel corso di essa. Esso un utilissimo completamento di quella operazione, purtroppo ancora da compiersi manualmente, che il collegamento delle fonti. Questultima infatti permette di seguire tutta la vita di un soggetto ed anche di rimediare agli errori compiuti dai parroci in fase di registrazione ed ai dati mancanti, in quanto permette la ricostruzione del contesto sociale. Gli errori compiuti dagli operatori in fase di memorizzazione dei dati sono invece compresi negli specifici limiti dei controlli logici. La comprensione da parte dellutente delle informazioni della bancadati comunque dipende, in primo luogo, dalla sua comprensione del funzionamento del sistema di registrazione utilizzato dai parroci. Ci di cui deve tener principalmente conto che questi non prendevano continuamente in mano i registri e quindi le registrazioni si concentrano nei giorni di aggiornamento intensivo o in occasione di verifiche, inoltre alcuni dati interessano loro molto di pi (nascite, matrimoni, morti) e dunque sono pi curati rispetta ad altri che li interessano meno (occupazioni lavorative). I dati cos raccolti sono talmente flessibili e ricchi da poter permettere un ampio ventaglio di possibilit di ricerca: dalla nunzialit alla fertilit, alla mortalit infantile, alla storia delle malattie, alla cura della salute, alle migrazioni, allo sviluppo dell'industria e dellagricoltura, alla scolarit, alla struttura della propriet terriera e del mercato del lavoro. La seconda parte della relazione era invece centrata su problemi e considerazioni sulla costruzione di una grande bancadati. Dal punto di vista dei due relatori questa costruzione deve essere tale per cui il trasferimento dei dati dalla fonte al computer deve essere fatto in maniera che non ci siano limiti per ulteriori possibilit di ricerca sulla fonte stessa ed inoltre non deve esserne tradito lo spirito, quindi nell immagazzinamento dei dati le considerazioni personali devono essere il pi possibile evitate e quelle indispensabili ben documentate. Secondo i relatori infatti queste sono le tre regole di base:
1. Create few and simple rules. 2. Guarantee that the rules are follewed. 3. Put the user in charge, producing good documentation. [relazione Steflo-Sundin, pg.14]

La ragione data dal fatto che la registrazione deve rimanere costante e non variare con il variare delloperatore, da una parte, e dallaltra seguendo queste regole si facilita di molto il lavoro dellutente. Questultimo infatti deve essere certo che i suoi risultati dipendono direttamente dalla fonte e che loperazione di registrazione non influisce minimamente su di essi. La documentazione generale e le istruzioni per luso della bancadati devono essere semplici e di tipo modulare, in maniera tale che l'utente possa esaminare solo ci che lo interessa, senza annoiarlo o appesantirgli il lavoro. Nella costruzione della bancadati comunque la fase pi importante, dopo aver naturalmente effettuato un accurata analisi critica delle fonti, quella preliminare di pianificazione del sistema e, per conseguenza, la prova di funzionamento del sistema stesso. Se si fatta una buona pianificazione delle registrazioni, corretta poi alla luce dei risultati della prova, si render molto pi semplice lo stendere una buona stadardizzazione delle codifiche e quindi gli spazi per le interpretazioni personali
7

saranno ridotti al minimo, rendendo con ci molto pi affidabile la bancadati come fonte secondaria.

Registri Portuali di Gloucester Unaltra relazione sulla costruzione di una grande bancadati, questa volta per incentrata su una fonte unica, stata svolta da Peter Wakelin del Wolverhampton Polytechnic. La fonte in questione sono i Registri Portuali di Gloucester. Questi registri riportano in maniera vasta e dettagliata tutti i commerci costieri dellovest dell Inghilterra e dellest del Galles. Gloucester era infatti una dogana portuale e quindi tutte le merci di tutti i tipi e tutti i mercanti che passarono per questo porto tra la fine del sedicesimo secolo e la fine del diciottesimo vennero regolarmente registrati. Attraverso questi registri quindi possibile ricostruire tutta leconomia di questa parte della Gran Bretagna nel periodo di accellerazione dei commerci che port alla Rivoluzione Industriale. I motivi per cui questi registri non sono ancora stati studiati a fondo sono pricipalmente due: la vastit del materiale, ininvestigabile con i metodi manuali tradizionali, ed il pregiudizio che i registri portuali in genere non siano una fonte affidabile. Con il computer si facilmente superato il primo scoglio ed diventato possibile studiare questa enorme massa di materiale, materiale che si invece dimostrato di buona affidabilit. Il risultato molto importante, in quanto questa l unica fonte che permette di studiare i traffici costieri e fluviali della Gran Bretagna del periodo. Il lavoro di computerizzazione inizi nel 1983 alla Schools of Humanities and Applied Science al Wolverhampton Polytechnic. Il suo scopo era di memorizzare completamente questa fonte in maniera tale che possa essere consultata e studiata non solo dai componenti lo staff di lavoro, ma da qualunque altro studioso, anche straniero, che lo volesse. Il problema principale era come immettere tutta questa enorme quantit di dati nel computer. Per risolverlo stata creata una rete di trascrittori volontari che, o dalle loro case o dalle classi di ricerca del Politecnico, riportano i dati in forma leggibile dal computer. Come forma di pagamento essi hanno libero accesso alle informazioni della bancadati. Il lavoro pi lungo il controllo dei dati registrati, sia perch i volontari spesso lavorano da copie di scarsa qualit, sia perch un registro pu passare per le mani di una decina di persone prima di essere completato. Per poter memorizzare tutte le informazioni ricavabili dai registri, il package INFORMATION del computer PRIME comprende 19 tipi di fields in ciascun record, numero che pu anche essere aumentato, cosicch un record medio ha circa 40 fields. Si cerca di memorizzare tutto e se alcune informazioni sono ritenute di scarso valore vengono immagazzinate in forma impaccata, pronte ad essere spacchettate qualora servissero. La bancadati gi funzionante, ancorch non completa, ed gi pronta a gettare luce sul consumo di generi di prima e seconda necessit (prodotti agricoli, manifatture tessili, carbone, ferro, etc.) Le analisi principali saranno incentrate sulla tipizzazione delle merci in movimento in questi due secoli, ma si potr anche vedere come si comportavano i trasporti delle varie merci in corrispondenza di siccit, innondazioni, guerre, etc. Potranno essere estratti dati per rilevazioni statistiche ed essere fatte correlazioni con altre fonti. Secondo lautore insomma, il potere informativo di questa fonte quasi senza limiti.
8

Domesday Book Unaltra fonte storica che attualmente in corso di memorizzazione sono i Domesday Book e su questo lavoro ha svolto la relazione il professor John Palmer dellUniversit di Hull. Il Domesday Book il catasto imposto da Guglielmo I il Conquistatore nel 1086 per la definizione dellappartenenza delle propriet terriere, quindi come base per la riscossione delle imposte. Finora sono stati portati avanti tre progetti danalisi di questa fonte: a Manchester sono stati fatti alcuni lavori statistici su dei valori riguardanti le contee del Midland usando lo Statistical Package for Social Sciences (SPSS); allUniversit di Santa Barbara in California stata creata una bancadati comprensiva di gran parte del testo e messa a disposizione degli studiosi; allUniversit di Hull una versione pi sofisticata del Package Domesday ha preso il posto di quella precedente e viene utilizzata per un corso postlaurea su History and Computing. Questi lavori hanno per un limite: le elaborazioni computerizzate fanno assegnamento su di una estrazione manuale dei dati. Secondo il professor Palmer questo approccio inadeguato, in quanto porta ad una rigida selezione iniziale delle variabili e si possono anche sollevare dubbi sulla accuratezza della loro codifica. Inoltre questo approccio elimina automaticamente ogni possibilit di una qualche analisi linguistica. A tuttoggi manca infatti sia un dettagliato indice del Domesday Book che il primo indispensabile strumento di ricerca, cio una concordanza. Ma, al di la di tutto ci, il problema principale quello dellinterpretazione del testo, in quanto per uno stesso problema sono possibili differenti soluzioni, a secondo dell'interpretazione che si d ai dati ricavati dal testo stesso. Lattuale progetto vuole ovviare a tutti questi difetti e si propone una memorizzazione totale dei Domesday Book nel mainframe dellUniversit di Hull. Le principali fasi di questo lavoro sono: memorizzazione sia del testo inglese che di quello latino, strutturazione del testo, costruzione di una bancadati ad accesso casuale ed infine la creazione di programmi applicativi per le analisi. Per quanto riguarda la prima fase, il testo latino unedizione del 1733 che tenta di riprodurre la versione originale, comprese le abbreviazioni, le inserzioni, le annotazioni a margine e le idiosincrasie degli scrivani. Il testo inglese la traduzione Phillymore. In totale si tratta di quasi cinque milioni di parole memorizzate. Per la seconda fase, il testo va strutturato in maniera tale che tutti i nomi di luoghi, i nomi personali, le parole che vengono usate per categorizzare, vengano ad essere contrassegnate per poter essere riconoscibili dalla macchina. Questa la fase che crea maggiori problemi, in quanto deve essere fatta una rigida indicizzazione per poter maneggiare agevolmente il testo computerizzato ed inoltre vanno identificati individualmente sia tutte le persone che tutti i luoghi citati nel testo. In un prossimo futuro sar possibile una indicizzazione automatica con il programma SMOBOL; per adesso stato strutturato manualmente il testo della contea di Bedfordshire per permettere lo sviluppo delle altre fasi. La terza di queste fasi riguarda la costruzione della bancadati. Per permettere le analisi interattive del testo infatti, necessario assegnare ad ogni parola un indice, per far s che sia possibile un accesso casuale. Ci stato appunto fatto per il Bedfordshire e quindi per questa bancadati ora possibile ogni analisi di tipo linguistico e paleografico.
9

La quarta e ultima fase quella che riguarda i programmi applicativi. Lunico di questi sviluppato finora dedicato allanalisi testuale. Il prossimo servir al collegamento dei records per le analisi sociali. Lo scopo ultimo di questa fase creare una serie di programmi che permettano allutente di svolgere qualsiasi tipo danalisi statistica, di tabulare, fare grafici e mappe dei dati in maniera interattiva. Ci permetter non solo di confrontare la struttura sociale dei proprietari terrieri prima e dopo la conquista normanna, ma di sviluppare anche qualsiasi altro tipo di ricerca sia linguistica, che sociale, che geografica, che di altro genere. Danish Data Archives Hans J. Marker dei Danish Data Archives ha parlato invece dellanalisi da lui compiuta sui prezzi e sulle paghe danesi tra il 1536 e il 1660. Queste due date sono molto importanti nella storia danese dal punto di vista delle fonti, in quanto prima di questo periodo queste sono quasi inesistenti, mentre dopo diventano sovrabbondanti, adirittura non affrontatili se non da un punto di vista statistico. In questo lasso di tempo di circa 13O anni invece le fonti esistono, ma sono completamente disorganizzate. C quindi stata la necessit di collazionare i dati da parecchie fonti differenti per poter svolgere questo lavoro. Comunque lautore afferma di aver utilizzato, per una maggior sicurezza, solo quelle che lui chiama "transazioni genuine", ovvero quelle di cui sono riportati nelle fonti sia la quantit di merce, o il servizio erogato, che il corrispondente prezzo pagato. In un primo tempo sono state utilizzate le seguenti fonti: i diari di Eske Brok, i registri della propriet Rantzau ed il libro mastro di Sophie Brahe. Queste infatti avevano la caratteristica di essere relative a propriet nel distretto di Sonderhold e, oltre ad essere geograficamente concentrate, erano anche contemporanee, provenienti dalla stessa classe sociale ed in pi erano gi state edite a stampa. Tutto ci naturalmente riduceva di molto i problemi metodologici. Queste fonti sono state utilizzate per uno studio pilota, studio che poi stato allargato a comprendere anche i libri mastri dei feudi di Kala e di Dronningborg. Essi hanno una notevole estensione di dati e, allinterno di questi, sono facilmente distinguibili le "transazioni genuine" da quelle a prezzo imposto dal feudatario o addirittura dal Re stesso. Le transazioni riportate sono relative a derrate alimentari ed agricole, acquisti di materiale, pagamento di manodopera, di artigiani e di personale di servizio. I registri feudali per non erano editi a stampa e quindi stato necessario microfilmarli, i microfilm sono stati poi letti e stampati da un reader/printer ed immagazzinati nel computer. La stampa si rivelata necessaria, sia per non lavorare contemporaneamente su due schermi (molto stancante per la vista), sia per eventuali riferimenti posteriori. Numericamente parlando, dallo studio pilota lautore ha ricavato qualcosa come 2380 prezzi e 192 paghe e dai registri feudali di Kala 2475 prezzi e 360 paghe. I registri di Dronningborg invece sono ancora in corso di studio. I programmi per la memorizzazione dei dati sono stati elaborati dallautore stesso, sia quello relativo alle paghe che quello relativo ai prezzi, ed hanno una decina di fields ognuno, riportanti tutte le informazioni relative. Uno dei pi grossi problemi affrontati stato quello di uniformare i dati, i quali non sono omogenei nelle fonti. In quel periodo infatti cerano parecchie unit monetarie e ancor di pi unit quantitative. I dati quindi sono stati riconvertiti in una unica unit ed inoltre, dove lunit di misura non era chiara, sono stati ricalcolati sia la
10

quantit che il prezzo. Non appena saranno stati memorizzati anche i registri del feudo di Dronningborg, lintero complesso dei dati verr trasferito in un mainframe e l completamente elaborato. da tener presente per che i risultati di questa ricerca non permetteranno di trarre grandi risultati, in quanto lavori di questo tipo sono rari in Danimarca e quindi non ci sono altre distribuzioni statistiche con le quali fare dei confronti. Nello studio pilota lanalisi stata suddivisa in due: da una parte le paghe e dall'altra i prezzi. Molti dei dati mancanti sono stati trovati per interpolazione matematica dalle celle di memoria vicine e quindi si sono ricostruiti molti dei prezzi di acquisto e di vendita mancanti. Sono quindi stati computati gli indici di sviluppo dei prezzi delle propriet terriere della nobilt nellest dello Jutland e nella stessa maniera anche gli indici di sviluppo dei prezzi del cibo consumato per nutrire tutti gli impiegati di un castello. Per le paghe fare questo non era possibile, in quanto i dati mancanti erano cinque volte pi numerosi dei dati presenti. Sono state allora considerate una serie di paghe erogate al personale dei castelli e delle propriet e assunto che facessero parte di un trend. Sono stati quindi ricavati i logaritmi neperiani di queste paghe e i diagrammi d'indagine dimostrano che le paghe seguivano logaritmicamente la distribuzione di Gauss. Per controllare se vi fossero eventuli sviluppi lineari nelle relative paghe logaritmiche furono applicati sia il test dellomogeneit della varianza di Bartlett (ipotesi accettata al 41%)} sia la regressione lineare (accettata all8%). Laccettare l'ipotesi di uno sviluppo lineare dei logaritmi delle paghe significa dunque accettare una loro crescita esponenziale, crescita che fu poi calcolata antilogaritmicamente (1. 7%).

Lindustria mineraria spagnola Charles Harvey e Peter Taylor, entrambi del Bristol Polytechnic, nella loro relazione si sono occupati pi della elaborazione dei dati che non della costruzione della bancadati in se stessa. Il loro studio riguardava gli investimenti finanziari inglesi nellindustria mineraria spagnola tra il 1851 e il 1913 e le relative accuse di "sfruttamento coloniale" rivolte dagli spagnoli agli inglesi. Le "tesi ufficiali" su questa vicenda infatti erano, da una parte, lidea che il grande numero di ditte che si stabilirono in Spagna lo facessero con facilit grazie allabbondanza di depositi minerari e, dallaltra, la convinzione che queste ditte ebbero profitti molto alti e derubarono la Spagna di una ottima occasione di sviluppo delleconomia nazionale. Secondo i due autori, le analisi computerizzate smentirono queste affermazioni ed invece dimostrarono che le miniere spagnole furono un affare a grande rischio dove molte imprese fallirono e, tenendo conto del rapporto rischi/profitti, questi ultimi non furono molto alti: Queste analisi furono pricipalmente quattro e precisamente:
1. capital and earnings series and internal rates of return of six leading companies in Spanish mining, 2. the sarne for 174 British companies on an aggregated, disaggregated and individual basis. 3. the analysis of the birth, life and death characteristics of the 174 companies. 3. the analysis of output, labour and productivity of the individuai mining concerns listed in the Spanish Mining Survey of 1981. (relazione Harvey-Taylor, pp.2-3) 11

Le prime due analisi furono effettuate con dei programmi appositamente scritti, mentre le altre vennero elaborate con lo SPSS. La principale difficolt incontrata stava nellestremamente alto numero di dati da memorizzare, si trattava infatti di analizzare i bilanci di 174 ditte per 53 anni di attivit. In realt, questi si presentarono poi in numero inferiore in quanto molte ditte ebbero vita breve, ma ne rimanevano pur sempre una buona quantit. Per limmagazzinamento fu creata una matrice per ogni ditta e allinterno di questa furono riportati tutti i dati della ditta stessa. Le matrici vennero poi impaccate per occupare meno spazio di memoria. Ci port alla necessaria scrittura di un programma di spacchettamento per poterla usare. Non fu utilizzato il sistema interattivo, ma quello in batch con schede perforate, ognuna delle quali aveva 80 colonne ed era un record. Furono cos occupati 16OO records nel file. Questa procedura si dimostr un errore. Se si fossero infatti registrati i dati file per file solo per gli anni di vita delle compagnie si sarebbero s immagazzinati 2004 records, ma si sarebbe risparmiato tutto il tempo di scrittura del programma di spacchettamento. La parte rimanente della relazione stata dedicata ad una accurata descrizione di tutti i calcoli e di tutte le elaborazioni applicate dai due relatori ai dati, parte che omettiamo di riassumere in quanto si tratta di analisi matematiche di stima degli investimenti. Come conclusione comunque, essi hanno affermato che, secondo la loro esperienza, i metodi pi semplici e diretti sono probabilmente pi efficaci di quelli sofisticati, anche se questo lavoro non avrebbe potuto essere compiuto senza laiuto del computer.
The lessons are thus: first to have a very good knowledge of the overall form and extent of the data before deciding on the best way of inputting it, and not second, to be seduced by the glamour of fancy computing. (relazione Harvey-Taylor pg.10).

Biblioteca Storica Austriaca La professoressa Ulrike Winkler dellUniversit di Klagenfurt ha invece parlato in merito ad una bancadati storico-bibliografica e precisamente quella della Biblioteca Storica Austriaca, la quale contiene tutto ci che stato pubblicato in Austria in tema politico-umanistico: monografie, saggi, tesi di laurea, articoli, atti di congressi, giornali, dichiarazioni politiche programmatiche. Contiene circa 70.000 registrazioni catalogate per soggetto. Essa anche disponibile, oltre che memorizzata su un UNIVAC 1100-System, in volumi a stampa, uno per ogni anno dal 1945 al 1983.

Insegnamento con il computer Un lavoro interessante, anche se esce dallo stretto contesto della ricerca storica con il computer, stato presentata da Martin Wild dellAdvisory Unit for Computer Based Education di Hartfield. La sua relazione infatti descriveva un progetto di ricerca, che si avviato questanno, per lo studio delle possibilit dinsegnamento della storia ai bambini per mezzo del computer. Questo progetto si inserisce nel contesto filosofico di quella che viene chiamata la Nuova Storia, filosofia che ha come
12

punto centrale lo sviluppo della comprensione dei processi e dei metodi dellinchiesta storica. Quindi nellinsegnamento ai bambini, la storia non deve essere presentata pi come un blocco monolitico di fatti accaduti, ma necessario insegnare loro come acquisire la conoscenza del passato. Insegnamento di strumenti, dunque e non di risultati, su un passato che deve essere visto in maniera dinamica e non statica. Il punto di partenza di questo nuovo tipo di insegnamento dovrebbero essere gli studi di Piaget e di Peel e luso degli schemi di lavoro da loro proposti. In termini valutativi, il risultato dovrebbe essere lapprendimento da parte dei bambini di nuove abilit tecniche, di nuovi concetti e conoscenze. Questo nuovo approccio allinsegnamento della storia porta con s tutta una serie di problemi come: il ruolo dellinsegnante ed il suo stile pedagogico, il ruolo dei bambini come allievi ed il loro uso delle fonti, limmagine della storia ai loro occhi. Questi sono esattamente i problemi che questo progetto si propone di affrontare attraverso una approfondita ricerca nel campo del software e del suo utilizzo per l'insegnamento.

Conclusioni Ci siamo dilungati nel riassunto di queste relazioni per mostrare alcuni dei lavori che il computer chiamato a svolgere nellambito della ricerca storica. Si sar senz'altro notato che il compito che gli viene assegnato in misura maggiore quello di bancadati, sfruttando quelle che sono le sue enormi capacit di memoria, ma, come abbiamo visto, pu venir utilizzato anche per elaborazioni grafiche e per analisi matematiche di dati storico-numerici. Come bancadati per il suo utilizzo molto pi semplice, in quanto non richiede ulteriori conoscenze in altre discipline. Unaltro motivo, senzaltro pi importante, che giustifica questo tipo di diffusione che la costruzione di una bancadati, piccola o grande che sia, sempre lindispensabile passo preliminare di tutte le elaborazioni. Queste infatti non possono avvenire senza che il computer abbia un magazzino dove attingere il materiale su cui deve lavorare e dove depositare i risultati raggiunti: una bancadati appunto. Questo fatto trova conferma diretta nel piccolo panorama di relazioni viste; allinterno di tutti questi lavori infatti c erano sempre delle banchedati, da quelli pi "semplici", come la Biblioteca Storica Austriaca, a quelli che hanno sviluppato pi complicate elaborazioni, come lanalisi degli investimenti inglesi nelle miniere spagnole o lanalisi dei prezzi e delle paghe danesi. A ben guardare per queste banchedati non sono tutte uguali, anzi, dal punto di vista della fonte memorizzata, le potremmo suddividere in due "tipi": memorizzazione di una fonte vasta e complessa, di difficile investigazione con metodi manuali tradizionali, come nel caso dei Registri Portuali di Gloucester o dei Domesday Book, e la memorizzazione collazionata di molte piccole fonti dello stesso tipo, come nel caso del lavoro Steflo-Sundin sulla demografia storica svedese. da osservare per che questa distinzione non della bancadati in quanto tale, ma nel suo modo di costruzione. Ci che invece rimane comune ad entrambi i "tipi" il fatto che, una volta memorizzata la fonte primaria, la bancadati, e per conseguenza lo strumento stesso, diventa una fonte secondaria di pi facile e pratica consultazione. Per questo motivo tutti gli autori hanno posto laccento sulla fedelt di registrazione e si sono fortemente preoccupati di non perdere lo "spirito" della fonte, appunto perch il computer, inteso
13

come bancadati, sia una fonte secondaria di pari dignit ed affidabilit di quella primaria. Tutto ci naturalmente non cos semplice come pu sembrare a prima vista. vero che in questo modo il ricercatore, avendo piena fiducia in coloro che hanno curato limmissione dei dati nella macchina, pu risparmiare il tempo che avrebbe speso nella ricerca dei dati in polverosi archivi ed utilizzarlo per pensare, cosa che in campo matematico avrebbe fatto urlare di gioia sia Gottfried Wilhelm Libeniz che Charles Babbage; per contro per chi organizza fattivamente la memorizzazione delle informazioni costretto a fare un grosso sforzo di pensiero per una loro classificazione e categorizzazione. Questo perch la bancadati non come una cassapanca dove ci si possono buttare dentro tutte le informazioni e poi, quando servono, cercarle con comodo. La bancadati computerizzata pretende delle classificazioni e delle indicizzazioni perfette e la pena per linosservanza di questa regola massima, cio la perdita delle informazioni memorizzate. Di conseguenza, anche lutente si trova costretto a seguire le classificazioni e le indicizzazioni definite dai pianificatori della bancadati, in quanto egli non pu mettersi di cercare una informazione a casaccio, trovarla sarebbe pressocch impossibile. Uno degli effetti pi positivi quindi che luso del computer pu avere sugli storici, sia come pianificatori che come utenti, appunto il costringerli a rivedere ed a ridefinire le loro classificazioni e le loro categorie d analisi e questa volta senza ambiguit, ma con la precisione necessaria alluso di questo strumento. La relazione sulle banchedati per la storia dellarte da questo punto di vista molto significativa. Ultimamente per tutto ci diventato molto pi semplice, in quanto sono state semplificate le possibilit di lavoro con lo strumento. Prima di tutto, perch ci si pu lavorare in modo interattivo, cio dialogandoci direttamente per mezzo della tastiera anche nel caso di mainframe, essendo stata tecnologicamente superata la necessit di lavorare in batch, cio per mezzo delle schede perforate. Poi perch, grazie alla ulteriore espansione delle possibilit di memoria, ora possibile utilizzare il modello relazionale al posto di quello gerarchico. Il modello relazionale difatti, come affermata anche dal professor Greenhalgh, permette la memorizzazione delle informazioni in maniera completamente sganciata dai programmi, su files indipendenti. Ci naturalmente permette di classificare e categorizzare i dati pi e pi volte, senza correre il rischio di rovinarli e rendendo possibile quindi il tentare tutte le classificazioni desiderate. Per le ulteriori elaborazioni delle informazioni contenute nella bancadati, da quelle grafiche alle analisi matematiche, si sar notato dalle relazioni che ci sono delle enormi possibilit. La relazione della professoressa Bocchi sulla mappa catastale di Carpi da una parte, e le relazioni di Marker sui prezzi e le paghe danesi e quella di Harvey-Taylor sugli investimenti inglesi dallaltra, ne sono una chiara dimostrazione pratica. Queste possibilit per non sono sfruttate appieno e la ragione di ci ci sembra vada ricercata appunto in quel bisogno di ulteriore preparazione specifica a cui accennavamo pi sopra. Questo sempre restando nellottica di una piena autonomia dello storico, naturalmente se egli decide di rinunciarci pu sempre farsi aiutare da altri specialisti. Ma se lo storico decide, come speriamo, di mantenere la sua autonomia anche nel corso di queste ulteriori elaborazioni, ci avr senzaltro degli effetti positivi sulla ricerca storica, in quanto lo studioso di scienze umanistiche si trover a dover imparare nuovi linguaggi simbolici danalisi, contribuendo cos ad abbattere quella barriera pregiudiziale che inutilmente divide le scienze tecniche da quelle umanistiche.
14

Pu darsi che un giorno si arriver al punto di trasformare i modelli storici in equazioni matematiche, come prevedeva Fernand Braudel1, ma per oggi intanto accontentiamoci di poter effettuare delle indagini storiche, molto pi vaste e dettagliate, con laiuto di questo strumento che, se opportunamente usato, ci permette di risparmiare molto del nostro tempo e di poterlo utilizzare in maniera pi interessante e produttiva. Trieste, maggio 1986

Cfr. Braudel, Fernand, Storia e scienze sociali, in La lunga durata", in Braudel, Fernand: La storia e le altre scienze sociali (a cura di), Bari, Laterza, 1974. 15

Potrebbero piacerti anche