Sei sulla pagina 1di 3

La crittografia del Che

di Piergiorgio Odifreddi

Il 9 ottobre 1967, il rivoluzionario argentino Ernesto Che Guevara fu assassinato per ordine del
dittatore boliviano Barrientos, su diretto suggerimento telefonico del presidente statunitense Lyndon
Johnson. Era stato arrestato il giorno prima a Valleverde e in tasca gli era stato trovato un foglio con
una lunga sequenza casuale di numeri, senza alcun ordine apparente.
Come lo stesso Che racconta nel Diario di Bolivia, la sequenza gli serviva per codificare i messaggi
scambiati con Castro secondo il classico metodo Vernam. Il testo da cifrare veniva anzitutto
tradotto, secondo una tabella fissa, in una sequenza di numeri che veniva poi appaiata, cifra per
cifra, alla sequenza casuale che costituiva la chiave. Il messaggio codificato consisteva della
sequenza di numeri ottenuti sommando il messaggio originale e la chiave, cifra per cifra e senza
riporti.
Il metodo era, e rimane, perfettamente sicuro: se la chiave effettivamente casuali, lo diventa anche
il messaggio codificato, che pu essere decodificato soltanto possendendo la chiave stessa. Il
problema sta, appunto, nel se: esistono sequenze di numeri veramente casuali? E, pi in generale,
esiste il caso?
Naturalmente, per poter rispondere alla domanda, bisogna prima capire cosa significhino caso e
casualit: un compito reso arduo dalla pericolosa assonanza di queste parole con altre dal significato
apparentemente lontano.
Per caso, ammesso che qualcosa possa essere casuale, caso e casualit si trasformano infatti, per
metatesi, in caos e causalit: due opposti che richiamano, rispettivamente, lassoluta imperfezione
del disordine totale e la totale perfezione dellordine assoluto. Una simile divergenza ricorda la
rottura di un equilibrio instabile, come quello in cui si trova un masso sulla sommit di una collina,
che pu casualmente cadere da una parte o dallaltra e finire in due vallate completamente diverse
fra loro.
Non a caso, ammesso che qualcosa possa non essere casuale, la parola caso deriva poi dal latino
casum, "caduta" o " accadimento e traduce lanalogo greco ptotis. Lo stesso significato aveva
cadentia, cadenza, che poi divenne cheance in francese e chance in inglese. E lo stesso vale per
randomness, che deriva dal francese arcaico randon: cascata, impeto o precipizio. Insomma,
il caso assimilato a eventi come linciampo, la scivolata o la caduta, che rompono il naturale
decorso della necessit, alla quale il caso si opponeva nel titolo di un best-seller di Jacques Monod.
Sembrerebbe dunque che casualit e causalit siano due corni di un dilemma, due opposizioni che si
interdefiniscono per negazione reciproca. Ma la supposizione solo una mancanza di fantasia,
analoga alla restrizione a due soli valori di verit (vero/falso) effettuata dalla Logica classica.
Gustav Jung e Wolfang Pauli hanno pi inventivamente postulato, nel loro libro Sincronicit, la
possibilit di eventi collegati da relazioni non casuali e non causali e John Bell ne ha dimostrato
lesistenza nel mondo quantistico in un famoso teorema, confermato sperimentalmente in una saga
descritta da Amir Aczel in Entanglement.
Casualit e causalit non esauriscono dunque lo spettro delle relazioni che si aggirano per il mondo:
in altre parole, non sono concetti complementari fra loro. E che non siano neppure contrapposti, lo

dimostra il gran parlare che da qualche decennio si fa di caos deterministico: di comportamenti,


cio, la cui apparente completa casualit determinata non tanto dalla mancanza di leggi che li
governano, quanto piuttosto dalla loro estrema sensibilit alle condizioni di partenza, che li rendono
appunto imprevedibili in un senso pi sottile di quello dei sistemi che si evolvono senza leggi
apparenti.
Che, comunque, casualit e causalit non fossero contrapposte, lo si sapeva ormai da alcuni secoli.
Da quando, cio, la Teoria delle probabilit aveva scoperto ossimoriche leggi del caso per quei
paradigmi di casualit che sono i fenomeni aleatori: un termine che deriva da alea, dadi, e che si
riferisce appunto allimprevedibilit che ne regola i tiri, quando i dadi siano non truccati.
I primi fondamenti della Probabilit erano stati posti da Cardano nel 1526, in un testo
significativamente intitolato Liber de ludo aleae, Libro del gioco dei dadi. Soltanto nel 1933,
per, Kolmogorov riusc ad assiomatizzare in maniera soddisfacente la nozione di probabilit. Tra i
due estremi, si scoprirono interessanti propriet del caso, prima fra tutta la famosa distribuzione a
campana che va sotto il nome di curva di Gauss: la stessa, cio, che si forma automaticamente ai
caselli autostradali, quando la maggior parte delle auto si assiepa al centro e la minor parte si
distribuisce ai lati.
Le sorprendenti applicazioni della Teoria della probabilit alla descrizione dei fenomeni naturali,
dalla Meccanica statistica a quella quantistica, suggeriscono che il caso la fa da padrone
nellevoluzione delluniverso. Addirittura -qualunque cosa questo significhi- le costituenti
elementaridella materia non sarebbero altro che onde di probabilit, che si evolvono
deterministicamente nel tempo in unossimorica combinazione descritta dalla famosa equazione di
Schrdinger.
Ma non c bisogno di scendere a livello subatomico per sperimentare lincessante attivit del caso.
Basta osservare in un microscopio il moto browniano delle impurit dellacqua, scoperto nel 1827
da Robert Brown e spiegato nel 1905 da Albert Einstein come risultato del moto spontaneo delle
molecole del liquido. La stessa cosa succede con il movimento del pulviscolo atmosferico o
landirivieni della folla o le serpentine di un ubriaco: le quali gli permetteranno sorprendentemente,
in base al teorema del cammino casuale, di arrivare alla lunga con certezza alla porta di casa, anche
se non necessariamente al proprio appartamento (perch la probabilit di raggiungere un qualunque
punto muovendosi casualmente in una o due dimensioni uno, ma in tre dimensioni solo un
terzo).
Lidentificazione dellaleatoriet con la casualit permette di generare intuitivamente una sequenza
casuale di numeri mediante ripetuti tiri di dadi non truccati. Ma definire precisamente una sequenza
casuale un altro problema, che si pu risolvere in vari modi. Il pi semplice di identificare la
causalit con la programmabilit informatica. In questo caso, una sequenza casuale se non pu
essere generata da un computer. E poich, in un senso matematico preciso, le sequenze sono tante,
ma i programmi pochi, esistono certamente sequenze casuali. Anzi, quasi tutte le sequenze lo sono,
bench nessuna di quelle che possono venire in mente lo sia.
Naturalmente, la definizione di casualit che abbiamo appena dato funziona solo per sequenze
infinite: ogni sequenza finita, infatti, pu ovviamente essere generata da un computer. Per definire
la casualit di una sequenza finita, bisogner dunque guardare altrove; lidea viene
dallosservazione che ci che distingue le sequenze infinite casuali da quelle che non lo sono che
queste ultime possono essere descritte in maniera radicalmente pi compressa delle prime,
attraverso programmi finiti.

stato ancora Kolmogorov -questa volta negli anni 60- a definire come casuale una sequenza
finita che non si possa descrivere in maniera radicalmente pi compressa della sequenza stessa. Ad
esempio, una sequenza formata da un 1 seguito da un milione di 0 non certo casuale, perch
labbiamo appena descritta in maniera molto pi corta della sequenza stessa, che consiste di un
milione di simboli (pi uno).
Analogamente, quasi nessuna delle sequenze lunghe che ci possono venire in mente casuale,
perch esse saranno in genere descritte in maniera pi o meno compressa.
Pu venire persino il dubbio che sequenze casuali finite non ce ne siano proprio. Invece, ce ne sono
infinite bench siano molto difficili da scovare. Ad esempio, qualunque sistema matematico ne pu
identificare soltanto un numero finito, perch ln-esima sequenza casuale nel sistema una
descrizione compressa, che pu descrivere soltanto le poche sequenze casuali pi corte di essa. E
questo fatto -che le sequenze casuali siano difficili da scovare- un bel teorema di limitatezza della
teoria della complessit, analogo a quelli trovati negli anni 30 da Gdel per la Matematica e Turing
per lInformatica. Anzi, in un senso preciso, una generalizzazione e un rafforzamento di quei
risultati.
Quanto alla definizione di Kolmogorov, essa porta alla luce uninaspettato aspetto della casualit:
che la si pu ottenere in due modi contrapposti, attraverso la mancanza o leccesso di
pianificazione. Il primo tipo corrisponde al vecchio concetto di aleatoriet, cio appunto al tiro di
dadi. Il secondo tipo, invece, esemplificato da quelle opere darte moderne, dal Finnegans Wake
di Joyce ai Sei pezzi per orchestra di Webern, la cui estrema complessit le rende indistinguibili, o
quasi, dal rumore.
certamente possibile che oggetti casuali interessanti, impossibili da descrivere pi efficacemente
che esibendoli, esistano in natura. Von Neumann, ad esempio, suggeriva come possibile esempio il
cervello umano. Ma che unintera poetica della modernit si sia dedicata alla loro produzione
artistica, certamente una caduta di tono degna del significato originario della casualit.