Sei sulla pagina 1di 7

Introduzione.

L'umanit ha vissuto a lungo quello che si suole definire il tempo quasi immobile, in cui i cambiamenti nel
modo di vivere si misuravano in secoli o in millenni. Oggi ci misuriamo invece con cambiamenti rapidissimi:
la terza rivoluzione industriale, quella dell'energia atomica e soprattutto dell'informatica, tocca in profondit
la nostra vita quotidiana e uno dei suoi grandi sogni lintelligenza artificiale. Questa ha sicuramente
migliorato la nostra vita accompagnandoci tutti i giorni in diverse forme e rendendo pi comoda la nostra
esistenza, aiutandoci a garantire la nostra sicurezza, tutelando la nostra salute. Ma cosa si intende per
intelligenza artificiale?
Lintelligenza artificiale.
Come disse Marvin Lee Minsky, noto scienziato e informatico statunitense ed esperto nel campo
dellintelligenza artificiale, in The Society of Mind (1989) The question is not whether intelligent machines
can have emotions, but whether machines can be intelligent without any emotions. Infatti, con il termine
Intelligenza artificiale, coniato nel 1956 dal matematico americano John McCarthy, si intende
generalmente l'abilit di un computer di svolgere funzioni e ragionamenti tipici della mente umana. Tuttavia,
la sua definizione ancora oggi molto discussa da filosofi e scienziati; in particolare, si distinguono due
correnti di pensiero: quella della I.A. forte e quella della I.A. debole.
Intelligenza artificiale forte.
Lintelligenza artificiale forte, il cui maggior esponente pu essere considerato la professoressa Margaret
Boden, ritiene che un computer correttamente programmato possa essere veramente dotato di una
intelligenza pura, non distinguibile da quella umana. Lidea alla base di questa teoria risale al filosofo
empirista inglese Thomas Hobbes, il quale aveva sostenuto che ragionare non era nientaltro che calcolare: la
mente umana dunque non era altro che il prodotto di un complesso insieme di calcoli eseguiti dal cervello.
Intelligenza artificiale debole.
Lintelligenza artificiale debole del filosofo John Rogers Searle, invece, sostiene che un computer non potr
mai eguagliare la mente umana, ma potr arrivare solo a simulare alcuni processi cognitivi umani senza mai
riuscire a riprodurli nella loro totale complessit. Lobiezione si fonda sul fatto che i computer non
possiedono una coscienza per cui si comportano come se fossero intelligenti, ma in realt seguono procedure
meccaniche, senza comprendere le loro azioni.
Cibernetica.
Alle due fondamentali correnti di pensiero, si affianca quello che uno dei grandi risultati degli studi
moderni sullintelligenza artificiale: la cibernetica. Questa disciplina si occupa dello studio delle analogie tra
le macchine e gli organismi viventi, soprattutto per quanto riguarda la capacit di autoregolarsi e di adattarsi
allambiente. Essa richiede la collaborazione di diverse discipline, quali linformatica, la biologia, la
matematica, lingegneria e la fisica e trova diverse applicazioni nel campo degli organismi viventi con la
bionica, dei sistemi artificiali con i robot e delle organizzazioni sociali, politiche ed economiche, nella forma
di cibernetica applicata alla risoluzione dei problemi di regolazione e controllo.
Filosofia.
Karl Popper.
Come insegna Popper, la verit non qualcosa di dato, piuttosto un semplice ideale regolativo che guida il
processo di crescita della conoscenza, ma che non si raggiunge mai. Infatti, la sua teoria, che prende il nome
di falsificabilismo, si fonda sul concetto che la scienza caratterizzata da un progresso che egli intende in
modo simile alla teoria evoluzionistica darwiniana: la competizione tra le teorie permette la selezione della
teoria che si dimostra pi adatta a sopravvivere e che pertanto viene riconosciuta valida finch non si
presenta unaltra teoria a falsificarne la validit: ne consegue la necessit del dibattito.
1

Il dibattito.
I dibattiti pubblici sullIntelligenza Artificiale si accendono fondamentalmente dalla pubblicazione nel 1950
di un articolo fortemente rivoluzionario, Computing Machinery and Intelligence, apparso sulla rivista
Mind, nel quale il matematico Alan Turing si domandava Can machines think? e cercava di dare una
risposta attraverso un test noto come test di Turing. Al centro della discussione si posero in particolar
modo i due esponenti precedentemente citati: la professoressa Margaret Boden e il filosofo John Searle.
Margaret Boden.
Professoressa e autorit internazionale nel campo dellintelligenza artificiale, per i quali servizi le era stato
conferito un OBE (Order of the British Empire), fu la scrittrice della prestigiosa opera Artificial intelligence
and natural man (1979): in essa Boden descrive il modello computazionale della mente.
Secondo la teoria della professoressa, esiste una forte analogia tra il cervello umano e il computer: entrambi
hanno un substrato fisico che nel primo biologico-neurale e nel secondo elettronico; entrambi a livelli alti
mostrano di avere conoscenze, adattabilit, intelligenza e capacit di calcolo.
Boden definisce meglio questa analogia presentando le tre idee fondamentali su cui si fonda il modello
computazionale:
1) i fenomeni mentali sono schematizzabili in: ricezione dellinformazione esterna, elaborazione
autonoma secondo schemi, costruzione di risposte;
2) lelaborazione delle informazioni pu essere espressa in forma computazionale, ovvero come
semplice calcolo secondo regole meccaniche;
3) un qualsiasi sistema di elaborazione costituito da sottoinsiemi collegati tra loro: a livelli bassi
presentano componenti (biologico-neurali nel cervello e elettronici nel computer) che sono dediti alla
comprensione e funzionano secondo leggi fisico-chimiche; a livelli intermedio-alti presentano sistemi
(il software nel caso dei computer e lintero sistema neurale nel cervello) che si occupano di tradurre
il linguaggio macchina o i fenomeni o le informazioni in linguaggio naturale.
John Rogers Searle.
Il filosofo noto per aver concepito lesperimento mentale chiamato Stanza cinese, con il quale vuole
dimostrare che nessun computer in grado di pensare come un essere umano, partendo dal presupposto
che il computer, per elaborare linformazione, non ha bisogno di comprendere. Dunque, in linea con il
pensiero dellintelligenza artificiale debole, egli fonda la sua teoria sul principio fondamentale che la
consapevolezza frutto dell'attivit fisica specifica di un sistema fisico specifico (il cervello). Bench questa
attivit possa essere simulata da un computer, questa non pu far sorgere la consapevolezza.
Sulla base di questo principio egli critica lidea di unintelligenza artificiale forte e soprattutto il famoso test
di Turing: esso consiste nel posizionare un uomo X davanti a due consolle attraverso le quali pu parlare a
due soggetti che per non vede; i due soggetti sono Y, un altro essere umano, e Z una macchina che deve
dimostrare di avere una intelligenza; se X non riesce a distinguere Y da Z, allora Z ha superato il test e deve
essere considerata intelligente. Searle attacc a fondo questa argomentazione asserendo che il test di
Turing non dimostra nulla sullintelligenza e la consapevolezza di Z: egli ipotizza che luomo Y sia un
italiano che non conosce il cinese, ma che abbia a disposizione un manuale per comprendere e tradurre le
domande che gli vengono poste da X e che Z sia altrettanto dotato di un software per la traduzione.
Entrambi saranno in grado di elaborare e manipolare i simboli per dare a X delle risposte adeguate, ma n Y
n Z avr compreso n quello che gli veniva chiesto n quello che ha realmente risposto.
Ne consegue che questa argomentazione non pu essere accettata in quanto Searle fa coincidere la
consapevolezza con lintelligenza, quando lintelligenza consiste nella capacit di saper applicare le regole e
le conoscenze acquisite alle esperienze che vengono proposte, senza necessariamente comprendere.
Storia.
Lintelligenza artificiale si presenta come uno dei pi grandi risultati di un processo di innovazione
tecnologica che si verificato a seguito della seconda e della terza rivoluzione industriale.
2

Seconda Rivoluzione Industriale.


In realt la seconda rivoluzione industriale, che ha inizio negli anni 50 del 1800 e termina con linizio della
prima guerra mondiale nel 1914, pone solo le basi per una futura rivoluzione nellambito dellinformatica,
dando un impulso allo sviluppo dellapparato elettrico ancora in via di sperimentazione in quegli anni: si
cercava di sfruttare i corsi dacqua per la produzione di energia elettrica, poich in Italia la centrale
termoelettrica a carbone di Galileo Ferraris risultava molto costosa per la necessit di importare il carbone.
Solo dopo il 1870, si ha un incremento nel campo elettrico quando si producono i primi generatori di
corrente elettrica, quali la dinamo e il motore elettrico, e si diffonde la rete elettrica per lilluminazione al
posto del gas illuminante nelle case, nei luoghi di lavoro e sulle strade: lintroduzione dellelettricit
trasform la vita dei cittadini rendendo pi sicure le strade, permettendo loro una vita notturna o anche di
lavorare di notte nelle fabbriche per incrementare la produzione.
Terza Rivoluzione Industriale.
La crescita, lo sviluppo e laccumulo delle conoscenze scientifiche e tecnologiche, gi a partire dalla prima
met del 900, era strettamente necessario nel contesto militare delle guerre mondiali e in quello successivo
della guerra fredda quando le maggiori superpotenze, ovvero Stati Uniti e Unione Sovietica, necessitavano di
progresso e innovazione tecnologica per la crescita economica.
Lelettronica, la telematica e soprattutto linformatica sono i campi su cui maggiormente si incentra questa
rivoluzione industriale: sono discipline ex-novo che subiscono un continuo e rapido sviluppo e si diffondono
cos tanto sul mercato globale al punto da apportare modifiche a livello tecnologico, economico e sociale con
impatti notevoli sugli stili di vita soprattutto dei paesi occidentali.
Per quanto riguarda lelettronica, sicuramente i pi importanti passi avanti compiuti nella storia di questo
settore sono stati la diffusione della radio e soprattutto linvenzione della televisione, come mezzo di
comunicazione di massa per la diffusione di contenuti visivi e sonori in tempo reale o con lieve ritardo, che
ha avuto una rapida diffusione grazie alla sua semplicit duso e ai suoi costi relativamente contenuti. La
televisione dellinventore John Logie Baird costituisce il primo modello nella storia: un televisore analogico
di grandi dimensioni e in grado di proiettare unimmagine di piccole dimensioni divisa in 28 linee e in
bianco e nero. Oggi, invece, ed in meno di 100 anni, siamo giunti ad avere a disposizione persino un
televisore con le stesse dimensioni esterne del primo modello, ma con caratteristiche ben superiori: schermo
di elevata dimensione che esclude quasi totalmente la presenza dei bordi, uno spessore fino ad un minimo di
appena 1 cm, tecnologie digitali avanzatissime che con un elevato numero di pixel per centimetro e con una
luminosit e un contrasto elevati rendono limmagine quasi reale.
Allimportante innovazione dellelettronica, si affianca lintroduzione della telematica che si occupa della
trasmissione dellinformazione a distanza tra due o pi utenti. Inizialmente, con i primi sistemi era data la
possibilit agli utenti esterni, attraverso un software installato su un computer, di utilizzare funzioni di
messaggistica e file sharing centralizzato attraverso la propria linea telefonica. Oggi, invece, grazie
allevoluzione delle tecnologie audio-video possibile avere dei sistemi di videoconferenza a distanza che
mettono in comunicazione pi persone in contemporanea senza la necessit di un host o server esterno che
ospiti la conversazione, bens tutto avviene per mezzo degli stessi computer su cui ospitato il software.
Linformatica la disciplina che unisce lelettronica e la telematica, ponendosi alla base della loro evoluzione,
nel grande settore denominato Information and Communication Technology, il quale ha contribuito e
continua a contribuire non solo allevoluzione tecnologica, ma anche al cambiamento radicale del modo di
vivere, applicandosi allambito socio-economico nel ridurre i tempi e i costi di trasmissione
dellinformazione. Si pensi che la prima macchina fu inventata da Alan Turing nel 1936 e costituiva una
speciale calcolatrice utilizzata inizialmente dal controspionaggio polacco e successivamente da quello inglese
per decifrare i messaggi segreti tedeschi codificati con la macchina Enigma di Arthur Scherbius. A partire da
questa macchina si giunge allinvenzione del personal computer, un apparecchio rivoluzionario di piccole
dimensioni e alla portata economica e pratica di tutti, nel 1964 a opera di Pier Giorgio Perotto. Negli ultimi
anni la potenza e la velocit di calcolo dei PC si sono enormemente potenziate riducendo allo stesso tempo le
dimensioni delle macchine elaboratrici, tanto che oggi possibile contenere tutto i meccanismi per il
3

funzionamento base di un computer allinterno di una scatoletta grande appena quanto uno smartphone, e la
loro diffusione aumentata considerevolmente dopo lavvento di Internet, una rete globale che permette il
collegamento dei computer tra loro in tempo reale.
Scienze.
Come ben noto dalla geografia astronomica, la Terra presenta la forma di un particolare solido chiamato
geoide, la cui superficie risulta sempre perpendicolare in ogni punto alla direzione del filo a piombo. La sua
forma, tuttavia, prossima a quella di una sfera, per cui per individuare la posizione di un oggetto sulla sfera
terrestre si ricorre al reticolato geografico, il quale composto da meridiani, ovvero circonferenze tutte
uguali passanti per i poli, e paralleli, ovvero circonferenze paralleli allEquatore.
Le coordinate geografiche.
Sul reticolato geografico, si definiscono le coordinate geografiche, ovvero la latitudine e la longitudine, che
sono rispettivamente corrispondenti allordinata e allascissa di un qualsiasi piano cartesiano.
La latitudine, in particolare, rappresenta la distanza angolare di un punto dallEquatore e pu essere Nord o
Sud a seconda che il punto si trovi nellemisfero boreale o australe; essa corrisponde allampiezza dellangolo
al centro della Terra che sottende larco di meridiano che collega il punto considerato allEquatore. La
longitudine, invece, rappresenta la distanza angolare di un punto da un meridiano di riferimento,
genericamente quello passante per lOsservatorio di Greenwich a Londra, e pu essere Est o Ovest, a seconda
che il punto si trovi a oriente o occidente del meridiano considerato; essa corrisponde allampiezza
dellangolo al centro della Terra che sottende larco di parallelo che collega il punto considerato al meridiano
di riferimento. Sia la latitudine che la longitudine sono espresse in gradi e frazioni di grado.
Sistemi di posizionamento globale.
Il pi moderno e accurato sistema per determinare la posizione di un corpo sulla superficie terrestre, ed
anche uno dei pi importanti prodotti dellinformatica il GPS, Global Positioning System, presente in molti
dei dispositivi di comune uso, quali smartphones, tablet e navigatori satellitari. Il ricevitore GPS capta i
segnali che vengono continuamente inviati da una costellazione di 24 satelliti che orbitano intorno alla
Terra e che consentono di triangolare la posizione di un determinato punto. In realt, per determinare la
posizione, sono sufficienti quattro satelliti o anche tre se si conosce precisamente la quota. Il calcolo della
posizione viene effettuato dal software contenuto allinterno del ricevitore, sulla base del tempo che il
segnale impiega per giungere dai satelliti al ricevitore, tenendo conto anche delleventuale ritardo causato
dalla presenza della ionosfera che viene corretto attraverso lapplicazione di modelli matematici. Lampia
diffusione del GPS come sistema di geolocalizzazione fondamentalmente dovuto alla grande precisione, ai
bassi costi e alle ridotte dimensioni del ricevitore.
Fisica.
Sistemi di trasmissione del segnale satellitare.
Per la trasmissione del segnale, i satelliti utilizzano quella che comunemente si definisce antenna
trasmittente. Essa una struttura di metallo, lungo la quale gli elettroni vengono fatti oscillare avanti e
indietro ad una frequenza opportuna. Tale moto degli elettroni generato dalla tensione fornita da un
apposito circuito oscillante che determina la frequenza f. Mentre gli elettroni oscillano di moto armonico,
lantenna emette unonda elettromagnetica di frequenza f che si propaga nello spazio.
Onde elettromagnetiche.
Le onde elettromagnetiche si generano proprio a causa delloscillazione delle cariche allinterno dellantenna.
Infatti, come noto dalla fisica, una carica in movimento determina un campo elettrico variabile, poich la
sua posizione cambia continuamente. A sua volta, la variazione del campo elettrico determina la variazione
del flusso del campo magnetico che, come noto per il fenomeno dellinduzione elettromagnetica, genera un
campo elettrico indotto e cos via. In questo modo, il campo elettromagnetico si propaga nello spazio creando
unonda elettromagnetica. Tale onda trasporta energia e continua a propagarsi anche quando la carica che
lha generata smette di muoversi. Maxwell, scopritore delle onde elettromagnetiche, determin anche la loro
4

velocit essere uguale a

0 0 , dove 0

indicano rispettivamente la costante dielettrica del

vuoto e la permeabilit magnetica del vuoto, e coincidere con la velocit c della luce. Di qui Maxwell dedusse
che la luce non era altro che una particolare onda elettromagnetica.
Ricezione delle onde elettromagnetiche.
Anche per la ricezione, come per la trasmissione, del segnale necessaria la presenza di unantenna, che in
questo caso unantenna ricevente, composta sempre da una sbarretta di metallo, ma connessa ad un circuito
differente. Infatti, per captare il segnale, lantenna deve essere collegata ad un circuito LRC in serie, ovvero
composto da una resistenza R, una induttanza L e una capacit C collegati in serie. Nel caso dei ricevitori
satellitari la frequenza viene ben fissata definendo la giusta capacit del condensatore; diversamente nelle
radio si inserisce una manopola collegata a lamine mobili che ruotando aumentano o riducono la capacit
del condensatore, permettendo di selezionare la frequenza sulla quale sintonizzarsi.
Matematica.
Le applicazioni matematiche dei software informatici sono sicuramente le pi diffuse. Si parte dalle semplici
calcolatrici che permettono di eseguire calcoli semplici o complessi in maniera quasi istantanea per giungere
alla capacit di determinati software di rappresentare graficamente equazioni molto complesse, e calcolare di
queste la derivata e lintegrale, oppure di svolgere operazioni di calcolo combinatorio.
Calcolo combinatorio.
Il calcolo combinatorio una necessit che sorge nel momento in cui si prende in considerazione un insieme
formato da n oggetti: diviene allora lecito porsi la domanda relativamente a quanti gruppi si possono creare
da questi n oggetti con delle caratteristiche particolari. Si parla allora di permutazioni, disposizioni e
combinazioni possibili di n oggetti.
Permutazioni.
Dati n elementi distinti, si dicono permutazioni di tali elementi tutti i possibili raggruppamenti formati in
modo che ognuno contenga tutti gli n elementi e differisca dagli altri per lordine secondo il quale gli n
elementi si susseguono. Il numero di permutazioni si indica con la lettera P n o n! (n fattoriale) ed uguale a
n(n-1)(n-2)21.
Disposizioni.
Dati n elementi distinti e un numero k n, si dicono disposizioni semplici, o anche solo disposizioni, di
classe k tutti i raggruppamenti che si possono formare con gli elementi dati, in modo che ogni
raggruppamento ne contenga k tutti distinti tra loro e che due raggruppamenti differiscano tra loro o per
qualche elemento oppure per lordine secondo il quale gli elementi si susseguono. Il numero di disposizioni
si indica con Dn;k ed uguale a n(n-1)(n-2)(n-k+1).
Combinazioni.
Si chiama combinazione semplice, o anche solo combinazione, di classe k di n elementi, con k n, o anche
combinazione di n elementi presi a k a k, un qualunque sottoinsieme di k elementi di un dato insieme di n
elementi tutti distinti tra loro. Pi precisamente, due raggruppamenti differiscono tra loro almeno per un
elemento. Il numero di combinazioni si indica con Cn;k ed uguale a

D n; k n ( n1 )( n2 ) ( nk +1 )
=
.
Pk
k!

Latino.
Plinio il Vecchio.
5

Nellambito della letteratura latina, pochi sono gli studiosi che si sono interessati dellambito scientifico e tra
questi emerge Plinio il Vecchio, grande studioso ed erudito, ed autore di unenciclopedia vastissima la
Naturalis Historia. In questopera, egli raccoglie 20mila notizie derivate da 2mila volumi di ben 100 autori
diversi e riguardanti argomenti di vario tipo che vanno dallastronomia alletnologia, dallantropologia alla
fisiologia umana e alla zoologia, dalla botanica alla medicina, dalla mineralogia allarte. Lopera si apre con
una lunga lettera dedicatoria a Tito, con il quale aveva militato, seguita da un Indice generale che completa
il primo libro e riassume il contenuto dei successivi 36.
Con questa impostazione, Plinio mette in evidenza il suo essere moderno scrivendo unenciclopedia cos
come viene intesa oggigiorno, senza lutilizzo di un metodo scientifico, ma piuttosto con la presentazione di
tutti i dati senza nessuna selezione.
In realt, nel costruire i collegamenti tra luomo e la natura, egli rivela una certa amarezza nei confronti
delluomo: egli mette in rilievo la debolezza e i limiti fisici delluomo, il quale, se paragonato agli altri esseri
viventi, lunico animale a causare tanta sofferenza ai propri simili.
Italiano.
Italo Calvino.
Nellambito della letteratura italiana, invece, in Calvino evidente come linteresse per le scienze umane si
fonde con quello per le scienze matematiche e naturali: egli aveva ricevuto uneducazione laica e aveva
ricavato dal padre, agronomo di fama mondiale, un forte interesse per le scienze.
Il frutto di questi interessi primo fra tutti Le cosmicomiche, raccolta di 12 scritti pubblicata nel 1965. Nelle
storie contenute in essa, Calvino prova a tradurre in forma narrativa le ipotesi scientifiche sullorigine e
lorganizzazione del cosmo, sulla struttura della materia, sui corpi celesti, sullevoluzione della vita.
Un esempio sicuramente Tutto in un punto, nel quale dallipotesi secondo cui tutta la materia destinata a
dare vita alluniverso era originariamente concentrata in un punto, senza spazio n tempo, nascono
personaggi gustosi e situazioni comiche, dove il comico deriva dal tradurre complesse e severe teorie
scientifiche in situazioni quotidiane. In esse la voce narrante Qfwfq, il quale ha vissuto tutti i momenti
dellevoluzione del cosmo ed quindi in grado di parlare come testimone diretto.
Inglese.
An incorrect use of technology.
Surely technology improves our lives, but not always it is used in a correct way. A great example of an
incorrect way of using technology is the most original novel published by George Orwell in 1949, Nineteen
Eighty-Four.
Plot.
In this novel, he describes a future world divided into three blocks: Oceania, an empire which contains
England, now called Airtstrip One; Eurasia, which includes Russia and Europe; Eastasia, which includes
Asia and the Far East. The oppressive world of Oceania is ruled by the Party, led by a figure called Big
Brother, which is always at war with the other states and is working to implement Newspeak, an invented
language with a limited numbers of words. In this empire, free thought, sex and any expression of
individuality are forbidden, but the protagonist, Winston Smith, has an illegally bought diary in which he
writes his thoughts and memories. One day, the Ministry of Truth, where Winston works, accuse him of
hating the Party and working against it as a member of the Brotherhood led by Emmanuel Goldstein, so he is
captured and forced to love Big Brother. In fact, he is released to the outside world only when he has
completely given up his identity and has learned to love Big Brother.
An anti-utopian novel.
Set in a grotesque and squalid London, this is an anti-utopian novel: it shows possible future societies that
are ideal and that satirize existing conditions of society. There is no privacy because there are telescreens
watching every step people take, love is forbidden, the country is always in a state of war, the Party has
6

absolute control of press, language, history and thought in the interests of the state, any form of rebellion is
punished with imprisonment and torture.

Arte.
Il futurismo.
Le correnti artistiche che si formano tra la seconda met dellOttocento e il Novecento non derivano da
ricerche artistiche e non hanno programmi ben definiti. In questo senso, il futurismo si distingue, in quanto
il primo movimento ad avere un programma preventivo. Fondatore, infatti, si considera Filippo Tommaso
Marinetti il quale elabor il Manifesto del futurismo, pubblicato a Parigi il 20 febbraio 1909: in esso si
riprende il vecchio tema della fede nel progresso scientifico, esaltando la velocit e di conseguenza la
macchina che con il suo motore moltiplica le forze delluomo e lo inebria di potenza. Pertanto, nellideologia
futurista si afferma la superiorit del dinamico sullo statico: prevale cos tutto ci che vitale, in particolare
lazione in se stessa, indipendentemente dal suo fine.
Giacomo Balla.
Inizialmente verista e divisionista, accostatosi al futurismo, Balla si incentra sulla risoluzione del problema di
rappresentare la continuit del movimento sulla superficie immobile del quadro: egli lo risolve ripetendo pi
volte in posizioni diverse ma attigue la stessa forma, come nei famosi dipinti Dinamismo di un cane al
guinzaglio e Le mani del violinista, seguendo le indicazioni dello stesso Manifesto tecnico della pittura
futurista, nel quale si fa lesempio del cavallo in corsa che alla retina dellocchio sembra presentare 20 gambe
e non 4 e in effetti questo quello che succede realmente nella realt, quando qualcosa passa velocemente
davanti ai nostri occhi, per cui le immagini degli istanti precedenti rimangono impresse nella retina negli
istanti successivi mentre il movimento continua.

Potrebbero piacerti anche