Sei sulla pagina 1di 31

MATERIALE 1 - Introduzione

Scienza antica vs Scienza moderna


Ogni approccio alla scienza e alla tecnologia prima della modernità e prima della sociologia va interpretato secondo
le accezioni del tempo intese come conoscenza (epistḗmē) e competenza (téchnē) e non secondo le accezioni
moderne di scienza e tecnologia definite nel XIX secolo.

La scienza antica si fonda sulla metafisica (scritti di Aristotele vennero ordinati dopo i libri di fisica, perciò parliamo di
metafisica) che intende la spiegazione dei fenomeni della realtà prescindendo da qualsiasi dato dell'esperienza ma
solo attraverso astrazioni logiche. La metafisica aristotelica è dominante fino a tutto il Medioevo. Secondo Aristotele
bisogna capire l'essere (“che cos'è”) e la causa (“perché”) di un fenomeno non il “come”. Per la ricerca dell'essere e
della causa dei fenomeni applica il sillogismo che consiste in una premessa maggiore ed una premessa minore che
portano ad una conclusione. Fino a tutto il Medioevo le argomentazioni scientifiche aristoteliche sono state ritenute
assolute, complete e definitive: “Ipse dixit”. Solo a partire dal XV Secolo, la visione aristotelica viene messa in
discussione.

Ruggero Bacone contrappone l'esperienza alla logica aristotelica che fa derivare la conoscenza dei fenomeni dalla
mente dell'individuo e non dall'osservazione della natura. Tuttavia l'approccio di Bacone si limita ad interpretazione
qualitativa dei fenomeni nella loro “forma” rimanendo esperienziale e non ancora sperimentale. Galileo Galilei
aggiunge alla interpretazione qualitativa dei fenomeni di Bacone anche l'interpretazione quantitativa attraverso la
raccolta di dati sul “come” certi fenomeni si producono: assume così la valenza di esperimento. L'esperienza è solo
una constatazione formale dei fenomeni mentre l'esperimento implica l'intervento del ricercatore che riproduce il
fenomeno in condizioni misurabili: osservazione e misura di un fenomeno; formulazione di un'ipotesi teorico-
matematica; verifica dell'ipotesi (se confermata diventa teoria e/o legge).

Nel XVIII Secolo si verifica una netta discontinuità nelle attività conoscitive indotte dalla Modernità. Il progetto della
Modernità, originato dai pensatori Illuministi del XVIII Secolo, si fonda sull'autonomia della scienza, del diritto, della
morale e dell'arte secondo principi universali e non più particolaristici delle diverse tradizioni. Promuove la
liberazione dell'individuo dal mito, dalla magia, dalla superstizione e dal condizionamento della natura. Il progetto
rappresenta una grande meta -narrazione della storia e della società totalizzante ed unitaria che regge fino al XIX
Secolo. Agli inizi del XIX secolo, il filosofo Auguste Comte applica il metodo della filosofia positivista allo studio della
società, ponendo le basi della Sociologia. La società (secondo Comte) va studiata con il metodo scientifico delle
scienze naturali. Nel 1830 teorizza la Fisica sociale che ha la funzione di scoprire le “relazioni generali che collegano
fra loro tutti i fatti sociali”. Come ogni altra scienza deve essere in grado di portare “all’esatta previsione sistematica
degli avvenimenti”. Nel 1839 crea il neologismo di Sociologia in sostituzione di Fisica sociale. La Sociologia
configuratasi come disciplina alla fine del secolo XIX sviluppa un metodo scientifico per lo studio dei fenomeni sociali
indagati nelle loro cause, effetti e nei loro rapporti reciproci. Nel XX Secolo, la meta-narrazione della Modernità non
regge di fronte alla I e II Guerra mondiale, alle ideologie totalizzanti, all'uso del nucleare a fini bellici. I due conflitti
mondiali seguiti da una crescente disparità sociale, negano le promesse di libertà e di miglioramento delle condizioni
sociali alla base del progetto Illuminista. La narrazione di libertà e di progresso si traduce in oppressioni e vaste
marginalità sociali. Attualmente alcuni Sociologi ridefiniscono la Modernità come: Modernità riflessiva caratterizzata
da ripensamento radicale in funzione di una seconda Modernità (Beck); Post-Modernità per il superamento della
crisi di credibilità delle meta-narrazioni anche a seguito di eventi che accentuano l'insicurezza e la sfiducia: nelle
istituzioni, nelle religioni e nella società. Particolarmente significativa è la produzione di un immaginario collettivo di
demitizzazione della scienza e della tecnologia; Società liquida (di oggi) Bauman teorizza un costante e progressivo
processo di liquefazione dei corpi solidi della società contemporanea (istituzioni, reti sociali, apparati scientifici e
tecnologici)che assumono forme mutevoli. Particolarmente inquietante è l'analisi del rischio e del controllo sociale
attraverso la tecnologia.

MATERIALE 2 - Gli studi sociali della scienza (STS)

Sociologia della scienza e della tecnologia


Poteva connotarsi come una derivazione della Sociologia della conoscenza, tuttavia il sociologo Karl Mannheim che è
stato il fondatore ed esponente della disciplina, negli suoi scritti ha escluso la scienza, la tecnologia e la matematica
dalla spiegazione sociologica ritenendo che non avessero influenza sociale. Nell'opera “Ideologia e utopia” del 1929
analizza il legame esistente tra conoscenza ed esistenza, individuando nel contesto sociale il prerequisito necessario
di ogni forma di conoscenza ma non della conoscenza scientifica. La motivazione dell'esclusione risiedeva nella
considerazione di dover attribuire alla scienza e alla tecnologia uno statuto proprio nell'ambito delle attività
conoscitive. Nell'area tematica della scienza e della tecnologia, secondo Mannheim, non si evincevano influenze
sociali significative che invece si riscontravano in altri ambiti di analisi sociale. La conseguenza di questa posizione ha
comportato un decennio di disattenzione verso i processi sociali della scienza e della tecnologia. Nel 1938 il sociologo
Robert Merton pubblica la tesi di Dottorato: “Scienza, tecnologia e società nell'Inghilterra del XVII Secolo” che,
colmando il vuoto di Mannheim, apre il filone di ricerca degli Studi sociali della scienza e della tecnologia. Robert
Merton è uno dei maggiori esponenti del Funzionalismo che consiste nell’esaminare il contributo che ogni
struttura sociale apporta per il mantenimento dell'equilibrio della società. L’idea da cui muove il funzionalismo è
quella di società intesa come un sistema funzionale assimilabile ad un organismo vivente.

Merton analizza la società sull'osservazione delle strutture e delle funzioni. La struttura è un modello osservabile(ad
esempio la struttura del sistema assistenziale, cioè welfare state) in cui si compie un'azione sociale. La funzione è
un'azione osservabile rispetto ad una struttura, ad esempio l'azione (intesa come prestazione) offerta dalla struttura
del welfare. Nel caso dell'esempio sul welfare: se la funzione di una struttura è inadeguata si determina una
disfunzione come una protesta sociale che turba l'equilibrio funzionale del sistema sociale. Così può succedere anche
per altre strutture, come quelle del sistema tecnologico che, per esempio, hanno la funzione di migliorare le
condizioni di vita ma possono diventare disfunzionali se producono dei danni all’ecosistema come l'inquinamento e il
surriscaldamento. Merton sostiene che: “In sociologia le teorie a medio raggio vengono utilizzate, soprattutto per
guidare la ricerca empirica. Esse occupano una posizione intermedia fra le teorie generali dei sistemi sociali, troppo
remote da particolari categorie di comportamento, organizzazione e mutamento sociale per poter fornire una
spiegazione a quanto viene osservato, e quelle dettagliate descrizioni di particolari che non vengono minimamente
generalizzate. Le teorie di medio raggio comportano naturalmente un lavoro di astrazione: si tratta, tuttavia, di
astrazioni abbastanza vicine ai dati da permettere l’inclusione in proposizioni empiricamente verificabili; una teoria
dei gruppi di riferimento, della mobilità sociale, del conflitto di ruolo e della formazione di norme sociali”. Merton
avanza “teorie basate su un numero limitato di assunti da cui si possono derivare ipotesi specifiche verificabili
empiricamente”.

Se la Chiesa Cattolica ha ostacolato lo sviluppo della scienza e della tecnica, di contro, la Riforma Protestante ha
contribuito intrinsecamente al superamento della controversia tra religione e scienza. Merton, di formazione
Protestante, ha visto nell'Etica Protestante degli elementi significativi di apertura verso la scienza e la tecnica. Per i
Protestanti lo studio scientifico della natura consente di apprezzare la grandezza della Creazione e dunque il
progresso scientifico e tecnologico che tende a migliorare le condizioni di vita è visto come buono agli occhi di Dio. In
proposito afferma che: “I valori sociali propri dell'etica puritana erano tali da comprovare un'accoglienza favorevole
della scienza a causa di un orientamento fondamentalmente utilitaristico espresso in termini religiosi e favorito
dall'autorità religiosa”. Appare evidente l'influenza dell'etica protestante sulla sociologia funzionalista di Merton. Ma
quale posto occupa la scienza nella società? Per il Funzionalisti come Merton (e anche Parson) la scienza rappresenta
un valore dominante della società moderna ed è autonoma rispetto alle sue possibili applicazioni: “il fatto che la
scienza venga applicata non prova necessariamente che il bisogno abbia significativamente determinato il
raggiungimento del risultato”. Merton, in “Teoria e struttura sociale” del 1949, sostiene che: “Nei suoi lineamenti più
generali l'oggetto della sociologia della scienza è l'interdipendenza dinamica fra la scienza, intesa come un'attività
sociale in progresso che dà origine a prodotti culturali e di civiltà, e la circostante struttura sociale”. La scienza è
un’istituzione sociale che ricava il proprio significato dalla cultura della società in cui è immersa. Il campo di interesse
è vasto ma Merton sceglie di seguire un filone di studi e ricerche più ristretto che si incentra inizialmente sullo sforzo
di definire le specificità della scienza come sistema sociale. Merton, accomunando la prospettiva teorica e la ricerca
empirica, individua nella scienza un corpo di norme, valori, modelli di comportamento che connotano un ethos
fondato su quattro “imperativi istituzionali” che sono anche “prescrizioni tecniche e morali che accomunano ragione
etica e tecnica che origina da principi di metodo“giusti e buoni”:

1. Universalismo: “ogni verità che pretenda di essere tale deve essere soggetta a criteri impersonali prestabiliti, in
accordo con l'osservazione e con la conoscenza precedentemente confermata. Il rifiuto o l'ammissione di qualunque
proposizione nel corpo della conoscenza scientifica non deve dipendere dalle caratteristiche personali o sociali di
colui che questa proposizione ha avanzato. L'obiettività esclude il particolarismo.”
2. Comunitarismo: Le scoperte ed i risultati devono appartenere a tutta la comunità di ricerca e alla società come
prodotto della conoscenza collettiva e cumulativa.

3. Disinteresse: L'obiettivo primario da perseguire non deve essere il riconoscimento individuale ma lo sviluppo
della conoscenza.

4. Scetticismo sistematico: Ogni scoperta e ogni risultato deve essere sempre valutato criticamente e messo
costantemente alla prova. Per questi imperativi dell'ethos, la sociologia della scienza e della tecnologia mertoniana,
viene criticata come ideologica e statica. Di contro, i seguaci di Merton, aggiungono quattro imperativi istituzionali
altre norme quali: la razionalità, l'utilitarismo (nell'accezione pragmatica) l'individualismo (nell'accezione enfatica).

L'apporto dei mertoniani risulta però fuorviante per la sociologia di Merton tanto da indurlo nel 1973 ad affermare
che: “l'istituzione della scienza, come ogni altra istituzione, comprende potenzialmente dei valori incompatibili”. Alla
fine degli anni Settanta, la sociologia della scienza mertoniana segna perciò un ripiegamento dell'ethos della scienza
in un ambito più ristretto (intraistituzionale). In estrema sintesi: per Merton lo sviluppo della conoscenza è visto
come essenzialmente cumulativo. I processi sociali della scienza e della tecnologia come processo in continuità sono
ribaltati da Tomas Kuhn nel suo saggio “Struttura delle rivoluzioni scientifiche”, che sostiene che la scienza, non
progredisce in modo graduale (e perciò cumulativo), ma è attraversata da rivoluzioni periodiche. Esiste una
interazione tra struttura concettuale della scienza e realtà sociale che si dibatte tra: forze che definiscono la natura di
un “problema” e forze che ne definiscono la sua “soluzione”. Sono dinamiche sociali che Kuhn è stato il primo ad
affrontare analiticamente, muovendo dal detto di Ruggero Bacone nell'incipit al suo saggio: “La verità emerge
piuttosto dall'errore che dalla confusione”. Il saggio di Kuhn mette in discussione l'approccio statico di Merton e
sostiene che, nello sviluppo di ogni scienza, vi sono delle fasi di: continuità e rottura della continuità.

1.continuità → scienza normale → processo cumulativo della conoscenza → lavoro scientifico sulla base di un
paradigma riconosciuto e accettato da una comunità di ricerca.

2.rottura della continuità → rivoluzioni scientifiche → percorso conflittuale della conoscenza → si evidenziano
anomalie e contraddizioni intorno ad un paradigma scientifico → si formula un paradigma scientifico alternativo
che risponde alle incongruenze del vecchio paradigma → accettazione del nuovo paradigma → nuova fase di
scienza normale.

Ma l’analisi di Kuhn è messa in discussione da Michael Mulkay in “The social process of innovation”, in cui rileva che
lo sviluppo scientifico può avvenire anche in modo non rivoluzionario ma innovativo in conseguenza di nuove aree
di ricerca prima non esistenti. Mulkay spiega il processo sociologico dell’innovazione con la migrazione intellettuale
degli scienziati verso nuovi ambiti di studio e ricerca. Nella prospettiva funzionalistica la scienza occupa un posto
dominante. Merton sottolinea l’importanza della scienza per la società moderna e il suo alto grado di autonomia. Lo
sviluppo della scienza è un processo endogeno ma non esente da influenze esogene. I fattori sociali (esogeni) non
influenzano i contenuti scientifici, ma influiscono sulla velocità della ricerca e/o sulla direzione di sviluppo. I
contenuti della scienza, nell’analisi mertoniana, non possono essere analizzati dall’indagine sociologica (la
conoscenza scientifica è una black box). È possibile studiare il perimetro della ricerca scientifica, ma senza entrare
nel merito della produzione scientifica. A cavallo tra gli anni Sessanta e i primi anni Settanta del Novecento si verifica
una svolta all’interno degli studi sociali della scienza che portano al superamento dell'approccio mertoniano. Questo
revisionismo investe anche la filosofia della scienza con la critica al pensiero di Popper che attraverso la confutabilità,
principio di falsificazione (non il principio di verificazione) intendeva stabilire la differenza tra scienza (vera) e
pseudo-scienze, infatti per Popper una legge è scientifica non se può essere verificata ma se può essere
falsificata. Con il superamento della sociologia con Merton e della filosofia della scienza con Popper, si guarda ad
una nuova prospettiva di analisi a carattere interdisciplinare che studia le implicazioni sociali, politiche,
economiche e culturali della scienza e della tecnologia. Questo nuovo ambito di ricerca interdisciplinare si connota
negli Science and Technology Studies (STS) accomunando i risultati dell'evoluzione scientifica e tecnologica nel
concetto unitario di tecnoscienza, con finalità pratica e utilitaristica. Le principali declinazioni degli STS sono:

1.La Sociology of Scientific Knowledge (SSK) Si costituisce nel 1966 come Scuola di Edimburgo. La finalità è quella di
aprire la black box della scienza applicando quattro principi di analisi riconducibili al Programma Forte della
Sociologia della conoscenza che assume così la valenza di Sociologia della conoscenza scientifica. L'intento del
Programma Forte, secondo i fondatori David Bloor e Barry Barne, è quello di: “voler estendere il raggio di azione
della sociologia della conoscenza fino a includere la spiegazione dei contenuti e delle procedure tecniche delle
scienze empiriche e matematiche”. La tesi di fondo è: “che la scienza è una pratica inseparabile dal culturale, dal
sociale e dal politico da cui è stata ed è ognora istituita”. Nella prospettiva del Programma Forte, la scienza
costituisce un: “segmento della cultura che non può essere reso intellegibile attraverso il ricorso a criteri esterni, ma
soltanto attraverso un esame dettagliato dell’attività scientifica, nei termini in cui essa è realmente condotta in tempi
e contesti differenti … Essa possiede il carattere di pratica sociale differenziata e di sistema di conoscenza relativo ad
una particolare cultura”. La conoscenza scientifica secondo Bloor: “Deve essere causale, cioè interessata alle
condizioni che producono credenze o stati di conoscenza; deve essere imparziale rispetto alla verità e alla falsità, alla
razionalità o all’irrazionalità, al successo o al fallimento. Entrambi i termini di queste dicotomie richiedono una
spiegazione; deve essere simmetrica nel tipo di spiegazione. Gli stessi tipi di causa, cioè, devono spiegare le
credenze vere e le credenze false; deve essere riflessiva. In linea di principio i suoi modelli di spiegazione devono
essere applicabili alla stessa sociologia”.

2.La Social Construction of Technology (SCOT) Il modello SCOT applica la prospettiva Costruttivista: la realtà è
costruita attraverso un processo di trascrizione e ri-trascrizione della realtà. Il modello teorico di Wiebe Bijker e
Trevor Pinch, ha come concetto di base il quadro tecnologico, inteso come contesto cognitivo e sociale nel quale un
manufatto viene ideato e realizzato. Il processo prevede una prima fase di “flessibilità interpretativa” nella quale il
manufatto può essere ideato e realizzato in diversi modi e vede il concorso di più parti interessate: investitori,
scienziati e/o tecnologi, produttori di materiali ma anche di gruppi di influenza sociale che interagiscono con le parti
interessate influenzando le scelte. Una volta che viene stabilita l'interpretazione ottimale del manufatto a seguito di
progressivi gradi di stabilizzazione, si arriva alla seconda fase di “chiusura interpretativa”del manufatto nella sua
forma definitiva. Un esempio è il monopattino: da un quadro tecnologico ad uso ludico ad un quadro tecnologico ad
uso di mezzo di trasporto.

3.L'Action Network Theory (ANT) L'approccio micro-sociologico ANT (“teoria dell'attore-rete”) è un modello teorico
sviluppato da Bruno Latour. La teoria si fonda sul Costruttivismo per spiegare la realtà sociale, sostenendo che ogni
idea scientifica e ogni manufatto tecnologico sono il prodotto di una rete di relazioni (network) tra attori umani e
non-umani definiti come attanti (termine è ripreso dalla semiotica). L'oggetto di analisi dell'attore-rete è il dispositivo
da intendere come una concatenazione di umani e nonumani, ognuno con una competenza propria o delegata: “ciò
con cui l'analisi si confronta sono i concatenamenti umani e non umani su cui le competenze e le performanze
(azioni) sono distribuite”. Così il soggetto dell'interazione di rete non è più solo l'attore umano ma l'attante ovvero
“qualunque cosa operi un débrayage (definito da Latour come “un qualunque riposizionamento all'interno di un'altra
enunciazione, che permette di lasciare il qui e ora o di far ritorno al punto di partenza”. Esso consente il passaggio
dall'inter-soggettività all'inter-oggettività. Un esempio può essere l'azione di mettersi alla guida di un veicolo:
l'umano (guidatore) si concatena a non-umani (le funzioni della vettura e le condizioni della strada), entrambi attanti
di un network socio-tecnico che consente di guidare) dell'azione, considerando che l'azione in sé è considerata come
una serie di performanze”.Uno dei fondamenti della teoria è rappresentato dal principio di simmetria generale che
prescrive di utilizzare un'unica terminologia per trattare sia gli attori umani che gli attori non-umani: attanti. La
distinzione tra Natura e Cultura, secondo Latour, è fuorviante in quanto vi è sempre stata una ibridizzazione tra
natura e cultura (ogni separazione o ogni barriera tra le due componenti è incongruente). Pertanto Natura e Cultura
vanno comprese secondo un’antropologia simmetrica in quanto si riflettono specularmente.

4.Il Social Shaping of Technology (SST) L'approccio SST è riconducibile ai lavori di Raymond Williams e David Edge
realizzati a metà degli anni Novanta. Gli studi vengono condotti parallelamente e in stretta relazione con il gruppo
SCOT ma differenziandosi in alcuni aspetti. Gli studi SST convergono verso una forma mutuata di modellamento tra
tecnologia e società (mutual shaping), superando così la dicotomia tra il determinismo tecnologico e il determinismo
sociale. Un aspetto di differenziazione significativo SST rispetto a SCOT si ritrova nel ruolo attribuito agli utenti finali
delle tecnologie che, indirettamente, influenzano gli investimenti tecnologici attraverso le modalità d'uso delle
tecnologie. Un esempio è l'evoluzione dei telefoni cellulari diventati smartphone, includono tutte le funzionalità di
un computer palmare a vantaggio dell'accessibilità e della mobilità. L'approccio SST trova particolare applicazione
nell'analisi dell'uso quotidiano delle tecnologie.

MATERIALE 3- Approcci teorici alla comunicazione


Contesto sinottico delle transizioni della comunicazione: Marshall McLuhan individua l’uomo illetterato che non può
accedere alla cultura, l’uomo tipografico, l’uomo elettrico; oralità primaria, oralità secondaria, oralità terziaria o ri-
oralizzazione; brainframe orale/alfabetico, brainframe analogico, brainframe digitale.

Le transizioni di riferimento sono: l’uomo illetterato (Mcluhan), l’oralità primaria (Ong), brainframe orale/alfabetico
(De Kerckhove).

Oralità e scrittura
L’oralità è propria delle società arcaiche fondata su processi di memorizzazione: memorizzazione di tecnicalità per la
vita pratica (memoria pratica), memorizzazione di riti (memoria etnica), memorizzazione ripetitiva e ritmica
(memorizzazione verbale). L’individuo delle società senza scrittura si percepisce come indifferenziato rispetto
all’ambiente. Il passaggio dall’oralità alla scrittura determina la formazione dell’identità del sè, una identità
personale definita e separata rispetto all’ambiente e agli altri. La scrittura modifica la sensorialità (infatti visione vs
ascolto, intelligenza sequenziale vs simultanea), oggettivizza l’oralità, deposita le conoscenze oltre la memoria degli
individui, custodisce il passato/entra nel futuro.

Platone e la scrittura
Platone ha scritto molte opere che sono giunte fino ad oggi grazie alla scrittura, ma egli appare come un feroce
oppositore della scrittura. L’alfabeto greco (grammata) viene introdotto nell’XIII secolo a.C come adattamento di
quello fenicio, ma la scrittura evolve e si definisce dal V secolo a.C. Nel “Fedro” (370 a.C) accusa: “Le lettere
cagionano smemoramento nelle anime di coloro che le hanno apprese, perocchè più non curano della memoria,
come quelli che, fidando della scrittura, per virtù di strani segni di fuori si rammentano delle cose, non per virtù di
dentro a da se medesimi”. Platone nonostante sia nato nel V secolo a.C, intuisce prima di un uomo moderno gli
effetti sociali della comunicazione mediata attraverso la parola scritta e le immagini. La sua apparente avversione per
la parola scritta è motivata solo dalla preoccupazione che possa inficiare la verità. La ricerca della verità è il
fondamento del suo pensiero filosofico; infatti la mediazione simbolica della realtà può essere anche fuorviante
indipendentemente se intenzionale o non intenzionale. Uno scritto non veritiero (nel suo tempo) non poteva essere
immediatamente confutabile a causa del lungo time shifting (intervallo tra emissione e ricezione di un messaggio)
della parola scritta (intervallo che sarà ridotto secoli dopo grazie alla stampa e poi ai mass media); diversamente
dalla parola parlata che ha un time shifting immediato. Platone aveva perciò già intuito il pericolo delle fake news o
bufale (nell’accezione ante-litteram); aveva anche intuito il potere ingannevole della rappresentazione della realtà
attraverso le immagini mediate: ombre proiettate sul muro ne il mito della caverna.

Qual è il nesso tra società, cultura e comunicazione? Secondo l’approccio più avanzato questo nesso si ritrova nelle
cornici mentali che De Kerckhove definisce come brainframes, cioè strutture di pensiero organizzate “create e
ricreate dalle nostre stesse invenzioni” (che, nel nostro caso sono le tecnologie di comunicazione) per l’adattamento
alla tecnologia di comunicazione del proprio tempo: ad ogni tecnologia corrisponde una struttura di pensiero
organizzata. Riguardo la cultura, essa agisce sul sistema nervoso come un software applicativo in forma di abitudini
neurologiche (programmazione culturale). In altre parole, il nostro sistema nervoso non segue solo una
programmazione genetica innata ma anche una culturale acquisita, che è l’adattamento del sistema nervoso alla
tecnologica di comunicazione del proprio tempo. Ogni forma di comunicazione crea e ricrea brainframes che
incorniciano il nostro cervello in strutture di pensiero organizzate sia fisiologicamente (organizzazione neuronale)
che psicologicamente (organizzazione cognitiva). Dunque, il brainframe è una struttura di pensiero organizzata che
circoscrive (in una cornice cerebrale) ambiti di percezione cognitiva e sensoriale della realtà mediata dalla
comunicazione. Muovendo da questo approccio cognitivo, ogni tecnologia di comunicazione è una psicotecnologia
poichè incide in modo pervasivo sul pensiero, sull’identità e sulle azioni di ogni individuo. Ogni psicotecnologia è
l’interazione tra logos e techne nella cornice interpretativa del brainframe.

De Kerckhove distingue 3 periodi di evoluzione delle psicotecnologie che associa sempre al linguaggio: oralità
primaria con psicotecnologia orale, oralità secondaria con psicotecnologia alfabetica, oralità terziaria con
psicotecnologia elettrica/elettronica. Nell’oralità primaria (comparsa circa 50mila anni fa) l’unica psicotecnologia è
la parola parlata come evoluzione del mondo dei suoni. Il brainframe degli individui pre-alfabetici è una struttura di
pensiero situazionale, basato esclusivamente sulla memoria (logos) mediante l’oralità (techne). Nell’oralità
secondaria (comparsa circa 6mila anni fa) la psicotecnologia è rappresentata dalla scrittura alfabetica come
evoluzione dal “mondo dei suoni” al “mondo dei segni”. Il brainframe degli individui alfabetizzati è una struttura di
pensiero codificata in logos scritto di tipo sequenziale come evoluzione del pensiero situazionale al pensiero astratto.
In altre parole, la mente (logos) viene liberata del carico mnemonico che si trasferisce mediante la scrittura (techne)
su un medium. L’alfabeto latino orienta la scrittura e la lettura da sinistra a destra diversamente da altri alfabeti;
questa lateralizzazione della scrittura gerarchizza i nostri gesti e influenza il rapporto spazio-temporale. Queste
differenze condizionano il tipo di brainframe e la conseguente diversa struttura di pensiero che racchiude.

LE PROSPETTIVE TEORICHE AMERICANE ED EUROPEE PRIMA DI MCLUHAN


La mass comunication research o media studies è una ricerca incentrata sugli effetti dei media che puo' essere
ricostruita per cicli cronologici.

Teoria dell' "ago ipodermico" o del "proiettile magico" (anni '20 - '30): non e' una teoria scientifica ma una psudo-
teoria fondata sull'assunto che "i media manipolano le persone". Il contesto sociologico di riferimento e' quello della
societa' agli inzi del '900 industrializzata e urbanizzata. Gli individui perdono i legami comunitari e di luogo (legami
forti), si ritrovano alienati e privi di legami significativi (legami deboli) in una societa' atomizzata e indifferenziata
(societa' di massa) che li espone isolati ai messaggi dei media. La pretesa di questa pseudo-teoria è quella di mutuare
il modello della psicologia comportamentista applicandolo alla comunicazione. Nello specifico si basa sulla relazione
diretta tra lo stimolo (esposizione al messaggio) e la risposta (comportamento). il processo stimolo ---> risposta è:
unidirezionale senza retroazione da parte del ricevente verso l'emittente; causale con nesso di causa ed effetto. Gli
individui isolati, anonimi, non organizzati, spesso poco colti, facilmente suggestionabili e con comportamenti
collettivi uniformi (effetto gregge) rappresentano un bersaglio ideale per sparare un "proiettile magico" o inolulare
con un "ago ipodermico" un messaggio. Il funzionamento dell' "ago ipodermico" o del " proiettile magico" ha un
esempio nella fiction di herbert george wells "la guerra dei mondi": nonostante all'inizio del programma fosse stato
esplicitato che si trattava di una fiction, la narrazione dello sbarco di marziani ostili nei pressi di una fattoria del new
jersey destò panico e isteria in milioni di americani con fughe incontrollate dalle citta' e suicidi. La teoria dell' "ago
ipodermico" o del "proiettile magico" caratterizza la fase dei media onnipotenti e viene confutata da Harold
Lasswell.

Lasswell studiando la propaganda politica e bellica ritiene sbagliato creare delle aspettative in quanto non impegna
chi attende ma impegna chi promette e spesso non mantiene. Percio' ritiene fondato il modello di propaganda di
charles merriam su base simbolica ed emozionale attraverso i "credenda" (simboli in cui credere) e "miranda"
(simboli da ammirare). Il periodo e' quello tra le due guerre mondiali in paesi a regimi totalitari come la germania e
l'italia attraverso: il ministero per la chiarezza pubblica e la propaganda (in germania); il ministero per la cultura
popolare (in italia). Lasswell elabora un modello che introduce delle variabili nella comunicazione mediata non
contemplato dalla "teoria ipodermica" o del "proiettile magico": il modello delle 5 w:

who (chi comunica ---> analisi dell'emittente)

what (cosa comunica ---> analisi del messaggio)

whom (a chi comunica ---> analisi del ricevente)

where (in che modo ---> analisi del mezzo)

what effects (con quali effetti ---> analisi degli effetti)

Gli studi sul "chi" riguardano i diversi media; gli studi sul "cosa" riguardano il contenuto dei messaggi; gli studi su "a
chi" riguardano il pubblico o meglio i pubblici che sono diversi per composizione, interessi, cultura; gli studi sul
"come" riguardano le tecnologie dei media ed i linguaggi; gli studi sugli "effetti" riguardano i comportamenti
modificati per effetto dell'esposizione ai messaggi.

Tuttavia la teoria delle 5w non si discosta molto dalla "teoria ipodermica" o del "proiettile magico", rimane
unidirezionale (dall'emittente al ricevente) e fortemente declinata verso l'emittente. La comunicazione e' sempre
intesa come prevedibile e mai con aspetti di imprevedibilita' da parte dei media e/o dei destinatari. Percio' anche la
teoria delle 5w di lasswell viene ad essere confutata da altri approcci teorici. in altre parole: Lasswell intuisce
giustamente che tra lo stimolo e la risposta intervengono delle variabili ma elabora uno schema asimmetrico che
concentra tutto il potere sull'emittente. Il nuovo approccio teorico sposta invece lo schema sui destinatari
includendo tra stimolo e risposta il fattore iv: variabili intervenienti che considerano: le variabili socio-demografiche
(sesso, residenza, eta', cultura, socializzazione); gli atteggiamenti e le opinioni preesistenti; i processi psicologici
individuali (maggiore minore esposizione ai media: maggiore o minore interesse verso certi argomenti; diversa
percezione; memorizzazione selettiva).
La sociologia della comunicazione fa proprie queste ricerche di psicologia sperimentale elaborate da carl hovland.
Quindi il nuovo schema diventa: stimolo ---> varianti intervenienti --->risposta.

Finisce cosi la fase dei cosiddetti media onnipotenti e si apre la fase degli effetti limitati. Questo filone di studi si
concentra sul ruolo delle relazioni sociali e delle agenzie di socializzazione nella vita sociale degli individui. Quindi
non si pensa piu' ad individui alienati ed isolati ma ad individui aggregati ed organizzati, dotati di capacita' critica e di
scelta. L’attenzione e' posta tanto sugli individui quanto sul contesto sociale che agisce nel processo di
comunicazione a piu' livelli. In altre parole: i media non manipolano gli individui e nemmeno li persuadono. Hanno
un potere di influenza sui comportamenti individuali secondo le caratteristiche psicologiche e sociali considerate
nelle variabili intervenienti. Il potere di influenza e' limitato perche' viene filtrato dalle relazioni sociali e dalle agenzie
di socializzazione (ricomprese nelle variabili intervenienti). Il nuovo paradigma degli effetti limitati non esclude del
tutto la persuasione da parte dei media ma la considera minima in quanto mitigata dai filtri sociali. La teoria degli
effetti limitati e' stata studiata dalla scuola di columbia da Lazarsfeld, Berenson, Klapper. I tre studiosi hanno svolto
numerose osservazioni sul comportamento di un campione rappresentativo di americani da cui hanno desunto due
tipi di effetti: l'effetto di rafforzamento e l'effetto di conversione. L'effetto rafforzamento prodotto dalla
comunicazioe riguarda il rafforzamento di atteggiamenti, opinioni e comportamenti gia' preesistenti; l'effetto di
conversione consiste in un cambiamento radicale di atteggiamenti, opinioni e comportamenti che avviene pero'
raramente e in casi particolari per condizioni molto soggettive e percio' non generalizzabili. L'effetto che e' invece
generalizzabile in quanto risulta molto ricorrente e' quello del rafforzamento. Il rafforzamento si basa sul
meccanismo di selezione: teoria della percezione selettiva da intendere come "la tendenza degli individui a
selezionare nella massa delle informazioni diffuse dai media principalmente quei messaggi in sintonia con le proprie
preferenze, e a rimuovere invece i messaggi dissonanti”.

Una variante della klapper e' la teoria dell'intelligenza socialmente organizzata. Questa teoria di wrigt mills imputa
alla rete di relazioni sociali dell'individuo una funzione di intelligenza sociale organizzata che orienta gli individui sia
nelle scelte di stabilizzazione che di cambiamento. Lo sviluppo degli studi sul comportamento elettorale degli
americani produce un nuovo filone di studi denominato public opinion reserach che aggiunge una nuova teoria da
parte di lazarsfeld e katz: teoria del two step flow o teoria del flusso della comunicazione a due stadi. I mass media
non raggiungono tutti gli individui e per fare in modo che il messaggio raggiunga anche quegli individui che usano
poco o niente i mass media allora il messaggio avviene in due stadi: un primo stadio va dai mass media agli opinion
leaders; un secondo stadio va dagli opinion leaders alla popolazione, i quali agiscono come agenti di collegamento
tra i mass media e la popolazione. Gli opinion leaders: sono persone importanti e/o famose (con ruoli pubblici,
personaggi dello spettacolo e dello sport, etc ) nella societa' o in una comunita' possono essere considerati esperti o
interessati al messaggio che comunicano o prestarsi comunque a diffonderlo. Sono molto socievoli e comunicativi,
capaci di farsi ascoltare e di riscuotere fiducia e/o consenso. Gli opinion leaders possono anche essere individui
comuni che sono stimati o sono carismatici nei vari gruppi sociali (gruppi socondari: ambiente di lavoro,
associazionismo, etc).

Con la teoria del flusso della comunicazione a due stadi si chiude anche la fase del potere di influenza dei media. Gli
studi sulla comunicazione evolvono, abbandonano l'interesse sul pubblico e si concentrano nuovamente sui media. Il
nuovo filone di ricerca sulla comunicazione guarda alla corrente sociologica dello struttural-funzionalismo. In parole
semplici: e' modellato sull'organismo vivente in cui ogni parte e' funzionale non solamente per se stessa ma per il
mantenimento e la funzionalita' dell'organismo nel suo complesso. Cosi ogni struttura sociale è funzionale al
mantenimento e alla funzionalita' dell'intera societa'. I nuovi studi sulla comunicazione estrapolano dalla teoria
sociologica il concetto di funzione che viene applicato agli individui e non alla società. La funzione dei media diventa
l'uso strumentale che il pubblico fa dei mass media per soddisfare i propri bisogni e riceverne cosi una gratificazione.
I media soddisfano bisogni cognitivi, estetici, di integrazione (sociale e personale) e di evasione: questa prospettiva si
traduce nella teoria degli usi e gratificazioni. Con questa teoria l'audience diventa attiva e attenta in quanto il
pubblico e' motivato a trovare gratificazione. Il bisogno di gratificazione induce il pubblico a scegliere tra i media per
trovare nei palinsesti le prestazioni attese respingendo contenuti diversi, diventa selettivo. I mass media competono
tra di loro per conseguire indici di ascolto diretti a soddisfare i bisogni attesi per fidelizzare il pubblico. La sociologia
della comunicazione si limita alla comprensione delle modalita' di fruizione dei contenuti mediali e sospende ogni
giudizio di valore sui contenuti. Le prospettive teoriche finora presentate riguardano filoni di ricerca americani.
L'europa si inserisce nei filoni di ricerca di oltreoceano con la scuola di francoforte ed i cultural studies.

SCUOLA DI FRANCOFORTE
Nasce negli anni 20 come centro di ricerca Interdisciplinare. Tutti i contributi dei diversi studiosi convergono nella
teoria critica fondata sulla revisione del marxismo. La nuova formulazione del marxismo è il marxismo critico. La
scienza e la cultura vengono problematizzate te in questo ambito in cui trova attenzione anche la sociologia della
comunicazione. La problematizzazione consiste nella critica della cultura come strumento degli interessi dei poteri
forti della società. La cultura è considerata sempre più vuota e più asservita al potere , è veicolo di riproduzione dei
valori dominanti per perseguire il consenso e premere il conformismo. Sulla base di questa riflessione, la scuola di
Francoforte opera una analisi critica dei mass media e più in generale dell’ industria culturale.
L’analisi critica della sociologia della comunicazione riguarda tutti filoni di ricerca americani, dalla Communication
Research alla sociologia funzionalista applicata ai media. Molti esponenti della scuola Sono di origine ebraica e per
sfuggire alla persecuzione antisemita di nazisti si rifugiano negli Stati Uniti. Durante la loro permanenza americana
analizzano criticamente il sistema dei media che considerano di tipo industriale . La produzione mediale è assimilata
a consumo culturale di massa . Questa analisi critica porta la formulazione della definizione di industria culturale .
Sotto accusa è la cultura popolare che non nasce più dal basso ma è pianificata dall’ alto. I prodotti dell’ industria
culturale americana come film, giornali patinati, romanzi, musica, sono generi di consumo e di evasione. L’ industria
culturale non ha fruitori ma consumatori. Questa concezione dei destinatari dei contenuti mediali converge sulla
prospettiva ipodermica di natura manipolatoria. Secondo Marcuse, uno degli esponenti, l’ uomo è narcotizzato dai
media. L’ idea di narcosi è presente anche in McLuhan ma a differenza di Marcuse oppone una reazione attraverso la
creazione di un ‘’contro-ambiente’’. Benjamin, un altro esponente di spicco della scuola, è meno pessimista di
Marcuse, intravedendo nello sviluppo delle tecnologie una diversa funzione della cultura.

CULTURAL STUDIES
Si sviluppano in inghilterra negli anni '50 ma prendono forma nei primi anni '60. Questa istituzione anche se non
formalmente connotata come scuola presenta le medesime caratteristiche scientifiche della scuola di francoforte.
L'interesse scientifico è la cultura non prodotta da intellettuali o istituzioni ma dal popolo in forma di pratica
quotidiana di significati e valori condivisi. È la cultura popolare. Anche i cultural studies hanno come riferimento la
teoria marxista ma con una visione opposta del ruolo dei media. Per i cultural studies il sistema mediale gioca un
ruolo importante per la costruzione della cultura popolare. Benjamin vede nello sviluppo delle tecnologie di
comunicazione nuove possibili forme di cultura popolare. I cultural studies riconoscono come la scuola di francoforte
il potere egemone della classe dominante sulla cultura ma attribuiscono al popolo un contropotere di opposizione
che consente di rifiutare o rielaborare i modelli culturali dominanti. A riguardo del consumo mediale i cultural
studies sostengono il modello encoding - decoding elaborato da Hall. L'attivita' di encoding e' la codificazione dei
contenuti da parte dei media. L'attivita' di decoding e' la decodificazione dei contenuti da parte del popolo. La
decofificazione puo' avvenire con tre modalita':
 modalità egemonica-dominante se la decodificazione e' coincidente con la codificazione dei media
 Modalità negoziata se la codificazione dei media viene compresa ma con decoficazione rielaborata
 modalità oppositiva se la codificazione dei media viene compresa ma decodificata in modo antagonista

Mcluhan in diverse sue pubblicazioni sostiene che ogni "mezzo" realizzato dall'uomo, sia di tipo materiale che di tipo
immateriale rappresenta una "estensione" di una parte del corpo o di una sua funzione/facoltà.
Ogni "estensione" tecnologica dell'uomo ha un "ritorno" diretto sull'ambiente in cui vive. Perchè ogni nuova
tecnologia "contiene" (riconfigura) in se' l'ambiente precedente in termini mediatici: la scrittura contiene la parola, la
stampa contiene la scrittura, il telegrafo contiene la stampa, il telefono contiene il telegrafo. Per Mcluhan vivere un
nuovo ambiente tecnologico pensando all'ambiente tecnologico precedente e' come guardare la realta' dallo
specchietto retrovisore in cui si guarda indietro e non avanti: mcluhan la definisce come " sindrome dello specchietto
retrovisore". Questa sindrome se per un verso definisce delle transizioni tecnologiche dall'altro limita la percezione
della realta' in divenire. In altre parole: la societa' post-letteraria dei media elettrici ha osservato con distacco la
societa' letteraria della scrittura e della stampa, ma la societa' della transizione da letteraria ad elettrica ha vissuto la
"sindrome da specchietto retrovisore". Ogni fase di transizione comporta una "estensione" ma anche una
"amputazione". La tecnologia della stampa a caratteri mobili ha prodotto una "estensione della vista dovuta alla
lettura, ma ha prodotto anche una "amputazione" dell'udito. Nel caso dei media elettrici, come la televisione, si
tratta di una "estensione" da "servomeccanismo". Mcluhan per spiegare il concetto di "servomeccanismo" riprende il
mito di narciso: narciso non distingue la causa dall'effetto, la causa e' la rifrazione attraverso l'acqua, l'effetto e'
l'immagine riflessa. L'attenzione di narciso non e' rivolta alla causa ma all'effetto di "servoccanismo della sua
immagine "estesa" (ripetuta). in altre parole: narciso e' l'estensione di se stesso. lo spettatore televisivo si concentra
sull'immagine "estesa" (ripetuta) del programma trasmesso che e' l'effetto. mentre guarda il programma e'
incosapevole della sua interazione fisica e psicologica con il "mezzo" televisivo. cosi il telespettatore diventa
"servomeccanismo" della televisione adattandosi al mezzo in modo passivo. Solo nella societa' tribale dove l'unico
medium e' il linguaggio non si ha squilibrio sensoriale che si produce a partire dal passaggo dall'oralita' alla scrittura.
Nella societa' tribale (oralita'), l'uomo ha una percezione acustica con tutti i sensi in equilibrio: simultaneita'
sensoriale di tipo tattile. Con l'avvento della scrittura si ha un primo sbilanciamento verso l'occhio a scapito
dell'orecchio trasformando la percezione da acustica a visiva. la stampa consolida il dominio della visione che assume
il significato di conoscenza.
La riproducibilita' tecnica del libro chiude la fase di transizione dalla societa' orale a quella letteraria. Ma la societa'
orale ritorna riconfigurata attraverso l'invenzione dell'elettricita'. il medium elettrico riconfigura l'ambiente con
caratteristiche di simultaneita' sensoriale proprie della societa' tribale (anche se in questo caso si tratta di
simultaneita' trasmessa e non naturale). Ong, definisce la societa' dei media elettrici come "oralita' secondaria” e
come "oralita' terziara” quella dei new media.
Per Mcluhan l'elettricita' e' un medium senza messaggio, ovvero, senza contenuto ed "e' indifferente che la si usi per
un'operazione al cervello o per una partita di baseball in notturna. si potrebbe sostenere che queste attivita' sono il
<contenuto> della luce elettrica, perche' senza di esse non potrebbero esistere". Se ne deduce che non bisogna
analizzare i media sulla base del contenuto ma sulla loro riconfigurazione, perche' il contenuto di un media e' un
altro media (es. la stampa contiene la scrittura). Se il medium non e' il contenuto (perche' il contenuto e' solo una
riconfigurazione del medium) allora: il medium e' il messaggio.

Eco contesta Mcluhan affermando che il suo ragionamento presenta "una serie di equivoci gravissimi per un teorico
della comunicazione, per cui non si stabiliscono le differenze tra il canale di comunicazione, il codice e il messaggio";
ed ancora "dire che la luce e' un medium significa non rendersi conto che giocano almeno tre accezioni di <luce>: 1)
<la luce come segnale> (trasmetto impulsi che in base al codice morse significheranno poi particolari messaggi); 2)
<la luce come messaggio> (la luce accesa alla finestra dell'amante significa <vieni>); 3) <la luce come canale> di altra
comunicazione (se in una strada ho la luce accesa posso leggere il manifesto affisso al muro)". Eco, conclude "la
formula, <il medium e' il messaggio> si rivela ambigua e gravida di una serie di significati contrastanti". Eco
demolisce la teoria di Mcluhan con osservazioni giuste e fondate ma che vanno intese nell’ambito proprio della
semiotica. L’approccio di Eco è di tipo specialistico, l’approccio di Mcluhan è di tipo generalista.
Pertanto, fatto salvo che il medium è il messaggio, va ribadito che “le leggi dei media” di McLuhan, come egli stesso
afferma sono “pseudo-leggi” fondate sull’osservazione intuitiva. McLuhan pone in relazione la temperatura dei
media con il grado di interazione (con i media). I parametri di riferimento sono il “coinvolgimento” e la
“partecipazione” degli individui nell’interazione con i media. L’intensità dell’interazione è data dalla temperatura del
medium. Un medium può avere una bassa temperatura (freddo) o un’alta temperatura (caldo).

 I media “caldi” producono una estensione di un senso in alta definizione e quindi richiedono un basso grado di
coinvolgimento e partecipazione sensoriale.
 I media “freddi” producono una estensione di un senso in bassa definizione e quindi richiedono un alto grado di
coinvolgimento e di partecipazione.
Tra i media elettrici, per esempio, il cinema è un medium caldo perchè ad alta definizione, mentre la televisione è un
medium freddo a bassa definizione. In altre parole, il cinema pone lo spettatore nella stessa condizione di visione
dell’opera d’arte; la televisione pone lo spettatore nella stessa condizione di narciso, ovvero si riflette nello schermo.
Va anche detto che McLuhan ha fatto queste osservazioni sulla televisione nei primi anni sessanta, quando era
ancora in bianco e nero e con una vera bassa risoluzione. La televisione attuale è molto vicina alla definizione del
cinema. Questo significa che la televisione digitale si è riscaldata. Da queste considerazioni sui media “caldi” e
“freddi” possono dedursi anche le società “calde” e “fredde”. Per McLuhan la società tribale (dell’oralità) è fredda; la
società meccanica (della stampa a caratteri mobili) è calda; la società elettrica è fredda. Gamaleri spiega bene le tre
variabili della società di McLuhan: la temperatura di un medium va considerata nella sua struttura tecnologica. La
società tribale (oralità) ha una bassa definizione a causa di una sensoriali simultanea di tipo Natale (“tattile” come
integrazione di sensi oltre che propriamente acustica); la società meccanica ha un alta definizione per una
“estensione” della sensorialità a causa del riscaldamento del medium scrittura nel passaggio a stampa.; la società
“elettrica” ha la stessa bassa definizione delle società tribali a causa di una sensorialità simultanea ma di tipo
trasmesso e non naturale (la televisione è definita da McLuhan come un medium tattile).
L’ambiente sociale e l’educazione culturale individuale:
Riprendendo le considerazioni di “estensione” ed “amputazione” in relazione ai media caldi e freddi, si deduce che:
un medium caldo surriscalda un senso (e perciò produce un’alta “estensione”): l’occhio è surriscaldato dalla scrittura,
dalla stampa, dalla fotografia, dal cinema mentre gli altri sensi vengono a raffreddarsi (e perciò ad amputarsi). Un
medium freddo non surriscalda nessun senso (e perciò produce una bassa estensione): più sensi si integrano per una
percezione tattile. Se invece sono più sensi ad essere surriscaldati (e perciò producono un’alta estensione) si ha una
“visione allargata” che richiama l’idea di “allucinazione” presente nelle poetiche di avanguardia tra ottocento e
novecento a cui McLuhan si ispira.
LE PROSPETTIVE TEORICHE AMERICANE ED EUROPEE DOPO MCLUHAN
Non sempre quello che si ritiene come reale è davvero reale, ma una rappresentazione del reale (lo aveva già
dimostrato Platone nel mito della caverna). Molto spesso l’esperienza del reale è di tipo secondhand dove prevale
l’esperienza mediata su quella diretta. Il sistema dei mass media costruisce degli stereotipi o cliché di realtà (pseudo-
ambienti di conoscenza e di informazione) che pur essendo estranei all’esperienza degli individui vengono fatti
propri e ritenuti reali. Il ruolo dei mass media nel processo di costruzione della realtà da parte degli individui è
riconducibile a 4 diverse teorie:

1.TEORIA DELL’AGENDA SETTING


La formulazione iniziale è di Cohen del 1963 e viene presentata come una metafora: “la stampa può nella maggior
parte dei casi non essere capace di suggerire alle persone cosa pensare, ma essa ha un potere sorprendente nel
suggerire ai propri lettori intorno a cosa pensare..” . Mccombs e Shaw estendono la metafora di Cohen dalla stampa
ai media. I media offrono agli individui l’organizzazione dei temi e dei problemi sui quali pensare e discutere.
Secondo Shaw: “l’ipotesi dell’agenda Setting non sostiene che i media cercano di persuadere i media, descrivendo e
precisando la realtà esterna, presentano al pubblico una lista di ciò intorno a cui avere un opinione e discutere.
L’assunto fondamentale dell’agenda Setting è che la comprensione che la gente ha di gran parte della realtà sociale è
mantenuta dai media”. Gli individui vengono influenzati sull’individuazione dei temi ma non vengono persuasi sui
contenuti. L’agenda media diventa l’agenda del pubblico: gli stessi temi e lo stesso rilievo. La realtà dei media
assunta come realtà dagli individui è detto: trasferimento di salienza. I temi che hanno maggiore influenza detti a
soglia alta, sono quelli lontani dal vissuto degli individui (es.il riscaldamento globale o la manipolazione del genoma
umano) sui quali pensare e discutere; I temi che hanno minore influenza, detti a soglia bassa, sono quelli che gli
individui vivono nella propria esperienza (es. disoccupazione o aumento dei prezzi) e che non hanno bisogno di
essere in agenda per pensare e discutere. Ma non tutti gli eventi diventano notizie dell’agenda setting: ad una fase di
raccolta segue una fase di selezione degli eventi. Gli eventi ritenuti notiziabili vengono inseriti in agenda secondo un
diverso rilievo che può aumentare o diminuire fino ad essere rimossi o sostituiti da altri eventi notiziabili. Nel caso di
notizie che riguardano le persone, la differenza di rilievo sta nella quantità dei soggetti interessati e nella qualità dei
soggetti notiziati. Gli studi più recenti sull’agenda setting hanno individuato un secondo livello detto framing che non
si limita ad individuare i temi su cui pensare e discutere, ma agisce anche su come e cosa pensare e che
atteggiamento assumere in merito.
2.TEORIA DELLA SPIRALE DEL SILENZIO
Questa teoria elaborata in Germania da Noelle-Neumann tra gli anni ’70 e ’80 si inserisce nel clima di opinione della
gente già introdotto dall’agenda setting. Una serie di test e di sondaggi ha rilevato che una opinione diversa da quella
dominante induce gli individui interrogati a non esprimere la propria opinione dissonante ma a conformarsi a quella
maggioritaria per paura di essere isolati. Questo atteggiamento remissivo e di conversione è il fulcro della spirale del
silenzio. “I media influenzano non solo le opinioni individuali, ma limitano attraverso l’effetto della spirale del
silenzio, anche la qualità del dibattito pubblico e civile.” L’opinione pubblica maggioritaria diventa cosi strumento di
controllo sociale. Con questa teoria Noelle-Neumann rimette in discussione gli effetti limitati dei media in quanto si
verifica non solo un rafforzamento delle opinioni dominanti ma anche una conversione delle opinioni contrastanti. La
debolezza di questa teoria risiede nel considerare i contenuti dei media omogenei e non differenziati oltre che
sminuire l’azione delle minoranze attive.
3.TEORIA DEGLI SCARTI DI CONOSCENZA
Questo modello teorico detto anche dei differenziali di conoscenza (knowledge gap) si fonda sull’assunto che
“l’informazione è potere. La diffusione dei media popolari come la radio e la televisione dovrebbe colmare il gap di
conoscenza negli strati di popolazione esclusi dai flussi informativi di più difficile accesso ma questa teoria sostiene il
contrario in quanto la diffusione dei media è fattore di disuguaglianza sociale.“Mano a mano che aumenta la
penetrazione dei media di informazione in un sistema sociale, i segmenti di popolazione con lo status socio
economico più alto tendono ad acquisire l’informazione più velocemente dei segmenti di più basso livello
socioeconomico, cosi che lo scarto di conoscenza tra questi segmenti tende a crescere invece che a diminuire”
Tichenor, Donohue, Olien. In altre parole: chi ha la possibilità di accedere e di fruire di nuove tecnologie accresce le
proprie conoscenze. Chi per motivi culturali, religiosi, politici, viene escluso o limitato nell’uso delle tecnologie di
base lo sarà di più per le nuove tecnologie. Lo scarto cognitivo è attualmente rappresentato dal divario digitale
(digital divide)
4.TEORIA DELLA COLTIVAZIONE
Questa teoria studia gli effetti a lungo termine dovuti all’esposizione continuata al mezzo televisivo. È stata elaborata
da Gerbner nel 2002, che spiega cosi il concetto di coltivazione: “noi usiamo il concetto di <coltivazione> per
descrivere il contributo indipendente che l’esposizione al mezzo televisivo produce sul telespettatore in merito alla
concezione della realtà sociale. L’ipotesi generale dell’analisi della coltivazione consiste nel considerare coloro che
passano molto tempo <vivendo> nel mondo televisivo maggiormente soggetta ad interpretare il <mondo reale> in
termini di immagini, valori ed ideologie che emergono dalle lenti della televisione. Il <differenziale di coltivazione>
altro non è che il margine di differenza in concezioni della realtà tra forti e deboli telespettatori appartenenti agli
stessi sottogruppi demografici”. Il concetto di coltivazione si connota nell'assorbire gradualmente e cumulativamente
la realtà rappresentata dalla televisione che va a sostituire la realtà vissuta. Si tratta di un vero e proprio processo di
sostituzione della realtà. La televisione diventa agente di socializzazione e costruttrice di realtà. Il processo di
sostituzione della realtà dipende dalla quantità dell'esposizione ma anche dalla qualità della fruizione che mitiga le
effetti.

Dalla socializzazione alla network and Socibility


“la società può essere compresa soltanto attraverso lo studio dei messaggi e dei mezzi di comunicazione. Il
linguaggio non è attributo esclusivo dell'uomo, bensì un carattere che egli può condividere fino a un certo grado con
le macchine da lui costruite….generalmente noi crediamo che la comunicazione e linguaggio siano diretti da persona
persona. È possibile tuttavia che una persona parli a una macchina, una macchina ad una persona e una macchina ad
una macchina…c’è un linguaggio emesso dall'uomo e diretto le macchine e c'è linguaggio emesso dalle macchine e
diretto all’uomo”. Questa citazione visionaria del 1950 introduce alla relazione tra: NSR-nuova scienza delle reti e
SNA-social network analysis.
I teorici sostenitori della SNA ritengono le tecnologie di rete marginali rispetto alle dinamiche sociali dell’individui. I
teorici sostenitori della NSR ritengono le dinamiche sociali degli individui marginali rispetto alle tecnologie di rete. Si
rende necessario integrare a le due teorie: secondo Castells le reti sociali sono un fenomeno precedente alle reti
informatiche, così come queste ultime, hanno antecedenti di tipo reticolare. La sintesi tra NSR e SNA risiede nella
network society in cui network sono le forme primarie di socialità: network individuali vs comunità (spaziale). Nella
società moderna prevale la cultura dell'individualismo che non porta all'isolamento ma a nuove forme di
socializzazione tra diversi network distinti da confini labili. L'individuo forma i suoi gruppi intorno ai network e si
evolve con loro. Un network, in cui gruppi di individui accettano le sue regole, diventa un modello di comportamento
condiviso: il gruppo di pari. Gli individui non interagiscono come membri coesi di un gruppo ma come individui
singolarmente connessi tramite network che ne costituiscono il substrato operativo. La nuova socializzazione diventa
relazione per connessione reticolare. Il network include due fasi: struttura e processo. La struttura è la somma dei
nodi pc, tablet, smartphone e dei loro collegamenti superando le differenze temporali. Il processo è la serie di eventi
legati alla dimensione temporale che attualizza solo una porzione del campo di attività virtualmente permesso dalla
struttura. Struttura e processo si riconducono a virtualizzazione intesa come potenzialità della rete e attualizzazione
come reale utilizzo limitato. Sono pratiche di interazione sociale online che integrano all'interazioni sociali offline che
rappresentano mediamente meno del 10%. Questa nuova costruzione della socialità è definita networked
indiviadualism, come diretta conseguenza dello sviluppo tecnologico e del mutamento dei processi sociali e culturali,
attraverso: la diffusione di massa di Internet che consente all'individuo di avere un grande potere comunicativo e
relazionale che nessuna generazione precedente ha avuto; le reti sociali (social network) che liberano gli individui dal
vincolo di appartenenza a gruppi coesi e territoriali a favore di relazioni di connessione variabili/ labili e remote; la
telefonia mobile che permette ovunque ci si trovi di connettersi, di relazionarsi e di accedere alle risorse digitali.
Internet, reti sociali e telefonia mobile costituiscono il nuovo sistema operativo sociale. Lo scenario che si profila è
quello di relazioni remote con legami deboli a scapito di relazioni interpersonali e di progressività con legami forti.
Una considerazione significativa ha fatto in merito alla casa che non è più l'ambiente privilegiato della socializzazione
in forma di gruppo primario ma si trasforma in base logistica del networking individuale: ogni componente del
nucleo familiare è un individuo networked indipendente che opera il proprio networked individualism dal proprio pc,
tablet e smartphone. La sfera pubblica della famiglia scompare, poco niente viene ad essere condiviso, ma dove
ognuno mantiene la propria privacy.

DAL NETWORKED INDIVIDUALISM ALLA NETWORK SOCIBILITY


La caratteristica del networked individualism è la relazione o interazione per connessione. L'appartenenza a diversi
network si identifica con l'appartenenza diversi gruppi (diversi da quelli tradizionali); l'ambiente sociale dei network
è molto fluido pertanto anche l'appartenenza è fluida con frequenti entrate ed uscite di gruppi network. L'attività di
network sostituisce di fatto le relazioni di vicinato con nuovi legami di vicinato e rete di tipo debole ma funzionali nel
richiedere ed offrire informazioni. Gli individui networked costituiscono nell'insieme la networked sociability
caratterizzata da relazioni di connessione di tipo debole. “Nella network society si produce una trasformazione della
dimensione sociale. La nuova tendenza è dunque rappresentata dall'emergere di una socialità basata sui network”
(Castells). La network society produce capitale sociale? Per capitale sociale si intende il capitale di valori e relazioni
che l'individuo possiede e che mette in comune con il capitale proprio di altri individui. Nella concezione
collettivistica di Putman è: il prodotto di uno scambio reciproco di relazioni non essenzialmente utili. Nella
concezione individualistica di Coleman è: il prodotto utile degli investimenti relazionali dell'individuo. Il capitale
sociale della networked society è di tipo Bridging (fare i ponti) con legami deboli tra gruppi secondari che possono
fornire reciprocamente informazioni utili o socievoli. Rimangono comunque i legami forti, propri dei gruppi primari
(famiglia, amici intimi) che definiscono il capitale sociale di tipo Binding (vincolante). La networked society sostituisce
la tradizionale comunità di tipo spaziale con i network reticolari nel cyberspazio. La comunità come locality: luogo
spaziale in cui avvengono le relazioni sociali viene sostituita dalla sociability: luogo del cyberspazio in cui si formano
reticoli di relazioni sociali. Le relazioni per connessione (online o network) e le relazioni interpersonali (off line o non
mediate) hanno lo stesso valore di interazione sociale con la sola distinzione tra compresenza fisica o meno.

Identità del sé online e off line


“In passato le analisi si sono soffermate maggiormente sulla presentazione del sé online visto come qualcosa che si
separava dall'identità personale” (Stella). Attualmente si ritiene che vi sia un nuovo stato del sé: “l'utilizzo delle
tecnologie digitali non porta la costruzione di un sè separato, ma abilita nuove forme di costruzione identitaria”
(turkle) in altre parole : L'individuo forma il proprio sé nel contesto sia reale che virtuale. Gli spazi fisici e digitali sono
in costante continuità tra loro. Le tecnologie non sono capaci di costruire un altro se ma un se legato alle tecnologie.
Nel processo di costruzione identitaria l'individuo necessita del riconoscimento degli altri, perciò, come sostiene
Goffman gli individui recitano diversi ruoli su diversi palcoscenici attraverso relazioni di scena e di retroscena. Questa
spettacolarizzazione delle relazioni è finalizzata a ottimizzare sempre l'effetto sugli altri: Impression management.
Immagine di sé autentica: di retroscena. Impression management: di scena.

LA DOMESTICATION DELLE ITC (NEW MEDIA)


Per domestication si intende l'appropriazione culturale di un oggetto (nel nostro caso le: ICT Newmedia) nella vita
quotidiana e domestica dell'individui. Questo processo culturale —>domestication: si interpreta attraverso lo studio
del modellamento sociale alle nuove tecnologie con approcci etnografici alla sociologia dei consumi. Integrazione
reciproca tra ICT con la vita quotidiana e domestica (negli spazi e nei tempi)—> il contesto sociale (vita quotidiana e
domestica) modella il consumo di ICT—>il contesto sociale è modellato dalle ICT —>doppio flusso.

FASI DELLA DOMESTICATION:

• Mercificazione: Attribuzione di un valore simbolico oltre che economico alle merci già in fase ideativa . Nel caso
delle ICT: ergonomia, interfaccia, connettività, operabilità e altro che definiscono la gamma delle possibilità di uso è
la tipologia di utente o consumatore
• Immaginazione: Promozione commerciale del prodotto (anche in diretta di tipo istituzionale) con la messe scena
(spettacolarizzazione) dei significati sociali (valore simbolico) e persuasione all'acquisto per i valori latenti che
rappresenta (desiderabilità)

• Appropriazione (possesso): Propensione all'acquisto con valutazione individuale o negoziata (in gruppi primari e/o
secondari) riconducibili al proprio contesto sociale—->acquisto—-> appropriazione dei significati sociali (valore
simbolico) unitamente al possesso del bene.

• Oggettivazione (esibizione): Smaterializzazione della merce—-> esibizione del bene come modello di distinzione
e/o imitazione sociale

• Incorporazione (uso): Uso del bene (oltre la funzione concreta) incorporato come oggetto culturale tendente a
ridefinire valori e stili di vita (identità)

• Conversione (scambio): Consumo del bene attraverso l'interazione e lo scambio di significati e competenze bene
——> relazionale fruibile. Ricerca psicografica: 3SC-sistema di correnti socioculturali e scenari di cambiamento

MATERIALE 5- Fake News (materiale 6 esempi di bufale sul covid)

Attualmente la maggior parte delle relazioni tra individui avviene in forma virtuale a scapito dei rapporti
interpersonali. Nella networked society, la socializzazione assume la valenza di socievolezza (con la prevalenza di
legami di tipo bridging sui legami di tipo bonding). Un limite della rete si evidenzia nell’impossibilità di controllare le
fonti di informazione.

Chiunque può essere un editore di contenuti informativi (publisher) con un proprio sito o con tweet, post, blog,
forum, messageria istantanea. L’impossibilità di operare in rete un’attività di gatekeeping (selezione della
notiziabilità) rende la comunicazione vulnerabile alle fake news/“bufale”. Le fake news sono un fenomeno tanto in
crescita quanto incotrollabile con effetti pericolosi sul discorso pubblico. La rete consente la piena attuazione
dell’art.21 della Costituzione sulla libera manifestazione del pensiero (“Tutti hanno diritto di manifestare liberamente
il proprio pensiero con la parola, lo scritto e ogni altro mezzo di diffusione”). Ma la libera manifestazione del pensiero
in rete unita all’anonimato consente sempre più le fake news che determinano un forte impatto sul pluralismo
informativo con effetti sulla formazione dell’opinione pubblica.La diffusione delle fake news avviene
prevalentemente tramite internet (clikbaiting). In generale le fake news si connotano come distorsioni
dell’informazione di tipo volontario o involontario. Esse possono produrre:

 Mis-informazione: contenuti informativi in rete non veritieri diffusi senza dolo.

 Disinformazione: contenuti informativi in rete non veritieri diffusi con dolo (per finalità politiche/ideologiche;
per danneggiare soggetti pubblici e privati; per ingannare il pubblico; procurano introiti grazia alla raccolta
pubblicitaria)

 Mala-informazione: contenuti informativi in rete fondati su fatti reali ma contestualizzati e diffusi a scopo
denigratorio.

L’evoluzione tecnologica rende agevole e la creazione, la produzione e la distribuzione di contenuti fake da parte di
singoli individui (non sempre pienamente coscienti) e da altri soggetti organizzati.

Gli effetti sull’opinione pubblica e sull’agenda politica sono connotati dalla viralità (che si connota in emozionalità,
radicamento, capillarità nella diffusione e persistenza nel tempo). La filiera delle fake:

PRIMA FASE: Individuazione dell’audience target a cui è destinata la strategia fake; Individuazione di hot topic che
circolano in rete attraverso un monitoraggio continuo e specialmente su questioni divise; Individuazione dei bias
cognitivi (inclinazioni) dei destinatari in termini di aspettativa e di corrispondenza alle proprie convinzioni

SECONDA FASE: Produzione del contenuto informativo fake mediante post, articolo, immagine, video o
combinazione di queste modalità; Codice comunicativo del tipo dark ads (pubblicità oscura) personalizzato sulla base
di tecniche di profilazione (come nel caso di Cambridge analytica)
TERZA FASE: Pubblicazione su un sito web, una piattaforma social, un blog, un forum, un istant messaging
(applicazione)

QUARTA FASE: Valorizzazione e/o raggiungimento dello scopo a fini politici/ideologici, denigratori, ludico/satirici;
produzione di guadagni.

I soggetti delle fake:

1. Ideatori che possono ricondursi a individui o organizzazioni (politiche, ideologiche, criminali, governative e
intelligence)

2. Esecutori che contribuiscono alla creazione e alla produzione delle fake

3. Distributori che operano attraverso tecnologie automatizzate come i Bot (software che agiscono come individui
nella creazione di account e profili social falsi

4. editori e/o piattaforme online che rilanciano i contenuti fake

I soggetti della filiera utilizzano sistemi web analytics finalizzati al tracciamento dell’attività di navigazione degli
utenti (online e offline) unitamente alle loro inclinazioni psicologiche (segmentazione psicografica).

MATERIALE 7- Modelli di comunicazione scientifica

Informazione non è comunicazione: Informare significa “dare forma” al pensiero attraverso l' idea-azione.
Comunicare significa dare esternazione al pensiero a cui è stato dato forma. Quando il pensiero (attraverso l'idea-
azione) ha preso forma può essere esternato, ovvero, può essere comunicato. In altre parole: l'informazione è
riconducibile alla fase creativa mentre la comunicazione è riconducibile alla fase traslativa.

Schema base della comunicazione:

I è l'ideazione (forma data al pensiero)

E è il soggetto emittente;

R è il soggetto ricevente;

P è la psicotecnologia di comunicazione (che può essere orale, alfabetica, elettrica, elettronica);

F è il feedback (da R verso E)

Il messaggio può essere comunicato se l'emittente ed il ricevente usano la stessa psicotecnologia connettiva per la
codificazione e la decodificazione, ci deve essere sintonia. La comunicazione si realizza per mezzo delle
psicotecnologie connettive che si connotano nell'interazione tra pensiero (logos) e tecnologie di comunicazione
(techne) attraverso la cornice interpretativa del brainframe.

Il brainframe (cornice mentale) è una struttura di pensiero organizzata che viene a crearsi ed a ricrearsi per
adeguamento ed adattamento alle tecnologie di comunicazione del proprio tempo. Ad ogni tecnologia di
comunicazione corrisponde un brainframe. Ogni tecnologia di comunicazione, dall'oralità ai new media, crea e
ricrea dei brainframes che incorniciano il nostro cervello in strutture di pensiero organizzate, sia fisiologicamente
(organizzazione neuronale) che psicologicamente (organizzazione cognitiva). Derrick de Kerckhove, teorico del
brainframe, distingue tre periodi di evoluzione delle psicotecnologie connettive che associa sempre al linguaggio,
riprendendo e ridefinendo i concetti di oralità di Walter Ong: oralità primaria con psicotecnologia connettiva orale;
oralità secondaria con psicotecnologia connettiva alfabetica; oralità terziaria con psicotecnologia connettiva
elettrica ed elettronica.

Nell'oralità primaria, comparsa circa cinquantamila anni fa, l'unica psicotecnologia connettiva è la parola parlata
come evoluzione dai suoni alle parole. Il brainframe degli individui pre-alfabetici è una struttura di pensiero
organizzata esclusivamente in forma di pensiero situazionale (logos) mediante l'oralità (techne). In altre parole: la
mente degli individui pre-alfabetici si fonda solo sulla memoria pratica (per la sopravvivenza) che si estrinseca
attraverso l'oralità.
Nell'oralità secondaria, comparsa circa seimila anni fa, la psicotecnologia connettiva è la scrittura alfabetica come
evoluzione dalle parole parlate alle parole scritte. Il brainframe degli individui alfabetizzati è una struttura di pensiero
organizzata in forma di pensiero astratto (logos) come evoluzione dal pensiero situazionale a quello astratto
attraverso la codificazione alfabetica scritta (techne). In altre parole: la mente degli individui alfabetici viene liberata
dal carico mnemonico che si trasferisce sulla scrittura.

L'oralità terziaria segna il passaggio dall'oralità a sensorialità trasmissiva dei media analogici alla sensorialità
simulativa dei media digitali Per De Kerckhove, l'evoluzione tecnologica dei media si identifica con l'evoluzione della
sensorialità degli individui. Con la parola scritta gli individui ri-costruiscono astrattamente i contenuti della
comunicazione in forma de-sensorializzata. Con la multimedialità gli individui recuperano la sensorialità attraverso
una simulazione organica in forma di feedback psico-sensoriale. Per approfondimenti si rimanda alle slides sugli
approcci teorici della comunicazione.

La comunicazione scientifica
L'invenzione della stampa ha dato un contributo importante per la nascita della comunicazione scientifica. La prima
stamperia di libri scientifici è del 1471 a Norimberga, per iniziativa dell'astronomo Johann Müller di Königsberg
(detto il Regiomontano). La decisione di aprire una stamperia è motivata dall'esigenza di pubblicare opere
tecnicoscientifiche attendibili e senza refusi grafici. Molte opere di letteratura tecnica, di matematica e di filosofia
naturale, per l'ignoranza degli stampatori, presentavano errori di contenuto e di stampa e talvolta venivano anche
contraffatte. Tycho Brahe osservava che: “L'arte della stampa è stata inventata meno di centocinquanta anni fa; e nel
lungo intervallo di tempo che l'ha preceduta, molte cose, soprattutto i numeri, potevano essere sbagliati a causa del
fatto che erano stati riscritti tante volte. Ma l'errore si verifica facilmente anche nell'arte stessa della stampa,
soprattutto in questo campo, a meno che non si impieghi un correttore molto attento”. Nei decenni successivi si
registra un evidente miglioramento grafico specialmente nelle miniature nelle illustrazioni. Il primo divulgatore
scientifico (ante-litteram) è Galileo Galilei che nel 1610 pubblica il “Sidereus Nuncius”. Galileo scrive il libro in lingua
volgare e non in latino per consentire di essere letto anche da non eruditi della lingua. Appare evidente in Galileo il
proposito di partecipare le sue conoscenze alla comunità scientifica e al contempo di renderle accessibili anche ai
non esperti. Il “Sidereus Nuncius” rappresenta la prima opera di comunicazione scientifica con finalità divulgative
e sociali della scienza. La comunicazione scientifica in forma pubblicistica inizia nel 1665 a Parigi con il Journal des
Sçavants, poi a Londra, esce il primo numero pubblica la rivista scientifica Philosophical Transactions of the Royal
Society. A Roma nel 1668 si stampa il Giornale de' Letterati sul modello del Journal des Savants. La pubblicistica
scientifica iniziata nel XVII Secolo si diffonde e si amplia nel XVIII e XIX Secolo ma rimane confinata nell'ambito
ristretto della comunità scientifica. Gli articoli pubblicati non venivano preventivamente revisionati da colleghi
esperti ed anonimi che controllavano l'originalità del lavoro e la significatività dei risultati (peer rewiew). Nel
complesso riportavano sintesi di saggi, recensioni, raccolte di dati su conoscenze già acquisite (rewiew). La
comunicazione scientifica fino agli inizi del XIX Secolo rimane estranea al grande pubblico e non si estrinseca in
nessuna valenza sociale. Nel 1919 il New York Time, pubblica un commento attribuito ad Albert Einstein in occasione
della conferma della sua teoria della relatività: “Al mondo, non ci sono più di una dozzina di persone in grado di
capire la mia teoria”. L'affermazione di Einstein vera o presunta pone il problema del rapporto tra scienza e società.
Negli Anni Venti, negli Stati Uniti, viene fondata l'agenzia Science Service con la mission di avvicinare la scienza alla
società. Dopo la Seconda Guerra Mondiale si sviluppano diversi modelli di comunicazione pubblica della scienza:

Public Scientific Literacy (PSL): Questo modello di alfabetizzazione scientifica pubblica (Anni 50)si fonda sulla
mediazione tra scienziati e pubblico mediante dei divulgatori (che dovrebbero essere) capaci di trasferire contenuti
scientifici in forma accessibile. Il trasferimento della comunicazione scientifica dall'ambito specialistico a quello
divulgativo non produce i risultati attesi. La divulgazione dei media si mostra inadeguata. E' stato riscontrato che i
divulgatori non sono riusciti ad operare un trasferimento di conoscenze (senza alterazioni) attraverso una rigorosa
traduzione linguistica. Sono apparsi spesso portatori di istanze critiche sulla scienza invece che riportare i fatti
scientifici.

Public Understanding of Science (PUS): Questo modello (Anni 80) rappresenta il superamento e l'evoluzione del
modello di Public Scientific Literacy. Nasce dalle risultanze del Rapporto Bodmer che evidenziano due aspetti: una
migliore comprensione della scienza da parte della società e il ruolo di comunicatori da attribuire agli scienziati. Il
modello PUS viene anche connotato come modello del“deficit” in quanto si propone di colmare il “deficit” di
conoscenze scientifiche da parte dei cittadini attraverso un trasferimento di conoscenze scientifiche operato non più
dai divulgatori ma dagli scienziati attraverso i media. Gli scienziati devono considerare cosa i cittadini vogliono sapere
e cosa devono sapere della scienza. Il modello PUS come il modello PSL rimangono comunque top down senza un
feedbak bottom up. Attualmente il problema del “deficit” può essere reinterpretato dal piano del trasferimento al
piano dell'interferenza, che va intesa come una intersezione tra due discorsi attraverso una sequenza continua di
livelli espositivi, che slittano gradualmente uno nell’altro influenzandosi reciprocamente. Per esempio: parole come
DNA o BIG BANG sono assimilabili ad oggetti liminali (*) utilizzati sia in contesti specialistici a che popolari. (*) Il
concetto di oggetto liminale è stato introdotto da Star e Griesemer nel 1989. Gli oggetti liminali sono oggetti
“abbastanza plastici da adattarsi ai bisogni locali e ai vincoli dei vari gruppi che li utilizzano, ma anche abbastanza
robusti da mantenere un’identità comune attraverso aree diverse. Sono debolmente strutturati quando vengono
usati in comune e divengono fortemente strutturati se utilizzati in contesti individuali […] Hanno significati diversi in
diversi mondi sociali ma la loro struttura è abbastanza comune da renderli riconoscibili, un mezzo di traduzione. La
creazione e la gestione di oggetti liminali è un processo chiave nello sviluppo e nel mantenimento di coerenza tra
mondi sociali che si intersecano” (non vengono intesi per soglia, ma per significato simiotico).

Public Engagement With Science and Technology (PEST): Questo modello (primi anni 2000) segna il declino dei
modelli di alfabetizzazione scientifica (PSL) e di comprensione scientifica (PUS). Il nuovo approccio muove dalla
considerazione che c'è da una parte la comunità degli esperti, dall'altra la comunità dei non esperti e nel mezzo la
comunicazione che deve agire da cerniera tra le due comunità. La novità rilevante risiede nel superamento
dell'impostazione top down dall'alto verso il basso (dalla scienza alla società) che si integra con l'impostazione
bottom up (dalla società verso la scienza). In altre parole: la scienza diventa oggetto sociale di discussione aperta e
paritaria tra scienziati e cittadini. La missione del modello è il dibattito/dialogo pubblico ai processi decisionali come i
finanziamenti, gli indirizzi di ricerca, la credibilità degli scienziati, la bioetica.

Citizen Science: Questo modello prevede la partecipazione attiva dei cittadini alla costruzione della conoscenza
scientifica in funzione di una vera e propria cittadinanza scientifica.L'Oxford English Dictionary, lo definisce come: “la
raccolta e l'analisi dei dati relativi al mondo naturale da una parte di un pubblico, che prende parte a un progetto di
collaborazione con scienziati professionisti.” Anche questo modello non è esente da critiche che riguardano:
l'aspetto etico della proprietà scientifica, ovvero, se i cittadini che partecipano ad un progetto posso ritenersi co-
proprietari; la richiesta di una gratificazione tangibile e non solo di ringraziamento formale ; il mancato
riconoscimento convenzionale, ad oggi, di questa scienza.

MATERIALE 8- L’ Intelligenza artificiale

Occorre partire dal cambiamento epocale iniziato dagli Anni Cinquanta con la Quarta Rivoluzione ed interpretare
questo cambiamento epocale con i nuovi strumenti concettuali di infosfera e OnLife.

Negli ultimi anni l'evoluzione delle tecnologie dell'informazione e della comunicazione non ha solamente
determinato un cambio di paradigma verso una società più immateriale (“società dell'informazione”- ridefinite
anche come iperstoriche, vedi più avanti) ma, come afferma Luciano Floridi, è la quarta rivoluzione.

Le tre precedenti rivoluzioni che hanno mutato la comprensione del mondo e del sé individui si devono a: Copernico,
Darwin e Freud. Floridi, in “La rivoluzione dell'informazione” del 2010 e “La quarta rivoluzione. Come l'infosfera sta
trasformando il mondo” del 2017, riprende da Freud l'interpretazione delle rivoluzioni scientifiche dell'umanità
(Freud assimila la rivoluzione scientifica apportata dalla sua psicoanalisi alla rivoluzione copernicana e darwiniana).
Queste rivoluzioni consentono di avere una diversa comprensione del mondo e di noi stessi: Copernico sposta la
terra e quindi l'uomo dal centro dell'universo; Darwin dimostra che l'uomo come gli altri animali è il risultato di un
processo evolutivo, rimuovendo così l'uomo dal centro del regno biologico terrestre; Freud con la psicoanalisi sposta
il centro dell’individuo dalla coscienza all’inconscio. All'uomo ormai decentrato rimane ancora un punto di forza: la
logica della ragione nell'accezione di pensiero calcolante. Questo punto di forza cede quando Alan Turing nel 1950
presenta l’invenzione di una macchina più logica della ragione umana e con un potere computazionale molto
superiore. Con la computabilità ha inizio la quarta rivoluzione. “la quarta rivoluzione ha rimosso l’erroneo
convincimento della nostra unicità e ci ha offerto gli strumenti concettuali per ripensare la nostra comprensione di
noi stessi”.
La quarta rivoluzione segna il passaggio dalle società storiche alle società iperstoriche e l'affermazione delle
tecnologie di terzo ordine.

Nelle società storiche: si fa affidamento sulle ICT per registrare, trasmettere e utilizzare dati di ogni genere. In tali
società storiche, le ICT non hanno ancora preso il sopravvento sulle altre tecnologie, in particolare su quelle fondate
sull’uso di energia, in quanto risorse di importanza vitale.

Nelle società iperstoriche: le ICT e le loro capacità di processare dati non sono soltanto importanti ma rappresentano
condizioni essenziali per assicurare e promuovere il benessere sociale, la crescita individuale e lo sviluppo generale.
Per esempio, tutti i membri del G7 si qualificano come società iperstoriche poiché almeno il 70 per cento del
prodotto interno lordo dipende da beni intangibili, fondati sull’uso dell’informazione, piuttosto che da beni
materiali, che sono il prodotto di processi agricoli o manifatturieri.

Definendo la tecnologia come un “essere-tra” (una mediazione), Floridi suddivide le tecnologie in: tecnologie di
primo ordine che stanno tra l’uomo e la natura; tecnologie di secondo ordine che stanno tra l’uomo e le tecnologie;
tecnologie di terzo ordine che stanno tra le tecnologie (escludendo la natura e l’uomo dal processo).Quindi
schematizzando il rapporto tra uomo e tecnologie:
tecnologie di primo ordine: umano - tecnologia - natura
tecnologie di secondo ordine: umano - tecnologia - tecnologia
tecnologia tecnologie di terzo ordine: tecnologia - tecnologia – tecnologia

Ogni tecnologia ha un suggeritore che ne suggerisce la creazione:

-Tecnologie di primo ordine: utente umano → suggeritore naturale


-Tecnologie di secondo ordine: utente umano → suggeritore tecnologico
-Tecnologie di terzo ordine: utente tecnologico → suggeritore tecnologico
L'interfaccia è un elemento di collegamento tra utente e tecnologie e tra le tecnologie (mediante tastiera, mouse,
protocolli cifrati e manualmente)
Iperstoria e tecnologie di terzo ordine per un nuovo ambiente globale: l'infosfera
In pochi decenni, da Turing ad oggi, le ICT portano ad una diversa comprensione della realtà e del sé degli individui.
Secondo Floridi, trasformano la realtà in un ambiente globale: l'infosfera, che include l'analogico e il digitale, l'online
e l'offline, il reale e il virtuale nel nuovo ambiente dell'infosfera dove “ciò che è reale è informazionale e ciò che è
informazionale è reale.’’Le ICT modificano l’ambiente in cui viviamo unitamente agli agenti che vi operano. Vanno
considerate come “forze che modificano l’essenza del nostro mondo poiché creano e ricostruiscono interamente
realtà che l’utente è in grado di abitare” “Non siamo entità isolate quanto piuttosto organismi informazionali
interconnessi, o inforg, che condividono con agenti biologici ed artefatti ingegnerizzati un ambiente globale costruito
in ultima analisi dalle informazioni, l'infosfera” Quindi l'infosfera è fondamentalmente riconducibile all'informazione
che “può essere utilizzata come sinonimo di realtà.” Con l'infosfera, si abbatte così la separazione tra la vita online e
quella offline, a favore di una connessione OnLife sempre presente e attiva nell’infosfera.

Dalla “macchina di Turing” all'Intelligenza Artificiale (IA) Alan Turing può considerarsi il padre dell'informatica e
dell'IA. E' stato il primo a formulare il concetto di algoritmo e a realizzare il primo calcolatore “Macchina di Turing.”
Riesce a decifrare i codici della macchina Enigma, ribaltando così, a favore degli Alleati, le sorti della II Guerra
mondiale. Eroe di guerra (ma senza gloria e anche vilipeso) muore suicida mordendo una mela avvelenata (da qui il
logo apple in omaggio). Turing intende verificare se una macchina riesce a simulare un comportamento che un
umano considera proprio di un altro umano. Per verificare questa ipotesi, mette in atto un test che nella sua
formulazione originale prevede tre partecipanti: due interlocutori e una terza persona che non può avere contatti
visivi con i due e ai quali può fare solo una serie di domande scritte. Uno dei due interlocutori ha anche il compito di
ingannare la terza persona, mentre l'altro ha il compito di aiutarlo. Per evitare i contatti, le interazioni devono essere
in forma scritta. Dopo le prime interazioni viene sostituito uno dei due interlocutori con la macchina. Se la macchina
riesce ad ingannare almeno 3 volte su 10la terza persona allora il test è riuscito. Significa che la macchina ha simulato
un comportamento intelligente di tipo umano, ingannando l'interlocutore umano. La macchina non deve essere
necessariamente intelligente ma mostrarsi come intelligente; le macchine possono sembrare indistinguibili e forse
anche intelligenti ma non coscienti. Per Searle: - i programmi sono puramente formali (sintattici). - le menti umani
hanno contenuti mentali (semantici). - la sintassi non è né sufficiente né costitutiva del contenuto semantico. Quindi,
i programmi non sono sufficienti né costitutivi per le menti. Quando un sito chiede di cliccare l'autenticazione “non
sono un robot” è un di test di Turing online all'inverso: in questo caso non è l’umano che deve riconoscere il
computer, ma è il computer che deve distinguere l’umano da un altro computer. Perciò, l'accesso a molti siti,
richiede un’autenticazione tramite la lettura e la trascrizione di lettere e numeri graficamente distorti: il test di
Turing all'inverso. Quindi è pensante solo una struttura che ha cognizione della propria stessa cognizione. L'IA anche
se è in grado di distinguere un umano da una macchina (quindi un essere pensante da un essere non cosciente), lo fa
senza consapevolezza. John McCarthy è il creatore del linguaggio di programmazione Lisp (linguaggio formale della
computabilità).

Cos’è l’Intelligenza Artificiale? Secondo l'approccio più moderno di Stuart e Russel può definirsi più semplicemente
come la scienza che si propone di sviluppare macchine intelligenti. Per Floridi è un “divorzio” (e non un matrimonio)
tra la capacità di agire e l'intelligenza. Secondo Judea Pearl, attualmente l'IA è in grado di risolvere dei problemi per
i quali è stata programmata ma non è versatile ed intuitiva come gli umani, perciò ritiene che sia più appropriato
definirla come Intelligenza Adattiva. Pearl afferma che “Il giorno in cui, continua Pearl, “l’IA saprà approssimarsi
all’intelligenza umana è vicino, ma le sue capacità vanno giudicate su tre livelli di abilità cognitivi: vedere
(associazione), fare (intervento) e immaginare (controfattuali). L’IA oggi lavora solo al livello più basso, cioè vedere”.
Quindi conclude:“Se algoritmi di IA non colgono differenza tra causa ed effetto non si avvicineranno mai
all’intelligenza umana sarà impossibile avere un dialogo significativo con i robot fino a quando non saranno in grado
di simulare l’intuizione umana, il che richiede la capacità di comprendere causa ed effetto insieme ad azioni e
risultati alternativi che potrebbe aver preso”. L'IA potrà essere veramente intelligente quando: si approssimerà al
ragionamento astratto; risolverà problemi anche diversi da quelli programmati; saprà riutilizzare le competenze
apprese in un campo per applicarle in un altro. Anche secondo Luciano Floridi: “La vera IA non è logicamente
impossibile, ma è assolutamente non plausibile”, perché non abbiamo idea di come potremmo iniziare a progettarla,
anche perché abbiamo ben poca comprensione di come funzionano il nostro cervello e la nostra intelligenza.” Un
esempio di fallimento dell'IA è Tay: uno chatbot (software per simulare una conversazione intelligente), ideato per
interloquire con i millennial. Tay doveva imparare dalla rete e rispondere con gli stessi argomenti simulando una
conversazione ma nel giro di poche ore, apprende dalla rete dei tweet razzisti e xenofobi quindi Microsoft chiude
subito l'account.
L’Intelligenza Artificiale contemporanea è riconducibile a due approcci:
L'approccio deterministico consiste nell'inserire nella macchina una grande quantità di dati con associazioni di con
associazioni: vero/falso, causa ed effetto. Questo approccio richiede una grande quantità di dati , inoltre, non si può
parlare di vero e proprio ragionamento automatico poiché la macchina si limita a seguire meccanicamente quanto il
programmatore ha impostato. I dati inseriti, per quanto numerosi, non riescono prevedere tutte le situazioni che si
possono presentare in un ambiente reale. L'approccio probabilistico è quello applicato alle machine learning; qui
l'operatore si limita a “spiegare” le regole del gioco alla macchina e una minima conoscenza di base. È la macchina ad
accumulare esperienza. Inizialmente la macchina procede con azioni casuali analizzando il risultato (effetto) finale.
Quando il risultato è positivo memorizza la scelta come valida e la ripete in situazioni analoghe. Quando il risultato è
negativo la memorizza tra le scelte da evitare. Dopo numerosi cicli di esecuzione la macchina dovrebbe aver
costruito una propria conoscenza empirica del problema. Tale approccio è preferibile rispetto all'approccio
deterministico ma non elimina del tutto alcune criticità. L'associazione causa-effetto di ogni situazione in una tabella
richiede comunque una grande quantità di memoria per ospitare i dati. Quanto maggiore è la quantità di dati da
analizzare, tanto minore è la velocità di risposta della macchina. Si può aggiungere anche l'approccio previsionale
come una estensione degli approcci precedenti: la macchina analizza per ogni sua possibile scelta tutte le possibili
contro-mosse del giocatore avversario. Cosi la macchina riesce a prevedere l'evoluzione del gioco analizzando tutte
le sequenze di azioni possibili. L'approccio previsionale è relativamente semplice in un gioco astratto come gli scacchi
dove tutte le mosse appartengono a un insieme chiuso e le regole sono ben delineate. Diventa invece molto
complesso da realizzare in un ambiente reale (come per la guida automatica su strada) dove gli imprevisti non sono
ponderabili. Gli approcci descritti hanno trovato applicazione nel computer Deep Blue che ha sconfitto il campione
mondiale di scacchi Garry Kasparov, cosi come il programma AlphaGo ha sconfitto il campione europeo di Go e
anche il campione sudcoreano (considerato il numero uno al mondo). Le applicazioni dell'IA non hanno riguardato
solo i giochi. Nel 1965 il programma Eliza simulava l'interazione tra un terapista e un paziente. Molti pazienti erano
convinti di parlare con un vero terapista e non con un software. Le parole di Eliza non erano altro che una
combinazione di parole chiave dette dai pazienti stessi. Successivamente Eliza è stato messo a confronto con Parry,
un programma che riproduceva il comportamento linguistico di un paranoico: i risultati dei dialoghi sono stati
interessanti. Nel 1983 veniva lanciato Cyc un programma dotato di conoscenza generale che è ancora operativo e
dopo avere accumulato milioni di nozioni, raggiunge il quoziente intellettivo di un bambino di sei anni. A parità di
quoziente intellettivo il bambino apprende prima e meglio. Nel 2019 a San Francisco l'IBM ha organizzato un
dibattito su di un tema scelto a caso tra il campione mondiale di dibattiti, l'indiano Harish Natarajan e il software
Miss Debater: ha vinto l'umano. Quindi l'IA, secondo l'approccio di Russel e Stuart (meno critico rispetto a Pearl e
Floridi), può essere definita come la scienza che si propone di sviluppare macchine intelligenti. Più specificamente
l'Intelligenza artificiale (IA) è una sezione di linguistica informatica e informatica che si occupa della formalizzazione
di problemi e compiti simili a quelli eseguiti da una persona. Ad oggi è una sotto disciplina dell'informatica che si
occupa di studiare la teoria, le tecniche e le metodologie che permettono di progettare sia i sistemi hardware che
quelli software in grado di elaborare delle prestazioni elettroniche che simulano competenze dell'intelligenza umana.

Ci sono tre tipi di intelligenza artificiale che definisce McCarthy: Artificial Narrow Intelligence (ANI) intesa come
ristretta; Artificial General Intelligence (AGI) intesa come generale; Artificial Super Intelligence (ASI) che è ancora
teorica. L’Artificial Narrow Intelligence (ANI), conosciuta anche come debole, è l’intelligenza artificiale che trova oggi
la più diffusa e ampia applicazione. Questa IA è nelle nostre case con Google Assistant, Google Translate, Siri,
Cortana, Alexa ma anche con la guida automatica dei veicoli e altro. Questo tipo di intelligenza artificiale non è
cosciente, senziente o guidata dall’emozione. L'ANI opera in un intervallo di parametri predeterminato e predefinito.
L'Artificial General Intelligence (AGI) sarebbe in grado di comprendere e di imparare a svolgere una vasta gamma di
compiti. Questo livello di intelligenza artificiale sarebbe in grado di eguagliare la nostra stessa intelligenza. La
riflessione sull'etica della tecnologia induce a ritenere che non non si vorrà / dovrà andare oltre la Artificial Narrow
Intelligence (ANI). L'Artificial Super Intelligence (ASI) è allo stato ancora una prospettiva solo teorica. L'IA ha tra i
molti campi di sviluppo: l’assistenza sanitaria (migliore diagnosi delle malattie, interventi chirurgici robotizza; le città
con le smart city consentendo l'ottimizzazione dei servizi pubblici; monitoraggio ambientale; monitoraggio della
biodiversità. Inoltre con l'Artificial Life (AL) vengono simulati le condizioni degli ecosistemi e di organismi biologici
tramite l'IA. L’intelligenza artificiale deve essere di giovamento all'umanità ma, se non ponderata, potrebbe rivelarsi
non di beneficio. Le macchine possono / devono avere un controllo decisionale autonomo? La Commissione Europea
individua nella presenza di “un certo grado di autonomia” decisionale, il tratto distintivo di una macchina
intelligente. Questa posizione impone di definire uno statuto tra uomini e macchine. Prima di attribuire ambiti di
autonomia decisionale alle macchine va stabilito il primato dell'uomo sulla macchina ed affermare il principio di non
maleficenza. Giova pertanto accennare alla prima legge della robotica di Asimov, o principio di non maleficenza:
l'autonomia della macchina espone l’uomo a forme di rischio, che derivano dall’assenza di una sua supervisione sul
funzionamento della macchina. Perciò, occorre impedire che tali decisioni autonome possano danneggiare l’uomo: è
la cosiddetta prima legge della robotica di Asimov, o principio di non maleficenza.

TEST STANZA CINESE


“Possono le macchine imitare a tal punto degli atteggiamenti o dei ragionamenti umani da divenire da questi
indistinguibili?” La risposta è che possono sembrare indistinguibili e forse anche intelligenti ma non coscienti. Questo
concetto è spiegato da John Searl attraverso l'esperimento della stanza cinese: “Si immagini di chiudere in una stanza
una persona che non conosce una parola di cinese. La persona ha a disposizione due gruppi di fogli: sui fogli del
primo si trova una serie di caratteri cinesi, sugli altri fogli ci sono delle istruzioni su come utilizzare i caratteri stessi. Il
compito assegnato alla persona in questione è di produrre degli insiemi di caratteri cinesi (risposte), seguendo
unicamente le istruzioni ricevute, ogni volta che riceve dall’esterno degli insiemi di caratteri cinesi (domande). Il
punto fondamentale dell’esperimento è che a un cinese che ponga le domande e legga le risposte ricevute, la
persona chiusa nella stanza appare come se fosse in grado di comprendere il cinese, mentre, in realtà, si limita a
manipolare simboli senza significato sulla base di istruzioni.” Searl riesce a rispondere pur non avendo coscienza
(consapevolezza) delle risposte date. Se l’intelligenza consente, a breve termine, di risolvere dei problemi allora
Searle e la “Macchina di Turing” sono / sembrano intelligenti ma non sono coscienti (consapevoli) del significato
delle loro risposte. Ma si tratta comunque di una IA ristretta o debole. Per Searle: - i programmi sono puramente
formali (sintattici). - le menti umani hanno contenuti mentali (semantici). - la sintassi non è né sufficiente né
costitutiva del contenuto semantico. Quindi, i programmi non sono sufficienti né costitutivi per le menti.

MATERIALE 9
E' Arthur Samuel che nel 1959 introduce il termine di Machine Learning (ML). L'apprendimento automatico delle
macchine, secondo la definizione di Herbert Simon: “consiste in cambiamenti del sistema che siano adattativi, nel
senso che mettono in grado il sistema di svolgere lo stesso compito in maniera più efficace ed efficiente la prossima
volta.” Un'altra definizione è di Tom Mitchell: “Si dice che un programma impara da una certa esperienza rispetto a
una classe di compiti ottenendo una performance, se la sua performance nel realizzare i compiti , misurata dalla
performace , migliora con l'esperienza”. Quindi - a differenza di un sistema che esegue delle attività su regole
predeterminate e finite ogni volta allo stesso modo - le prestazioni del ML migliorano attraverso l'esperienza. Il ML
richiede una formazione o addestramento (training) degli algoritmi attraverso l'inserimento - da parte del
programmatore - di statistiche, correlazioni, etichettature e parole-chiave. Le tipologie di apprendimento del ML
sono due: apprendimento supervisionato (supervised learning) e apprendimento non supervisionato (unsupervised
learning). Nell'apprendimento supervisionato gli algoritmi vengono addestrati con dati che contengono anche le
risposte (etichettature) connesse ai dati: Es: il programmatore inserisce una serie di immagini di cani ai quali applica
l'etichetta “è un cane” e immagini di animali diversi e di oggetti ai quali applica l'etichetta “non è un cane”. Quando
l'algoritmo finisce l'addestramento può classificare nuove immagini, non etichettate dal programmatore, applicando
l'esperienza pregressa. Il livello di apprendimento dipende dalla quantità di dati di ingresso e dall'esperienza
acquisita che consentono una approssimazione sempre maggiore. Perciò quando si ha un nuovo dato di ingresso
(input) l'algoritmo può prevedere il dato di uscita (output) generato per quel dato (risposta). Nell'apprendimento
non supervisionato l'algoritmo può prevedere il dato di uscita (output) sulla base di raggruppamenti (es: diversi tipi
di scarpe), associazioni (es: latte e caffé) e riduzioni delle variabili (es: prezzo di una casa solo in base alla superficie
senza altre variabili come la zona, le finiture etc.).
Il Deep Learning (DL) è una tecnica di Machine Learning che utilizza algoritmi in grado di simulare il cervello umano
che si basano su reti neurali artificiali per apprendere e svolgere una funzione. Robert Hecht-Nielsen definisce una
rete neurale artificiale (Artificial Neural Network, ANN), come: “un sistema di elaborazione costituito da una serie di
elementi di elaborazione semplici e altamente interconnessi, che elaborano le informazioni mediante la loro risposta
di stato dinamica agli input esterni.” In altre parole: una rete neurale artificiale è riconducibile ad un software che
cerca di emulare le funzioni del cervello umano. La prima rete neurale degli anni Sessanta è costituita da singolo
strato con un livello di ingresso ed un livello di uscita (senza livelli nascosti). Successivamente sono state elaborate
reti neurali con uno o più strati nascosti. Livello di Ingresso (Input Layer): livello che riceve le informazioni
dall’esterno che deve elaborare per imparare. Livello/i Nascosto/i (Hidden Layer): collegano il livello di ingresso con
quello di uscita. Livello di Uscita (Output Layer): livello finale che mostra il risultato che il programma ha imparato.
L’apprendimento di una rete neurale avviene quando c’è un feedback, che consente di verificare l'apprendimento.
Criticità dell'IA: decisioni umane delegate agli algoritmi attribuendo responsabilità etiche e legali alle macchine
( come nel caso delle auto che guidano da sole); difficoltà a individuare le responsabilità, nel momento in cui i sistemi
artificiali affiancano le nostre azioni; manipolazione degli esseri umani da parte degli algoritmi attraverso la
negazione del “non essere”, ovvero, il modo di essere non determinato che consente poi di scegliere (manipolazione
nel marketing come consumatori ma anche nella società come cittadini)

MATERIALE 10- Tecnologie di sorveglianza sociale

In Foucault e Deleuze la teoria del controllo sociale è sociologica ma declinata sulla filosofia e sull’antropologia.
Foucault parla di biopolitica (corpi docili) che comprende l’osservazione analogica dei corpi, l’interiorizzazione nei
corpi fisici della disciplina, il modello di riferimento è il panopticon. Deleuze invece parla di etopolitica
(dividualismo) che comprende l’osservazione digitale dei corpi, l’interiorizzazione nei corpi virtuali (dividualismo) del
controllo, il modello di riferimento sono i codici digitali.

Il controllo sociale assume la valenza di potere socievole che viene esercitato in forma (soft) di sorveglianza:
costante, pervasiva, inavvertita. Il paradigma dei survellance studies rappresenta il nuovo filone di ricerca sociale a
superamento dei govermentality studies. La sorveglianza al tempo della rete si connota come un insieme di relazioni
socio-tecniche che connota una nuova forma di socializzazione tra socievolezza e sociabilità. Autori di riferimento
della new survellance sono Bauman, Lyon e Ellul.
Il controllo sociale viene esercitato su ambienti di disciplina chiusi (scuola, fabbriche) attraverso un solo senso: la
vista (modello panopticon). La sorveglianza viene esercitata su ambienti aperti (strade, stazioni, centri commerciali e
anche non in presenza) attraverso più sensi: vista, tatto, udito. Il volto diventa una misura antropomorfica di
riconoscimento, il tatto mediante l’impronta, la voce mediante la modulazione sonora diventano misure
biometriche. Il corpo non è più oggetto di osservazione in un luogo chiuso e per un determinato tempo di
permanenza (orario di scuola o lavoro) ma diventa un insieme di dati antropomorfici e biometrici unici per ogni
individuo in ogni luogo anche non in presenza. La sorveglianza è una forma più evoluta e complessa di controllo
sociale; è un fenomeno della modernità liquida (Bauman). Tutti i sociologi concordano che la contemporaneità si
fonda sull’incertezza e sul rischio per effetto della dissoluzione di tutti i sistemi di valori del Novecento (a partire dalla
famiglia fino alle religioni). La modernità liquida è la condizione di precarietà sociale fondata sull’incertezza e sul
rischio. Ne consegue l’esigenza di prevenire e di calcolare i possibili rischi attraverso una politica di sorveglianza, cioè
la dataveglianza (database che immagazzinano dati relativi ad ogni individuo). Secondo Clarke (che ha coniato il
termine dataveglianza) la sorveglianza si connota come la sistematica attività di monitoraggio delle azioni e/o delle
comunicazioni degli individui finalizzata alla raccolta di dati sia come singoli che come associati con utilizzo dei dati
raccolti per profilazione e potenziale manipolazione.

Profilazione: per attività di marketing o di monitoraggio sociale (gli individui vengono classificati in delfini, cipputi,
accorti, impegnati, radicals, frugali, benpensanti ma anche in devianti, pericolosi socialmente, asociali, antisociali,
socialmente integrati, antagonisti, progressisti, reazionari, moderati) -> teoria di Lippmann (pseudo-ambiente)-
SCHEMA DI LIPPMAN

Manipolazione: coercizione, influenza, persuasione -> teoria di Packard (strategie di indirizzo dei comportamenti
fino alla manipolazione). SCHEMA DI PACKARD

L’individuo per effetto della dataveglianza perde la propria forma corporea per assumere una forma incorporea di
data-image (antropomorfica e biometrica ma anche di profilazione, classificazione sociale). La società
contemporanea è in assoluto la società più sorvegliata di tutti i tempi. La dataveglianza rappresenta l’evoluzione del
panopticon e che Poster definisce come superpanopticon, ovvero un sistema di sorveglianza senza muri, finestre,
torri, guardiani in cui la popolazione si assoggetta volontariamente al processo di sorveglianza. Il superpanopticon è
un fenomeno della globalizzazione. Bauman ridefinisce il superpanopticon come synopticon, cioè un apparato in cui i
pochi possono guardare i molti ma che non comprende la dimensione locale insieme a quella globale (glocal).

Sorveglianza degli individui networked:


Veillance -> informazioni personali rilasciati sui social media
Surveillance -> monitoraggio dei social media da parte di istituzioni di sicurezza o hacker
Coivelance -> ricerca di informazioni di contatto, di profilo, foto, professione, situazione sentimentale tra gli utenti
dei social media
Sousveillance -> attività di sorveglianza dal basso con diffusione da fonti anonime di dati sensibili e secretate

Attività complementari di sorveglianza:


Coveglianza -> individui che si “osservano” l’un l’altro attraverso motori di ricerca e social media per acquisire
informazioni di persone conosciute o di estranei
Subveglianza -> di tipo verticale: “osservazione” dal basso di organizzazioni e persone potenti (es. Wikileaks che
diffonde informazioni governative e secretate provenienti da fonti anonime); di tipo orizzontale: “osservazione” dal
basso tra individui comuni attraverso la diffusione di video e/o informazioni di senso civico o di sicurezza sociale.

MATERIALE 11- Elaborazione del segnale sociale

Noi umani siamo animali sociali: cerchiamo l'interazione con individui e/o gruppi e lo realizziamo producendo e
scambiando "segnali sociali", che sono una combinazione di uno o più cosiddetti "segnali comportamentali" i quali
possono essere categorizzati in modalità verbale (cosa si dice e come si parla) e non verbali (espressione del volto,
gesticolazione delle mani, distanza fisica da altre persone) e possono essere espressi usando il nostro corpo o altri
mezzi (emoticon, messaggi in chat, avatar virtuale). Come connubio avanzato tra scienze sociali e informatiche,
l'elaborazione del segnale sociale è un dominio di ricerca relativamente recente che impiega modelli computazionali
per analizzare e sintetizzare i segnali comportamentali nei contesti di interazione uomo-uomo e uomo-macchina. La
nostra attuale ricerca si concentra sull'analisi di comportamenti minacciosi per scopi di sorveglianza attraverso lo
studio delle dinamiche sociali che generano gruppi di persone / folla, l'evoluzione delle interazioni diadiche e di
gruppo, la leadership e comportamenti ingannevoli e comportamenti minacciosi. In particolare, siamo interessati al
rilevamento e alla modellamento di comportamenti non verbali, che sono classificati come: 1) aspetto fisico, 2) gesti
e posture, 3) comportamento facciale e oculare, 4) comportamento vocale e 5) spazio e ambiente. Tra queste
categorie, finora abbiamo sviluppato / applicato diverse tecniche relative all'attività linguistica, alla prossemica, allo
sguardo, all'attività della testa / corpo e alla posa in 2D del corpo utilizzando tecniche di apprendimento automatico
non sorvegliate e supervisionate. D'altra parte, abbiamo lavorato sulla mimetizzazione e sulla sincronia di interazione
per analizzare le interazioni sociali di piccoli gruppi utilizzando dati sequenziali.

Rilevamento e tracciamento di persone:


Rilevare e localizzare gli esseri umani in una determinata scena rappresenta uno dei compiti più importanti e
impegnativi nella visione artificiale, oggi ben lungi dall'essere risolto. Siamo interessati a questi problemi per le loro
implicazioni nei sistemi di videosorveglianza e assistenza alla guida. Il rilevamento delle persone è impegnativo a
causa dell'alta variabilità dell'aspetto del corpo umano, diverse pose, vestiti, punti di vista, ecc. Rilevare una persona
in scenari affollati (che sono comuni nelle applicazioni di videosorveglianza) è ancora più difficile, a causa delle gravi
occlusioni che possono verificarsi. Il procedimento adottato si concentra sull'apprendimento discriminatorio di una
serie di relazioni comportamentali e spaziali mediante poselet (componente di una posa di una persona), alberi di
decisione (diramazione di possibili conseguenze ipotizzate), foreste casuali (classificazione di molti alberi di
decisione). Siamo anche interessati a questioni computazionali, che sono solitamente trascurate dalla comunità di
computer vision che si concentra principalmente sui problemi di accuratezza. In questo contesto, Embedded
Computer Vision svolge un ruolo fondamentale. Il nostro obiettivo è progettare e implementare algoritmi di visione
per piattaforme hardware dedicate ad alte prestazioni (ad esempio, FPGA, GPU). Il tracciamento può essere visto
come un'estensione del rilevamento di oggetti/persone nel tempo, generando la traiettoria di ogni oggetto/persona
attraverso il video. Qui ci concentriamo su questioni come l'aspetto delle persone nel tempo e le occlusioni. I
problemi di occlusione sono particolarmente difficili da affrontare quando l'occlusione e le persone occulte hanno un
aspetto simile.

Rilevamento e tracciamento di gruppo: Recentemente, i ricercatori della videosorveglianza hanno spostato


l'attenzione dal monitoraggio di una singola persona in un ambiente monitorato da telecamere a quello dei gruppi e
del loro comportamento. Questo nuovo livello di astrazione fornisce descrizioni di eventi semanticamente più
significative, evidenziando connessioni relazionali appena visibili tra le persone. L'analisi automatica della folla è
un'area di ricerca che può essere utilizzata per il rilevamento di anomalie: scenari di panico, situazioni pericolose,
comportamenti illeciti, ecc. Attualmente stiamo lavorando alla rilevazione di anomalie in scenari affollati utilizzando
un paradigma basato su particelle, in cui un ampio set di virtual le particelle simulano il comportamento della folla
usando segnali visivi come il flusso ottico. Seguendo il paradigma di rilevamento e tracciamento delle persone,
l'analisi di piccoli gruppi viene suddivisa in rilevamento e tracciamento di gruppo. L'obiettivo del rilevamento di
gruppo è quello di trovare collezioni di persone che condividono determinati aspetti, interagiscono tra loro,
accettano diritti e doveri come membri del gruppo e condividono un'identità comune. A tal fine, miriamo a studiare
nuovi modelli e tecnologie che incorporino nozioni di psicologia sociale in tecniche di visione artificiale, offrendo una
prospettiva di ricerca innovativa per la comunità di videosorveglianza. D'altra parte, il monitoraggio di gruppo
consiste nel seguire strette formazioni di individui mentre camminano o interagiscono. Una delle maggiori difficoltà
del monitoraggio di gruppo risiede nell'elevata variabilità dell'entità di gruppo: la suddivisione, la fusione,
l'inizializzazione e la cancellazione sono eventi frequenti che caratterizzano la vita di un gruppo, e che sono
solitamente modellate da regole euristiche, cedendo a una generalizzazione scarsa. La nostra idea è di eseguire, allo
stesso tempo, il monitoraggio di individui e gruppi. Il problema, soprannominato come tracciamento congiunto di un
gruppo individuale, introduce nuovi problemi che devono essere studiati (ad es. Spazi ad alta risoluzione e dinamiche
altamente non lineari).

Analisi del comportamento della folla: La comprensione automatica del comportamento umano sta diventando
sempre più un dominio importante nella visione artificiale, grazie alle sue ampie applicazioni per il riconoscimento
dell'azione umana, l'analisi del comportamento della folla e, infine, la sorveglianza intelligente. Nonostante i recenti
progressi in questa direzione, l'analisi delle informazioni sul movimento è ancora considerata un argomento
impegnativo nella comunità dei computer vision a causa di problemi tipici come occlusioni, confusione di sottofondo,
bassa qualità video e movimento della telecamera imprevedibile. Questo è ancora più difficile negli scenari di folla,
dove i movimenti delle persone sono governati da complesse interazioni sociali, dinamiche di gruppo e individuali,
dimensioni e contesto dello scenario di massa. Il tracciamento di una folla comprende molteplici traiettorie e
molteplici interazioni sulla base dei movimenti di ogni individuo e di tutti gli individui. In questo contesto, si stanno
proponendo nuovi framework di visione artificiale per rilevare eventi anormali come il panico e atti di violenza da
sequenze video. La ricerca copre una vasta gamma di tecniche di visione artificiale, introducendo nuovi concetti fisici
ed euristici per modellare il movimento dei pedoni che sono in grado di scoprire un'ampia gamma di complesse
dinamiche di folla: la tecnica emergente per il modellamento/modellazione visiva della folla si basa sulla
previsione dei percorsi pedonali, cioè percorsi previsti da modelli di percorsi precedenti, verificando gli eventuali
scostamenti dal modello. Tra i tentativi fatti finora, solo pochi hanno considerato l'interazione in atto tra agenti
come un fattore chiave nel determinare le loro tendenze a piedi in una determinata scena. Pan Tilt Zoom Camera
Sensing Video Analytics fornisce strumenti utili per la videosorveglianza, al fine di migliorare l'efficienza e aiutare
l'agente umano a concentrarsi sugli eventi rilevanti. Molti sensori diversi hanno dimostrato di essere utili in questo
scenario e le telecamere PTZ sembrano adattarsi allo scopo, in quanto possono coprire un'ampia area e fornire
immagini ad alta risoluzione da una persona sospetta o un evento rilevante. La ricerca sulla Computer Vision in
questo campo mira ad automatizzare la gestione della telecamera PTZ al fine di sfruttare la capacità di tracciare un
bersaglio in movimento con una risoluzione più elevata rispetto a una normale telecamera fissa. Il passo successivo
consiste nell'estrarre dai frame raccolti alcune informazioni utili per l'identificazione del target o il riconoscimento
dell'evento rilevato. Lo sviluppo di un sistema funzionante che sfrutti appieno le potenzialità di un tale sensore è
estremamente stimolante ed eccitante, poiché combina metodi e tecniche provenienti da diverse aree come la
geometria della telecamera e gli algoritmi di elaborazione delle immagini. Ad esempio, l'algoritmo di tracciamento
non può basarsi su uno sfondo fisso e i parametri di calibrazione della telecamera devono essere continuamente
aggiornati in base all'attuale posizione della telecamera. Infine, tutto ciò è limitato dai limiti di tempo del controller
della videocamera, per ottenere un'efficace gestione della telecamera online.
MATERIALE 12- Biotecnologia, eugenetica e gene editing

La Convenzione ONU sulla biodiversità definisce la biotecnologia “l’applicazione tecnologica che si serve dei sistemi
biologici, degli organismi viventi o di derivati di questi per produrre o modificare prodotti o processi per un fine
specifico”.
Le biotecnologie tradizionali sono utilizzate da millenni, nell’agricoltura, nella zootecnica e nello sfruttamento delle
attività fermentative dei microrganismi.
Le biotecnologie innovative utilizzano tecniche di ingegneria genetica e manipolazione del materiale genetico con
numerose applicazioni in campo scientifico e industriale.
Le biotecnologie vengono distinte in base al campo di applicazione attraverso colori definiti a livello internazionale:
Biotecnologie blu: organismi marini e delle acque dolci
Biotecnologie bianche: attività industriali
Biotecnologie verdi: agricoltura
Biotecnologie rosse: medicina, farmaceutica e veterinaria
Biotecnologie grigie: ambiente, inquinamento e biodiversità

Le biotecnologie innovative consentono il miglioramento genetico: l'ingegneria genetica permette di modificare le


sequenze del DNA degli organismi viventi con elevata precisione, relativa facilità e costi contenuti. La tecnologia
utilizzata è il gene editing o genome editing (modificazione, correzione, revisione genica). Si tratta di tecniche di
ingegneria genetica che utilizzano “forbici molecolari” per tagliare il DNA in punti precisi, per eliminare alcune parti,
correggere e/o sostituire altre. Un editing in grado di trovare un errore nella sequenza del DNA, correggerlo e
ripristinare la sequenza selvatica (la forma genica più comune).
La tecnologia del gene editing è denominata propriamente: Clustered Regularly Interspaced Short Palindromic
Repeats (corte sequenze che si ripetono), in acronimo, CRISPR-CAS9. Indica una breve sequenza di RNA (acido
ribonucleico) costruita in laboratorio e programmata per individuare una porzione precisa del genoma e guidare
l'enzima Cas9 che è una sorta di “forbice biologica” capace di tagliare il DNA nella regione scelta dal ricercatore. La
parte del DNA rimossa, in quanto “difettosa”, può essere eliminata o sostituita con una sequenza “normale”. Le
tecniche di gene editing si aprono a numerose potenzialità e applicabilità in ambito umano, animale, vegetale e
industriale. A fronte di grandi aspettative si sollevano anche inquietanti aspetti bioetici riguardanti gli interventi
sull'uomo non solo per finalità curative ma anche preventive di miglioramento (enhancement) : sulle cellule
somatiche e germinali, sugli embrioni, sulle modificazioni del genoma ereditario, sulla sicurezza e l'efficacia degli
interventi, sul rapporto rischi / benefici.

Il dibattito sul gene editing è esploso a partire da due lettere pubblicate nel 2015. Gli autori di queste lettere con
argomentazioni e prospettive diverse convergono sulla richiesta di una moratoria sull'applicazione clinica del gene
editing alle cellule germinali umane (limitandola alle sole cellule somatiche) per: l'impossibilità di conoscere gli effetti
della modificazione genetica effettuata su un embrione fino a dopo la nascita e oltre; la possibilità che la ricerca sulla
linea germinale possa essere sfruttata per indurre modificazioni non terapeutiche; la rarità delle indicazioni cliniche
di queste tecniche nelle loro applicazioni all'embrione umano e comunque alla dubbia liceità di modificare il genoma
in mancanza del “consenso” delle generazioni future. Per i sottoscrittori delle lettere andrebbe mantenuta la
moratoria sull'applicazione clinica del gene editing sull'embrione umano e incoraggiata la ricerca per “valutare
l'efficacia e la specificità del CRISPR-Cas9 nei modelli umani e non umani rilevanti per le potenziali applicazioni nella
terapia genica della linea germinale”. Le due lettere sollevano molte questioni, di natura diversa: dalla terapia genica
sulla linea germinale ai livelli di efficacia e sicurezza necessari per passare dalla sperimentazione di base (sugli
animali e sui gameti umani o sugli embrioni non destinati all'impianto); alla ricerca clinica (sugli embrioni destinati
all'impianto); a quelle propriamente etiche, sulla liceità morale di modificare intenzionalmente la linea genetica
ereditaria. Le due lettere sono state pubblicate in quanto circolavano informazioni riservate sull'imminente
divulgazione di risultati da parte di ricercatori cinesi che avevano applicato la nuova tecnica di gene editing a
embrioni umani non impiantabili. I risultati delle sperimentazioni cinesi di gene editing su embrioni umani hanno
riguardato: 86 embrioni umani con anomalie che ne avrebbero comunque impedito lo sviluppo, portatori di
betatalassemia, sono stati sottoposti a gene editing per correggere il gene responsabile della malattia ematologica,
con risultati poco incoraggianti. Nel 2017 sono state pubblicate le linee guida globali su gene editing. Nel frattempo,
sono stati autorizzati esperimenti di gene editing sugli embrioni umani, presso: il Karolinska Institute di Stoccolma
nel 2015; il Francis Crick Institute a Londra nel 2016. La comunità degli scienziati e dei bioeticisti concorda sulla
necessità di approfondire la sperimentazione in laboratorio sui soggetti non umani, per affinare la tecnica di gene
editing sulle cellule germinali e sugli embrioni, a cominciare dai modelli animali, controllandone anche gli effetti. In
questo tipo di ricerca si pone il problema dei limiti etici delle sperimentazioni genetiche sugli animali per la possibilità
di introdurre modificazioni genetiche molto più invasive rispetto a quelle finora realizzate. Il Comitato Nazionale di
Bioetica ritiene eticamente lecita la sperimentazione del gene editing sugli animali, richiamando i principi bioetici
consolidati e la normativa vigente internazionale e nazionale; ritiene eticamente lecito e auspicabile lo sviluppo della
terapia genica sulle cellule somatiche, sulla correzione/sostituzione di cellule su una parte del corpo in maniera
controllata; converge sull'opportunità di non procedere alla pratica clinica del gene editing su gameti destinati al
concepimento e sugli embrioni umani destinati all'impianto (mentre i pareri si dividono sull'opportunità di portare o
meno avanti la ricerca in vitro sugli uni e sugli altri); è concorde sulla illiceità del trasferimento in utero degli
embrioni modificati a causa dei rischi elevatissimi per il nascituro allo stato attuale della ricerca scientifica. Si tratta in
particolare del rischio di non correggere il difetto genetico e/o di introdurre modificazioni indesiderate che possano
indurre e trasmettere gravi patologie. Coloro che appoggiano la ricerca di base sul gene editing, anche nella
prospettiva preventiva di eliminare mutazioni genetiche prima ancora dell'inizio della gravidanza, considerano
eticamente lecita la possibilità di sperimentare sugli embrioni residui, derivanti dalle tecniche di fecondazione “in
vitro” che non siano impiantabili.
All’interno di questo panorama l’umanità stessa è in grado di dirigere la propria evoluzione. La casualità naturale,
così come il fato biologico, rappresenterebbe l’aspetto di un’umanità pregressa. Al contrario, la svolta biotecnologica
pone l’uomo fuori dal percorso naturale, dando l’impulso ad un’evoluzione geneticamente potenziata. In questo
modo, egli si è elevato a demiurgo che plasma se stesso (la natura interna) ed il mondo in cui abita (la natura
esteriore).” Qualche anno fa una coppia di due donne, entrambe sorde, voleva avere un bambino non udente come
loro in quanto non ritenevano la sordità una menomazione da curare, ma una vera e propria identità culturale:
“essere sordi è semplicemente uno stile di vita. Ci sentiamo completi quanto chi ha un udito normale e vogliamo
condividere con i nostri figli i lati più belli della nostra comunità di non udenti, il senso di appartenenza e il tenerci in
contatto”. Nel riuscire in questo intento si mettono alla ricerca di un donatore di spermatozoi con cinque generazioni
di sordi tra i progenitori. Nasce Gauvin, il loro figlio, privo dell’udito dalla nascita. Questa vicenda suscita molta
indignazione verso le due donne che vengono accusate di avere volontariamente reso menomato il loro figlio. Un
altro caso è l'annuncio pubblicato da una donna sterileche cerca una donatrice di ovuli. Non una donatrice
qualunque, ma alta almeno un metro e 78 cm, con un fisico atletico, senza patologie familiari e con un punteggio Sat
(test di iscrizione all’università) di almeno 1400. Per gli ovuli di una giovane con queste caratteristiche l’annuncio
offriva una ricompensa di 50mila dollari. Questa richiesta non solleva indignazione diversamente da quella suscitata
dal caso del figlio sordo per scelta parentale. Anche se non comporta nessuno svantaggio per il bambino, può
lasciare perplessi che un padre e una madre ordinino un figlio con caratteristiche genetiche predefinite.

Eugenetica e gene editing


L'eugenetica (buona nascita) studia le condizioni genetiche per il miglioramento degli esseri umani al fine di ridurne
gli scarti fisici e psichici. Basandosi sulla trasmissione ereditaria dei caratteri, privilegia l'unione tra cellule germinali
portatrici delle migliori potenzialità ereditarie di individui in buone condizioni fisiche e psichiche, provenienti da
ceppi familiari privi di tare. La possibilità di migliorare l'essere umano attraverso una selezione degli accoppiamenti è
stata avanzata e sostenuta da Francis Galton che ritiene che una “buona nascita” dipende prevalentemente
dall'ereditarietà e solo marginalmente da altri fattori (igienici, ambientali, culturali ed economici) oltre che alla
casualità. La tesi di fondo è che con una opportuna selezione degli accoppiamenti è possibile ottenere generazioni
umane di più elevato valore. Il termine eugenetica viene introdotto per la prima volta nel 1883. La diffusione della
teoria eugenetica produce negli Stati Uniti diverse campagne di sterilizzazione forzata. La prima legge in materia
dispone la sterilizzazione forzata ai criminali abituali, ai malati mentali ed agli strati più bassi della popolazione. Ma la
pratica eugenetica più scellerata si deve ai nazisti con l'adozione del programma action T4 di eliminazione
sistematica di tutti i tarati, omossessuali e psicolabili. In seguito a questi eventi l’eugenetica di matrice razziale e
nazionalista subisce una battuta d’arresto. Nel dopoguerra scompare l'eugenetica ideologica e istituzionale e si
trasforma in eugenetica liberale. La nuova eugenetica ha la stessa finalità di fondo della vecchia eugenetica ma senza
ricorrere a mezzi coercitivi, è costituita dalla neutralità dello Stato: i governi non possono imporre ai genitori come
progettare i figli ed i genitori possono progettare solo alcuni aspetti che possono migliorare le capacità di
autorealizzazione degli figli. L'eugenetica liberale si sviluppa nel contesto di importanti eventi scientifici: la scoperta
della struttura del DNA, l'individuazione del numero esatto di cromosomi umani, la clonazione della 'pecora Dolly'
cioè il primo mammifero clonato da una cellula somatica di una pecora adulta, l'isolamento delle cellule staminali
umane prese da un embrione. Il problema bioetico risiede nella privazione del proprio libero arbitrio. Jurgen
Habermas distingue una eugenetica negativa da una eugenetica positiva: le biotecnologie consentono all'eugenetica
negativa la correzione del “negativo” mentre all'eugenetica positiva la produzione del “positivo”. Sostiene che
l'influenza che i genitori possono esercitare sul figlio deve ricondursi all'educazione e alla trasmissione di valori
sociali e morali. Ma sono insegnamenti esterni dai quali il figlio può decidere si distaccarsi per non esserne
condizionato. Se invece i genitori operano una selezione dei propri gameti da far unire, condizionano il libero arbitrio
del nascituro. Secondo Habermas, la casualità della natura garantisce la libertà dello 'spirito' del bambino nato,
facendolo padrone del proprio destino. Un altra interpretazione dell'eugenetica liberale è di Francis Fukuyama che
ritiene che se (o quando) i genitori avranno la libertà di modificare il genoma dei nascituri, si avrebbero bambini con
caratteristiche fisiche e psichiche superiori ai bambini procreati naturalmente. Si verrebbe così a determinare una
forte disparità sociale con gravi disuguaglianze e discriminazioni a scapito di uguali diritti e uguale dignità.

MATERIALE 13- Nanoscienze e nanotecnologie

Nel 1959 Richard Feynman pone le basi della nanoscienza e delle nanotecnologie. “Ciò di cui voglio parlare è il
problema di manipolare e controllare le cose su una piccola scala. Appena accenno a questo, la gente mi parla della
miniaturizzazione e di quanti progressi si siano fatti fino a oggi. Mi parlano di motori elettrici grandi quantol'unghia
del vostro mignolo. Ma questo è niente; è il passo più primitivo nella direzione che intendo discutere. […] Per quanto
ne so, i principi della fisica non impediscono di manipolare le cose atomo per atomo. Non è un tentativo di violare
alcuna legge; è qualcosa che in principio può essere fatto, ma in pratica non è successo perché siamo troppo grandi.
Feynman apre lo scenario scientifico e tecnologico dell'infinitamente piccolo su scala nanometrica: il nanometro è un
miliardesimo di metro, ovvero, un milionesimo di millimetro: le nanoscienze studiano le proprietà della materia su
scala nanometrica. Le nanotecnologie sono metodiche di manipolazione della materia su scala nanometrica. Le
proprietà della materia su scala nanometrica differiscono da quelle su scala maggiore. I nanomateriali possono
essere realizzati in modalità: “top down” attraverso la miniaturizzazione di materiali in dimensioni nanometrice;
“bottom up” attraverso l'autoaggregazione di atomi o molecole.
Si rileva che: “Le Nanotecnologie e le Nanoscienze si sono affermate negli ultimi decenni come uno dei settori di
ricerca maggiormente promettenti in termini di possibilità di sviluppo scientifico e tecnologico. In particolare, le
nanotecnologie sono state riconosciute dalla Commissione Europea […] un’importante leva per lo stimolo alla
competitività di un Paese e, più in generale, ritenuto fondamentale per lo sviluppo e la promozione di processi
innovativi. La ricerca in questo campo è dunque da considerarsi di rilevanza strategica e sistemica per la crescita
economica e precondizione per il miglioramento dei servizi esistenti, o per la creazione di nuovi, che siano in grado di
sostenere il benessere, la prosperità e la sicurezza dei cittadini”. Le nanoscienze e le nanotecnologie (in acronimo
NST) sono diventate d’interesse anche per le scienze sociali. I temi studiati nel campo sociale riguardano in
particolare: le ricadute economiche derivanti dall’industrializzazione delle NST;l’accettazione delle NST da parte della
pubblica opinione che risulta essere ancora poco informata e perplessa; la corretta comprensione sociale del
carattere delle NST e delle possibilità che offrono.
I risultati di una ricerca evidenziano che NST sono poco note ai non addetti ai lavori già dalle definizioni scientifiche.
Un dato che viene confermato anche dal recente EuroNanoForum che ha individuato nella mancanza di di obiettivi
specifici le ragioni della diffidenza dell'opinione pubblica nei confronti delle NST.

NST: applicazioni e criticità


La manipolazione nanometrica della materia si presta ad applicativi impensabili in passato e si estende a settori
tendenzialmente illimitati.
Nel campo diagnostico e terapeutico: dispositivi miniaturizzati da impiantare nel corpo umano a scopo di diagnosi
precoce delle malattie; materiali capaci di migliorare la biocompatibilità degli organi trapiantati; somministrazione
mirata di farmaci; “accentratori” di calore, che producono un surriscaldamento in una regione selezionata che risulta
letale per le cellule circostanti; nanoparticelle bio-linker, progettate in modo da agire su bersagli definiti.
Nel campo delle tecnologie dell’informazione e della comunicazione: supporti di immagazzinamento dei dati ad
altissima densità di registrazione.
Nel campo dei nuovi “nanomateriali”: tessuti antipiega e antimacchia, vernici antigraffio, creme solari e cosmetici;
tracciabilità degli alimenti mediante l'utilizzo di sistemi miniaturizzati di etichettatura; produzione e della
conservazione dell'energia.

Le criticità delle SNT sollevate dal Comitato Nazionale di Bioetica:


 autoreplicazione: Le SNT combinano nanomateriali inorganici e molecole organiche che intervengono nel
metabolismo cellulare creando delle moleculesize machines (macchine molecolari) che si integrano nelle cellule
degli organismi viventi.
 nanopovertà: Le SNT possono contribuire allo sviluppo dei Paesi poveri ma possono anche accentuare il divario
esistente con i Paesi ricchi e sviluppati senza degli investimenti finalizzati a quelle aree del mondo che hanno
ancora un accesso limitato all'energia elettrica.
 biosorveglianza: La stessa tecnologia con cui si introducono nell’organismo “DNA chips” per effettuare
screening medici o per rilasciare farmaci consente di costruire nanosensori, nanocamere e nanomicrofoni per
controllare, integralmente e inavvertitamente ogni aspetto della vita privata; le nanotecnologie possono
aumentare questo rischio.
 Utilizzazioni militari o terroristiche: un nano-chip capace di agire nel corpo umano può essere programmato sia
per guarire che per distruggere; la capacità di interferire con il metabolismo cellulare aprirebbe alla guerra
batteriologica o al terrorismo con enormi possibilità distruttive; con l'autoreplicazione si avrebbe uno strumento
ancora più pericoloso della bomba atomica, ma più preciso, meno costoso, più semplice da fabbricare, da usare
e più difficile da individuare; le misure ridottissime renderebbero estremamente semplice il trasporto e il rilascio
nell’ambiente; le nanoparticelle autoreplicanti potrebbero agire con lo stesso sistema di funzionamento del
virus di un computer: attivarsi automaticamente e diffondersi fino a distruggere gli elementi basilari per il
funzionamento di centrali elettriche, banche dati, etc. Si tratta di potenziali pericoli che non devono bloccare la
ricerca ma stimolare la riflessione sulla ambivalenza di certi sviluppi avanzati attraverso la comunicazione
scientifica e la discussione pubblica. Nelle scelte etiche non è sempre possibile garantire il bene per tutti, ma è
certamente importate che tutti partecipino ai processi decisionali.
 riflessi sull’identità umana: le nanotecnologie in combinazione con la biotecnologia, l’elettronica e la medicina
potranno consentire di intervenire radicalmente sul corpo umano per ripararlo o per potenziarne le capacità. E’
possibile procedere alla costruzione di organi o di tessuti per il trapianto ma anche alla riparazione di funzioni
sensoriali compromesse o al loro ampliamento, allargando lo spettro della percezione visiva. Sono già alla studio
le connessioni tra elettronica e sistema nervoso, attraverso nanoelectronic neuro-implants (neurobionics), che
consentirebbero di correggere difetti della vista o dell’udito. Se si riuscisse a collegare l’attività cerebrale a
sistemi di elaborazioni dei dati si aprirebbe lo scenario dell’uploading: estrarre le informazioni contenute in un
cervello umano e replicarle in un calcolatore. La costruzione di ibridi biologici fino ai computer a base organica,
altera profondamente la distinzione tra biologia, chimica e fisica insieme a quella tra materiale e immateriale.
Occorre una nano-etica e ma anche una nano-filosofia per ripensare tutte le categorie concettuali dell’identità
umana a partire dall’idea che non esiste più l’uomo, ma la nano-particella con tutti i suoi assemblaggi.

MATERIALE 14- Brevettabilità della scienza e della tecnologia

Un brevetto è un diritto esclusivo di produrre e commercializzare un'invenzione nuova, ha una durata definita e
quando scade la durata di tutela diventa di dominio pubblico. Secondo l'Ufficio Italiano Brevetti e Marchi: “Nel
linguaggio tecnico dei brevetti, un’invenzione è generalmente definita come una soluzione nuova ed innovativa in
risposta ad un problema tecnico. Tale invenzione può fare riferimento alla creazione di un congegno, prodotto,
metodo o procedimento completamente nuovo o può semplicemente rappresentare un miglioramento di un dato
prodotto o procedimento già esistente”.
Di grande rilevanza è la distinzione tra invenzione ed innovazione: “Per invenzione si intende una soluzione tecnica
ad un problema di carattere tecnico. Essa può consistere in un’idea innovativa oppure in un prototipo o in un
modello di lavoro”. “L’innovazione invece, è intesa avere in sé un potenziale commerciale e si può dire consista nella
conversione di un’invenzione in un processo o prodotto che abbia mercato”. Per poter ottenere la protezione
brevettuale, un’invenzione deve soddisfare un certo numero di requisiti: avere come oggetto una materia
brevettabile, essere nuova (requisito della novità), implicare un’attività inventiva (requisito della non ovvietà), poter
avere una applicazione industriale (requisito della utilità).

Cos’è brevettabile: è brevettabile un materiale biologico isolato dal suo ambiente naturale o prodotto tramite un
procedimento tecnico, anche se preesistente allo stato naturale; un’invenzione relativa ad un elemento isolato dal
corpo umano o diversamente prodotto mediante un procedimento tecnico, anche se la sua struttura è identica a
quella di un elemento naturale; un'invenzione riguardante piante o animali ovvero un insieme vegetale,
caratterizzato dall'espressione di un determinato gene e non dall’intero genoma.
Cosa non è brevettabile: il corpo umano, sin dal momento del concepimento e nei vari stadi del suo sviluppo
unitamente ad elementi del corpo stesso, compresa la sequenza di un gene; ogni procedimento tecnico che utilizzi
cellule embrionali umane;i metodi per il trattamento chirurgico o terapeutico del corpo umano o animale e i metodi
di diagnosi applicati al corpo umano o animale; le invenzioni il cui sfruttamento commerciale è contrario alla dignità
umana, all'ordine pubblico e al buon costume, alla tutela della salute, dell'ambiente e della vita delle persone e degli
animali, alla preservazione dei vegetali e della biodiversità ed alla prevenzione di gravi danni ambientali; ogni
procedimento tecnologico di clonazione umana;i procedimenti di modificazione dell'identità genetica germinale
dell'essere umano; ogni utilizzazione di embrioni umani, ivi incluse le linee di cellule staminali embrionali umane; i
procedimenti di modificazione dell'identità genetica degli animali, atti a provocare su questi ultimi sofferenze senza
utilità medica sostanziale per l'essere umano o l'animale, nonché gli animali risultanti da tali procedimenti;le
invenzioni riguardanti protocolli di screening genetico, il cui sfruttamento conduca ad una discriminazione o
stigmatizzazione dei soggetti umani su basi genetiche, patologiche, razziali, etniche, sociali ed economiche, ovvero
aventi finalità eugenetiche e non diagnostiche; una semplice sequenza di DNA, una sequenza parziale di un gene,
utilizzata per produrre una proteina o una proteina parziale, salvo che venga fornita l'indicazione e la descrizione di
una funzione utile alla valutazione del requisito dell'applicazione industriale e che la funzione corrispondente sia
specificatamente rivendicata;le varietà vegetali e le razze animali, nonché i procedimenti essenzialmente biologici di
produzione di animali o vegetali; le nuove varietà vegetali rispetto alle quali l'invenzione consista esclusivamente
nella modifica genetica di altra varietà vegetale, anche se detta modifica è il frutto di procedimento di ingegneria
genetica.

La normativa italiana Legge 22 febbraio 2006, n. 78 “Conversione in legge, con modificazioni, del decreto legge 10
gennaio 2006, n. 3, recante attuazione della direttiva 98/44/CE in materia di protezione giuridica delle invenzioni
biotecnologiche”.
Art. 2. Definizioni
1. Ai fini del presente decreto si intende per: a) «materiale biologico»: un materiale contenente informazioni
genetiche, autoriproducibile o capace di riprodursi in un sistema biologico; b) «procedimento microbiologico»:
qualsiasi procedimento nel quale si utilizzi un materiale microbiologico, che comporta un intervento su materiale
microbiologico o che produce un materiale microbiologico.
2. Un procedimento di produzione di vegetali o di animali è essenzialmente biologico quando consiste integralmente
in fenomeni naturali quali l'incrocio o la selezione.
3. La nozione di varietà vegetale è definita dall'articolo 5 del regolamento (CE) n. 2100/94 del Consiglio, del 27 luglio
1994.
Art. 3. Brevettabilità : Sono brevettabili purché abbiano i requisiti di novità e originalità e siano suscettibili di
applicazione industriale: a) un materiale biologico, isolato dal suo ambiente naturale o prodotto tramite un
procedimento tecnico, anche se preesistente allo stato naturale; b) un procedimento tecnico attraverso il quale
viene prodotto, lavorato o impiegato materiale biologico, anche se preesistente allo stato naturale;c) qualsiasi
applicazione nuova di un materiale biologico o di un procedimento tecnico già brevettato; d) un'invenzione relativa
ad un elemento isolato dal corpo umano o diversamente prodotto, mediante un procedimento tecnico, anche se la
sua struttura è identica a quella di un elemento naturale [ ...] Per procedimento tecnico si intende quello che
soltanto l'essere umano è capace di mettere in atto e che la natura di per se stessa non e' in grado di compiere;e)
un'invenzione riguardante piante o animali ovvero un insieme vegetale, caratterizzato dall'espressione di un
determinato gene e non dal suo intero genoma, se la loro applicazione non e' limitata, dal punto di vista tecnico,
all'ottenimento di una determinata varietà vegetale o specie animale e non siano impiegati, per il loro ottenimento,
soltanto procedimenti essenzialmente biologici [ ...]
Art. 4. Esclusioni : Sono esclusi dalla brevettabilità: a) il corpo umano, sin dal momento del concepimento e nei vari
stadi del suo sviluppo, nonché la mera scoperta di uno degli elementi del corpo stesso, ivi compresa la sequenza o la
sequenza parziale di un gene, al fine di garantire che il diritto brevettuale sia esercitato nel rispetto dei diritti
fondamentali sulla dignità e l'integrità dell'essere umano e dell'ambiente; b) i metodi per il trattamento chirurgico o
terapeutico del corpo umano o animale e i metodi di diagnosi applicati al corpo umano o animale; c) le invenzioni il
cui sfruttamento commerciale è contrario alla dignità umana, all'ordine pubblico e al buon costume, alla tutela della
salute, dell'ambiente e della vita delle persone e degli animali, alla preservazione dei vegetali e della biodiversità ed
alla prevenzione di gravi danni ambientali [ …]: 1) ogni procedimento tecnologico di clonazione umana, qualunque
sia la tecnica impiegata, il massimo stadio di sviluppo programmato dell'organismo clonato e la finalità della
clonazione; 2) i procedimenti di modificazione dell'identità genetica germinale dell'essere umano; 3) ogni
utilizzazione di embrioni umani, ivi incluse le linee di cellule staminali embrionali umane;4) i procedimenti di
modificazione dell'identità genetica degli animali, atti a provocare su questi ultimi sofferenze senza utilità medica
sostanziale per l'essere umano o l'animale, nonché gli animali risultanti da tali procedimenti; 5) le invenzioni
riguardanti protocolli di screening genetico [ … ] una discriminazione o stigmatizzazione dei soggetti umani su basi
genetiche, patologiche, razziali, etniche, sociali ed economiche, ovvero aventi finalità eugenetiche e non
diagnostiche;d) una semplice sequenza di DNA, una sequenza parziale di un gene, utilizzata per produrre una
proteina o una proteina parziale [ ...] e) le varietà vegetali e le razze animali, nonché i procedimenti essenzialmente
biologici di produzione di animali o vegetali;f) le nuove varietà vegetali rispetto alle quali l'invenzione consista
esclusivamente nella modifica genetica di altra varietà vegetale, anche se detta modifica e' il frutto di procedimento
di ingegneria genetica.2. E', comunque, escluso dalla brevettabilità ogni procedimento tecnico che utilizzi cellule
embrionali umane.

Jeremy Rifkin svolge ricerche sull'influenza della tecnoscienza sull'economia, sul lavoro, sull'ambiente e sulla società.
In merito alla brevettazione della materia vivente afferma: “Chi controlla i geni, controlla il ventunesimo secolo. Ci
troviamo nel mezzo di una fondamentale trasformazione dell'economia globale. La risorsa primaria nell'età
industriale erano i combustibili fossili, i metalli e i minerali. La risorsa primaria nell'età della biotecnologia sono i
geni. Chiunque possiede e controlla i geni controlla la risorsa mondiale che forma la base di tutta l'età del commercio
genetico. Geni per le fibre tessili, per i materiali da costruzione, per l'energia, per le medicine, per gli alimentari.[...]
In questo momento è in atto una battaglia tra i giganti dell'economia per localizzare tutti i geni rari nel mondo e
reclamarli nella forma di proprietà intellettuale [...]E' molto importante capire che non si può, non ancora almeno,
creare un gene in laboratorio, un gene raro devi trovarlo. Così le grandi aziende stanno girando il mondo in cerca di
geni rari, microrganismi, piante, animali e anche esseri umani che possono avere un valore commerciale in qualche
campo”.

MATERIALE 15- Uomo naturalmente artificiale, neoluddismo e transumanesimo

Arnold Gehlen teorizza l’essere umano come biologicamente carente, che sopravvive attraverso il continuo
intervento sull’ambiente. La povertà di istinti e di specializzazioni degli umani rispetto agli animali (ad esempio
olfatto superiore), viene compensata dalla capacità di creare degli artifici che consentono di adattare l’ambiente agli
umani. Gehlen afferma che “dal punto di vista morfologico, a differenza di tutti i mammiferi superiori l’uomo è
determinato in linea fondamentale da una serie di carenze, le quali di volta in volta vanno definite nel senso
biologico di inadattamenti, non specializzazioni, cioè come carenze di sviluppo: e dunque il senso essenzialmente
negativo. Manca in lui il rivestimento pilifero (l’homo sapiens perde il pelo) e pertanto la protezione naturale alle
intemperie; egli è privo di organi difensivi naturali, ma anche di una struttura somatica atta alla fuga, quanto ad
acutezza dei sensi è superato dalla maggior parte degli animali e difetta di istinti autentici. In altre parole, in
condizioni naturali, trovandosi, lui terricolo, in mezzo ad animali valentissimi nella fuga ai predatori più pericolosi,
l’uomo sarebbe già da gran tempo eliminato dalla faccia della terra”.
Quindi nonostante queste carenze gli umani vivono e dominano gli animali e l’ambiente, fino a costituire anche una
minaccia. L’uomo, secondo Gehelen, è un “novello Prometeo”, che attraverso degli artifici riesce a supplire
l’incompletezza istintuale ed organica degli animali trasformando l’ambiente “naturale” in ambiente “artificiale” che
migliora la propria esistenza. In altre parole, l’uomo degli artifici è un essere anti-naturale. A questa posizione anti-
naturalista di Gehlen si oppone specularmente la posizione naturalista di Helmuth Plessner il quale sembra
convergere con Gehlen quando afferma che l’uomo sceglie “la strada più lunga delle cose artificiali” ma poi si
oppone specularmente quando sostiene che l’uomo non è anti-naturale. L’artificialità è il modo di interagire con
l’ambiente: “soltanto perchè l’uomo è per metà natura e (cosa essenzialmente connessa con quest’ultimo) sta oltre
se stesso, l’artificialità costituisce il mezzo attraverso il quale mettersi in equilibrio con il mondo”.
Perciò l’uomo è naturalmente artificiale, che porta con sè nel quadro naturale (ambiente) tutte le pratiche artificiali
prodotte. Egli opera una ibridizzazione sempre più approssimata tra naturale e artificiale. E l’ibridizzazione
naturale/artificiale può spingersi fino a che limite? Il concetto di limite appare ambivalente perchè per un verso
definisce il territorio ancora sconosciuto e dell’impraticabile, ma dall’altro lato definisce il campo del tecnicamente
possibile da superare ma c’è anche il lato etico.
Si creano due correnti di pensiero: i tecno-apocalittici (Hans Jonas)e tecno-integrati (Marvin Minsky). Questi termini
sono una rivisitazione dei termini di Umberto Eco. Sono correnti di pensiero che si pongono specularmente nei
confronti delle interazioni tra gli umani e tecnologie.
Jonas afferma che “il prometeo irresistibilmente scatenato, al quale la scienza conferisce forze senza precedenti e
l’economia imprime un impulso incessante, esige un’etica che, mediante auto-restrizioni, impedisce alla sua potenza
di diventare una sventura per l’uomo”. Per Jonas la tecnologia minaccia l’integrità dell’uomo in quanto conduce
verso la deriva del post-umanesimo. La responsabilità è il principio fondamentale della nuova etica di salvaguardia, di
conservazione e di prevenzione che si contrappone allo strapotere della scienza e della tecnologia. Giuseppe Longo
mette in evidenza “il paradosso del potere determinato dal sapere, che ci ha dato il dominio sulla natura ma ci ha
sottomesso a sè” e quindi Jonas non esita a sollecitare una limitazione della ricerca scientifica: pur riconoscendo che
il perseguimento del sapere è un diritto inalienabile, ne denuncia la pericolosità ormai manifesta”. Jonas perciò
lancia un appello alla ragione che è al contempo anche un appello all’irrazionalità della paura, perchè solo l’orrore
può farci recuperare il rispetto perduto per l’umanità.
Minsky è un convinto sostenitore della ibridizzazione biologico-artificiale dell’essere umano. In un articolo scrive:
“non occorre dire che ricorrendo alla tecnologia ci trasformeremo pian piano in macchine. Ciò signfiica che le
macchina si sostituiranno a noi? Credo che non abbia molto senso esprimersi in termini di “noi” e “loro”: preferisco
di gran lunga considerare queste macchine intelligenti del futuro come figli della nostra mente”. Minsky oppone alla
responsabilità di Jonas l’utilitarismo eugenetico che spiega così: “una volta liberati dalle limitazioni della biologia,
saremo in grado di decidere la durata della nostra vita - compresa l’opzione dell’immortalità - e di scegliere altre
capacità inimmaginabili. [ ...] Saranno i robot a ereditare la terra? Sì, ma essi saranno figli nostri. Noi dobbiamo la
nostra mente alla vita e alla morte di tutte le creature che in passato hanno affrontato quella lotta che si chiama
evoluzione. È nostro compito vigilare perché tutta questa fatica non vada sprecata senza costrutto.”. Il pensiero di
Minsky va a confutare i due tratti connotativi dell’essere umano che invece Jonas difende: il fissismo (invariabilità
umana) e l’essenzialismo (identità umana).
Da qui si apre lo scenario del neoluddismo e del transumanesimo. Il luddismo è stato un movimento di protesta
nato in Inghilterra agli inzi del XIX secolo e sembra essere stato originato da Ned Ludd, un personaggio forse
inventato e non esistito, che per primo avrebbe distrutto una macchina di tessitura; da allora i luddisti hanno
rappresentato l’avversione ideologica alla pervasività della tecnologia nella vita quotidiana. Il neoluddismo riprende
e aggiorna questo movimento: manifesta una forte resistenza all’evoluzione tecnologica in quanto fenomeno
incontrollabile e disumanizzante. L’eccesso di tecnologia, secondo il pensiero Neoluddista, disumanizza gli esseri
umani sia biologicamente che culturalmente. La tecnologia sfugge al controllo umano con conseguenze
potenzialmente disastrose e non reversibili.
Il principale protagonista del ritorno delle posizioni luddiste è Kirkpatrick Sake. Il Center for Bioethics and Culture
diretto da Nigel Cameron rappresenta la corrente dell'Evangelismo americano che si oppone apertamente alle
tecnologie. Anche alcune correnti del protestantesimo convergono sulle stesse posizioni: la tecnologia non deve
minacciare l’integrità e la dignità umana. È evidente la forte preoccupazione per la manipolazione genetica che porta
l’homo technologicus a superare ogni limite etico in un delirio di onnipotenza tale da fingere di essere Dio (playning
God) senza averne né i mezzi e né la consapevolezza. La posizione antitetica al neoluddismo è il transumanesimo che
promuove il miglioramento della condizione esistenziale attraverso una ibridizzazione tra uomo e tecnologia.

Transumanesimo
Il prete Pierre Teilhars de Chardin è il primo ad introdurre il termine “transumano” che espone in un’opera che viene
pubblicato postumo nel 1955 a causa del mancato imprimatur da parte delle autorità ecclesiastiche che ritenevano il
suo pensiero come relativizzante del dogma che doveva mantenere il fissismo dottrinale (l’uomo è nato ad immagine
e somiglianza di Dio). Giovanni XXIII promosse il concilio ecumenico vaticano II in cui ci fu una riforma della dottrina
della chiesa, in cui riconosce la chiesa a misura dell’uomo (riconosce l’evoluzione e le debolezze dell’uomo).
Huxley il biologo indica “l’uomo che rimane umano, ma che trascende se stesso realizzando le nuove potenzialità
della sua natura umana, per la sua natura umana”. Nick Bostrom è uno dei maggiori teorici del movimento: “un
movimento culturale, intellettuale e scientifico, che afferma il dovere morale di migliorare le capacità fisiche e
cognitive della specie umana e di applicare le nuove tecnologie all’uomo, affinchè si possano eliminare aspetti non
desiderati e non necessari della condizione umana come la sofferenza, la malattia, l’invecchiamento e persino
l’essere mortali”. Quindi il transumanesimo promuove l’enhancement (miglioramento) della specie umana. In questo
percorso di miglioramento, Bostrom specifica che il transumanesimo è una fase di transizione verso il
postumanesimo. Elena Solana definisce: “l’essere umano sarebbe un essere umano in fase di transizione verso il
postumano, vale a dire, qualcuno con capacità fisiche, intellettuali e psicologiche “migliori” rispetto ad un “umano
normale”; e un “postumano”, che sarebbe un essere (non determina se naturale o artificiale) che ha le seguenti
caratteristiche: aspettative di vita superiori ai 500 anni, capacità cognitive due volte al di sopra del massimo possibile
per l’uomo attuale,controllo degli input sensoriali, senza sofferenza psicologica. Si tratterebbe, cioè, di qualcuno le
cui capacità oltrepassano in modo eccezionale l’essere umano attuale, al punto tale di eliminare ogni possibile
ambiguità tra l’umano e il postumano: qualcuno, in definitiva, completamente diverso. Sarebbe un ente “più
perfetto” dell’essere umano e del transumano. Un postumano, a detta di Bostrom, potrebbe godere di un
ampliamento della vita senza deteriorarsi, di maggiori capacità intellettuali, avrebbe un corpo in concordanza coi
suoi desideri, potrebbe fare copie di se stesso, disporrebbe di un controllo emozionale”.

Carta dei principi del Transumanesimo (importante il 7)


1. L’umanità sarà radicalmente trasformata dalla tecnologia del futuro. Prevediamo la possibilità di riprogettare la
condizione umana in modo di evitare l’inevitabilità del processo di invecchiamento, le limitazioni dell’intelletto
umano (e artificiale), un profilo psicologico dettato dalle circostanze piuttosto che dalla volontà individuale, la nostra
prigionia sul pianeta terra e la sofferenza in generale.
2. Uno sforzo di ricerca sistematico sarà necessario per comprendere l’impatto di tali sviluppi per ora all’orizzonte e
le loro conseguenze sul lungo termine.
3. I transumanisti ritengono che per usufruire delle nuove tecnologie, sia necessario mantenere un’apertura mentale
che ci permetta di adottare tali tecnologie invece che di tentare di proibirne l’uso o lo sviluppo.
4. I transumanisti sostengono il diritto morale di utilizzare metodi tecnologici, da parte di coloro che lo vogliano, per
espandere le proprie capacità fisiche ed intellettuali e per aumentare il ivello di controllo sulla propria vita.
Aspiriamo ad una crescita personale ben al di là delle limitazioni biologiche a cui siamo oggi legati.
5. È imperativo, nel pensare al futuro, considerare l’impatto di un progresso tecnologico in continua fase di
accelerazione. La perdita di potenziali benefici, a causa di tecnofobia e proibizioni immotivate e non necessarie,
sarebbe una tragedia per il genere umano. Dobbiamo comunque tenere presente che un disastro o una guerra,
causati o resi possibili da una tecnologia avanzata, potrebbero portare all’estinzione di ogni forma di vita intelligente.
6. È necessario creare luoghi di incontro in cui razionalmente discutere i passi da intraprendere verso il futuro ed è
necessario creare le strutture sociali in cui decisioni responsabili possano essere implementate.
7. Il transumanesimo è fautore del benessere per tutti gli esseri senzienti (siano questi umani, intelligenze artificiali,
animali o potenziali esseri extraterrestri) ed include molti principi dell’umanesimo moderno. Il transumanesimo non
è legato ad alcun partito o programma politico.

Potrebbero piacerti anche