Sei sulla pagina 1di 7

STUDIARE I MEDIA E LA SOCIETÀ DIGITALE IN PROSPETTIVA STORICA

Dagli anni 2000 i media digitali sono diventati un elemento centrale delle riflessioni e dell’immaginario delle società
contemporanee. Stephane Vial parla di “ontofania digitale” , che indica quanto l’universo digitale sia una delle fedi e delle
mitologie più importanti del mondo contemporaneo, tanto da poter influenzare la percezione e l'esperienza della realtà. Gli effetti
veri o presunti delle tecnologie hanno assunto delle dimensioni positive o negative in relazione ai differenti periodi storici e ai
contesti culturali in cui sono state adottate. Il digitale da un lato è stato acclamato per aver permesso la creazione di nuove
comunità di persone che prima non interagivano tra loro, da un altro lato il digitale ha contribuito alla formazione di nuove
barriere e disuguaglianze.
Il termine digitale non nasce con gli strumenti tecnologici, è insito nella natura umana ed è spesso visto come l'opposto
dell'analogico, come fossero due estremi di uno stesso continuum. Oggi con analogico intendiamo il risultato storico di una serie di
distinzioni culturali e mutamenti dei confini simbolici del termine: prima riguardava i computer, poi un contrasto tra i nuovi
dispositivi elettronici e infine ha iniziato ad essere sinonimo di vintage. Il significato che oggi diamo al digitale è dovuto a due
processi:
1. numerizzazione, ossia la conversione in cifre di contenuti che prima erano espressi in linguaggi differenti;
2. binarizzazione → si crede che digitalizzare equivalga a convertire dati fisici in informazione binaria. In realtà, la
digitalizzazione è l'assegnazione di valori numerici. L'aver digitalizzato i contenuti attraverso stringhe di 0 e 1 (bit) ha
semplificato i processi di codifica e decodifica perchè riduce ogni componente a due stati, 0 e 1.
digitale e modelli di società: una breve storia
Il digitale è costituito da aspetti tecnici, materiali e da rappresentazioni e immaginari comuni nella cultura contemporanea. I
primi tentativi di individuare il centro delle trasformazioni in atto della società moderna, della comunicazione e dei computer
risalgono al secondo dopoguerra grazie a due teorie:
1. la cibernetica, una disciplina nata negli anni 40, il padre è Wiener e si occupò di studiare i fenomeni di autoregolazione
dei sistemi di comunicazione nelle loro interazioni con l'ambiente sociale.
2. La teoria dell'informazione venne sviluppata a partire dal 1948 da Shannon, che tracciò le basi logico-matematiche di un
modello di trasferimento della comunicazione (poi chiamato teoria matematica dell'informazione) con l'aiuto di Weaver.
Questi modelli rappresentarono un riferimento centrale per i nascenti studi sulla comunicazione. Breton crede che il successo
delle tesi di Wiener, Shannon e Weaver fu possibile grazie all'eredità culturale delle due guerre mondiali. L'idea di comunicazione
cominciò ad essere percepita come uno strumento salvifico e liberatorio.
Esistono cinque diversi modelli di riferimento di nuove società emersi nella seconda metà del 900 e che hanno spianato la strada
all'idea del digitale:
1. Società dell'informazione → l'informazione è centrale per la società, è il motore dello sviluppo politico, economico e
culturale della società contemporanea.
2. Società postindustriale (Bell, anni 70) → si passa da un'economia basata sulla produzione dei beni ad una incentrata sui
servizi, includendo anche i lavori cognitivi (tecnologia intellettuale).
3. Convergenza dei media (fine 70 – inizio 80) → con la progressiva sovrapposizione di settori mediali precedentemente
distinti, anche i media digitali hanno iniziato a convergere, e progressivamente le persone hanno iniziato ad usare un
unico dispositivo digitale che avrebbe sostituito tutti i precedenti.
4. Società post-moderna (metà anni 80) → studiosi come Baudrillard e Lyotard individuarono una pausa tra una modernità
tradizionale e un'epoca posmoderna caratterizzata dal crollo di valori e narrazioni sociali condivise, quindi incapace di
fornire un'interpretazione unificante dell'esperienza sociale.
5. Network society (anni 70 – metà anni 90) → Van Dijk e Castells volevano evidenziare una serie di trasformazioni
avvenute nella seconda metà del 900 che coinvolsero diversi aspetti sociali e che hanno fatto delle reti la dimensione
centrale e la forma predominante di organizzazione della modernità.
Espressioni come rivoluzione/trasformazione digitale o digital disruption racchiudono l'idea che la digitalizzazione sia destinata a
cambiare radicalmente il modo di vivere degli esseri umani.
Perchè una prospettiva storica?
Studiare i media digitali con una prospettiva storica significa adottare uno sguardo di lungo periodo che possa bilanciare
cambiamenti e continuità che si realizzano nel tempo, attenzionando forme di comunicazione digitale oggi scomparse ma che nel
passato venivano viste come il futuro. La storia contribuisce a contrastare o mitigare tre derive ricorrenti nelle scienze sociali e
umane applicate ai media:
1. nuovismo → si crede che il presente in cui si vive sia un momento senza precedenti, quindi con caratteristiche uniche
rispetto al passato. E' un approccio che confonde la comprensione dei fenomeni:
a. perchè il mezzo più “recente” è solo un concetto temporaneo e storico.
2. b. perchè non esiste un processo lineare che vada da forme di comunicazione povere e “stupide” a forme ricche e
“intelligenti”.
3. c. perchè per valutare se davvero i media digitali abbiano fatto entrare l'umanità in un nuovo paradigma comunicativo
occorrerebbe conoscere la storia della comunicazione e rintracciare eventuali parallelismi a livello concettuale.
I media nello stato in cui si presentano oggi sono frutto di un processo di selezione storica. La storia ci aiuta a combattere il
nuovismo perchè mette in luce il forte legame tra vecchi e nuovi mezzi di comunicazione: i nuovi media emergono sempre
imitando o ispirandosi ai vecchi, che nel frattempo subiscono un processo di rimediazione, riconfigurazione o spostamento di
senso.
2. rivoluzionismo o immobilismo? → l'approccio rivoluzionario insiste nel riconoscere nei media digitali una continua e
radicale rivoluzione in nome dell'elevato grado di innovazione tecnologica. L'immobilismo sconfessa il carattere
dirompente del digitale interpretandolo come la continua riproposizione di precedenti e inscalfibili schemi. L’approccio
rivoluzionario deriva dal fatto che i media digitali sono spesso descritti come differenti da tutte le forme di
comunicazione che li hanno preceduti. Il cambiamento è una dimensione cruciale della storia dei media digitali perché
aiuta gli studiosi a concepire le tecnologie come oggetti instabili, di transizione, in parte vecchi e in parte nuovi. Con
immobilismo si tratta di attribuire ai media digitali caratteristiche che non avrebbero potuto esistere nel tempo passato.
3. Errore teleologico → l'evoluzione tecnologica segue una traiettoria lineare e progressiva, in modo che il digitale
costituisce un movimento in avanti continuo.

IL COMPUTER
Il computer può essere considerato l’origine di tutti i dispositivi del mondo della comunicazione digitale. È stato il primo
strumento digitale a essere adottato in modo capillare in differenti sfere sociali. L'evoluzione sociotecnica del computer si può
dividere in quattro fasi:
1. calcolatori meccanici → è una sorta di “preistoria” dei computer, un periodo lungo diversi millenni in cui si è cercato di
calcolare e automatizzare alcuni processi e attività della vita quotidiana.
2. Nascita dei primi computer digitali veri e propri → un periodo che va dagli anni 40 ai 70 del 900 caratterizzato
dall'affermazione dei grandi computer prima per finalità militari e poi per le applicazioni scientifiche e in ambito
professionale (→ il progetto Arpanet in questo periodo gettò le basi di internet).
3. Personal computer di massa → il computer smette di essere uno strumento lavorativo usato dentro grandi
organizzazioni e diventa uno strumento domestico, individuale e centrale nella quotidianità delle persone.
4. Epoca dei computer onnipresenti → siamo circondati dai computer, dalle forme, funzioni e caratteristiche differenti ma
comunque accomunati dal condividere una stessa storia ed evoluzione.
I computer meccanici e il bisogno sociale di calcolare
Il computer nasce dall'invenzione dei linguaggi informatici e delle tecnologie digitali e coinvolge un'idea antica nella cultura
umana, cioè disporre di macchine automatiche per fare i calcoli e compiere operazioni complesse. Il computer ha condiviso parte
del proprio sviluppo con quello delle calcolatrici, essendo considerato per molto tempo uno strumento dedicato all'esecuzione di
calcoli. Inoltre, questa fase iniziale della storia del computer durata millenni è di natura meccanica: il computer non fu in origine
un nativo digitale ma fu l'evoluzione digitale di preesistenti bisogni sociali, tecnologie e pratiche affermatesi nel mondo analogico.
Nel 1822 Babbage iniziò a progettare una macchina calcolatrice chiamata difference engine (macchina differenziale) e proseguì il
suo lavoro progettandone un'altra chiamata ANALYTICAL ENGINE (macchina analitica). L’analytical engine è spesso considerato il
primo computer moderno in grado di calcolare e archiviare dati, ma rappresentò al tempo stesso anche uno dei più grandi
fallimenti nella storia dei computer: infatti, Babbage non riuscì a costruire una macchina veramente funzionante. Lovelace
contribuì a sviluppare le prime forme di programmazione, concependo assieme a Babbage uno dei più noti algoritmi della storia,
ovvero un insieme ricorsivo di operazioni per il calcolo matematico da far gestire in modo automatico a una macchina.
Esistono due macrofenomeni sociali dell’epoca che stimolarono indirettamente la creazione delle prime macchine utilizzate
effettivamente per automatizzare attività umane e per gestire calcoli complessi:
1. la Rivoluzione industriale → pose le condizioni per costruire e disporre di macchine in grado di calcolare e compiere
operazioni automatizzate utili a sopportare il sistema di produzione capitalistico.
2. La nascita dei computer digitali e i mainframes → La nascita dei primi computer digitali fu legata alla Seconda guerra
mondiale. Questo frangente storico inaugura la seconda fase della storia sociotecnica del computer, l’epoca dei
mainframes: il periodo in cui vennero creati i primi computer digitali, grandi e complesse macchine utilizzate da
governi, centri di ricerca e grandi aziende per necessità militari, politiche e industriali. Nel 1936 il matematico inglese
Alan Turing scrisse un articolo scientifico in cui utilizzava i principi della logica matematica per fare funzionare una
macchina automatica in grado di svolgere operazioni complesse in base a un linguaggio binario, composto da 0 e 1, che
venne definita come Macchina di Turing, era un linguaggio di programmazione per far funzionare un dispositivo in
grado di compiere calcoli in modo automatico. Il noto test di Turing, utilizzato ancora oggi per valutare la capacità dei
computer di imitare correttamente un comportamento umano (Moor 2003), può essere anche considerato la base e
l’origine di un nuovo modo di concepire l’intelligenza artificiale. Tra i candidati al titolo di «primo computer» vi è senza
dubbio una macchina sviluppata durante la guerra con il contributo dello stesso Turing chiamata Colossus e sviluppata
nel 1943. Il primo computer statunitense non fu tuttavia sviluppato in tempo per essere utilizzato durante guerra, solo
nel 1945 fu infatti completato ENIAC, un enorme congegno dal peso di circa 3.000 kg che occupava una stanza di più di
150 mq e la cui costruzione costò circa mezzo milione di dollari dell’epoca. ENIAC fu il primo modello di una serie di
computer chiamati mainframes e iniziò a essere usato per attività militari. Il primo computer a uscire dalle stanze
segrete degli esperimenti militari e ad arrivare sul mercato fu, nel 1950, UNIVAC, che venne utilizzato tra l’altro per
calcolare il censimento americano e nel 1952 divenne noto al grande pubblico statunitense. La diffusione di questi primi
grandi calcolatori in altre regioni del mondo fu lenta, limitata e non di rado avvenne sotto l’influenza economica e
politica degli Stati Uniti.
Tra i mainframes e i pc
Dal punto di vista tecnico il mainframe era molto diverso dai moderni personal computer. Tra la fine degli anni 50 e i primi anni 60
una serie di idee e innovazioni tecnologiche iniziò a porre le basi per una trasformazione del paradigma del mainframe in
direzione di una diversa concezione di computer più vicina a quella di un personal computer. 3 innovazioni furono fondamentali
lungo questo percorso: -Lo sviluppo di postazioni desktop, cioè una prima trasformazione fu quella che riguardava la possibilità di
utilizzo dei computer da parte di un singolo utente e non da gruppi di ricercatori, come nel caso di ENIAC; -Il funzionamento in
time-sharing, o «condivisione del tempo» che, pur essendo pensata per ottimizzare il funzionamento dei mainframes, influenzò in
modo decisivo la possibilità di guardare ai computer come strumenti da utilizzare su base individuale e anche come strumenti di
comunicazione. L’idea del time-sharing consistette essenzialmente nella possibilità di suddividere la potenza di calcolo dei
mainframes in modo che essi potessero essere utilizzati contemporaneamente da più persone, attraverso differenti postazioni
chiamate; -L’invenzione dei microprocessori, che aprì la strada alla costruzione di computer di piccole dimensioni e all’incessante
miglioramento delle loro prestazioni. Già nel 1965 il cofondatore di Intel, Gordon Moore, aveva previsto che i processori sarebbero
divenuti sempre più piccoli e potenti, enunciando la cosiddetta Prima legge di Moore, che si sarebbe auto-avverata nei decenni
successivi e che si può formulare come segue: «le prestazioni dei processori, e il numero di transistor a essi relativi, raddoppiano
ogni 18 mesi». L’introduzione dei microprocessori avvenuta nel 1971 permise di ridurre a una dimensione di pochi centimetri la
parte essenziale dei computer. Desktop, time-sharing e microprocessori vengono definite come «innovazioni conservative»: sono
infatti innovazioni tecnologiche che trasformano alcuni aspetti dell’uso dei computer, ma non ne modificano in modo evidente il
ruolo sociale, mantenendo in questo caso inalterato il paradigma dei mainframes.
Il personal computer
Tra la fine degli anni 60 e la fine degli anni 70, diversi governi nazionali e aziende private di vari paesi realizzarono alcuni
prototipi di personal computer, ciascuno con differenti caratteristiche. Essi non vennero però presentati come dispositivi destinati
a nuovi usi e per un pubblico di massa, ma come macchine per applicazioni per lo più professionali o scientifiche. Nel 1975 negli
Stati Uniti venne commercializzato un altro computer definito Altair 8800 e si trattava di un computer economico che aveva la
caratteristica di essere venduto smontato, per essere assemblato dall’utente finale e dunque proposto in primo luogo agli
appassionati e hobbisti di elettronica attraverso annunci su riviste specializzate. A metà degli anni 70 erano dunque ormai
disponibili le principali tecnologie che sarebbero confluite negli anni seguenti nei personal computer: dal microprocessore al
mouse, dall’interfaccia grafica a un linguaggio di programmazione dedicato a far funzionare macchine utilizzabili sulla scrivania
da singole persone. Mancava tuttavia una visione culturale del ruolo che questo strumento avrebbe potuto rivestire in ambienti
sociali differenti dalla sfera lavorativa, cioè serviva un nuovo paradigma sociotecnico che potesse sostenere la creazione e
diffusione del PC. La creazione di questo nuovo paradigma fu innescata dall’intreccio tra ambienti sociali e culturali
precedentemente distinti: gli appassionati di informatica, la controcultura hippy e gli allora nascenti movimenti politici per i
diritti civili.
Una nuova visione culturale
Nel corso del Novecento la cultura degli appassionati ha avuto un ruolo importante nello sviluppo di vari dispositivi. Tra i
principali protagonisti della costruzione del personal computer vi furono senza dubbio Steve Jobs e Steve Wozniak. I due
approcciarono il mondo dell’informatica nelle vesti di hacker, inizialmente costruendo e vendendo dispositivi chiamati blue box,
che permettevano di frodare la rete telefonica realizzando chiamate interurbane in maniera gratuita. Essi decisero di fondare una
propria impresa, chiamandola Apple, e avviarono la costruzione del primo modello di computer, Apple I, realizzato in legno,
prodotto in poco più di 200 esemplari. Le grandi industrie di computer del tempo, abituate a vendere costosi dispositivi a governi e
multinazionali, ritenevano inverosimile la possibilità di sviluppare un nuovo mercato di massa basato sulla vendita di computer
destinati alle persone comuni e da essere usati nel contesto domestico. Il dilemma dell'innovatore è la reticenza delle grandi
aziende, che hanno conseguito una posizione dominante in un determinato settore, a sostenere tecnologie che potrebbero
rivoluzionare il loro stesso mercato e così favorire l’ingresso di nuove aziende concorrenti. La storia dei media, non solo digitali, è
piena di questi atteggiamenti di rifiuto nell’adozione di nuove tecnologie, ma il dilemma dell’innovatore ha un rovescio della
medaglia. Se le grandi aziende di informatica rimasero a lungo scettiche rispetto all’idea di investire nei computer personali e
domestici, altri piccoli produttori avrebbero campo libero per conquistare questo nuovo mercato.
Il pc diventa un oggetto di consumo
Per rendere i computer più semplici, un passaggio fondamentale è lo sviluppo di software e sistemi operativi utilizzabili dalle
persone non esperte di informatica, cioè che non possedevano competenze di programmazione. Affinché il PC potesse diventare
realmente un oggetto di largo consumo occorreva una soluzione semplice e intuitiva e questa soluzione venne proposta nel 1984,
quando Apple immise sul mercato Macintosh, il primo personal computer destinato al largo consumo e controllabile attraverso
una GUI, una interfaccia grafica che permetteva di gestire, grazie all’uso del mouse, una scrivania virtuale (il desktop) e in cui era
possibile raggruppare gli archivi (i file) all’interno di cartelle in maniera semplice e intuitiva. Nella seconda metà degli anni 80 un
altro evento segnò i destini del settore dei personal computer per i decenni successivi: l’affermazione del sistema operativo
prodotto da Microsoft e chiamato Windows. Microsoft aveva deciso di focalizzarsi unicamente sulla creazione di programmi
informatici, sviluppando un approccio che già nel 1975 Gates e Allen avevano adottato per sviluppare il linguaggio base di
funzionamento per Altair 8800. Nel 1980 Gates e Allen svilupparono un primo sistema operativo per personal computer chiamato
Xenix e ad un anno di distanza dall’introduzione del primo Macintosh Apple, Microsoft introdusse la prima versione del sistema
operativo Windows. Nel 1988 iniziò a proporre un «pacchetto» contenente più software chiamato Works: c’erano il programma di
videoscrittura Word, il foglio di calcolo Excel e il programma per presentazioni Power Point. Ribattezzato in Office nel 1990 e
questo pacchetto divenne ben presto il software standard dei PC domestici e da ufficio.
La maturità
Un segnale della maturazione del settore industriale dei personal computer arrivò con la globalizzazione dell’industria
dell’hardware informatico, che dalla sua nascita era rimasta prevalentemente dislocata negli Stati Uniti e parzialmente in
Giappone. L’evento che, nel 2005, lo sancì fu l’acquisizione da parte dell’impresa cinese Lenovo della divisione hardware di IBM, la
storica azienda statunitense che era diventata sinonimo stesso di computer. Dalla metà degli anni 90 il personal computer iniziò a
entrare stabilmente nella maggioranza delle case delle famiglie occidentali. Il 1995 rappresentò un anno cruciale per la diffusione
della rete internet e così il personal computer iniziò a diventare anche la principale porta di accesso alla rete, integrandosi in modi
più articolati nelle routine quotidiane e lavorative delle persone e a partire dalla seconda metà degli anni Novanta, il personal
computer divenne un dispositivo sempre più portatile e adatto a essere trasportato fuori casa. Dai primi anni del Duemila i
portatili iniziarono a essere acquistati non solo da professionisti, ma anche da famiglie e studenti e presto superarono i computer
desktop per numero di pezzi venduti annualmente.
Verso una società di computer onnipresenti
La quarta e ultima epoca in cui abbiamo suddiviso la storia del computer è quella che stiamo vivendo e che possiamo definire dei
computer onnipresenti: una fase in cui la presenza dei computer nel contesto sociale si è indissolubilmente intrecciata con i ritmi
e l’organizzazione della vita quotidiana. Per descrivere il ruolo sociale dei computer in questa nuova fase della loro evoluzione uno
dei concetti ricorrenti è stato quello di ubiquitous computing, ovvero l’idea secondo cui i computer sono sempre più invisibili
perchè diffusi ovunque, ma al tempo stesso indispensabili a svolgere ogni attività quotidiana. Il 2001 viene rappresentato come
anno simbolico dell’inizio del declino di un vecchio paradigma dominante, incentrato sul personal computer, e dell’emergere di
una nuova tendenza all’uso di dispositivi sempre più mobili e integrati nelle attività quotidiane, una fase che maturerà solo nel
decennio successivo. In primo luogo, il 2001 fu un anno assai negativo per l’industria dei computer: per la prima volta dalla fine
degli anni Settanta le vendite ebbero una battuta d’arresto a livello mondiale. Il 2001 ha coinciso con alcuni tentativi, da parte
dell’industria informatica, di proporre ai consumatori strumenti alternativi all’oramai ordinario personal computer. Apple
contribuì a trasformare il ruolo culturale dei computer in ambito familiare non solamente grazie all’estetica dei suoi modelli, ma
anche perché propose una visione innovativa del ruolo che questi dispositivi avrebbero dovuto avere nel contesto sociale.
L’evoluzione dei computer in qualcosa di sempre più presente e integrato nelle vite quotidiane è legata anche alla diffusione dei
cosiddetti wearable devices, dispositivi «indossabili» che hanno coinciso in primo luogo con nuovi tipi di orologi da polso. Eppure,
anche a fronte di una moltiplicazione di numerosi altri dispositivi più economici, sempre più portatili e integrati nel nostro corpo,
il personal computer rimane un oggetto ancora molto presente nell’esperienza di miliardi di persone nel mondo, mantenendo un
proprio ruolo all’interno dei contesti lavorativi, ma anche di vite quotidiane sempre più integrate con i flussi della comunicazione
digitale.

INTERNET
Negli anni 50 del 900 ci fu la creazione di alcune reti di computer, la più nota delle quali fu il progetto statunitense ARPANET. Da
un punto di vista tecnologico, internet è una rete che mette assieme diverse tecnologie e in particolare telecomunicazioni e
computer. Essa è, dunque, una rete che collega a livello planetario milioni di altri piccoli network. L’infrastruttura tecnica alla base
deriva in parte da tratti di vecchie reti di telecomunicazione (in particolare quelle telefoniche), e in parte è stata creata ex novo
con fibre ottiche, cavi sottomarini e tecnologie wireless. Internet è però anche una rete di oggetti digitali che, sebbene siano anche
in questo caso molto diversi tra loro, possono interagire senza troppi problemi di compatibilità proprio grazie all’esistenza di
questa rete. Internet è costituita non solo di reti ma anche di enormi centri server fisici e tuttavia, è più di un’infrastruttura
poiché rappresenta anche un oggetto politico e un insieme di molteplici significati culturali. Vari governi mondiali hanno
interpretato la rete come una risorsa cruciale sia per sviluppare nuove forme di democrazia, sia per controllare i cittadini, sia
come nuovo spazio di interscambio. Internet è, infatti, anche un medium commerciale e finanziario, uno spazio sociale in cui si
vivono esperienze personali e si cercano contenuti informativi e di intrattenimento. James Curran ha diviso l’evoluzione di
internet in 5 ERE, ciascuna delle quali è caratterizzata da tensioni tra diversi attori sociali. La schematizzazione di Curran presenta
alcuni limiti: in primo luogo, si basa in larga parte sulla storia statunitense di internet e in secondo luogo, la ricostruzione di
Curran non tiene sufficientemente conto dello sviluppo della rete negli ultimi anni. Queste influenze formative della storia di
internet sono:
1. L'influenza militare → nell'ottobre 1957, in piena guerra fredda, l'URSS lanciò in orbita il primo satellite artificiale per
scopi militari. Lo Sputnik 1 rivelò un grande avanzamento tecnologico del blocco sovietico, per questo il presidente
americano Eisenhower creò a febbraio 1958 l'agenzia del Dipartimento della Difesa, detta ARPA, con lo scopo di
finanziare ricerche scientifiche in ambito tecnologico che erano rivolte allo spazio extraterrestre. La prima idea fu quella
di sviluppare una rete di satelliti per le telecomunicazioni ma presto venne creata la NASA, e l'ARPA trovò alcuni campi
di applicazione. Licklider ideò un progetto che venne ribattezzato come ARPANET, fu approvato nel 1963 e si basava
sulla possibilità di connettere un numero ridotto di computer dell'agenzia e di altri centri di ricerca che avrebbe
permesso ai ricercatori di comunicare e condividere informazioni, accrescendo la produttività del lavoro scientifico. Nel
1968 nasce la commutazione a pacchetto, un modo per trasferire informazioni in maniera sezionata, garantendo al
messaggio di arrivare a destinazione anche in caso di attacco militare o collasso della rete.
2. L'influenza accademico-scientifica → un concetto chiave per i militari ma adottato nel contesto accademico è quello di
flessibilità, in termini di integrare reti e computer diversi e, per quanto riguarda, la possibilità di modificare la struttura
di rete stessa. Negli anni 60 Cerf e Kahn misero a punto un protocollo a due componenti su cui ancora oggi si basa il
funzionamento della rete, chiamato TCP/IP. La parte del protocollo TCP ( → Transmission Control Protocol) si occupa di
gestire i flussi di informazione tra due nodi della stessa rete. La parte del protocollo IP ( → Internet Protocol) permette di
reindirizzare i dati al computer/utente che ne ha fatto richiesta assegnando a ogni terminale in rete un nome univoco.
Grazie a questi due elementi, fu possibile unire in un unico ambiente comunicativo reti e computer diversi,
implementando il network centrifuga. Dei momenti di crisi tra ambienti militari (che avevano l'autorità e i fondi per
realizzare la rete) e accademici (che avrebbero dovuto usare la rete creata dai militari) si ebbero con standard di
sicurezza e gli usi che si immaginavano per la rete. Il principale esempio è quello che riguarda l'uso della posta
elettronica, introdotta nel 1977. Le e-mail avrebbero dovuto favorire l'avanzamento della ricerca scientifica, ma da
subito andarono oltre la comunicazione accademico-scientifica.
3. L'influenza controculturale → a partire dagli anni 70, crebbe la comunità dei bricoleurs, cioè attivisti politici, studenti,
hacker o semplici amatori che influenzarono l'evoluzione culturale della rete. Prese forma l'idea del computer come
macchina domestica (→ homecomputing). Gli ambienti controculturali avevano l'idea della rete telefonica come via per
scambiare dati, un'idea più democratica e capillare presente in molte case americane. Internet qui passa dall'essere un
progetto militare-scientifico ad incarnare una comunità sociale in cui il pc era visto come una sorta di televisore e le
informazioni in rete erano un passatempo. In questa fase ci fu anche una nuova struttura di internet: non è più grandi
centri costruiti appositamente ma sfruttamento della rete telefonica già presente sul territorio e in ogni casa. Un'idea
alternativa ad ARPANET fu la rete francese Minitel, una rete in grado di mettere in comunicazione computer
disomogenei tra loro: era costituita da una rete di terminali video tutti uguali tra loro, collegati attraverso una rete
telefonica, sfruttando quindi quella già estesa e usata. Il successo di Minitel si deve al fatto che venne supportata dal
Ministero delle Poste Francese, dimostrazione che la fortuna dei media dipende anche dalla political economy nazionale,
e alla sua semplicità d'uso: le due maggiori rivoluzioni furono l'elenco telefonico (utente poteva trovare facilmente un
numero di telefono) e le messaggerie (strutturate come chat).
4. L'influenza di servizio pubblico → tra gli anni 80 e 90 del 900, proviene dall'Europa e si esplicita in due modi: inquadrare
il nuovo medium nella lunga tradizione delle telecomunicazioni otto-novecentesche e immaginare modalità per
permettere l'accesso gratuito a informazioni attraverso internet. Vari progetti europei degli anni 80 erano nazionali,
quindi la rete si sviluppava in un solo paese senza interesse per i collegamenti internazionali. All'interno del CERN di
Ginevra, Berners-Lee e Cailliau ebbero l'idea del world wide web, cioè trasformare una parte della rete internet in uno
spazio di consultazione e scambio di informazioni e documenti. La navigazione delle pagine avviene tramite browser,
cioè programmi che permettevano ad utenti inesperti dell'architettura di rete di trovare facilmente le informazioni
ricercate. Il primo browser fu Netscape Navigator (1994), seguito dalla versione di Microsoft Internet Explorer. Secondo
Musiani e Schafer con il www iniziò un processo di broadcastizzazione della rete, cioè una trasformazione delle modalità
d'accesso ai contenuti da una logica punto-a-punto ad un'altra uno-a-molti o molti-a-molti.
5. L'influenza commerciale → alla fine degli anni 90 e inizio del 2000, la crescente influenza degli interessi commerciali
sembrò avere una ricaduta positiva. Furono le aziende private a sostenere e promuovere l'adozione di interfacce,
browser e motori di ricerca user-friendly per favorire una definitiva polarizzazione della rete grazie alla sua semplicità
d'uso. Internet parve come una fonte di ricavi, la commercializzazione della rete poteva mettere a disposizione degli
utenti possibilità di confrontare prodotti di diverse aziende. Gates teorizzò la nascita di un nuovo capitalismo senza
frizioni dove domanda ed offerta potevano incontrarsi naturalmente. Gli interessi commerciali contribuirono a
popolarizzare il web e la rete internet.
6. L'influenza sociale → nel 2004 nasce Facebook e venne coniato il web 2.0. L'espressione venne inventata da O'Reilly e
intende una fase nuova di internet che si propone di recuperare e attualizzare alcuni concetti delle origini, si propone un
ritorno ai valori tradizionali della rete come quelli di collaborazione, co-creazione e connessione tra esseri umani. La
fase sociale del web 2.0 è quella dell'utente attivo, partecipante, creatore di contenuti, chiamati user generated content
(ugc). Per indicare il nuovo utente digitale che è sia producer che consumer, si utilizza il termine prosumer (Toffler,
1980). Si deve valutare anche il grado di partecipazione degli utenti: Nielsen riflette sulla participation inequality
secondo cui durante la diffusione del web 2.0, il 90% degli utenti fruiva i contenuti web passivamente, il 9% partecipava
moderatamente e solo l'1% era coinvolto in maniera intensiva.
Negli anni 90 del 900 e nei primi anni del 2000, internet era considerata un regno di assoluta libertà: il cyberspazio si
contrapponeva allo spazio fisico e reale perchè permetteva agli utenti della rete di esprimersi e fare ciò che loro desideravano e
non potevano fare nella realtà. In un panorama in cui sempre più paesi e culture possono accedere ad internet, la tendenza
oligopolista sta portando ad un numero ristretto di aziende quasi tutte americane a dominare gli spazi e il traffico dell'intera rete.
Amazon e Google sono due delle aziende più simboliche dell'era digitale contemporanea, ma uno dei più significativi cambiamenti
nel secondo decennio del 2000 riguarda la lente e costante asianizzazione, cioè crescita di siti, utenti ed aziende cinesi. Inoltre,
negli ultimi anni è emerso il modello Brics (Brasile, Russia, Cina, Sudafrica) con l'intento di contrapporsi al dominio digitale
statunitense. Nasce anche la guerra fredda digitale (o Internet Yalta) per il controllo e la governance globale della rete, tra USA e
Cina/Russia e tra organizzazioni internazionali. Per quanto riguarda la previsione più probabile sulla prossima era, si pensa ad una
Platform Society in cui i flussi di traffico sociale ed economico sono sempre più spesso convogliati da un ecosistema globale di
piattaforme online guidato da algoritmi e alimentato da dati. Oggi la maggior parte degli scambi di informazioni in rete avviene
tra macchine e non tra umani, è l'internet of things, dove oggetti o bot si scambiano informazioni utili al loro funzionamento.

IL TELEFONO MOBILE
Il telefono cellulare è stato oggetto di ricerche e riflessioni che ne hanno valutato l'impatto sulle società e sulle culture. Il mobile
può rimescolare lo spazio pubblico e privato, ha fatto crollare la rigida distinzione tra tempo dedicato al lavoro e al divertimento,
permettendo di essere sempre connessi. Due concetti emersi sono:
1. privatizzazione mobile (Williams) → il broadcasting della radiotelevisione è riuscito a creare nelle persone il desiderio di
viaggiare e muoversi, e trasformare la loro casa in un centro autosufficiente di consumo. Questa possibilità di “viaggiare
e conoscere luoghi e persone” restando a casa, vale anche per la rete internet che permette di entrare in mondi virtuali.
2. Mobilità privatizzata (Spigel) → espressione usata per descrivere la diffusione della televisione portatile, con cui le
persone potevano portare la sfera privata nella pubblica.
Questi due concetti, abbinati all'uso dello smartphone, hanno portato alla creazione di piattaforme online di autorappresentazione
(es.social network) che obbligano a gestire la propria immagine visibile agli altri, continuamente modificabile → nuova
privatizzazione mobile.
La fortuna e la velocità di penetrazione sociale del mobile non si spiega senza la presenza della telefonia fissa. Bell brevettò il
telefono nel 1876, non era mai stato preceduto un mezzo di comunicazione interpersonale che permettesse il trasporto della voce
a distanza e per questo inizialmente l'uso risultò difficoltoso. Telefono e telefonino hanno seguito processi d'adozione simili,
passando dall'essere considerati strumenti seri per svolgere la propria professione e per risolvere situazioni d'emergenza a mezzi
utili per mantenere legami sociali attraverso le chiacchiere. Hanno suscitato preoccupazioni affini per l'incolumità fisica degli
utenti. I media digitali possono essere interpretati come una forma sia di cesura/rivoluzione sia di continuità rispetto ai media
analogici e alle tecnologie di comunicazione precedenti. Il telefono da un lato è il mezzo digitale che ha permesso una sorta di
mondializzazione e democratizzazione delle comunicazioni; dall’altro, rappresenta l’erede più diretto di due tecnologie elettro-
meccaniche nate alla fine dell’Ottocento: il telefono (fisso) e il telegrafo/telefono senza fili. Già nel primo decennio del Novecento,
accanto al telegrafo venne sperimentato anche il telefono senza fili (detto anche radiotelefono). La telefonia mobile di fine
Novecento è un’erede diretta del radiotelefono d’inizio secolo e parte dalla stessa idea: trasmettere messaggi (vocali o in seguito
anche testuali anche se non in Morse) senza ausilio di cavi, da persona a persona, in movimento.
2. seconda nascita: il ritardo americano, la frammentazione europea → questa fase si avvia alla fine degli anni 70 del 900,
quando vennero gettate le basi per la sua diffusione e si realizzarono le prime reti aperte al pubblico. Dal punto di vista
tecnico venne applicata al campo telefonico un’idea presentata da un ingegnere e riguardava il dividere il territorio in
varie celle all’interno delle quali i telefoni comunicavano con una stazione di base. Furono però gli anni Ottanta quelli in
cui la telefonia mobile cominciò realmente a diffondersi, inizialmente nei paesi ricchi e tra le fasce più abbienti della
popolazione. L’elemento più interessante della storia della telefonia mobile europea negli anni Ottanta è però
rappresentato dalla frammentazione e dall’incompatibilità delle reti, in questo decennio, infatti, i vari governi nazionali
implementarono ben nove sistemi telefonici, tutti analogici e tutti con standard diversi tra loro. Un gruppo di esperti
elaborò il principio del roaming, un’idea alternativa alle politiche telefoniche «isolazionistiche» adottate da altri paesi
europei, che permetteva ai telefoni mobili di funzionare.
3. Primo boom: gsm, digitalizzazione ed esplosione della telefonia mobile → definita da JonAgar come il «miracolo
burocratico» europeo, realizzatosi a partire dal dicembre 1992. Sono almeno 3 le ragioni che spinsero all’adozione di un
sistema comune a livello europeo: -Una prima ragione è di natura politico-economica: l’idea cioè che il GSM potesse
rappresentare un volano per un’ulteriore integrazione europea; -Una seconda ragione è strettamente economica, poiché
alcune grandi aziende telefoniche europee esercitarono forme di pressione per l’adozione di uno standard unico perché
capirono che, grazie a questo, sarebbero potute diventare leader nel mercato globale del settore; -La terza e ultima
ragione è legata ai vantaggi socio-tecnici apportati dal GSM, cioè gli utenti potevano passare da una rete nazionale
all’altra senza problemi (roaming); le frequenze e i segnali telefonici vennero razionalizzati e qualitativamente
migliorati; il GSM permise anche l’introduzione della SIM Card, grazie alla quale i dati dell’abbonato venivano raccolti e
identificati indipendentemente dal terminale usato. IL 2G era uno standard integralmente digitale e venne
implementato per la prima volta, in associazione proprio con il GSM, dalla compagnia telefonica finlandese Nokia nel
1991. Nel 1996 era già utilizzato a livello mondiale. GLI SMS: viene introdotta la dimensione scritta. L’idea di utilizzare
brevi messaggi di testo cominciò a circolare tra i tecnici della telefonia mobile già nei primissimi anni 90. Una prima
ipotesi prevedeva che le aziende telefoniche inviassero comunicazioni speciali ai propri abbonati, avvertendoli, ad
esempio, delle condizioni di funzionamento delle linee e degli apparati. Una seconda opzione prevedeva di utilizzare gli
SMS in maniera simile a quanto si faceva coi pagers: un utente che stava cercando un abbonato avrebbe infatti potuto
richiedere a un centralino di avvertirlo tramite un messaggio. Gli operatori mobili non riuscirono però a individuare né
un modello di business promettente, né una tariffazione adeguata al servizio. Furono invece gli utenti a «inventare» un
utilizzo inedito del nuovo servizio: essi cominciarono infatti a sfruttare questo canale scambiandosi brevi messaggi tra
abbonato e abbonato, senza l’intervento dei centralini.
4. Secondo boom: internet mobile e smartphone come nuovi paradigmi → all’inizio del nuovo millennio prese piede quella
che è considerata come la più significativa rivoluzione della telefonia mobile, rappresentata dal 3G e dalla possibilità di
navigare in internet attraverso i terminali mobili. Era il giugno del 1997 quando Ericsson, Motorola, Nokia e Unwired
Planet si associarono per creare lo standard WAP e permettere così agli utenti di telefonia cellulare di accedere a
contenuti e servizi online attraverso i propri dispositivi mobili. Le aziende che lanciarono il WAP erano convinte che
questo standard avrebbe ripetuto il successo del GSM, ma è invece oggi ricordato come un caso esemplare di fallimento
tecnologico per: 1) la limitatezza dei servizi cui si poteva accedere; 2) la scarsa attenzione per l’usabilità dei telefoni che
avrebbero dovuto navigare in rete; 3) le aziende avevano immaginato i nuovi dispositivi come adattamenti dei telefoni
tradizionali, mentre sarebbe stato necessario un nuovo oggetto creato specificamente per navigare in rete; 4) la
navigazione tramite pc stava diventando più ricca e sotto alcuni punti di vista più povera perché non attirava i clienti.
Telefonia mobile e internet hanno iniziato a convergere in maniera massiccia solo intorno al 2005 quando si arrivò, nella
maggioranza dei paesi economicamente sviluppati, a un’infrastruttura tecnologica che poteva sostenere lo scambio di
grandi quantità di dati e dove il web era ormai diventato un fenomeno di massa, fondamentale per la vita quotidiana di
miliardi di persone e l’uso di internet in mobile venne promosso dalla diffusione di nuovi dispositivi, i cosiddetti
smartphone.
La globalizzazione
La telefonia mobile è il mezzo di comunicazione di maggior successo nell’intera storia dei media digitali o analogici. La fortuna del
mobile si deve probabilmente alla sua capacità di risolvere alcuni limiti e problemi delle precedenti comunicazioni a distanza e le
ragioni del suo successo sono varie, come: un minor costo per l’accesso degli utenti, la facilità d’uso. L’adozione dei media digitali
non coincide strettamente con il progresso sociale, ma prende forma in un contesto fatto di contraddizioni e ambiguità tipiche dei
processi di modernizzazione e di globalizzazione e da un altro lato, il telefono cellulare sembra riorganizzare anziché
rivoluzionare le gerarchie di potere, le relazioni di genere e le reti sociali. Il 5g: potrebbe costituire l’avvio di un nuovo paradigma
della comunicazione mobile, è in grado di gestire la cosiddetta «internet delle cose», una potenziale nuova fase della storia della in
cui la maggior parte dei futuri flussi di comunicazione mobile non sarà tra umani, ma tra macchine o tra dispositivi digitali. Tra le
mitologie legate al 5G non figurano però solamente le speranze a volte utopiche di progresso sociale e tecnologico, ma sempre di
più questa nuova tecnologia è al centro di teorie cospirazioniste, che vedono questo standard come un pericolo per la salute
pubblica. Molte delle predizioni sul futuro digitale, infatti, vedono ancora al centro il paradigma dello smartphone e chissà che
non sia proprio questa la prima sorpresa di un nuovo potenziale paradigma: il declino del telefono mobile come mezzo centrale
della digitalizzazione nei prossimi decenni e l’ascesa di altri dispositivi o forme di comunicazione alternative.

LA DIGITALIZZAZIONE DEI MEDIA ANALOGICI


L’enfasi sul fenomeno dell’intermedialità, ovvero l’intrecciarsi tra loro di media precedentemente distinti, ci permette di
sottolineare che dispositivi, mercati, estetiche, pratiche d’uso dei media precedentemente differenziati in base a specifici settori,
con la digitalizzazione hanno invece iniziato a intrecciarsi tra loro in modo sempre più strutturale. I singoli media che abbiamo
ereditato dall’era analogica sono evoluti in direzione di un ambiente mediale digitale sempre più integrato e intrecciato, sebbene
stratificato e altamente differenziato al proprio interno. Il processo di digitalizzazione non consiste tanto in un lavoro di
traduzione tecnologica dall’analogico al digitale, ma ha rappresentato piuttosto l’occasione per un rimescolamento dei confini
tecnici, sociali e culturali che caratterizzavano i media analogici tradizionali.
La musica: compact disc, mp3 e streaming online
L’industria musicale è stato il settore, tra i media tradizionali, che ha sperimentato per primo e in modo più rapido e profondo le
conseguenze del processo di digitalizzazione. Il consumo di musica si è spostato dai tradizionali supporti fisici a quelli «liquidi» in
modo veramente molto rapido, diventando così uno dei casi in cui la digitalizzazione ha generato cambiamenti particolarmente
repentini rispetto alle abitudini degli ascoltatori e agli assetti industriali del settore. La digitalizzazione di questo settore inizia
almeno nei tardi anni Settanta. Fu infatti nel 1979 che venne presentato il primo lettore di compact disc, un riproduttore musicale
basato sull’uso della tecnologia laser, capace di leggere un disco ottico contenente un segnale audio codificato proprio in formato
digitale. Tuttavia, questo modello entrò in crisi a partire dall’affermarsi di un nuovo paradigma di circolazione della musica,
anch’esso basato sul digitale. Questo nuovo paradigma era basato su tre particolari elementi innovativi: 1) il formato digitale
compresso MP3; 2) i sistemi di scambio di musica basati sul modello peer-to-peer; e 3) i dispositivi portatili per ascoltare la musica
e in particolare iPod. L’MP3 fu l’esito di un complesso lavoro di negoziazione che coinvolse settori per lo più estranei alla
produzione e al commercio della musica, e in particolare il broadcasting audio e l’industria informatica. Un altro elemento
cruciale nella trasformazione della circolazione musicale fu la diffusione dei sistemi di file sharing, basati sul modello di scambio
peer-to-peer («tra pari»). Infatti, a partire dal 1999 il destino del formato MP3 mutò radicalmente proprio grazie a queste nuove
infrastrutture di scambio. Il terzo elemento che contribuì in modo determinante alla diffusione della musica digitale in MP3 fu il
successo dei dispositivi portatili per ascoltare canzoni con questo formato e in particolare del lettore iPod, introdotto nell’inverno
del 2001 da Apple. Nel 2003 fu ancora Apple a prendere l’iniziativa, creando iTunes Store, una piattaforma digitale che metteva a
disposizione dei suoi utenti un catalogo di musica da acquistare in formato MP3 e che aveva l’obiettivo principale di aiutare le
vendite del lettore iPod. Nel primo decennio del Duemila la via preferenziale con cui un consumatore poteva acquistare una
canzone o un intero album era scaricare la musica in formato MP3 attraverso un negozio virtuale come iTunes Store di Apple. Un
secondo modello di circolazione e ascolto della musica digitale era (ed è) basato sui software di file sharing e delle infrastrutture
peer-to-peer, che costituiscono la diretta evoluzione di Napster. Il terzo modello è esemplificato da YouTube, la piattaforma nata
nel 2005 che rende disponibili video musicali sia caricati dagli utenti, sia messi a disposizione dagli stessi artisti o dalle case
discografiche, spesso associati a un breve spot pubblicitario. Il quarto e più recente modello di distribuzione e consumo di file
musicali digitalizzati è quello incentrato sullo streaming musicale e rappresentato da piattaforme come Spotify, Apple Music o
Amazon Music. Il modello di consumo in streaming rappresenta oggigiorno la modalità più diffusa di ascolto musicale, per lo meno
nei paesi in cui si è rapidamente affermata un’economia basata sulle piattaforme digitali.
La stampa
La stampa costituisce uno dei settori mediali più longevi e relativamente stabili nel corso degli oltre cinque secoli della propria
storia. Prima il libro e poi i periodici e quotidiani hanno rappresentato un riferimento costante nel panorama dei media, giocando
un ruolo centrale. La digitalizzazione ha avuto un impatto anche sulle pratiche legate alla stampa: prima con la creazione di nuove
modalità per la scrittura e la redazione di testi e poi, in una seconda fase, con la diffusione di dispositivi, piattaforme e testi
digitalizzati. Possiamo individuare 4 fasi nell’evoluzione del processo di digitalizzazione del medium della stampa: 1) la prima tra
gli anni 60 e la fine degli anni 70 del 900 ha coinciso con la diffusione in contesti professionali di computer in grado di gestire il
lavoro di scrittura e di immagazzinamento dei testi; 2) la seconda dalla fine degli anni 70 agli inizi degli anni 90 in cui i programmi
di videoscrittura (oword processing), grazie alla popolarità dei personal computer, attrassero un numero crescente di utilizzatori
non professionali; 3) la terza agli inizi degli anni 90 fino alla seconda metà del primo decennio del 2000 si è invece caratterizzata
per l’integrazione tra scrittura e lettura e la rete internet; 4) la quarta dal 2005 circa si avvia in una nuova fase ancora in
evoluzione che si contraddistingue per il tentativo di superare per alcuni utilizzi la carta stampata come principale supporto di
lettura e di sostituirla con dispositivi digitali quali tablet, ebook e smartphone.

LA DIGITALIZZAZIONE COME MITOLOGIA CONTEMPORANEA


In questo capitolo tratteremo la dimensione mitologica del mondo digitale poiché nel processo eterogeneo di evoluzione delle
tecnologie mediali gli elementi che possiamo ascrivere alla sfera della cultura,ai singoli, e alle narrazioni hanno rivestito un ruolo
certamente cruciale. il termine mito può avere diversi significati - narrazione simbolica di carattere sacrale per fornire una
spiegazione ai fenomeni naturali - idealizzare un evento una figura storica una persona - concetto o idea che non corrisponde alla
realtà Gli eroi del digitale comprendono i padri fondatori ricercatori, imprenditori, politici, hacker eccetera, ma anche dispositivi e
infrastrutture tecnologiche come il computer eniac lo Smartphone iPhone o l'algoritmo di Google. possono essere definiti anche
alcune cornici interpretative attraverso le quali sono stati descritti i meccanismi di mercato, le sfide tecnologiche e la diffusione di
nuovi dispositivi nel contesto della società digitale. Una delle figure più importanti e sicuramente Apple che ha fatto la rivoluzione
Nel mondo digitale. Molto importante anche il concetto di egemonia culturale di Gramsci ovvero l'idea per cui gruppi o classi
sociali esercitano forme di dominio su una società anche attraverso l'affermazione del proprio Universo culturale di riferimento
fino a spingere gli altri a interiorizzarlo e a farlo proprio. I miti delle società contemporanee non sono grandiosi e impossibili ma
più semplici e quotidiani I 3 MITI 1. Digitalizzazione come una forza irresistibile, questo concetto è stato alimentato soprattutto
dalla sfera politico economica. da una parte ha fatto fare un balzo in avanti all'umanità dall'altra però al contrario è un'arma
efficace per controllare le spinte di libertà e democratizzazione . entrambe condividono il concetto che le tecnologie digitali se nel
grado di modificare le forme delle strutture e le logiche di potere esistenti. questa convinzione sottintende anche l'idea che essa
sia destinata a sostituire del tutto i miei analogici. la digitalizzazione non ha creato l'universo immaginario è virtuale ma
semplicemente ha creato distribuito materiali che sono oggi incorporati nella vita di tutti. 2. digitalizzazione come una livella
globale si pensa quindi che abbia avuto un impatto uniformante in tutto il mondo e grazie media digitali tutti Siamo sullo stesso
livello ma non è così perché mi hai già sono diffusi in varie aree del globo e sono stati gestiti in maniera diversa la digitalizzazione
quindi non funge da livella globale 3. digitalizzazione come una forza rivoluzionaria si pensa che la digitalizzazione abbia portato
alla rottura rispetto all'universo comunicativo precedente. Continuità tra Universo analogico e digitale sono molteplici ed è per
questo che non si può pensare che ci sia una netta divisione tra di esse. i principali media digitali sono nati in forma analogica In
molti casi l'analogico non è stato spazzato via dal digitale Ma continua a convivere con esso.

Potrebbero piacerti anche