Sei sulla pagina 1di 24

Culture Digitali

Matteo Cremonesi
Perez Federica

Lezione 0: Introduzione

Esame:

Esame orale sul libro della bibliografia obbligatoria e sul materiale fornito e discusso durante le
lezioni.

Bibliografia obbligatoria:
AI & Conflicts. Volume 1, D’Abbraccio, Facchetti, Krisis Publishing, Brescia 2021

Inoltre è richiesto di scegliere e studiare uno dei libri della bibliografia generale per poi esporlo
tramite presentazione orale di fronte al resto della classe. (-> Una settimana prima dell’orale)

Bibliografia generale:
Universi sintetici. Come le comunità online stanno cambiando la società e l’economia, Edward
Castronova, Mondadori, 2005

Criteri di valutazione orale:

● Chiarezza
- Chiarezza degli obiettivi
- Chiarezza nella struttura del discorso
- Chiarezza nell’esposizione dei concetti fondamentali proposti

● Completezza
- Presentazione di tutti i temi centrali presenti nel testo

● Efficacia
- Tono e ritmo della prenotazione
- Scelta e adeguatezza di strumenti e supporti alla presentazione: immagini, video,
slide di testo, contenuti multimediali, ecc.

Temi e argomenti

> Cibernetica e teoria dell’informazione


> Visioni tecnologiche
> Fantascienza e cyberpunk
> Uomo-Macchina: automa, cyborg, posthuman
> Singolarità tecnologia e transumanesimo
> Intelligenza artificiale - machine learning
> Cultura hacker
> Open Source / copyright - copyleft / riproduzione digitale
> Realtà Virtuali
08/03/22
Nascita della cibernetica

Norbert Wiener (1894 - 1964)


E’ stato un matematico e statistico statunitense, professore
di matematica presso l’ MIT, è famoso per il contributo dato
allo sviluppo della teoria dell’informazione e per essere il
padre riconosciuto della cibernetica.

Dagli studi di Wiener nacque la cibernetica, scienza di


orientamento interdisciplinare che si occupa del controllo
automatico dei macchinari mediante il computer e altri
strumenti elettronici, ma anche dello studio del cervello
umano, del sistema nervoso e del rapporto tra i due sistemi,
artificiale e biologico, di comunicazione e di controllo.

Norbert Wiener, che ha coniato il termine stesso, descrive la cibernetica come la


scienza del controllo e della comunicazione negli animali e nella macchine
(Wiener, 1948).
In greco, kybernetes significa pilota, timoniere, e la cibernetica è la teoria del
controllo del comportamento di macchine, di organismi e organizzazioni
attraverso l’uso del feedback.

La cibernetica si basa non sull’essere ma sul comportamento: non pone la


domanda “cosa è questa cosa?” quanto invece “cosa fa questa cosa?”. O meglio
ancora “come possiamo creare una cosa che faccia questo?”.

Ciò di cui si occupa la cibernetica è l’indagine e studio scientifico di tutti i


processi sistemici orientati verso uno scopo, inclusi fenomeni come la
regolazione, l’elaborazione delle informazioni, l’archiviazione delle informazioni,
l’adattamento, l’auto-organizzazione, l’auto-riproduzione.
La cibernetica affronta ogni forma di comportamento regolata, determinata o
riproducibile.
Perciò, alle sue origini la cibernetica nasce come scienza dei sistemi
auto-regolati attraverso feedback e orientati e programmati per il
raggiungimento di un preciso obiettivo.

Il punto di partenza furono per Wiener i lavori sul sistema di puntamento


automatico delle artiglierie antiaeree e sui sistemi di comunicazione. Macchine
utili a questo scopo avrebbero dovuto, secondo Wiener, essere capaci di imparare
dalle proprie operazioni e dai propri risultati passati, così come la mente
umana impara dalle proprie esperienze per migliorare le proprie performance
future e per prevenire la possibilità di ripetere lo stesso tipo di errori in cui si è già
incappati una volta.
Cyberpunk e cibernetica

Con la cibernetica nasce l’idea che il nostri cervelli siano hardware


organici (la nostra intelligenza e le nostre abilità cognitive, la
nostra personalità siano i programmi che fanno funzionare il
nostro hardware/corpo) e questa ha dato vita alla fantasia di
trasferire la personalità umana al di fuori del suo corpo e
all’interno di altri media.

Lo sviluppo più famoso di questa fantasia si può trovare nella


trilogia cyberpunk di William Gibson, composta da
Neuromancer, Count Zero e Mona Lisa Overdrive. Iniziata nel
1984, la trilogia propone l’idea di connettere il cervello umano al Net.
Nel momento in cui gli elettroni di un computer connesso alla rete Internet
vengono connessi direttamente con il cervello umano, la mente può viaggiare nel
mondo tridimensionale e informazionale del cyberspazio.

Come sottolineano Winograd e Flores (Understanding Computers and Cognition:


a new foundation for design, 1987), la cibernetica sviluppata negli anni ‘80
prevedeva di ottenere robot intelligenti in grado di svolgere compiti umani e
sociali.
Il corpo era considerato una macchina in cui il cervello funzionava secondo una
programmazione algoritmica. Il computer moderno era un essere
perfettamente razionale.

La principale preoccupazione di Wiener, espressa più volte nel suo


testo, riguarda esattamente le possibili implicazioni negative se
non catastrofiche che lo sviluppo e l’utilizzo delle macchine
cibernetiche avrebbero potuto produrre sull’uomo e in particolare
sulla sua condizione nella società contemporanea e futura.
L’applicazione industriale massiccia dei risultati della scienza ha
talmente aumentato – soprattutto nell’ultimo secolo – la capacità
produttiva degli uomini, da dare loro per la prima volta la
possibilità tecnica di liberarsi dalla scarsità dei beni e
dall’oppressione del lavoro necessario a ottenerli. Tuttavia questa possibilità
resta fondamentalmente dipendente, per la sua realizzazione, della capacità
degli uomini di organizzarsi socialmente e in modo da non distorcere la
potenza di cui dispongono a fini distruttivi e di non capovolgere il rapporto tra
umanità e suoi strumenti.

Una delle più divertenti e sarcastiche critiche a questa idea


del rapporto esistenziale tra Intelligenza Artificiale e il mondo
umano è probabilmente la Guida galattica per autostoppisti
scritta da Douglas Adams nel 1979.
Dopo sette milioni e mezzo di anni passati a calcolare “la
risposta alla domanda fondamentale sulla vita, l’universo e
tutto quanto” il super computer appositamente costruito e
chiamato Pensiero Profondo giunge ad una risposta che svela
in realtà i limiti del computer nella capacità di comprensione
di un quesito come quello.
Nello stesso testo il super-robot depresso Marvin si relaziona in modo sarcastico
con le irreali aspettative tecno-ottimiste, mostrando alcune delle assurde
conseguenze che le emozioni avrebbero potuto causare nei robot. Marvin infatti
può causare la rottura definitiva di qualsiasi sistema di controllo cibernetico al solo
connettersi con esso e condividendo con quello la sua visione malinconica del
mondo.

Il paragone con la mente umana e il suo funzionamento resta comunque uno dei
riferimenti principali per ogni studioso della materia. Bateson – sociologo,
antropologo e psicologo britannico – sostiene che il sistema cibernetico
elementare compreso dei suoi circuiti e dei messaggi è, di fatto, l’unità più
semplice della mente.
La mente diventa quindi sinonimo di sistema cibernetico completo di una
unità capace di auto-governo in grado di produrre e processare informazioni.

14/03/22
Automi + Robot (3 leggi robotica)

Automi
Per capire il rapporto che c’è tra l’uomo e la macchina, bisogna partire
da antecedenti, come la figura del fabbro celeste. Il fabbro celeste è
una sorta di artigiano che poteva creare/modellare esseri
umani/viventi. Efesto, figlio di Zeus e Era si dice fabbricasse vergini
semoventi e tripodi animati d’oro per i banchetti degli dei.
Nella mitologia greca troviamo Talos, essere metallico colossale e
prestante che è ricollegato ad altri esseri artificiali che custodivano il
santuario di Zeus (un cane d’oro ed altri).

Più avanti arriviamo nel Medioevo dove l’uomo meccanico è


ben rappresentato dalle statue semoventi del basso
medioevo: giganti di metallo o bronzo che scandivano il
tempo. Sculture antropomorfe, figure centrali nella vita della
città del basso Medioevo, ancora molto intrisa di una
dimensione religiosa.

Successivamente arriviamo all’illuminismo (1700 circa), dove emerge la figura


dell’automa: si celebra il trionfo della tecnica e la sua promozione ad attività
umana.
Automa teorico/mentale, statua che viene teorizzata e descritta da Etienne de
Condillac nel suo Trattato delle sensazioni.

Con l’illuminismo si inizia a dare valore a questo tipo di ricerche e si inizia a vedere
il mondo stesso come se fosse una macchina(es. cervello - macchina). Tutto
l’universo è un grande meccanismo regolato dalle leggi di Newton. Sarà
compito dell’uomo conoscere queste regole, applicarle e dare impulso a un nuovo
sviluppo lineare.

In questo clima culturale troviamo la fioritura degli automi nel 18esimo secolo.
L’assimilazione dell’uomo alla macchina esigeva di essere verificata, tradotta nella
pratica: l’eccellenza della tecnica doveva permettere la costruzione di macchine
che simulassero alcune funzioni umane come i movimenti, o la voce. Per la
prima volta i costruttori di automi non sono figure solo eccentriche, ma
personaggi stabilmente inseriti nel panorama e nelle attività tecniche della
loro epoca.
Uno degli studiosi più rilevanti è Jacques Vaucanson che inseguì
per tutta la vita il sogno di realizzare un uomo artificiale, aka un
robot, in grado di replicare tutte le capacità fisiche e fisiologiche
dell'uomo. Cominciò a studiare e utilizzare un nuovo materiale: il
caucciù. Vaucanson costruì tre automi meravigliosi: un flautista
capace di eseguire delle arie su un flauto traverso, un tamburino
e la famosissima anatra, che imitava alla perfezione tutti i
movimenti dell’animale, compresa la masticazione del cibo e la
deiezione dei rifiuti.

A questa mentalità si oppone il Romanticismo, in quanto non piaceva l’idea di


replicare meccanicamente gli esseri umani e venne visto come una sfida
all’ordine naturale e al divino.

Il 900 è il secolo che dà avvio alla tendenza che continuiamo a


vivere al giorno d’oggi. Una delle prime fasi più importanti sono gli
anni ‘20.
Nel 1921 venne utilizzata su un palcoscenico di Praga per la prima
volta la parola robot(sfacchinata) da Karel Capek, autore ceco che
parla di R.U.R., acronimo di “Rossum’s Universal Robots”.
Arrivò prima il concetto di robot dell'effettiva macchina a partire
dal mondo delle arti, i robot infatti avevano il ruolo di sostituire
l’uomo nel lavoro fisico.

Nascono due visioni opposte che vedono il progresso tecnologico e, più nello
specifico, i robot in modo diverso.

1. Esiste un filone che conferisce una fiducia ingenua nel


comportamentismo e materialismo più rozzi, al progresso
tecnologico come capacità dell’uomo di migliorare il suo
ambiente. Vedere l’impiego di determinate macchine e il
progresso tecnologico come utili al raggiungimento di
determinati risultati. Isaac Asimov è l’esponente più famoso
di questo atteggiamento, a cui è rimasto fedele dagli anni ‘40
ad oggi.

Asimov è l’autore che più di tutti ha contribuito alla costruzione di un paradigma


robotico, ovvero un insieme di convenzioni narrative e presupposti
tecnologico/fantastici sul mondo dei robot che a poco a poco hanno finito per
essere accettati dalla grande maggioranza degli autori di fantascienza e si sono
fissati nella fantasia popolare. Questo paradigma si riassume nelle famose Tre
leggi della robotica, che cominciò a introdurre nei suoi racconti del 41/42.

Tre leggi della robotica:


1. Un robot non può recar danno agli esseri umani, né può permettere che,
a causa del suo mancato intervento, un essere umano riceva danno.
2. Un robot deve obbedire agli ordini impartiti dagli esseri umani tranne nel
caso che tali ordini contrastino con la prima legge.
3. Un robot deve salvaguardare la propria esistenza, purché ciò non contrasti
con la prima e la seconda legge.
Queste leggi sono immesse nel cervello positronico del robot sotto forma di
circuiti inibitori in delicatissimo equilibrio.

2. L’altra prospettiva è rappresentata da Philip K. Dick, che crede gli androidi


“replicanti” rappresentino la metafora di tutto quello che minaccia il lato
autenticamente umano dell’uomo. Tutta l’opera di Dick è impostata su
un’antropologia e una sociologia che rende problematico il posto dell'uomo nel
mondo.
La questione per Dick è più etica che tecnico/pratica.

21/03/22
Corpo replicato/invaso
La continuità che da un certo punto di vista si può cogliere nella storia degli esseri
artificiali non esclude della discontinuità, dei salti, tanto di tecnologia quanto di
immaginario, che si incarnano in figure diverse, figure che Antonio Caronia ha
proposto di chiamare corpo replicato, corpo invaso, corpo disseminato(una
specie di avatar).

Corpo replicato
Il corpo replicato nasce prima sia dell’automa settecentesco che del robot, che
per tutto il Novecento è stato la sua principale incarnazione sia nelle opere
dell’immaginazione che nelle realizzazioni concrete. Il termine “ robot” nasce in
Europa, come visto in precedenza, e rappresenta esseri artificiali che
faticano(robot: sfacchinata), costruiti per sostituire gli esseri umani nel lavoro
industriale.
Esseri costruiti per replicare l’essere umano sia nella forma che nelle funzioni
e capacità.
Prof. Bad Trip

Corpo invaso
Nel 1960, due medici del Rockland State Hospital di New York, Manfred Clynes e
Nathan Kline nell’ambito di studi sulle esplorazioni spaziali, ipotizzano che si
potesse fare a meno di tute spaziali e scafandri attraverso modificazioni chimiche
costanti del corpo umano, in modo che l’uomo potesse abitare ambienti non
terrestri. Per indicare un tale ibrido di corpo e tecnologia essi coniarono il termine
cyborg (contrazione di cybernetic organism). Il nome era nuovo, e nuovo era
l’approccio, perché i due medici pensavano a sperimentazioni reali (che in realtà
non vennero mai davvero effettuate).

Questi ibridi non sono quindi puri e semplici robot, ma corpi umani modificati
da una tecnologia che li invade, che penetra sotto la loro pelle. Questo non
significa affatto che il corpo invaso soppianti il corpo replicato. L’immaginario del
robot è ancora fortemente presente tra noi.
Il termine cyborg ha subito alcuni lievi ma decisivi slittamenti di significato. Da
quando è stato adottato dalla fantascienza ha indicato i nuovi ibridi
uomo-macchina e a volte anche esseri completamente artificiali ma con
aspetto antropomorfo.
L’immagine che evoca questa parola è perciò quella di un essere umano con
inserti artificiali nel corpo, fino ad arrivare ad un corpo interamente artificiale che
di umano ha solo il cervello, o addirittura un essere interamente artificiale.

L’idea di una collaborazione intime, di una combinazione fra organico e


inorganico è per certi versi figlia della prossimità della macchina che si realizza
nell’industria capitalistica, con la subordinazione del lavoratore ai ritmi e alle
esigenze del macchinario introdotta dalla nuova organizzazione tayloristica del
lavoro.

La possibilità di una compenetrazione, di una vera e propria simbiosi, per


quanto conflittuale e drammatica, fra uomo e macchina, si dà solo quando si
vanno profilando all’orizzonte tecnologie ben più duttili e flessibili di quelle
elettromeccaniche, e cioè quelle informatiche e digitali.

Negli anni Ottanta sul corpo dell’uomo cominciano a trascriversi direttamente,


visibilmente, le trasformazioni del processo di produzione e di circolazione delle
merci: la fusione fra uomo e tecnologia realizzata nell’ibridazione del corpo può
allora raccontare nuove storie, non solo quella del corpo che si fa fabbrica, come
nei robot di Asimov e nei replicanti di Dick, ma anche quella del corpo che si fa
televisione, come in Videodrome di Cronenberg (film evidentemente ispirato a
Ballard e a McLuhan), quella del corpo che si fa informazione e mondi simulati,
come in Neuromante di William Gibson.

28/03/22
Post-Umano e Singolarità tecnologica, transumanismo

Post-Umano
Il termine post-human, si diffonde negli anni ottanta del XX secolo più o meno
contemporaneamente alla nascita del fenomeno cyberpunk. Il termine è usato
sia da gruppi della sottocultura new age e cyberdelica, che da scienziati visionari
convinti che le nuove frontiere della ricerca consentiranno presto agli individui di
controllare e modificare la propria morfologia.

E’ invece del 1992 la mostra ‘Post Human’ ideata da Jeffrey


Deitch, che raccoglie tutta una produzione artistica degli anni
ottanta dedicata al tema dell’io e del corpo.

Il culto del corpo, ‘get physical' e ‘baywatch’ sono


emblematici.

Se si può parlare di postumano, è proprio perché il concetto di


uomo è un concetto mutevole, è un concetto storico e
culturale.

L’uomo si costituisce certamente su una base biologica, c’è ovviamente una


performance di tipo cellulare, sicuramente non è possibile comprendere l’uomo
se non si conosce la biochimica o la biologia molecolare.
Ma l’uomo si costruisce in quanto tale perché partendo da questa bse opera una
serie di costruzioni simboliche che si chiamano cultura, che si chiamano
organizzazione della società, che si chiamano simbolico, che si chiamano
immaginario, e tutte queste strutture sono storicamente mutevoli.

In Mind Children(1988) Moravec teorizzava la possibilità di trasferire


l’intera personalità di un essere umano su di un supporto che fosse
diverso da quello del suo corpo naturale (personality download).

Questa idea era la stessa che nei decenni precedenti era stata al
centro degli studi sull’Intelligenza Artificiale. Il suo libro colpiva
l’immaginazione perché suggeriva vari metodi per realizzare il
personality download, dai più ai meno invasivi.

Tra gli altri veniva fatta l’ipotesi di sottoporre un cervello normalmente attivo ad
una serie di TAC in posizione e tempi successivi: ricostruire cioè la posizione,
l’attività e le relazioni di tutte le cellule cerebrali, in modo da poter trasferire questi
dati su un computer, e implementare così le stesse performance che queste
cellule compivano fisicamente nel cervello umano. In questo modo, per Moravec,
avremmo avuto la ricostruzione della stessa personalità di un essere umano su
di un computer.
L’idea che stava dietro a tutte queste ipotesi era in fondo la stessa che aveva
ispirato i primi studi di Norbert Wiener e aveva portato alla nascita della
cibernetica negli anni quaranta, e cioè che il pensiero fosse seraparaile dal suo
corpo, fosse rappresentabile con opportune tecniche digitali e riproducibile su
altri supporti.
Neuralink, Monkey MindPong (Aprile, 2021)

Singolarità tecnologica

Nella futurologia, una singolarità tecnologica è un


punto in cui il progresso tecnologico accelera oltre
la capacità di comprendere e prevedere degli
esseri umani. La singolarità può riferirsi all’avvento
di una intelligenza superiore a quella umana (anche
artificiale), e ai progressi tecnologici che, a cascata, si
presume seguirebbero da un tale evento.

Il concetto di singolarità tecnologica come è conosciuto oggi viene accreditato al


matematico e romanziere Vernor Vinge.

Il saggio di Vinge contiene l’affermazione secondo cui “entro trenta anni, avremo
i mezzi tecnologici per creare un’intelligenza sovrumana. Poco dopo, l’era degli
esseri umani finirà”.

Nel suo saggio, Vinge si chiede perché l’era umana dovrebbe finire, e argomenta
che gli umani saranno trasformati durante la singolarità in una forma di
intelligenza superiore.
Le sei epoche di Kurzweil
Applicando questi principi all’evoluzione della terra, Kurzweil fa notare come siano
aderenti al processo di sviluppo che è avvenuto.

1. Epoca: Fisica e chimica, informazioni nelle strutture atomiche. E’ possibile


paragonarla alla creazione della cellulare, combinazioni di amminoacidi in
proteine e acidi nucleici (RNA, successivamente DNA) ossia l’introduzione del
paradigma della biologia.
2. Epoca: Biologia, informazioni nel DNA. Conseguentemente il DNA ha fornito
un metodo “digitale” per registrare i risultati degli esperimenti evolutivi.
3. Epoca: Cervelli, informazioni in configurazioni neurali. L’evoluzione della
specie ha unito il pensiero razionale.
4. Epoca: Tecnologia, informazione nei progetti hardware e software. Questo
ha spostato in maniera decisiva il paradigma della biologia alla tecnologia.
5. Epoca: Fusione tra tecnologia e intelligenza umana, la tecnologia
padroneggia i metodi della biologia. Ciò che sta per avvenire sarà il passaggio
dall’intelligenza biologica a una combinazione di intelligenza biologica e non
biologica.
6. Epoca: L’universo si sveglia, l’intelligenza umana enormemente espansa (per
lo più non biologica) si diffonde in tutto l’universo.

11/04/22
Approfondimenti sul Transumanesimo

“Essere una macchina


Estratti”

Definizione generale: il transumanesimo è un movimento di


liberazione che rivendica nientemeno che una totale
emancipazione della biologia. Esiste una concezione alternativa -
uguale e contraria - secondo cui questa apparente liberazione
sarebbe, in realtà, soltanto il definitivo e totale assorbimento alla
tecnologia.
Queste persone si riconoscono in un movimento detto
transumanesimo, fondato sulla certezza che l’evoluzione futura
della specie possa e debba essere guidata dalla tecnologia.
La morte per vecchiaia è una malattia indebellabile, mentre la
tecnologia può aiutarci a potenziare il corpo e la mente.

Lettera a Madre Natura - Max More


L’autore si rivolge a Madre Natura proponendo sette emendamenti alla
costituzione umana.
Lo scrittore dice che l’uomo non sottostarà più alla tirannia dell’invecchiamento e
invece di subire questa evoluzione cieca, sceglierà come evolversi, affinando e
incrementando le capacità fisiche e intellettive umane, rifiutandosi di vedere le
nostre capacità confinate in forme biologiche a base di carbonio.
Moravec, Personality Download
Testo estratto dal libro.

Bostrom, Visione Critica


Verso la fine del 2014, Bostrom, direttore del Future of Humanity,
ha pubblicato "Superintelligenza: Tendenze, pericoli, strategie".
Anche la forma più benigna di intelligenza artificiale rischia di
condurre alla distruzione dell'umanità.

Esplosione dell'intelligenza
Il concetto di esplosione dell'intelligenza è stato originariamente formulato dallo
statistico britannico I.J. Good.

L'idea è che questa macchina da noi creata sarà l'utensile definitivo, l'ultimo che
l'uomo dovrà inventare, il punto di approdo teleologico di una traiettoria
cominciata con la prima lancia scagliata da una sapiens.

Wiener
"Some Moral and Technical Consequences of Automation": saggio
scritto da Norbert Wiener, fondatore della cibernetica. Il testo è una
breve indagine sulla tendenza delle macchine ad acquisire capacità di
apprendimento embrionali, e a sviluppare strategie impreviste a una
velocità che sconcerta i loro programmatori.

Retorica Silicon Valley


La retorica della classe dirigente geek della Silicon Valley è emulsionata in una
specie di idealismo controculturale, ma le sue radici affondano nel terreno della
guerra, impregnato di sangue.
Come ha scritto Rebecca Solnit, "nella storia che la Silicon Valley raramente
racconta di sé ci sono i simboli del dollaro e i sistemi d'arma".

Visione post umanistica della cibernetica


Gli esseri umani non sono individui che agiscono autonomamente per
raggiungere i loro fini, liberi agenti alla ricerca del loro destino, bensì macchine
che operano all'interno della logica deterministica di macchine più grandi,
componenti biologiche di sistemi vasti e complessi. E ciò che lega gli elementi di
questi sistemi è l'informazione. L'idea chiave della cibernetica è il concetto di
"ciclo di retroazione" (feedback loop): il componente di un sistema - ad esempio,
un essere umano - riceve informazioni sul suo ambiente e reagisce a queste
informazioni; così facendo, modifica l'ambiente e, di conseguenza, anche le
successive informazioni che riceverà.

Conclusione
Quel che mi è parso di capire, alla fine, è che il futuro non esiste o esiste solo come
simulacro allucinatorio del presente, una favola consolatoria, o una terrificante
storia dell'orrore, che ci raccontiamo per giustificare o condannare il mondo in cui
viviamo il modo costruito intorno a noi, mossi dai nostri desideri, a dispetto della
nostra ragionevolezza.
14/04/22
Hacker, Hacking & Hacktvism
Cultura ed etica hacker

Hacker è una persona che si impegna nell’affrontare sfide intellettuali in vari


aspetti della sua vita per aggirare o superare creativamente le limitazioni che gli
vengono imposte.
Più che azioni illecite, si tratta di azioni spinte dalla curiosità, ha molto a che fare
col voler sapere come funzionano gli strumenti che utilizziamo, poterli utilizzare
a proprio piacimento e manipolarli.
Esiste un luogo comune, usato soprattutto dai media per cui il termine hacker
viene associato ai criminali informatici (la cui definizione corretta è, però, cracker).
Linus Torvalds -> Inventore di Linux
Richard Stallman -> Fondatore di GNU

Cracker
Il termine inglese cracker indica colui che entra abusivamente in sistemi altrui
allo scopo di danneggiarli, lasciare un segno del proprio passaggio, utilizzarli
come teste di ponte per altri attacchi oppure per sfruttare la loro capacità di
calcolo o l'ampiezza di banda di rete.
I cracker possono essere spinti da varie motivazioni: dal guadagno economico
all'approvazione all'interno di un gruppo di cracker.
I media hanno l'abitudine di definire hacker i cracker, mentre, sebbene alcune
tecniche siano simili, i primi hanno scopi più costruttivi che distruttivi, come
accade invece ai secondi.

Kevin Mitnick, il Condor

->

Un esempio: Spacewar
Un classico esempio di quest'ampliamento della definizione di hacker è
Spacewar, il primo videogame interattivo. Sviluppato nei primi anni ‘60 dagli
hacker del MIT, Spacewar includeva tutte le caratteristiche dell’hacking
tradizionale: era divertente e casuale, non serviva ad altro che a fornire una
distrazione serale alle decine di hacker che si divertivano a giocarvi. Dal punto di
vista del software, però, rappresentava una testimonianza incredibile delle
innovazioni rese possibili dalle capacità di programmazione. Inoltre era
completamente libero (e gratuito). Avendolo realizzato per puro divertimento, gli
hacker non vedevano alcun motivo di mettere sotto scorta la loro creazione, che
finì per essere ampiamente condivisa con altri programmatori. Verso la fine degli
anni ‘60, Spacewar divenne così il passatempo preferito di quanti lavoravano ai
mainframe in ogni parte del mondo.
The Mentor, Manifesto Hacker
Leggi diapositiva 7 lezione 6.

L’etica Hacker
1. L’accesso ai computer - e a tutto ciò che potrebbe insegnare qualcosa su
come funziona il mondo - dev’essere assolutamente illimitato e completo.
2. Tutta l’informazione dev’essere libera.
3. Dubitare dell’autorità. Promuovere il decentramento.
4. Gli hacker dovranno essere giudicati per il loro operato, e non sulla base
di falsi criteri quali ceto, età, razza o posizione sociale.

Linus Torvalds, La legge di Linus


Leggi diapositiva 9 lezione 6.

Hacking e Arte
Joan Leandre retroYou r/C M0D series (1999)

Una serie di modifiche, sempre più radicali e invasive effettuate su un gioco di


corse automobilistiche. Joan Leandre è partito da un intervento minimo sul
parametro che determina la forza di gravità all’interno del videogioco.
Alla critica dei meccanismi di gioco stereotipati dei videogame e della loro
ideologia della vittoria, si intreccia l’invito a trovare altri modi per giocare e
divertirsi; e l’intento critico si accompagna a una ricerca estetica di grande
raffinatezza, evidente nelle evoluzioni più astratte e barocche dell’originario car
racing.

Cory Arcangel

Super Mario Clouds


2002

Marc Napier Riot (1999)

Pubblicato come evoluzione dello Shredder realizzato l’anno precedente, Riot è il


primo browser multi-utente. E’ cioè il primo browser che consente al navigatore di
visualizzare i siti insieme a quelli scelti da altri utenti che usano Riot nello stesso
momento. Il browser visualizza infatti più indirizzi Web contemporaneamente,
sovrapponendo testi e immagini in un collage dinamico in cui tutti i collegamenti
rimangono attivi e navigabili.Ogni volta che il navigatore seleziona un nuovo
indirizzo, o clicca su un link attivo, la nuova pagina si sovrappone alle precedenti,
espellendo l’ultima della lista.
Hacktivism
Hacktivism è un termine che deriva dall’unione di
due parole, hacking e activism e indica le pratiche
dell’azione diretta digitale in stile hacker.
Nell’ambito della filosofia hacktivist, le forme
dell’azione diretta tradizionale sono trasformate nei
loro equivalenti elettronici: la manifestazione di
piazza, il corteo, si è trasformata nel netstrike, il
corteo telematico; l’occupazione di stabili in disuso,
nel cybersquatting; il volantinaggio all’angolo delle
strade nell’invio massivo di e-mail di partecipazione e di protesta, il banchetto
delle petizioni nelle petizioni on line; i tazebao scritti a mano diventano pagine
web e le scritte sui muri e i graffiti vengono sostituiti dal defacciamento
temporaneo di siti web.
In omaggio all’etica primigenia dell’hacking, gli hacktivisti agiscono mettendo a
disposizione di tutti risorse informative e strumenti di comunicazione. Le
pratiche hacktivist si concretizzano nella realizzazione di server indipendenti e
autogestiti per offrire servizi di mailing list, e-mail, spazi web, ftp server, sistemi e
database crittografati, circuiti di peer to peer, archivi di video e foto digitali, web
radio.

DA: A. Di Corinto e T.Tozzi, Hacktivism. La libertà nelle maglie della rete,


Manifestolibri 2002

“Alcuni tra i principali valori di riferimento dell’hacktivism sono:


– l’uguaglianza
– la libertà
– la cooperazione
– la fratellanza
– il rispetto
– la lealtà
– la pace

Questi valori sono il riferimento costante delle pratiche di hacktivism e degli


obiettivi che esse perseguono. Ogni obiettivo raggiunto da una pratica hacktivist
è un passo avanti verso la creazione di culture comunitarie che abbiano come
riferimento i valori descritti sopra. Ecco di seguito un elenco degli obiettivi
perseguiti:
– Fare comunità
– Garantire la privacy
– Distribuire le risorse
– Difendere e/o organizzare i diritti

Questi obiettivi vengono perseguiti attraverso pratiche che affrontano tematiche


determinate e che fanno uso di un immaginario e di parole d’ordine. Inoltre tali
pratiche, perseguendo questi obiettivi, entrano in conflitto con alcuni aspetti dei
modelli sociali in cui si inseriscono.”
Media Hacking
“L’espressione Media Hacking fa riferimento all’uso di diversi media elettronici
in un modo innovativo o anomalo, allo scopo di inviare un messaggio al numero
più ampio possibile di persone, per lo più raggiunto via Web. I motivi più tipici che
possono spingere qualcuno a voler raggiungere così tante persone, al di là del
gruppo a cui appartengono, sono la dissidenza politica e la delazione. Una forma
popolare e efficace di media hacking consiste nel postare il messaggio su un
blog...”

Più in generale, si può intendere per media hacking qualsiasi atto di


manipolazione del flusso informativo o di sabotaggio dei media.

Etoy Digital Hijack (1996)


“Non fare una fottuta mossa, questo è un dirottamento digitale.”
Era il 1996, quando il gruppo austro-svizzero Etoy beffava il sistema di
indicizzazione dei principali motori di ricerca, riuscendo a dirottare centinaia di
migliaia di navigatori sul proprio sito.
Anche se il Digital Hijack non aveva una finalità politica, ma autopromozionale,
etoy dimostrava che la rete e i suoi flussi di informazione potevano essere
manipolati.

Ubermorgen Vote Auction (2000)


Ed è ancora ricorrendo a un falso sito che il gruppo austriaco Ubermorgen
“metteva i piedi nel piatto” della campagna elettorale delle presidenziali USA del
2000.
Lanciando una piattaforma online per la messa all’asta dei voti dei cittadini
americani al miglior offerente, Ubermorgen scatenava l’attenzione morbosa dei
media e delle commissioni elettorali di vari stati dell’unione, turbati da uno slogan
rivelatore: “Avvicinare il capitalismo e la democrazia”.

Electronic Disturbance Theater Flood Net (1998)


Nello stesso periodo, anche i floodnet, gli attacchi distribuiti lanciati
dall’Electronic Disturbance Teather e da altri collettivi contro i siti simbolo del
capitalismo globale, si muovono all’interno di una nuova matrice performativa
che agita gli spettri dell’infowar per accrescere il clamore mediatico sugli effetti
perniciosi della globalizzazione.
Rispetto alle forme più tradizionali di attivismo, l’azionismo mediatico è
altamente consapevole dei meccanismi narrativi che soggiacciono al sistema
dei media. Il cyberspazio viene quindi usato come campo di battaglia per lanciare
una sfida ai media tradizionali e metterne in discussione la struttura chiusa e
gerarchica.

Etoy ToyWar (1999)


La Toywar, la grande campagna a sostegno del gruppo etoy – il cui sito
viene chiuso nel dicembre del 1999 da un tribunale americano –
rappresenta il momento di massima cooperazione tra i vari gruppi, che
mettono in campo un ventaglio amplissimo di interventi.
22/04/22
Lezione 7: Intelligenza artificiale 1
Distinzione tra intelligenza artificiale forte e debole

L’intelligenza artificiale forte


(Intelligenza Artificiale Generale)
Si riferisce all'idea che opportune forme di intelligenza artificiale possano
diventare elaborate a tal punto da essere in grado di ragionare e risolvere
problemi complessi.
Prevede inoltre che sia possibile per le macchine arrivare ad avere coscienza di
sé, senza però necessariamente mostrare processi di pensiero simili a quelli
umani.
L'obiettivo è comunque quello di realizzare una intelligenza artificiale in grado di
replicare completamente l'intelligenza umana.

Intelligenza artificiale debole


In contrasto con l'intelligenza artificiale forte, si riferisce all'uso di programmi per
studiare e risolvere specifici problemi. In questo caso l'intelligenza artificiale non
realizza una auto-consapevolezza e non dimostra il largo intervallo di livelli di
abilità cognitive proprio dell'uomo, ma è esclusivamente un problem solver
(risolutore di problemi) specifico e parzialmente intelligente.
IA debole: Programma per gioco agli scacchi
Test di Turing

Il test di Turing è un criterio per determinare se una macchina sia in grado di


pensare. Tale criterio è stato suggerito da Alan Turing nell'articolo Computing
machinery and intelligence, apparso nel 1950 sulla rivista Mind.

Turing propose che un essere umano dovesse provare a giudicare e riuscire a


distinguere una macchina da un altro essere umano basandosi su una
conversazione incentrata sull'uso del solo linguaggio.
Tutti e tre i partecipanti alla conversazione avrebbero dovuto essere separati e la
conversazione limitata a input di testo digitati tramite tastiera e visualizzati a
monitor (telescrivente). In questo modo la capacità di pronunciare vocalmente le
parole non avrebbe potuto interferire sul giudizio.

Se l'essere umano giudicante non è in grado di distinguere tra


l'interazione con l'essere umano e la macchina, allora la macchina avrà
passato il test.
Il test non ha l'obiettivo di verificare se la macchina sia in grado di
fornire risposte corrette e accurate alle domande, ma semplicemente
quanto queste risposte siano simili a quelle che possono essere fornite
da un essere umano.
Eliza
È un programma creato da Joseph Weizenbaum nel 1966, considerato il primo
ad aver superato il test di Turing.
Il programma funzionava esaminando domande e commenti per parole chiave.
Nel caso in cui ELIZA avesse riconosciuto una parola chiave avrebbe seguito una
regola preimpostata per trasformare la frase dell'interlocutore in una risposta
verosimile. Nel caso in cui nessuna parola chiave fosse stata riconosciuta, ELIZA
avrebbe risposto o con una frase generica o ripetendo una delle frasi e commenti
precedenti.
Esempio
Alla frase "Mi fa male la testa" il programma può ribattere con "Perché dici che ti fa
male la testa?".
Oppure la risposta a "Mia madre mi odia" potrebbe essere "Chi altro nella tua
famiglia ti odia?".

Machine learning
-> Un insieme di metodi sviluppati negli ultimi decenni in varie comunità
scientifiche che forniscono ai computer l'abilità di apprendere senza essere stati
esplicitamente programmati.

L'apprendimento automatico è strettamente legato al riconoscimento di


pattern e alla teoria computazionale dell'apprendimento ed esplora lo studio e
la costruzione di algoritmi che possano apprendere da un insieme di dati e fare
delle predizioni su questi, costruendo in modo induttivo un modello basato su dei
campioni.

Già dai primi tentativi di definire l'intelligenza artificiale come disciplina


accademica, alcuni ricercatori si erano mostrati interessati alla possibilità che le
macchine imparassero dai dati.
Questi ricercatori, in particolare Marvin Minsky, Arthur Samuel e Frank
Rosenblatt, provarono ad avvicinarsi al problema sia attraverso vari metodi
formali, sia con quelle che vengono definite reti neurali nei tardi anni '50.

L'obiettivo principale dell'apprendimento automatico è che una macchina sia in


grado di generalizzare dalla propria esperienza, ossia che sia in grado di
svolgere ragionamenti induttivo(-> dal particolare al generale).
In questo contesto, per generalizzazione si intende l'abilità di una macchina di
portare a termine in maniera accurata esempio o compiti nuovi, che non ha mai
affrontato, dopo aver fatto esperienza su un insieme di dati di apprendimento.

AI ricostruisce immagini
riconoscibili

Computer Vision
La computer vision, o visione artificiale, è quel campo di
studi interdisciplinare che si occupa di capire come i
computer possano riprodurre processi e funzioni
dell'apparato visivo umano.
La computer vision si occupa di acquisire le immagini statiche o in movimento
(anche oltre lo spettro della luce naturale), identificarle, riconoscerle ed estrarne
le informazioni utili per prendere decisioni. Queste funzioni rientrano nella
cosiddetta early vision, l'elaborazione "a basso livello di astrazione" su cui, dagli
anni Sessanta in poi, sono stati fatti numeri passi avanti.

La sfida più ambiziosa della computer vision riguarda la visione high level, "ad
alto livello di astrazione e comprensione", che dall'immagine in 2D riesca a
elaborare, ricostruire ed analizzare l'intero contesto in 3D in cui l'immagine è
inserita. Riesca cioè a dare un significato storico e contestuale, quindi anche
simbolico, dell'immagine rappresentata.

La vision AI è molto usata soprattutto da persone con


problemi di vista/cieche per il riconoscimento di
oggetti.

Imagenet Roulette
“Good to see this simple interface generate an
international critical discussion about the race &
gender politics of classification in AI, and how
training data can harm.”
Gli algoritmi studiano le espressioni dei volti e
cercano di classificarli.

Gay check online


Voleva sottolineare quanto insensata a volte possa
risultare la vision AI, in quando è assurdo pensare che
un AI possa riconoscere l’orientamento sessuale della
persona cosi.
Altri esempi di vision AI: l’applicazione Deep Dream di
Google.

09/05/22
Lezione 8: Intelligenza artificiale 2
Non Neutralità

Estratti da: “Oltre il mito: casi di non-neutralità algoritmica”, Daniele Gambit e


Massimo Airoldi

La tecnologia, lungi dall’essere una sfera autonoma, è una costruzione sociale che
dipende tanto da interessi economici e politici contestuali quanto dal percorso
scientifico e tecnologico avvenuto in precedenza - anch’esso, a sua volta,
socialmente condizionato (si veda MacKenzie & Wajcman, 1999).
La scelta del dataset

Nel caso degli algoritmi di machine learning,


tra il momento della scrittura del codice e
l’applicazione finale, c’è una fase durante la
quale - secondo l’interpretazione scientista -
l’algoritmo apprenderebbe la “realtà” in modo
“oggettivo” da una grossa mole di dati
classificati. Tuttavia, sia la scelta del dataset che
la generazione dei dati stessi sono il prodotto di
azioni umane culturalmente e socialmente
situate, le quali possono introdurre distorsioni
sistematiche nel modello.

Husky

Per decostruire il discorso intorno all’oggettività degli algoritmi, consideriamo


l’esperimento di un gruppo di ricercatori dell’Università di Washington (Ribeiro et
al., 2016), pensato per mettere in discussione l’accuratezza di predizioni effettuate
tramite machine learning. Ipotizziamo di voler costruire un classificatore capace
di distinguere foto di husky da foto di lupi.

Per quanto ampio sia il nostro dataset, se


tutti gli husky sono ritratti
(involontariamente o volontariamente, come
in questo studio) in presenza di neve, si
ottiene un algoritmo che classifica come
husky qualunque animale (cane o husky)
fotografato in presenza di neve.
Questo esempio è utile a formalizzare la
critica all’oggettività degli algoritmi.
La macchina, infatti, non sta sbagliando, nel senso che effettivamente ha trovato
una feature capace di discernere, nei casi analizzati, le due classi di oggetti.

L'inadeguatezza dello strumento, allora, deriva dall’assunto che i dati di


partenza siano adeguati a rappresentare il reale e le sue peculiarità.

Il funzionamento dei sistemi algoritmici, anche nel caso di machine learning e


intelligenza artificiale, non è mai totalmente indipendente da scelte umane,
errori e distorsioni culturalmente indotte.

AMAZON E LA BOMBA
MINORITY REPORT E COMPAS
Lettura nel PPT del 09/05 da slide 8 + artist
16/05/22
Lezione 9: Peer2Peer, Open Source e Copyleft
Peer to Peer
Le reti peer-to-peer (P2P) sono reti composte da nodi che interagiscono
direttamente tra loro, senza necessariamente il bisogno di un server centrale.
Ciascun nodo della rete può fungere sia da cliente che da server. (non esistono
ruoli immutabili, il ruolo di server è distribuito e non centralizzato).

Una rete di computer p2p sfrutta principalmente la potenza di calcolo di tutti i


partecipanti alla rete piuttosto che concentrarla su un relativamente piccolo
numero di server.
Es. file sharing, condivisione di file (es. Torrent)

Michel Bauwens
Michel Bauwens è il fondatore della Foundation for P2P
Alternatives, la Fondazione per le alternative Peer-to-peer.
Con l’indebolimento della sfera pubblica tradizionale, e con
il dissolvimento del suo supporto da parte dei media
mainstream, si pone la necessità dello sviluppo di una
nuova sfera pubblica sulla base di dinamiche relazionali
e comunitarie; dinamiche che stanno co-emergendo
attraverso i media digitali.
Gruppi “peer” di cittadini stanno prendendo l’iniziativa un
po’ ovunque, creando una cultura di apertura e
partecipazione; non stanno solo innovando le proprie
pratiche culturali e producendo valore in termini di beni
comuni, ma stanno anche esercitando una pressione sulle istituzioni esistenti.
Così come la cultura viene distribuita attraverso i nuovi mezzi “distribuiti” di
produzione e distribuzione culturale, allo stesso modo sta nascendo una
Democrazia Specchio che ci ricorda che la democrazia rappresentativa può
essere trasformata e resa migliore attraverso l’input diretto dei cittadini, usando la
deliberazione pubblica e la co-creazione sia online che offline

Gli ostacoli nel mondo dei mass media e della democrazia rappresentativa,
attualmente in declino, possono essere superati solo attraverso un’innovazione
sociale distribuita che permetta di “aggirare” la paralisi culturale ed
istituzionale.

Open Source
Open source (= sorgente aperta), in informatica, indica un software i cui autori
ne permettono e favoriscono il libero studio e l’apporto di modifiche da parte
di altri programmatori indipendenti.
Questo è realizzato mediante l’applicazione di apposite licenze d’uso. Il
fenomeno ha tratto grande beneficio da Internet, perché esso permette a
programmatori geograficamente distanti di coordinarsi e lavorare allo stesso
progetto.
Alla filosofia del movimento open source si ispira il movimento open
content (= contenuti aperti): in questo caso ad essere liberamente
disponibile non è il codice sorgente di un software ma contenuti
editoriali quali testi, immagini, video e musica. Wikipedia è un chiaro
esempio dei frutti di questo movimento. Attualmente l’open source
tende ad assumere rilievo filosofico, consistendo in una nuova
concezione della vita, aperta e refrattaria ad ogni oscurantismo, che
l’open source si propone di superare mediante la condivisione della
conoscenza.
La condivisione del codice nasce con l’informatica stessa. L’idea di un possibile
sfruttamento commerciale del codice si afferma a partire dagli anni Settanta: solo
all’ora, nel momento, cioè, in cui i computer escono dai centri di ricerca e si
pongono le premesse dell’informatica di consumo, cominciano a essere poste sul
software licence restrittive, che ne limitano l’uso e ne rendono impossibile la
manipolazione da parte degli utenti.

Nel 1985 Richard Stallman, un hacker del MIT, rifiuta di lavorare per una società
privata e fonda la Free Software Foundation (FSF), una organizzazione senza fini
di lucro finalizzata allo sviluppo e alla distribuzione di software libero. In
particolare, la FSF lavora allo sviluppo di GNU (acronimo di GNU's Not UNIX): un
sistema operativo completo, compatibile con UNIX, ma distribuito con una licenza
permissiva, con tutti gli strumenti necessari altrettanto liberi.
Nell’ambito del progetto GNU vengono messe a punto anche le licenze GPL (GNU
General Public License), molto comuni in ambito open source: “la GPL è intesa a
garantire la libertà di condividere e modificare il free software, al fine di assicurare
che i programmi siano “liberi” per tutti i loro utenti”, spiega il manifesto. La GPL
consente la modifica di un software posto sotto questa licenza, a patto che la
modifica venga notificata agli sviluppatori e il nuovo prodotto venga distribuito
sotto la stessa licenza.

OPEN non è FREE: una licenza GPL non implica la gratuità del software. La
vendita, tuttavia, non avviene a scopi commerciali, ma per coprire i costi di
produzione.

CopyLeft
Il movimento open source non si è limitato a agire nell'ambito del
software, ma ha esteso la sua riflessione all'interno dell'ambito della
produzione culturale, e al concetto stesso di diritto d'autore. Per
copyleft si intende appunto l'estensione a ogni ambito della
creatività e delle conseguenze culturali introdotte dalla comunità
open source.

Da Wikipedia: “L'espressione copyleft individua un modello alternativo di


gestione dei diritti d'autore basato su un sistema di licenze attraverso le quali
l'autore indica ai fruitori dell'opera che essa può essere utilizzata, diffusa e spesso
anche modificata liberamente, pur nel rispetto di alcune condizioni essenziali.
Nella versione pura e originaria del copyleft la condizione principale obbliga i
fruitori dell'opera a rilasciare eventuali modifiche apportate all'opera a loro
volta sotto lo stesso regime giuridico. In questo modo, il regime di copyleft è
tutto il fascio di libertà da esso derivanti sono sempre garantiti. L'espressione
copyleft, in un senso non strettamente tecnico-giuridico, può anche indicare
generalmente il movimento culturale che si è sviluppato sull'onda di questa
nuova prassi in risposta all’irrigidirsi del modello tradizionale di copyright."

Creative Commons
2001 - Lawrence Lessig fonda l'organizzazione no-profit Creative Commons.
Creative Commons copre lo spettro che intercorre tra il pieno copyright e il
dominio pubblico: in sostanza, si occupa di elaborare licenze compatibili con le
singole giurisdizioni nazionali, e che consentano agli autori di mantenere alcuni
diritti sulle opere e rinunciare a certi altri.

Evan Roth
Intellectual Property Donor: uno sticker da incollare alla
patente di guida per diventare donatori di proprietà
intellettuale dopo la morte, al fine di promuovere il
progresso della scienza e delle arti.

Thingiverse

20/05/22
Lezione 10: Mondi virtuali & Realtà virtuale
Second Life

Mondo Virtuale lanciato il 23 giugno 2003


dalla società americana Linden Lab. Si accede
attraverso un avatar. Su Second Life si
incontrano altri utenti e avatar (con aspetti tra
i più diversi e improbabili), si esplora il mondo
teleportandosi si socializza con chat e a voce,
si possono scattare foto e registrare video,
creare e scambiare beni.

Nacquero attività commerciali e professionali vere e proprie. Le transazioni di


denaro avvenivano nella moneta ufficiale, i Linden Dollars.
Questi avevano una regolare quotazione e potevano poi essere convertiti in
moneta corrente. Si commerciavano skin e vestiti per gli avatar, funzionalità che
miglioravano le capacità degli avatar, edifici, terreni e isole.
Gazira Babeli

Jon Rafman
Kool-Aid Man in Second Life

Avatar e persone digitali - Artisti

La turbo
avedon

LilMiquela

Grimes
War Nymph
Hyperlinks or It Didn’t Happen
è narrato da PHIL, un personaggio realizzato in grafica 3D che
ritrae un famoso attore recentemente scomparso. Il racconto è
incentrato su un gruppo di esseri digitali- render fantasma, spam
bot, ologrammi - essi stessi alla ricerca del senso della propria
esistenza. Vari linee narrative e materiali convergono e collidono
sollevando una serie di quesiti rispetto a cosa significhi oggi
essere materialmente coscienti, e quali siano i diritti e le
implicazioni dei dati personali che creiamo e condividiamo.

Cecile B Evans
What the Hearts Wants

Realtà aumentata e virtuale

David Oreilly
It’s Always You

David Oreilly
AAAHHHHHHHH!!!

Sabrina Rattè
Floralia

Visori VR

Facebook Spaces

Jon Rafman ->


<- Tom Galle ->

MSHR - Frame Wave ->

Potrebbero piacerti anche