Sei sulla pagina 1di 3

Storia, diplomazie tra regno borbonico e impero ottomano (‘800)

Filosofia e scienze politiche, teologia politica di Novak, filosofia unitaria delle Americhe
Science Politiche, Studi Internazionali, identità europea di sicurezza e difesa, impatto USA
Cooperazione uomo-macchina, info e corpi, produzione di valore (Scienze Politiche e poi Media Digitali)
Diritto Internazionale, crisi economiche e misure di austerity
Scienze Politiche e Global Studies, Studi Postcoloniali, Razza, capitale e controllo della mobilità,
sfruttamento umanitario dei richiedenti asilo
Giurisprudenza, cooperazione e sviluppo, governance della migrazione e Libia
Studi Letterari, geografia aministrativa, politiche di rescaling dell’EU
Esperienza cilena nella sinistra italiana e francese, prima teorie politiche del’ 68 italiano

Governamentalità algoritmica Tiz: utilizzo di forme di autoamzione amministrative e di governance, o di


controllo, che hanno a che fare con algoritmi e dati, che si materializza in assemblaggi di corpi, macchine,
software, feedback ricorsivi reinseriti nel processo, uso in diversi campi

L’algoritmo quindi è un processo, o una procedura, ossia un insieme di regole da seguire per eseguire un
qualsiasi tipo di calcolo, istruzioni step-by-step che definiscono che tipo di procedimento bisogna seguire per
ottenere un determinato risultato. E’ quindi un ‘modo’, una ‘tecnica’, per risolvere un problema. Queste
istruzioni vengono date al computer attraverso il software, che è appunto un sistema usato dagli utenti per
relazionarsi con il computer. E’ quindi un insieme di dati e istruzioni. (Esempio, i software di Google,
chiamati ‘web crowlers’ alla ricerca di siti e link da includere nel motore di ricerca, e l’algoritmo di ricerca
di Google, una serie di procedure o operazioni matematiche per cui ogni volta i risultati della ricerca
appaiono in un certo ordine). Vedere

Per cui, anche se i due termini sembrano sovrapporsi (e a volte lo fanno), il software è un insieme di dati e
istruzioni. Quello dei software studies è un campo di ricerca interdisciplinare che studia i sistemi di software
(i dati e gli algoritmi) nei loro effetti sociali e culturali (esempio, studio degli effetti di Google sulla
percezione e definizione dei concetti di razza e identità etnica, a partire da dati e procedure discriminanti,
vedere).

Le origini di questi studi includono M. McLuhan sugli effetti del medium stesso, più che sul contenuto del
messaggio, nel dare forma alla cultura. Vedere Poi ricordiamo altri nomi come F. Kittler (media archeology),
L. Manovich (Language of New Media, cultural analytics), e M. Fuller’s Behind the Blip. Essays on the
Culture of Software). Molta influenza degli studi sui video game. Molto importante il libro di M. Fuller
Software Studies: A Lexicon, il primo di una serie dedicata appunto ai ss, e c’è anche un corso di studi in
California (non so se ancora esistente). Journal Computational Culture.

I software studies danno molta importanza, ovviamente, al concetto di algoritmo. A. Goffey, che ha
partecipato al Lexicon proprio per scrivere questo lemma, vedere lo definisce come una procedura che va al
di là delle macchine e dei linguaggi di programmazione con cui si scrivono gli algoritmi: in questo senso,
l’algoritmo diventa qualcosa di più astratto, un codice, una procedura astratta. Ma c’è dell’altro. Secondo
Goffey, dobbiamo soprattutto considerare l’esistenza ‘incarnata’, ‘materializzata’, di questi algoritmi:
nell’ordine dato alle banche dati (etichetta gorillas e foto di ragazzi neri), ma anche nei software o
programmi che usiamo per fare cose come creare un sito web o seguire una lezione online (in questo caso,
gli algoritmi si incarnano nella piattaforma Teams), etc. O negli esempi che descriveva la professoressa
Terranova, In poche parole, quello che preme sottolineare ai ss, è che gli algoritmi sono delle formule
astratte o operazioni matematiche che hanno effetti materiali, molto concreti, su tutti noi utenti (pensiamo ad
esempio agli algoritmi usati per il marketing, nelle operazioni di data mining, che ci presentano i prodotti più
adatti a noi).

Il sociologo David Beer (2009) parla di ‘potere algoritmico’, per indicare il modo in cui il codice
tecnologico, gli algoritmi che stanno alla base della maggior parte dei processi di ordinamento e
classificazione contemporanei, genera nuove forme di potere in un contesto di partecipazione e
democratizzazione che è solo apparente (il riferimento qui è alla definizione di S. Lash di ‘potere attraverso
gli algoritmi). Altri concetti simili sono quello di ‘governing algorithms’ di Barocas, Hood & Ziewitz
(2013) per parlare dell’algoritmo come un vero e proprio mito contemporaneo, interessante non solo per
quello che concretamente ‘fa’, ma per il ruolo che gli attribuiamo. E poi c’è Parisi.

Mi soffermerò in particolare sul lavoro di Ben Williamson (2014), che propone di mettere tali processi in
relazione al concetto foucaultiano di ‘encoded eye’, lo sguardo codificato. Nella Prefazione a Le parole e le
cose, il filosofo usa infatti questo concetto, per parlare del modo in cui le griglie prestabilite di
classificazione e comprensione che costituiscono l’ordine nella sua forma ‘nuda’, ‘pura’, fondamentale (i
diagrammi del potere?), vengono applicate alla nostra percezione nel quotidiano, si incarnano. Secondo
Williamson, è ora il codice digitale, sono gli algoritmi ad agire come una sorta di ‘sguardo codificato’,
fornendo griglie di percezione e sistemi di condotta sociale che formano in maniera significativa il nostro
modo di pensare e di agire.

Ma abbiamo detto che i software studies in realtà mettono in evidenza le implicazioni e gli effetti concreti
degli algoritmi sulla cultura. Gli esempi concreti (dove agisce concretamente la ‘eseguibilità’ del codice e
degli algoritmi) di cui vorrei parlare, a tal proposito, riguardano la governance, la governamentalità delle
istituzioni educative. Sappiamo che, nell’ultimo anno, le attività educative si sono totalmente trasferite
online, con solo ora un timido inziale accenno di modalità non veramente in presenza ma ‘blended’.
L’insegnamento e l’apprendimento, ora, avvengono sulle piattaforme, e sono quindi fortemente soggette a
quelle forme di percezione, comportamento, cognizione, modellate dalle griglie algoritmiche, dalle
procedure, che determinano il funzionamento di queste piattaforme. Come cambiano quindi i nostri
comportamenti educativi, su queste piattaforme, sarebbe una domanda interessante da porre.

Innanzitutto, in questo contesto, possiamo osservare quanto detto da van Dijck et al. sulle piattaforme (The
Platform Society), laddove i meccanismi socioculturali (che gli autori identificano con ‘datificazione’,
‘selezione’ e ‘mercificazione’) modificano significativamente il valore (o i valori) dell’educazione,
portandoli verso una tendenza sempre più neoliberale. Piattaformizzazione dell’educazione. Questo punto di
vista è condiviso dalla critica di Williamson, che According to Williamson, its social executability, its power
of governing, and its diffused presence into everyday life and systems of thought, have allowed code
(including the algorithms it enables and the software it instructs) to also become a crucial social actor in
educational processes and institutions, «justified and naturalized discursively as a seemingly common sense
solution to a whole range of educational problems». (Williamson, 2014b, p. 87) dopo aver riconosciuto il
potere social del codice, indaga le potenziali formazioni identitarie promosse dalla governamentalità digitale,
cioè basata sul network e i dati (la sua ricerca si concentra soprattutto sull’infrastruttura di algoritmi e dati
implementata nelle università britanniche). La risposta è che il codice, gli algoritmi che agiscono
nell’educazione, incarna e materializza le preesistenti visioni del mondo: l’enfasi sulla possibilità di
scegliere, avere una vasta scelta, l’educazione come un mercato competitivo, insieme a sempre maggiori
misurazioni delle performance e della produttività dell’intera istituzione. Si tratta di pratiche che
accompagnano non solo l’automazione del sistema valutativo, ma anche, ad esempio, la vendita di strumenti
da parte di aziende private alle istituzioni educative (pensiamo alla stessa Microsoft Teams).

Un punto di vista speculare a questo suggerisce invece un approccio più strumentale, focalizzandosi su una
rivalutazione ‘funzionale’ degli strumenti per il distance teaching e learning, vedendone gli effetti e le
capacità in senso positivo. (Giancola et al., 2019, 464) Da questa prospettiva, si guarda soprattutto all’utilità
di questi strumenti: ad esempio, la capacità di cambiare i tempi e i luoghi dell’interazione educative,
svolgendo le lezioni con una flessibilità che riguarda i diversi posti e momenti in cui si può fare lezione, o la
possibilità di trasformare l’insegnamento in un vero e proprio processo di design influenzato da aspetti
object-oriented (focalizzati sul prodotto finale) o process-oriented (focalizzandosi sul processo), (Goodyear,
2015), includendo anche più materiali e media nel design.

A questo punto, nonostante le differenze di vedute, siamo sempre su una stessa concezione
dell’apprendimento come riempimento della scatola mentale degli studenti, di nozioni e informazioni, dove
si distinguono o un processo di imposizione dall’alto (schemi e griglie interpretative che danno agli algoritmi
determinate funzioni strutturanti, diagrammi, forme di organizzazione, gerarchici o comunque verticali,
pensiamo a Teams e alla sua rigidità nel prevedere solo alcune funzioni limitate e prestabilite, lezione video
e chat con canali, esercitazioni e quiz (Forms), una rigidità che in un certo senso accompagna gli stessi
social, la profilazione su FB etc), o di riappropriazione strumentale (gli algoritmi eseguono adattandosi alle
nostre esigenze, quello che a noi serve). Interessante sarebbe invece considerare non una scatola da riempire
ma una cellula di apprendimento (come direbbe Whitehead, come questa classe), una cellula cibernetica, nel
senso che prevede l’interazione tra esseri umani, noi tutti, e gli algoritmi e i dati, ossia il software. Non più il
diagramma ma l’assemblaggio. Concluderei con un accenno al concetto di Networked Collaborative
Learning, «the bringing together of learners via personal computers linked to the Internet, with a focus on
them working as a ‘learning community’, sharing resources, knowledge, experience and responsibility
through reciprocal collaborative learning» (McConnell in NLEC, 2020, p. 4). A quanto scrive Roberto
Serpieri, sui processi di soggettivazione (quindi Foucaultiano) in atto nella post-education,

e all’esempio di FemTechNet, (rete di studiose, studentesse, artiste, che lavorano tra scienza, tecnologia e
femminismo), che hanno rifatto i MOOC (Massive Open Online Courses) in DOCC (Distributed Open
Collaborative Courses), e in particolare l’uso di Wikipedia in alcuni loro progetti di DAD (Wiki storming),
sia per usare le possibilità di scrittura collaborativa che questa piattaforma offre, sia per criticarne alcune
delle modalità operative, come ad esempio il gender bias che predomina nelle relazioni della comunità e nei
lemmi o le voci dell’enciclopedia. (Vedere i Learning Objectives)