Sei sulla pagina 1di 12

L'intelligenza artificiale (AI) è una parola chiave del nostro tempo. L'IA è il Santo
Graal delle aziende tecnologiche. Gli amministratori delegati la cercano per
risparmiare su lavoro umano e disciplinarlo. Una fiorente letteratura accademica si
occupa delle sue implicazioni etiche, legali e sociali. Sia l'IA ristretta (narrow ai),
progettata per integrare i lavoratori, che l'IA più ampia, progettata per sostituirli,
stanno guadagnando slancio. Il messaggio alla loro base è seducente: registrare
tutto ciò che gli umani fanno, e alla fine possiamo prevedere e simulare con una
macchina ogni loro espressione e azione.

Aspetti preoccupanti del software di decodifica umana stanno già emergendo.


Più di mille esperti https://www.vice.com/en/article/889xyb/over-1000-ai-experts-
condemn-racist-algorithms-that-claim-to-predict-crime hanno recentemente
firmato una lettera che condanna l'analisi facciale "predittiva del crimine" . La loro
preoccupazione è ben fondata. I ricercatori di psicologia
https://journals.sagepub.com/stoken/default+domain/10.1177%2F1529100619832
930-FREE/pdf hanno dimostrato che i volti e le espressioni non sono
necessariamente mappati in modo chiaro su particolari tratti ed emozioni, per non
parlare dei più ampi stati mentali evocati nell’”aggressione detection". Poiché "le
istanze della stessa categoria di emozioni non sono né espresse in modo affidabile
attraverso né percepite da un insieme comune di movimenti facciali", scrivono i
ricercatori, le capacità comunicative del volto sono limitate. I pericoli di un'errata
interpretazione sono chiari e presenti in tutti questi scenari.

Così, nonostante la sua rapida crescita, l'AI stessa è ancora un termine


dibattuto, e significativo solo in un contesto storico. L'intelligenza pure è un
concetto dibattuto. È storicamente legata, relativa ai problemi di un'epoca (sia
personale che collettiva), invece che astratta dal tempo e dalo spazio. Infatti, anche
le verità o le guide morali apparentemente più eterne possono essere false o
inappropriate in certi contesti. Come ha osservato la psicologa Susana Urbina,
"l'intelligenza è un'astrazione, un costrutto che deduciamo in base ai dati a nostra
disposizione e ai nostri criteri. Come tale, non è qualcosa su cui tutti possono
concordare o quantificare oggettivamente".
La crescente popolarità delle teorie delle "intelligenze multiple" complica
ulteriormente l'IA. Queste includono "l'intelligenza linguistica, l'intelligenza logico-
matematica, l'intelligenza spaziale, l'intelligenza musicale, l'intelligenza corporeo-
cinestetica, l'intelligenza naturalistica, l'intelligenza interpersonale e l'intelligenza
intrapersonale"2. I programmi di apprendimento automatico hanno da tempo
superato le prestazioni umane in molti effort matematici, e se l'intelligenza
"corporeo-cinestetica" include la fabbricazione, gli esseri umani hanno da tempo
superato le macchine in compiti che sono ripetitivi e faticosi. Né è difficile
immaginare i robot della Boston Dynamics programmati per sconfiggere qualsiasi
squadra di calcio vivente.

Se consideriamo altre intelligenze, la questione è più controversa. Un


programma potrebbe facilmente mettere insieme milioni di combinazioni
concepibili di note, esporre gli ascoltatori ad esse e scoprire così ciò che è più
popolare. Questa cosa è intelligenza musicale? Acume artistico? Magia del
marketing? Forse gli esperti possono aiutarci, dando recensioni “cieche” (“doppio
cieco”) delle composizioni umane e delle macchine. Un tale test di Turing elitario
potrebbe accreditare un'IA compositiva con "prestazioni di livello umano" una volta
che una massa critica di intenditori preferisse la musica dell'IA a quella di un
compositore esperto (o almeno non potesse distinguere tra composizioni
meccaniche e umane). In Galatea 2.2, il romanziere Richard Powers ha immaginato
un software a cui si insegna a imitare gli studenti laureati in inglese che fanno esami
basati sulla scrittura di un saggio su grandi romanzi. Dato un corpus abbastanza
grande di risposte di esami passati, questa evoluzione sembra sempre più plausibile.
Eppure siamo molto, molto lontani dall'inventare programmi in grado di esprimere
tutto ciò che un buon insegnante potrebbe dire su tali romanzi; per non parlare della
robotica che sarebbe al limite solo una simulazione passabile di un tale insegnante.

Lo Stato dovrebbe investire in un tale progetto di affective computing?


Dovremmo lavorarci noi? Queste domande rientrano probabilmente nelle categorie
dell'intelligenza "interpersonale" e "intrapersonale", se vogliamo seguire il quadro
delle intelligenze multiple. Sono sfaccettature dell'"intelligenza autentica" -
un'"intelligenza artificiale" che combina giudizio, saggezza e creatività3.

L'intelligenza artificiale si concentra sulla realizzazione più efficiente di obiettivi


prefissati; l'intelligenza autentica è necessaria per decidere meglio quali dovrebbero
essere i nostri obiettivi. Troppa letteratura sull'IA elude la questione degli obiettivi e
dei valori, assumendo invece che "noi" (comprese costrutti così ampi come
l'umanità nel suo complesso) condividiamo dei valori, e ora dobbiamo metterci al
lavoro per sviluppare linee guida etiche e regolamenti per implementarli. Un passo
verso l'intelligenza autentica è riconoscere il tragico pluralismo dei valori umani, e
quanto sia difficile immaginare un'IA programmata per rendere giustizia a tutti loro.

Codificare la saggezza

Nonostante l'ardua sfida di prescrivere la saggezza "intrapersonale" attraverso


il codice, cioè conoscere sé stessi e i propri commitment più profondi, gli
imprenditori tecnologici stanno andando avanti, sotto forma di app per la terapia.
Alcune di queste applicazioni portano la gig economy alla psichiatria, collegando i
pazienti ai terapeuti (e prendendo una quota dei compensi). Altre sono prescritte da
terapisti delle dipendenze, per incoraggiare a seguire un programma di trattamento
e per raccogliere dati su craving e ricadute. Le app più ambiziose mirano a sostituire
le persone, promettendo un incontro terapeutico (o qualcosa di simile) quando un
consulente è assente o troppo costoso.

Tutti questi termini di cura, che indicano diverse vocazioni e professioni,


possono confondere. Qual è esattamente la differenza tra uno psichiatra, uno
psicologo, un consulente, un operatore sanitario di comunità, un assistente sociale
clinico, un sacerdote o un life coach? In che modo le licenze professionali
preservano la qualità e quando invece escludono i lavoratori potenzialmente
qualificati? Come molte cose nell'assistenza sanitaria americana, l'accesso
all'assistenza di qualità per la salute mentale è discontinuo e inaccessibile per troppi.
Certamente un'app per la terapia è un "qualcosa" che potrebbe essere meglio del
"niente" di cui soffrono ora i non serviti?

Con questo aut aut, è probabile che le app di terapia guadagnino popolarità. I
regolatori imbarazzati saranno riluttanti a vietare (o anche a limitare) la tecnologia
che pretende di colmare le lacune di un sistema sanitario rotto. Man mano che le
app si diffonderanno, "impareranno" quali modelli di parole, immagini e suoni
sembrano più in grado di alleviare la depressione, l'ansia o la rabbia, per le migliaia o
milioni di "doppelganger di dati" che ora stanno creando dai nostri dati. Tutto ciò è
un progresso, vero?
Io non credo. Troppe app di terapia non sono propriamente basate su
evidenze, e una crescente letteratura medica ha messo in dubbio la loro efficacia 4
. Sconfortato come sono dalla prospettiva di robot terapeuti che gradualmente
battono gli umani nel conforto, nella creazione di significato e nell'accettazione di
sé, potrei soffermarmi a lungo su quella letteratura sull'efficacia. Ma questo sarebbe
un errore. Inquadrare la questione della robo-terapia come una questione di
efficacia presuppone un telos: che alla fine saremo capaci di creare macchine che
assumano ruoli ora distintamente umani. Una volta che questo telos è assunto,
intere prospettive di discussione sulla natura e lo scopo della tecnologia
scompaiono. Presupporrebbe ossia che siamo su un binario; l'unica questione è
quanto velocemente possiamo progredire lungo di esso5.
Il discorso dell'efficacia nella valutazione delle app fa parte di quella che ho
considerato una "prima ondata" di responsabilità algoritmica: riforme progettate
per garantire che le aziende e i governi stiano sviluppando una tecnologia utile e
non discriminatoria che faccia ciò che promette. Un classico esempio di questa
"prima ondata" è assicurare che i sistemi di riconoscimento facciale possano
identificare persone di tutte le etnie, dato che in passato non sono riusciti a
identificare un numero sproporzionato di individui appartenenti a minoranze. La
"seconda ondata" si deve chiedere però se certe tecnologie debbano essere
perseguite. Molti attivisti e accademici hanno rifiutato il riconoscimento facciale
universale tout court, in quanto innovazione che merita censura,
indipendentemente dai suoi meriti, perché distrugge la nostra capacità di rimanere
anonimi in una folla. Lo stesso si può dire di alcune tecnologie di detenzione
domestica: possono anche essere meglio di una cella, ma presagiscono anche un
livello di sorveglianza granulare e di controllo degli individui che anche i più duri
critici dell'incarcerazione di massa faticano ad accettare.

Appagamento da condizionamento operativo

La sorveglianza e il controllo è ciò che in definitiva è inquietante e alienante


nella prospettiva dei terapisti robot. Pensate ai passi concreti che dovremmo fare
per arrivare a un mondo fantascientifico di terapeuti chatbot indistinguibili da quelli
umani. Questa transizione comporta una sorveglianza massiccia degli esseri umani,
al servizio della creazione di macchine sofisticate progettate per ingannare gli esseri
umani e fargli credere che stanno vivendo un autentico incontro terapeutico.

Questa prospettiva non è allettante, per quanto i designer di esperienze utente


possano fare i primi passi verso di essa. Considerate come la tanto sbandierata app
Woebot è progettata per automatizzare gli aspetti della terapia cognitivo-
comportamentale. Woebot inizia le conversazioni con gli utenti offrendo risposte
semplici e dicotomiche. Per esempio, vicino all'inizio della sua interazione, Woebot
può scrivere: "I miei dati dal mio studio a Stanford mostrano che ci vogliono circa
[14 giorni] perché le persone si abituino a [chattare con me] e comincino a sentirsi
meglio". L'utente non può digitare domande critiche come: "Quale studio di
Stanford? Quanti partecipanti c'erano? A cosa è stato esposto il gruppo di
controllo?". Piuttosto, le due risposte consentite sono "Ha senso" o "Hmm ...". Tali
risposte binarie si presentano ripetutamente nell'app, disciplinando la risposta
dell'utente.

Per qualcuno condizionato dai test a scelta multipla, da semplici giochi telefonici
come Candy Crush, e dai binomi "mi piace/non mi piace" di Facebook, Instagram e
Twitter, i pulsanti di risposta di Woebot possono essere una gradita continuazione
della deriva digitale senza attrito. Essi tolgono l'onere di spiegare sé stessi, articolare
una risposta intelligente, e decidere se essere caldi o scettici. Tutto ciò può dare
sollievo a coloro che sono già oppressi dalla depressione.

Al contrario, c'è un metodo di trattamento - noto come talk therapy - che


ritiene che tale articolazione sia lo scopo stesso della consulenza, non qualcosa da
evitare. L'ascesa delle app per la terapia rischia di emarginare ulteriormente la talk
therapy a favore di approcci più comportamentali, che cercano semplicemente di
terminare, silenziare, sopraffare o contraddire i pensieri negativi, piuttosto che
esplorare il loro contesto e le loro origini ultime. Quando le app per la salute
mentale sono guidate da un'intelligenza artificiale ristretta, esse beneficiano e
rafforzano un approccio utilitaristico ai pazienti, che inquadra i loro problemi
semplicemente come impedimenti alla produttività.7.

Questa definizione ristretta del problema della salute mentale è un pericolo particolare
quando le corporazioni e i governi cercano di dare un volto amichevole ai loro servizi e richieste.
Consideriamo, per esempio, un'app di terapia che si confronta con un lavoratore che si lamenta del
suo tempo sul lavoro. Il lavoratore si sente sottopagato e sottovalutato, ed esprime queste
preoccupazioni all'app. Ci sono diverse risposte potenziali a questo problema. Per esempio, l'app
potrebbe consigliare l'assertività, spingendo il lavoratore a chiedere un aumento. All'altro estremo,
l'app potrebbe prescrivere una rassegnazione attendista al proprio destino, esortando ad apprezzare
tutto ciò che si ha già. Oppure potrebbe mantenere una studiata neutralità, scavando sempre più a
fondo nelle ragioni del disagio del lavoratore. Indovinate quale risposta un datore di lavoro potrebbe
voler vedere nelle applicazioni di benessere fornite ai suoi lavoratori? Una prescrizione di
solidarietà ha la possibilità di competere su un tale mercato? 8
La grande promessa dell'analitica predittiva nell'assistenza sanitaria è la capacità di trovare
modi ottimali di fornire assistenza. Ma nel caso di problemi di salute mentale ordinari, ci possono
essere più modi per definire il problema. Diversi modelli commerciali possono incoraggiare diversi
modi di definire la malattia mentale, o il suo trattamento. I venditori di un'applicazione gratuita con
un modello basato sulla pubblicità possono voler incoraggiare gli utenti a tornare il più spesso
possibile. Un servizio basato sull'abbonamento non ottimizzerebbe necessariamente il "tempo sulla
macchina", ma potrebbe mirare a usare altre forme di manipolazione per promuoversi. Gli auto-
rapporti di benessere possono essere una "verità di base" non controversa con cui misurare il valore
delle app. Ma il concetto di benessere è stato colonizzato da aziende e governi, e legato intimamente
a misure più oggettive, come la produttività9.
Abbiamo anche bisogno di pensare profondamente se le scale Likert quantificabili dei
sentimenti sono modi irrimediabilmente rozzi di valutare il valore della terapia.

Il nucleo riduzionista dell'informatica affettiva su scala

A molti dei problemi dettagliati sopra, gli entusiasti dell'affective computing hanno
una risposta semplice: Aiutateci a risolvere il problema. Alcuni di questi appelli sono
il classico Tom Sawyering, dove i ricercatori chiedono ai critici di lavorare
gratuitamente per de-biasare i loro sistemi. Altri sembrano più sinceri,
compensando adeguatamente gli esperti nelle implicazioni etiche, legali e sociali
dell'IA per aiutare a progettare meglio i sistemi sociotecnici (piuttosto che limitarsi a
ripulire dopo i tecnologi). Poiché i gruppi minoritari sono invitati a partecipare allo
sviluppo di analizzatori di emozioni più equi e trasparenti, alcuni dei peggiori abusi
dei software di previsione e assunzione del crimine potrebbero essere evitati.

Ma dovremmo davvero puntare ad "aggiustare" l'affective computing? Cosa


comporta una metafora così meccanica? Uno degli ex colleghi di Picard al MIT, il
defunto Marvin Minsky, si lamentava nel suo libro The Emotion Machine che
"sappiamo molto poco di come il nostro cervello gestisce" le esperienze comuni:

“Come funziona l'immaginazione? Quali sono le cause della coscienza? Cosa sono le
emozioni, i sentimenti e i pensieri? Come riusciamo a pensare? Contrasta questo
con i progressi che abbiamo visto per rispondere alle domande sulle cose fisiche.
Cosa sono i solidi, i liquidi e i gas? Cosa sono i colori, i suoni e le temperature? Cosa
sono le forze, le sollecitazioni e le tensioni? Qual è la natura dell'energia? Oggi, quasi
tutti questi misteri sono stati spiegati in termini di un numero molto piccolo di leggi
semplici”.

Anche le emozioni, secondo la sua logica, dovrebbero essere soggette alla riduzione
scientifica. Propone di scomporre i "sentimenti" o le "emozioni" in parti costitutive,
un passo verso la loro quantificazione come le temperature o le velocità. Una
domanda di brevetto di Affectiva, l'azienda co-fondata da Picard, descrive in
dettaglio proprio come tale quantificazione potrebbe funzionare, analizzando i volti
per catturare le risposte emotive e generare "un punteggio di coinvolgimento". Se le
istituzioni acquistano questo tipo di presupposti, gli ingegneri continueranno a fare
queste macchine che cercano di attualizzarli, coccolando clienti e pazienti, lavoratori
e studenti, con stimoli finché non reagiscono con la risposta desiderata – il modo in
cui la macchina ha già deciso che certe emozioni devono apparire.

Dall'interno di una cornice ingegneristica, la ricerca scientifica dietro l'affective


computing è incontestabile, non politica - qualcosa che deve necessariamente
essere lasciato agli esperti di AI. Il ruolo dei critici non è quello di diffidare della
scienza, ma di aiutare gli ingegneri a riflettere i valori sociali del consenso nel modo
in cui applicano le loro scoperte sull'analisi facciale, che, come nota un altro
deposito di brevetto Affectiva, potrebbe "includere l'analisi del mercato dei prodotti
e dei servizi, l'identificazione biometrica e di altro tipo, gli utilizzi da parte delle forze
dell'ordine, la connettività dei social network e i processi sanitari, tra molti altri usi".

C'è un altro e migliore framing disponibile rispetto a quello ingegneristica, però - una
più politica, incentrata su controversie di lunga data riguardanti la natura delle
emozioni, il potere delle macchine di caratterizzarci e classificarci, e lo scopo e la
natura dei sentimenti e degli stati d'animo stessi. Da questa prospettiva, l'affective
computing non è semplicemente un'elaborazione pragmatica delle persone, ma una
forma di governo, un mezzo attraverso il quale i soggetti sono classificati sia per i
capi azienda che per i loro tirapiedi. Trattare le persone come individui, con vite
emotive complesse e in evoluzione, richiede tempo e lavoro. Attribuire loro un
qualche "punteggio di impegno" o classificatore è un modo scalabile, risparmiando
così lo sforzo umano che una volta sarebbe stato dedicato ad esplorazioni più
conversazionali degli stati emotivi.
Questa capacità di scala a sua volta alimenta la redditività delle applicazioni di
affective-computing - lo stesso software può essere adattato a molte situazioni e poi
applicato a vaste popolazioni per trarre conclusioni utili. Abbiamo visto quanti soldi
si possono fare nel condizionare le persone a interagire in modi standardizzati in
piattaforme come Twitter e Facebook - compresi i "cuori" e i pulsanti di reazione.
Ora immaginate le opportunità di business nella standardizzazione delle risposte
emotive offline. Ogni tipo di cattiva comunicazione potrebbe apparentemente
essere evitata. Una volta che la comunicazione stessa è stata costretta all'interno di
bande strette di indicatori emotivi leggibili dalla macchina, più messaggi e
preferenze verrebbero trasmessi istantaneamente.

Questo è un progetto pericoloso, però, perché i significati di, diciamo, un ghigno in


un ambiente sperimentale controllato, un cinema, un appuntamento a cena e una
rapina a mano armata, sono probabilmente abbastanza distinti. James A. Scott ha
esplorato i pericoli della "leggibilità" come progetto politico-economico nel suo
classico Seeing Like a State, che descriveva la tracotanza burocratica basata su
presupposti errati della realtà sociale. Scott teorizza i disastri che vanno dal Grande
balzo in avanti della Cina alla collettivizzazione in Russia e alla villaggizzazione
obbligatoria in Etiopia e Tanzania come radicati negli sforzi falliti dello stato di
"conoscere" i suoi soggetti:

“Come ha fatto lo stato a prendere gradualmente in mano i suoi soggetti e il loro


ambiente? Improvvisamente, processi così disparati come la creazione di cognomi
permanenti, la standardizzazione di pesi e misure, l'istituzione di rilevamenti
catastali e registri della popolazione, l'invenzione della proprietà terriera, la
standardizzazione del linguaggio e del linguaggio legale, la progettazione delle città e
l'organizzazione dei trasporti sembravano comprensibili come tentativi di leggibilità
e semplificazione. In ogni caso, i funzionari hanno preso pratiche sociali
eccezionalmente complesse, illeggibili e locali, come le usanze di possesso della
terra o di denominazione, e hanno creato una griglia standard per poterle registrare
e monitorare a livello centrale”.

Le crisi di travisamento - o di rappresentazione forzata - possono sorgere anche in


ambiziosi progetti di affective-computing. Non tutte le classificazioni di una persona
come, diciamo, "arrabbiata", sono basate su letture accurate degli stati emotivi.
Potrebbero essere proiezioni, letture strategiche o letture errate; o semplici errori.
Ma indipendentemente dall'accuratezza, diventano fatti sociali con peso e influenza
in vari database, che a loro volta informano i decisori.

Così la metrica delle emozioni non cerca semplicemente di fornire una


rappresentazione di ciò che è, ma è anche un metodo per produrre soggetti che
sono suscettibili ai mezzi di controllo che la metrica alimenta e gestisce. In altre
parole, gran parte dell'affective computing non si occupa tanto di catturare gli stati
emotivi esistenti quanto di postularli. Definisce particolari manifestazioni emotive
come normative in particolari circostanze e poi sviluppa sistemi (come i depositi di
brevetto Affectiva menzionati sopra) per premiare, imporre, o anche controllare la
conformità con queste norme. Mentre la visione a lungo termine dell'affective
computing è ora inquadrata come un regno pacifico di computer piacevoli e utenti
felici, la sua disattenzione alle dinamiche di potere tradisce un campo facilmente
riproponibile a fini meno emancipatori.

Per esempio, se, avendo visto una serie di esecuzioni sommarie ampiamente
pubblicizzate da parte della polizia, la maggior parte delle persone inizia ad
avvicinarsi agli agenti di polizia con estrema deferenza, questo comportamento
potrebbe essere catturato e normalizzato, risultando in un software che calcola
"punteggi di obbedienza" per i sospetti. Ma questa pratica non si limiterebbe a
riportare la realtà. Piuttosto, contribuirebbe a creare nuove realtà e potrebbe
facilmente aumentare il rischio di più violenza contro coloro che non riescono a
eseguire correttamente l'obbedienza in futuro. Come la classica "spirale del silenzio"
di Noelle-Neumann (Spiral of Silence), una "spirale del servilismo" è un pericolo
distintivo di un mondo affettivamente compresso da autorità sempre più suscettibili,
guardinghe e intolleranti.

La spirale della sottomissione

I computer affettivi possono essi stessi rimanere intrappolati in tali spirali,


innovando le manifestazioni di preoccupazione o di rispetto per coloro che sono
soggetti ai loro interventi. Un programma Medicare
https://www.nytimes.com/2019/03/23/sunday-review/human-contact-luxury-
screens.html ora presenta avatar parlanti di cani e gatti, progettati per calmare gli
anziani. Comandati a distanza in un modo che ricorda il film Sleep Dealer, gli avatar
hanno lo scopo di dare un volto kawaii per l’assistenza dei lavoratori distanti,
mentre forse risparmiano ai lavoratori la fatica emotiva mentre questi controllano e
rispondono loro clienti. Si può immaginare che i commercianti aggiungerebbero
personaggi sorridenti e animati ai chioschi di auto-riciclaggio in base ai modelli di
navigazione internet di un cliente. Potremmo anche dare il benvenuto a sistemi
automatizzati che simulano la preoccupazione - paradisi meccanici in un mondo
senza cuore.

Ma queste comodità non sono meno manipolabili perché sono personalizzate. Come
ha sostenuto Daniel Harris in Cute, Quaint, Hungry, Romantic, l’aspetto carino ha
una curiosa dualità: intesa a evocare calore e cura, le creature carine sono anche
abiette, patetiche, indifese, innocue. Quando una corporazione o uno Stato senza
volto dispiega tale retorica visiva, il significato in primo piano è la cura e la
preoccupazione, ma in agguato sullo sfondo c'è un'altra risonanza di questa
gradevolezza: l'infantilizzazione, esacerbata dalla sensazione che i controllori del
sistema non solo ti ritengono troppo insignificante per occuparti personalmente, ma
non possono nemmeno preoccuparsi di evocare un avatar umano per consentire la
loro distanza.

Queste dinamiche sottili e ricorsive del sentimento - e la linea sottile tra gesti
premurosi e paternalistici - non sembrano disturbare la maggior parte del lavoro
nell'affective computing. Il modello di attività mentale del campo è più
comportamentista (cercare gli stimoli migliori per provocare le risposte desiderate)
che fenomenologico (interpretare riccamente il significato delle situazioni). Da
questa prospettiva, le emozioni sono essenzialmente strumenti pragmatici. I
sentimenti sono funzionali come un pulsante "mi piace" o un semaforo: la gioia e
l'amore affermano il proprio stato attuale; la paura e la tristezza provocano un senso
di disagio, un bisogno di fuggire o di lottare, di criticare o di lamentarsi. Le emozioni
sono in gran parte trattate come autonome e univoche piuttosto che come stimoli
all'articolazione o alla valutazione dialogica e alla riflessione sulla propria situazione.

I ricercatori hanno descritto molteplici progetti di affective-computing come modi


per rilevare - e persino prevedere - le risposte emotive, concepite in questo modo
limitato. Per esempio, l'IA potrebbe trovare modelli di microespressioni (espressioni
facciali rapide e fugaci) che spesso precedono la rabbia più ovvia. I dipartimenti di
polizia potrebbero cercare di prevedere il crimine basandosi su poco più del
contegno di una persona. I sistemi di servizio al cliente vogliono usare il software di
analisi della voce per determinare fino a che punto possono ritardare la chiamata di
un cliente prima che la negligenza diventi fastidiosa. Alcuni datori di lavoro pensano
che le onde cerebrali dei lavoratori contengano indizi critici sul loro impegno e sui
livelli di stress.

Tali programmi possono fornire dati preziosi per una società o un governo che cerca
di massimizzare i profitti o di sottomettere una popolazione. Ma stanno davvero
"calcolando l'affetto", rendendo leggibile a macchina qualcosa di ineffabile e
interiore come l'emozione? I critici sostengono che il calcolo dell'affetto è molto più
difficile di quanto i ricercatori lo facciano sembrare. Sottolineano i molti modi in cui
le espressioni facciali (e altri indicatori ostensibili dell'emozione, come la frequenza
cardiaca o la risposta galvanica della pelle) non riescono a trasmettere accuratamente
gli stati d'animo discreti. Lo spostamento degli occhi è un segno di distrazione o di
profonda riflessione sul problema in questione? Quando un sorriso è una smorfia? O
un occhiolino, un tic, nella classica formulazione dell'antropologo Gilbert Ryle? E
perché dovremmo supporre che trasformare espressioni involontarie o
semivolontarie in forme di interazione computerizzata (o opportunità di
classificazione computazionale) servirebbe i nostri interessi meglio di quelli dei
clienti delle aziende leader dell'affective computing? La storia vergognosa delle
cosiddette macchine della verità dovrebbe guidare il lavoro futuro speso per
"decodificare" meccanicamente l'intenzione, i livelli di stress e la sincerità.

L'affective computing è tanto un motore quanto una macchina fotografica, un modo


di organizzare e riorganizzare la realtà sociale (piuttosto che semplicemente
registrarla). Più diventa comune, più questi sistemi sociotecnici ci incentiveranno a
regolare i nostri stati "emotivi" esteriori per far sì che i computer si comportino
come vorremmo. Naturalmente, facciamo questo nella conversazione con le
persone tutto il tempo - la comunicazione strategica e strumentalizzata sarà sempre
con noi. Ma questi sistemi saranno più manipolabili perché saranno molto più
limitati nel modo in cui trarranno le conclusioni. E grazie alla magia della capacità di
scala, tenderanno anche ad essere molto più effettivi delle conversazioni una
tantum.

In troppe delle sue attuali implementazioni, l'affective computing ci richiede di


accettare come vere certe idee funzionaliste sulle emozioni, il che porta ad un
comportamentismo depoliticizzato e sminuisce i nostri processi coscienti di
esperienza o riflessione emotiva. Proprio come la manipolazione di precisione delle
emozioni attraverso le droghe non garantirebbe la "felicità", ma introdurrebbe solo
un'economia psichica radicalmente nuova di appetiti e avversioni, desideri e
malumori, le implementazioni aziendali dell'informatica affettiva non riguardano
tanto il servizio alle persone quanto il loro modellamento. Preservare la privacy e
l'autonomia delle nostre vite emotive dovrebbe avere la priorità su una ricerca
fuorviata e manipolativa di macchine delle emozioni.

Note
Susan Urbina, “Tests of Intelligence,” in Robert J. Sternberg and Scott Barry Kaufman, eds., The
Cambridge Handbook on Intelligence (Cambridge: Cambridge University Press, 2011).
2
Katie Davis, Joanna Christodoulou, Scott Seider, and Howard Gardner, “Multiple Intelligences,” in Robert.
Sternberg and Scott Barry Kaufman, eds., The Cambridge Handbook on Intelligence (Cambridge:
Cambridge University Press, 2011).
3
Alcuni psicologi specializzati nello studio dell'intelligenza hanno ampliato il loro campo di indagine per
esplorare tali preoccupazioni. Vedi, per esempio, Robert J. Sternberg, Wisdom, Intelligence, and Creativity
Synthesized (Cambridge: Cambridge University Press, 2003). Questo libro contesta, tra le altre questioni
dubbie, l'idea che l'intelligenza sia ciò che i test d'intelligenza misurano.
4
Ariel Bogle, “Too many mental health apps put style over substance,” Mashable, Nov. 30, 2016,
http://mashable.com/2016/11/30/mental-health-apps-little-evidence/#6IAWdZ.f8mqO; Emily Anthes,
“Mental health: There’s an app for that,” Nature, April 6, 2016, http://www.nature.com/news/mental-health-
there-s-an-app-for-that-1.19694 (At the time it was written, Nature’s article estimated that there were nearly
5,000 available apps addressing mental health.).
5
Questo è stato anche il genio retorico dietro il test di Turing. Era un'educazione dei sentimenti, verso
l'accettazione della personalità dell'IA come telos di un corpo di ricerca che avrebbe potuto essere altrettanto
facilmente inquadrato come aumento dell'intelligenza, un modo di assistere gli umani. Il classico test di
Turing non è tanto uno standard filosofico per valutare il successo dell'IA quanto un dispositivo retorico per
abituare i lettori ad assumere che lo status di persona debba essere concesso al compimento di certi compiti.

Tradotto con www.DeepL.com/Translator (versione gratuita) 6 Enrico Gnaulati, Saving Talk Therapy: How
Health Insurers, Big Pharma, and Slanted Science Are Ruining Good Mental Health Care (Boston: Beacon
Press, 2018).
7
Elizabeth Cotton, “Working in the Therapy Factory,” Healthcare: Counselling and Psychotherapy Journal
20(1) (2020): 16-18; Catherine Jackson and Rosemary Rizq, eds., The Industrialisation of Care:
Counselling, Psychotherapy and the Impact of IAPT (Monmouth, UK: PCCS Books, 2019).
8
For more on the financialization of mental health status, see Will Davies, The Happiness Industry: How the
Government and Big Business Sold Us Well-Being (London: Verso, 2015).
9
Gordon Hull and Frank Pasquale, “Toward a Critical Theory of Corporate Wellness,” BioSocieties13:1
(2018), 190-212.