Sei sulla pagina 1di 12

No.

41/2003

La teoria della mente allargata (seconda parte)


di Giuseppe Fichera
II Parte dellIntervista con Riccardo Manzotti, bioingegnerie e filosofo, autore del libro Coscienza e realt

Giuseppe Fichera

Baby Robot, Comunicazione, Emozioni e Coleotteri. Come tutte le sedi delle universit genovesi che si rispettino, anche il LIRA Lab non pu essere esplorato senza una degna guida. E come Virgilio, Manzotti[1]mi accompagna nei meandri delledificio, fra stretti corridoi e scalinate che salgono e scendono verso soppalchi rimodernati e antichi portoni in legno e lavagna. Infine, dopo avere varcato lultima porta, ci si presenta una stanza pi ordinata; di fronte alcune scrivanie dotate di computer, qualche scaffale per i libri e, alla mia sinistra, due occhi silenziosi che osservano i nuovi entrati. Si tratta di due piccole videocamere fotosensibili, supportate, a destra e a sinistra, da parabole rilevatrici di frequenza sonore; e, come si conviene ad un Robot antropomorfo, un braccio meccanico dotato di avambraccio, mano, falangi, dita, degno del miglior terminator. Gli occhi e le orecchie sono in grado di scrutare lo spazio circostante, supportate da movimenti analoghi a quelli di una testa umana. Ancorato ad un essenziale busto, il braccio meccanico pu interagire plasticamente con gli oggetti che lo circondano. Accanto alle falangi della mano antropomorfa, due pupazzi di gomma piuma dai colori sgargianti: unape ed una coccinella, come sarebbe normale nel box di un bambino. Dopo qualche secondo di muta contemplazione di Baby Bot, la prima domanda , ovviamente, sui giocattoli. Perch i giocattoli, dott. Manzotti? Il robot detto Baby Bot (acronimo di piccolo robot), lo scopo che ci prefiggiamo quello di farlo apprendere, crescere e sviluppare. I giocattoli hanno uno scopo pratico e non coreografico, si tratta di oggetti dotati di colori forti che se agitati emettono suoni. Baby Bot sta imparando a coordinare, i movimenti oculari, con la prensione e con i rumori: esattamente come farebbe un bambino giocando con i propri giocattoli. Baby Bot ha cinque anni. In questi anni ha intrapreso un vero e proprio processo di apprendimento e sviluppo ontogenetico. Il nostro obiettivo e che il Robot impari autonomamente a interagire con lambiente nel periodo di sviluppo. Come intendete ottenere questi risultati? Pu spiegarci meglio? Esistono vari approcci allintelligenza artificiale ed alla filosofia della mente. Lapproccio classico prevede la filosofia del dividi et impera. Si costruiscono le parti se ne perfezionano le funzioni e si creano dei robot molto efficienti, i cui comportamenti per quanto eccezionali, non sono molto di pi di ci che i loro costruttori hanno per loro immaginato e registrato nei microchips. E il caso ad esempio dei robot impiegati per uso industriale o di piccoli robot, che si comportano come cuccioli tanto da essere stati commercializzati diventare mezzo di divertimento e compagnia per adulti e bambini. Tutte queste macchine sono assemblaggi di parti perfettamente funzionanti. I risultati sono lefficienza e (per un osservatore che non si fa troppe domande) una serie di comportamenti che possono apparire intenzionali, tanto da essere assimilabili, ad esempio, quelli di un vero cagnolino.

ticonzero No. 41/2003

In realt cos non , poich una macchina intelligente dovrebbe essere in grado di fare cose che non erano previste dai suoi programmatori, solo una parte di esse dovrebbe essere frutto di un programma, come accade del resto per gli esseri viventi, nei quali molti comportamenti sono diretta espressione del programma genetico. Ed qui che nasce lidea di costruire un robot, non solo in grado di apprendere, ma anche in grado di sviluppare obiettivi e comportamenti. Che cosa intendi per sviluppo e per apprendimento? Lapprendimento il modo in cui un organismo raggiunge particolari obiettivi predeterminati. Nel nostro caso Baby Bot impara a vedere a sentire ecc., e per questo vengono implementati specifici programmi (attraverso reti neurali, reti fazzy ecc.) per ogni specifica funzione. E fino qui nonostante la complessit, esistono tecnologie ad hoc, che possono essere facilmente applicate. Per sviluppo intendiamo, invece, una fase dellevoluzione che permette allindividuo di coordinare i vari apprendimenti tra loro e, per sviluppare una percezione integrata e unitaria dellambiente. Il risultato di tale processo non strettamente predeterminato. Mentre lapprendimento supportato dallintelligenza (o la capacit di raggiungere un obiettivo con il minor dispendio di energie possibile), lo sviluppo il modo in cui ogni individuo integra in maniera unitaria i propri apprendimenti interagendo con lambiente; con uno slogan potremo dire che lo sviluppo larte di bilanciare filogenesi (singole prestazioni predeterminate da un hardware per i robot), e ontogenesi (la storia evolutiva del soggetto in questione): la coscienza dovrebbe esser il risultato di proprio questa interazione. Perch un robot con sembianze vagamente umane? Baby Bot costruito attraverso due principi fondamentali: il primo quello di dotare la macchina fattezze antropomorfe quindi con sistemi sensoriali paragonabili a quelli umani; il secondo che sia in grado di dare rappresentazioni unitarie del mondo circostante. Questo implica alcune considerazioni: la prima e che la percezione del mondo che si pu avere dipende dai nostri organi di senso e da come essi sono strutturati. E importante, per poter osservare esperienze analoghe alle nostre, avere caratteristiche fisiche e percettive simili. Per esempio, noi non potremo confrontare la nostra percezione della forma di un oggetto o del suo colore se non avessimo un sistema di visione strutturato in un certo modo. Sarebbe quindi molto difficile e forse impossibile spiegare ad un cieco dalla nascita cosa sia il colore rosso, allo stesso modo noi non potremo mai sapere cosa vede un pipistrello con il suo senso radar.

Giuseppe Fichera

Il secondo principio? La seconda caratteristica che abbia una visione integrata della realt, Anche lesperienza ordinaria che facciamo continuamente quando osserviamo gli oggetti e le cose che si presentano sotto il nostro sguardo quella di una visione unitaria. Ad esempio questo libro ha una certa forma una certa dimensione una certo colore, dei contenuti, ecc.. Posso poi concentrare la mia attenzione sullosservazione di particolari, il colore il peso ecc., ma di essi conserver sempre una visione unitaria, che dipende dalloggetto e dal modo in cui io lo interpreto. Non ha senso allora per le scienze cognitive se questa una caratteristica essenziale della mente e del suo modo di interagire col mondo costruire macchine assemblando componenti, molto preformanti sul singolo compito (visione, prensione, attivit motorie ecc..), che tuttavia non permettano al soggetto avere una percezione del suo ambiente in maniera unitaria. Questo fa Baby Bot, in maniera non determinata dallo sperimentatore mentre, gioca con i propri giocattoli. In qualche modo la sua percezione della realt si espande, si allarga ogni volta il contenuto di ci che stato appreso si coordina, si combina, con gli apprendimenti precedenti. Lintelligenza allinterno di questa descrizione sembra essere pi uno strumento che non un punto di arrivo per comprendere la mente. Per questo occorre oggi parlare pi di coscienza artificiale che non di intelligenza artificiale? Dal nostro punto di vista lintelligenza e la coscienza sono due cose fondamentalmente diverse. La sovrapposizione di questi due modi vedere la mente dovuta al fatto che le scienze cognitive hanno pensato di identificare la mente e il pensiero con i comportamenti legati alla manipolazione di simboli o allimitazione dei comportamenti delluomo. Occorre distinguere labilit definita come intelligenza in grado di eseguire compiti dallesperienza cosciente che ne fa un soggetto. Da questo punto di vista lintelligenza di un giocatore di scacchi consiste nella sua capacit di creare la condizione dello scacco matto nel minor numero di mosse possibili, quindi con il minor dispendio di energia (mosse errate, o meno utili allo scacco) che vengono attuate. Abbiamo macchine come il famoso DEEP BLUE in grado di battere campioni

ticonzero No. 41/2003

del calibro di Kasparov, ecc.. Possiamo dire che Deep Blue sia intelligente, ma non che abbia coscienza delle azioni che compie. Abbiamo anche giocattoli antropomorfi che operano processi ancora pi sofisticati di accudimento, cura ecc, come sistemi esperti che accudiscono ammalati, piccoli robot che simulano in tutto e per tutti comportamenti animali ecc... E in qualche modo ci che accade nel Film di Spielberg A.I.? Certo David, il robot bambino suscita nei genitori adottivi (e nello spettatore) sentimenti di accudimento, attaccamento ecc., David, invece simula questi comportamenti, non cresce non impara, tanto che per leternit cercher come da programma - la madre adottiva da cui stato abbandonato. Gli addetti al marketing di compagnie che producono strumenti tecnologici non hanno nessun problema a definire intelligenti i loro prodotti (missili, serramenti, termostati, word processor, piccoli robot per pulire, controllare i malati, softwer che gestiscano le risorse umane e controllano la qualit) tuttavia assimilare il soggetto umano a questi sistemi ci mette di fronte a una nuova distanza. Mentre noi siamo in grado di fare esperienza di loro, loro non sono in grado di fare esperienza del mondo anche se con esso in qualche modo interagiscono, con comportamenti ritenuti intelligenti. In questi sistemi non esiste nulla di modificabile dallinterno, in altre parole ogni sistema, manipola simboli sintattici e semantici, opera delle azioni definibili come intelligenti ma non ha nessun tipo di rappresentazione che raffiguri una modifica di questi schemi. Limpossibilit di modificare i propri dati (se non per opera del suo creatore o operatore) impedisce allambiente di lasciare traccia di s, ma proprio questa la base di ogni esperienza cosciente.

Visto che ho innescato questo trip fantascientifico... La famosa fase del filmi Blade Runner ispirato ai romanzi di Philip Dick: ho visto coseche voi umani non potete neppure immaginare (o qualcosa del genere)! Suggerisce un processo che pu ricordare unesperienza cosciente nel senso prima indicato? Ecco, in questo caso siamo di fronte metaforicamente - ad un modello di attivit di un Robot Antropomorfo che si muove proprio in questa direzione. Le cose che landroide racconta di avere visto, (qualunque cosa fossero) sono eventi che, di fatto, hanno modificato la macchina dallinterno. In questo caso qualche cosa ha modificato un soggetto ed ha lasciato traccia di s. Quegli eventi non solo hanno

Giuseppe Fichera

modificato la sua memoria, ma anche il suo comportamento, le sue motivazioni, i suoi obiettivi. Cos diciamo: ha sviluppato una nuova motivazione, cio la volont di raggiungere obiettivi nuovi. Ma queste sono due caratteristiche, cui facevamo riferimento prima, fondamentali nella teoria della TMA, per il riconoscimento di una mente cosciente. Per altro, il test che il protagonista del film (un cacciatore di androidi) impartiva ai robot, pare essere molto simile al Test di Turing, il famoso teorico del funzionalismo. In sintesi asseriva: se la macchina con la quale interagiamo dialogando, non ci dar motivo di discriminare tra un uomo e un robot, ecco che abbiamo risolto il problema della mente e della coscienza,poich questi concetti si rivelano in ultima analisi totalmente inutili. Turing con il suo test, si rifugi in una posizione di tipo comportamentista, volendo far coincidere comportamento e mente. Egli ipotizz macchine capaci di manipolare simboli e sintassi negli anni cinquanta, che avrebbero raggiunto, un giorno, una soglia critica in grado di renderli indistinguibili dagli esseri viventi il cui sviluppo pi eclatante sono i nostri P.C.. Levoluzione attuale di soft-ware e hard-ware forse superiore a ci che Turing immaginava negli anni 50. Tuttavia noi, siamo si consapevoli di avere a che fare con macchine intelligenti capaci di manipolare simboli (sintassi), ma anche ci rendiamo facilmente conto che esse non hanno nessuna coscienza dei significati (semantica) delle loro azioni. I computer sui quali normalmente scriviamo non sono in grado di intenzionare nulla.

Landroide di Blaid Runner, invece si. Ad un certo punto fa qualcosa che il suo creatore non aveva previsto:sarebbe un bel coronamento alle vostre ricerche? Basterebbe osservare un comportamento intenzionale che indichi una motivazione forte del robot nei confronti di qualche cosa. Noi crediamo che non sia un problema tecnologico, ma appunto metodologico. Daltra parte gli autori dei romanzi di fantascienza hanno sempre immaginato comportamenti di questo tipo, che, non a caso, rappresentano i punti di forza nella trama del romanzo: ad un certo punto la macchina fa qualche cosa che non avrebbe dovuto fare. Tornando alla realt il nostro Baby Bot, ancora nella sua fase di sviluppo, stato programmato per osservare ed essere sensibile ai colori. Dopo un adeguato apprendimento attraverso limplementazione di una rete neurale, qualunque oggetto colorato per lui significativo ed egli lo segue nei suoi spostamenti nello spazio con gli occhi (come da programma).

ticonzero No. 41/2003

Dopodich gli sono stati riproposti altri oggetti con sfumature di grigio, fra i quali alcune stelle, essi non destavano nel robot alcun interesse (come da programma). Le registrazioni mostrano unosservazione totalmente random dello spazio, come se non vi fosse nulla degno di nota nellambiente circostante. In seguito gli sono stati riproposti oggetti colorati aventi la caratteristica comune di avere forma di stella. Ovviamente la registrazione dei punti nello spazio confermava la sua attenzione concentrata verso le stelle colorate, in quanto colorate ovviamente, e non in quanto stelle (come da programma). Successivamente gli sono stati presentati nuovamente oggetti in bianco e nero fra i quali vi erano alcune stelline (anchesse in bianco e nero); ebbene il piccolo robot pare seriamente interessato a queste ultime, tuttavia nel suo programma originario nulla era stato strutturato per ottenere questo risultato. Le registrazioni dimostrano tuttavia che il suo sguardo si posa con insistenza sulle stelline a scapito delle altre figure in bianco e nero. Straordinario! Baby Bot pare avere una motivazione specifica verso qualche oggetto, una relazione intenzionale, unonfene. Possiamo dire che le stelline in bianco e nero sono in qualche modo una sua scoperta. Un piccolo atto di coscienza secondo le previsioni della TMA. Si, ancora poco in effetti, occorrer far evolvere il robot per sperimentare qualche cosa di pi complesso, per avere prove pi consistenti. Tuttavia anche questa una prova della forza della TMA, essa in grado, coerentemente con il metodo scientifico, di fare delle previsioni sugli esiti dellapplicazione delle proprie teorie. Anche Kubrik, il regista di 2001 Odissea nello Spazio, pare aver intuito questo passaggio, Lo stesso HAL 9000, ad un certo punto fa strane domande ai cosmonauti della sua astronave, e ci che le domande hanno di strano proprio la consapevolezza o coscienza che il computer mostra di avere di se stesso. Si, pare esser un classico della letteratura fantascientifica, la macchina acquista coscienza quando fa qualcosa di non determinabile a priori, di non imputabile solo alla sua memoria, potenza di calcolo o intelligenza, il suo obiettivo cambia improvvisamente in una sorta di sentimento cosciente. Anche se, HAL 9000 non dotato di corpo. E una sorta di puro spirito!

Una specie di res cogitans? Immaginare la mente come puro spirito, ha storicamente portato ad una serie di problemi di cui ancora oggi facciamo le spese da un punto di vista metodologico.

Giuseppe Fichera

Il famoso dualismo sostanziale introdotto da Cartesio, porta a pensare che la mente e la materia siano due sostanze ontologicamente differenti e questo comporta una serie di difficolt con le quali ancora oggi ci confrontiamo.

Facciamo perdonami un altro esempio cinematografico ancora per gli appassionati di fantascienza. Il cervello a cui Matrix fornisce informazioni, in realt non ha mai fatto esperienza di ci che pare vivere. Morpheus, il capo dei ribelli, indica a Neo il mondo reale con la famosa frase Welcome to the Real World. Siamo tuttavia allinterno ancora di un tipo di dicotomia Cartesiana res cogitans e res extensa? Esattamente, infatti, nel secondo episodio Matrix il tema proprio questo. Non si riesce pi a distinguere fra il mondo creato da Matrix e il Real World di Morpheus, ovvero la realt indicata da Morpheus anchessa una creazione di Matrix. Ragionare con queste categorie porta a pensare che la materia sia soltanto una rappresentazione della mente. E questa rappresentazione , nel migliore dei casi, qualche cosa di diverso dalla materia stessa. E il problema di giustificare quale legame ci sia fra la rappresentazione (ci che sta dentro la mente), loggetto rappresentato (ci che allesterno). Cos oggi, seguendo questa strada, diventa difficile giustificare fenomeni percettivi da un punto di vista neurofisiologico, come larcobaleno di cui abbiano discusso allinizio. Cos facendo, Galileo prima e Cartesio poi aprirono, da un lato lo spazio per la possibilit di una conoscenza scientifica e oggettiva (per le Res Extensa quelle misurabili matematicamente), ma dallaltro chiudono quello dello studio della mente in quanto entit non riducibile alla sola realt materiale e in quanto tale non indagabile con i metodi della scienza (che venne indicata Res cogitans). Occorre riportare la mente e la coscienza nellambito di progetti scientificamente praticabili, questa la direzione nella quale pare orientarsi la scienza cognitiva nellultimo decennio. La filosofia pi recente da James a Wittgenstein, Skinner, Ryle ha messo da parte questo problema non interessandosene in maniera forte per analizzare altri eventi caratteristici del mente quali il linguaggio, il comportamento. Secondo Wittgenstein, per esempio, il linguaggio una funzione strettamente comunicativa e relazionale del nostro modo di interagire con il mondo. Il linguaggio privato, la soggettivit non ha in ultima analisi alcun senso. Ha senso solo ci che

ticonzero No. 41/2003

comunicato e le sue regole. Cos facendo nega la possibilit di indagare entit mentali private come la coscienza. Come nel famoso esempio del coleottero nella scatola. Supponiamo che ciascuno di noi abbia, una scatola direbbe Wittgenstein - in cui c qualcosa che noi chiamiamo coleottero.Nessuno pu guardare ovviamente nella scatola dellaltro, ma ognuno dice di sapere cosa un coleottero, soltanto guardando il suo coleottero. Potrebbe darsi che nella scatola abbia una cosa diversa. Si potrebbe addirittura dire che questa cosa mutasse continuamente. Ma supponiamo che la parola coleottero avesse un uso comune per tutte queste persone. Essi potrebbero parlare di qualche cosa che in realt non ha nulla di condivisibile con quello di cui parlano gli altri; e infine la scatola potrebbe anche essere vuota. Ci che nella scatola (lentit mentale privata, o il linguaggio privato) non pu essere la base per il linguaggio naturale con il quale comunichiamo. Il linguaggio si ridurrebbe a un gioco con le sue regole: un gioco linguistico. Se il linguaggio si riferisse o si basasse alle entit mentali private (ci che nella scatola) non potremmo sapere a che cosa corrispondano le parole. Secondo Wittgenstein quindi, il linguaggio non pu derivare, in alcun modo dal linguaggio privato, in quanto, questo linguaggio privato sarebbe incomunicabile. Il linguaggio naturale cos visto come una forma di comportamento, qualcosa che si realizza nel suo uso con regole proprie, un gioco linguistico. Questo tipo di conclusione accettata dalla posizione comportamentista e dalle scienze del comportamento in genere. Per la TMA questa non una conclusione obbligata. Ad esempio, uno dei coleotteri preferiti da Wittgenstain il dolore. Possiamo certo riscontrare empiricamente alcune modificazioni fisiologiche nellindividuo che le persone esprimono come dolore tuttavia, cosa sia il dolore per il soggetto difficilmente definibile, se non allinterno di un gioco linguistico, il che non avrebbe che fare, o non giustificherebbe le qualit del dolore individuale, quindi sarebbe difficilmente condivisibile o comunicabile. Lo stesso ragionamento si pu fare sulle emozioni, sui sentimenti, sullesperienza soggettiva in genere compresa lesperienza cosciente. Il dibattito fra psicologi e neurofisiologi aperto e agguerrito. La psicologia non ha argomenti forti contro le tesi dei filosofi analitici, la filosofia vincente del XX secolo. Un costruttivista come Von Foerster affermerebbe facilmente: la fuori non c dolore esso una costruzione complessa del nostro sistema nervoso. Al contrario, noi riteniamo che proprio la sensazione dolorifica o emozionale il punto di partenza. Non potrebbe esistere il comportamento linguistico che parla del dolore senza levento soggettivo del dolore. Insomma prima c la stesa esperienza e poi la stessa esperienza viene condivisa con altri. Questo possibile proprio perch abbiamo un sistema sensoriale simile, e la nostra percezione del dolore non (come affermerebbero i costruttivisti) una costruzione del nostro

Giuseppe Fichera

cervello, ma il frutto di uninterazione con lambiente, che non potrebbe caratterizzarsi in maniera differente Poich analoga a quella degli organismi filogeneticamente a noi affini (cio il resto dellumanit). Tanto vero che riusciamo bene a comprendere il dolore altrui, anche se non ne abbiamo esperienza diretta e anche se non possiamo descriverlo totalmente attraverso il linguaggio. Ecco che secondo la TMA, ognuno di noi ha accesso alla propria scatola e non a quella degli altri, tuttavia, pu iniziare una descrizione del coleottero (o del dolore, o di un sentimento, ecc..) attraverso linterazione tra la propria esperienza diretta e alcuni eventi esperienziali che possono essere descritti in maniera precisa con il linguaggio. Nel caso di un coleottero per esempio, si potrebbe cominciare con laffermare: un insetto, vola, ecc., ecc., o dal paragone con altri insetti che assomigliano al coleottero. Se qualcuno avesse nella scatola una grossa coccinella si accorgerebbe dopo poco tempo che la stessa parola si riferisce ad oggetti diversi, se avesse una ragno o una rana se ne accorgerebbe subito. La realt oggettiva non un puro gioco linguistico, n tantomeno la sensazione soggettiva qualche cosa che il soggetto costruisce allinterno del proprio cervello e che non pu comunicare. La mente cosciente, non pi una scatola vuota che riceve suoni e immagini dal mondo esterno, il cui contenuto soggettivo praticamente incomunicabile, ma una porzione del mondo che trova in se stessa la propria unit. Per la TMA non esiste qualche cosa che sta dentro o qualche cosa che sta fuori dalla mente. Si tratta di un processo di causazione reciproca o co-causazione. Pensiamo allesempio dei volti, dellarcobaleno o del cuore sulla spiaggia. Il soggetto cosciente non nei neuroni, ma nel loro modo di essere insieme, con tutto lorganismo, questo modo di essere della mente si espande a inglobare la realt circostante attraverso una relazione intenzionale od onfene nel linguaggio della TMA: Allo stesso modo il soggetto artificiale una specie di spugna che connette le varie percezioni, esperienze interagendo con il mondo circostante per intenzionare gli oggetti. Cos come Baby Bot unisce la forma alla luce e percepisce per la prima volta una stella, dalla quale incomprensibilmente attratto.

Conclusioni La TMA nasce dal fruttuoso incontro fra tecnologia ingegneristica, che cerca risultati pragmatici attraverso riscontri empirici, ed esigenze filosofiche, in grado di indicare e giustificare premesse metodologiche e percorsi di ricerca. Il fatto che questi percorsi emergano proprio dallambito tecnologico delle scienze cognitive - che allinizio del loro percorso si erano proposte come sterminatrici di questi concetti - pare essere un ulteriore elemento di interesse e credibilit. Lanalisi del comportamento infatti ci d indicazioni sugli aspetti operativi, meno ci dice degli aspetti individuali e soggettivi che tuttavia possono essere di grande interesse, nel predire comportamenti e risultati.

10

ticonzero No. 41/2003

Un famoso esperimento di uno psicologo americano di qualche anno fa poneva dei volontari di fronte ad una situazione cruciale. Sperimentatori in camice bianco, travestiti da luminari accademici, indicavano al soggetto volontario di inviare una scossa elettrica ad una cavia in realt un attore che, seduto su una specie di sedia elettrica, subiva senza possibilit di fuga le scariche inviate dalla stanza dei bottoni. Il simpatico esperimento aveva lo scopo di valutare il conformismo e la sudditanza delle persone nei confronti dellistituzione (o di ci che comunemente ritenuto tale). I volontari, spinti al limite del loro sadismo, procedevano finch lattore-cavia, implorando la fine dellesperimento, non fingesse di essere morto. Di fronte allautorit e allautorevolezza dei medici, la volont dei torturatori sembrava annullarsi: fino a spingerli a livelli di perversione assoluti, infierendo addirittura sulla cavia ormai priva di sensi. Sicuramente lesperimento riesce nel suo intento: una dimostrazione interessantissima sul livello di suggestione e di manipolazione dellindividuo, se inserito in contesti adeguati. Ragionando per sommi capi, potremmo dire che una teoria che enfatizzi il comportamento (come il comportamentismo, il funzionalismo, il cognitivismo) metterebbe tutti i volontari sullo stesso livello in base alla quantit di scariche elettriche erogate. Una teoria che rende merito delle interazioni basate su giochi linguistici (la pragmatica di Watzlawick o il costruttivismo) impedirebbe viceversa di parlare in maniera veramente valida delle emozioni provate dai soggetti torturatori (e che dire dei torturati!). Certo non possiamo nemmeno evitare distinzioni tra i diversi compartamneti: chi, essendo dotato di coscienza (counscousness), si pone il problema dellesito dellazione che sta compiendo; chi, agendo, non si pone alcun problema; chi, come il sadico, gode nellinfliggere dolore al malcapitato. Da qualunque prospettiva si consideri, chi si rifiutasse sarebbe comunque adeguatamente individuato come dotato di comportamento corretto. Tuttavia, nonostante questa discriminazione di buon senso, i paradigmi scientifici dominanti non trovano una soluzione chiara al problema della discriminazione individuale: come valutare lindividualit di persone che manifestano comportamenti simili o identici? Ecco perch occorre valutare seriamente la possibilit di sviluppare strumenti nuovi di analisi, ad esempio partendo dalle premesse individuate dalla TMA. Una teoria che chiarifichi questi aspetti, implicitamente gi indagati dai professionisti delle Human Resourch (psicologi, formatori, educatori) potrebbe essere di grande utilit. Prendiamo il contesto di selezione del personale: un approccio che si basasse solo sullanalisi dei comportamenti e delle performance probabilmente avrebbe poco da dire sulla valutazione di quello che viene definito il potenziale, rispetto ad un approccio in grado di tener conto anche della soggettivit. Si potrebbero cos indagare e sviluppare strumenti pi sofisticati che aggiungano informazioni utili alle pi diffuse tecniche di analisi delle competenze. Daltro canto, da ormai molto tempo la formazione aziendale cerca modelli in grado di favorire sviluppo, creativit, innovazione, mentre gli schemi classici ci spingono a ottimizzare sistemi

11

Giuseppe Fichera

per raggiungere obiettivi (a incrementare intelligenze e non processi di sviluppo, per fare riferimento al linguaggio della TMA). Sono solo alcune riflessioni (personali) in conclusione di un lungo e interessante dialogo con Riccardo Manzotti, che ci ripromettiamo di sviluppare in seguito, come possibili ipotesi di lavoro. In attesa che Baby Bot dica la sua (del resto il piccolo Robot ha solo cinque anni!).

[1] http://manzotti.lira.dist.unige.it

12

Potrebbero piacerti anche