Sei sulla pagina 1di 5

Marco Fabiani 560421

INTELLIGENZA ARTIFICIALE

-COS’E’ L’INTELLIGENZA ARTIFICIALE

Il termine Intelligenza Artificiale (IA) viene utilizzato principalmente per definire una disciplina
scientifica il cui scopo riguarda l’indagine sui meccanismi soggiacenti alle facoltà cognitive degli
esseri umani (ad esempio il linguaggio, la capacità di risolvere problemi, la percezione…) e la loro
riproduzione mediante calcolatori opportunamente programmati.
Nel corso degli anni sono stati realizzati numerosi dispositivi che, nelle intenzioni dei creatori,
avrebbero dovuto raggiungere l’obiettivo finale di ottenere una macchina in grado di pensare
esattamente come un essere umano. Risultati del genere non sono stati ancora ottenuti, tuttavia
questa disciplina riveste ugualmente un ruolo rilevante nello sviluppo di algoritmi, simulazioni,
attività ludiche e altre varie applicazioni.

Il primo personaggio a dare il via, almeno in forma teorica, a questa disciplina fu il filosofo inglese
Thomas Hobbes che, nel suo lavoro più famoso, il Leviatano (1651), scrisse: “ragionare non è
nient’altro che calcolare”.
Secondo Hobbes infatti, la mente umana era composta da “particelle mentali” che venivano
manipolate durante un qualsiasi tipo di ragionamento, in maniera molto simile ad un calcolo
numerico fatto con un abaco.
Con lo sviluppo tecnologico numerosi scienziati e matematici si dedicarono alla realizzazione di
calcolatori meccanici in grado di realizzare algoritmi via via sempre più complessi (o almeno questa
era la loro intenzione).
Nel XVII secolo Blaise Pascal inventò la “Pascalina”, una macchina in grado di eseguire
automaticamente addizioni e sottrazioni, per aiutare il padre, funzionario delle imposte, a gestire la
propria contabilità.
I più famosi ed ambiziosi progetti di calcolatori meccanici vennero realizzati dal matematico
Charles Babbage nel XIX secolo. La macchina differenziale prima, la macchina analitica poi,
erano i due principali progetti da lui intrapresi: la prima (doveva servire per tabulare funzioni
polinomiali) venne anche in parte costruita, ma gli ingranaggi disponibili a quel tempo non erano
sufficientemente buoni per realizzare il modello. La seconda, un primo vero computer meccanico,
non venne mai realizzata.
L’IA continua ad evolversi a livello teorico in maniera indipendente dagli sviluppi tecnologici, ma
poi finalmente ritrova potenzialità applicative con la nascita dei primi calcolatori elettronici e, dopo
l’era delle valvole, i primi linguaggi di programmazione con cui elaborare algoritmi.
-IL TEST DI TURING E LA SVOLTA

Nel 1950 Alan Turing, uno dei “padri” dell’informatica, pubblicò un articolo sulla rivista Mind in
cui definì la corretta via per realizzare un calcolatore intelligente: esso deve superare una sorta di
test (il test di Turing) che, in caso di successo, ne decreterebbe la capacità di “pensare” come un
essere umano.
Il test consiste nel seguente postulato: si considerano tre partecipanti, un uomo A, una donna B, e
una terza persona C. Quest’ultima è tenuto separato dagli altri due e tramite una serie di domande
deve stabilire qual è l'uomo e quale la donna. Dal canto loro anche A e B hanno dei compiti: A deve
ingannare C e portarlo a fare un'identificazione errata, mentre B deve aiutarlo. Affinché C non
possa disporre di alcun indizio (come l'analisi della calligrafia o della voce), le risposte alle
domande di C devono essere dattiloscritte o similarmente trasmesse. Il test di Turing si basa sul
presupposto che una macchina si sostituisca ad A. Se la percentuale di volte in cui C indovina chi
sia l'uomo e chi la donna è simile prima e dopo la sostituzione di A con la macchina, allora la
macchina stessa dovrebbe essere considerata intelligente, dal momento che, in questa situazione,
sarebbe indistinguibile da un qualsiasi essere umano.
Il test di Turing è stato più volte riformulato in quanto semplici programmi erano riusciti a superarlo
pur risultando palesemente inadeguati da essere considerati “pensanti” come un umano. L’esempio
più famoso riguarda il caso Eliza, un programma sviluppato nel 1964 da Joseph Weizenbaum in
grado di simulare l’analisi di uno psicoterapeuta di scuola “rogersiana”: gli psicoterapeuti di questa
scuola durante una seduta cercano di intervenire il meno possibile e, quando lo fanno, spesso si
limitano a ripetere le affermazioni del paziente in forma di domanda.
Questo permise di rendere il programma molto semplice, in quanto era sufficiente organizzarlo in
due piani: il primo conteneva l’analizzatore di linguaggio, il secondo un copione, in modo da
renderlo pronto a rispondere a svariati argomenti. Il trucco principale però era quello di rigirare le
risposte dei “pazienti” in forma di domanda e ripeterle, come in questo esempio:

Ragazza: Gli uomini sono tutti uguali


Eliza: In che senso?
Ragazza: Trovano sempre il modo di tormentarci
Eliza: Può farmi un esempio?
Ragazza: Beh è il mio ragazzo che mi ha fatto venire qui
Eliza. È il suo ragazzo che l’ha fatta venire?
Ragazza: Dice che sono depressa
Eliza: Mi dispiace sentire che è depressa
Ragazza: È vero. Sono infelice
Eliza: Pensa che il fatto di venire qui l’aiuterà a non essere infelice?

Come si può notare, un programma simile può superare il test di Turing, ma non dimostra affatto di
essere in grado di pensare.
Con la formulazione di questo test inizia una scissione tra sostenitori dell’intelligenza artificiale
forte e l’intelligenza artificiale debole, continuando però ad avere in comune obiettivi, metodi e
principi.
-L’IA MODERNA

Dopo il 1962 circa, l’IA cambia le sue priorità: gli scienziati che si occupano di questa disciplina
non danno più importanza all’apprendimento, bensì alla rappresentazione della conoscenza.
L’elaborazione del linguaggio naturale, o NLP (Natural Language Processing) è uno dei campi
principali a cui mira la moderna IA, consiste nel processo di estrazione di informazioni semantiche
da espressioni del linguaggio naturale tramite l’elaborazione di un calcolatore elettronico.
Nello specifico il processo di elaborazione viene suddiviso in più fasi, in modo da simulare il più
fedelmente possibile il meccanismo di elaborazione del linguaggio naturale da parte di un cervello
umano:

- analisi lessicale: scomposizione di un’espressione linguistica in “token” (frammenti di


stringhe separati da spazi, in questo caso sono parole)
- analisi grammaticale: associazione delle parti del discorso a ciascuna parola nel testo
- analisi sintattica: arrangiamento dei token in una struttura sintattica (ad albero)
- analisi semantica: assegnazione di un significato alla struttura sintattica e quindi, di
conseguenza, all’espressione linguistica.

Molti sforzi sono stati fatti in questo campo, oltre a investimenti consistenti, con ottimi risultati
finché l’azione è specifica su mondi ristretti, in modo che il vocabolario ad essi legato fosse ridotto
e facilmente gestibile. I problemi nascono nel momento in cui il mondo viene esteso a tutta la
conoscenza possibile immaginabile, dovuti principalmente ad ambiguità.
Ad esempio le parole “pèsca” (il frutto) e “pésca” (l’attività) vengono tipicamente scritte senza
accento, quindi “pesca”: un elaboratore elettronico non può conoscere a priori se si sta parlando di
frutta o di pesci. Suddividendo gli argomenti in maniera specifica, l’elaboratore può riconoscere
molto più facilmente la differenza e seguire un filo logico del discorso correttamente.
Da questa suddivisione in mondi ridotti iniziano a svilupparsi i primi sistemi esperti, software
capaci di risolvere problemi complessi in uno specifico campo emulando ragionamenti logici di un
esperto del settore preso in considerazione.
Essendo problemi molto complessi che, spesso, non possono essere risolti applicando
meccanicamente un algoritmo, viene introdotto nell’IA un concetto molto importante: l’incertezza.
In sostanza un sistema esperto esamina un determinato problema e cerca di trovare un algoritmo
specifico che possa restituirgli un risultato corretto: se non lo trova, il sistema inizierà ad applicare
una serie di “ragionamenti” che possono effettivamente portare ad una soluzione probabile ma
fallibile. E’ come se “andasse per tentativi”, cosa che lo differenzia da un esperto umano (che
invece sa risolvere un problema con un unico ragionamento corretto. O meglio, dovrebbe…).

-CARATTERISTICHE DELL’IA OGGI E DIBATTITI FILOSOFICI

Attualmente l’IA tratta l’individuazione di modelli (appropriata descrizione del problema da


risolvere) ed algoritmi (azioni da eseguire per risolvere il problema correttamente).
Nello specifico le attività di cui si occupa oggi l’IA sono:

- apprendimento automatico (machine learning), utile in contesti quali il gioco degli scacchi o
l’andamento dei mercati finanziari
- rappresentazione della conoscenza e ragionamento automatico
- pianificazione
- cooperazione tra agenti intelligenti (agenti “in grado di fare la cosa giusta al momento
giusto”), sia software che hardware (ad esempio robot)
- elaborazione del linguaggio naturale
- simulazione della visione e dell’interpretazione di immagini

Oltre a queste realistiche applicazioni, ancora molto incerte (manca una rigorosa teoria, molto
spesso si risolvono i problemi per tentativi) ma decisamente soddisfacenti (di recente si sono visti
prototipi di bambini robot, modelle robot, anche una colf robot), le menti più brillanti di questo
ramo dell’informatica sono coinvolte in un dibattito filosofico: i computer possono pensare?
Dato che manca una definizione rigorosa del termine “intelligenza”, una risposta chiara e
soddisfacente non è mai stata fornita, quindi ognuno può elaborare una personale interpretazione. In
generale questo dibattito si divide in due grandi correnti (come già detto in precedenza):
- intelligenza artificiale forte, ritiene che un calcolatore, opportunamente programmato,
possa raggiungere un’intelligenza pari a quella umana
- intelligenza artificiale debole, sostiene che un computer non sarà mai in grado di
eguagliare la mente umana.
Un’illuminante tesi a favore della seconda ipotesi viene da John Searle, filosofo statunitense,
autore di un esperimento mentale chiamato stanza cinese: immaginiamo di prendere una persona
che non sappia una parola di cinese e di metterla in una stanza chiusa. Al suo interno si trova un
manuale (ideale ovviamente!) in italiano in cui viene spiegato con quali simboli rispondere nel caso
in cui gli arrivasse dall’esterno un particolare simbolo (ad esempio se arriva un bigliettino con
scritto X bisogna rispondere con Y). A questo punto prendiamo un cinese (o qualcuno che conosca
bene il cinese), mettiamolo fuori dalla stanza e facciamogli scrivere qualche frase in cinese in un
bigliettino. Quando lui passerà il bigliettino al tizio che si trova nella stanza (che deve rimanere
chiusa, il cinese deve avere l’impressione di comunicare con una “scatola nera”), egli saprà
rispondere correttamente grazie all’ipotetico manuale che ha trovato nella stanza. In realtà però
l’uomo chiuso nella stanza non capirà nulla del discorso che viene fatto, ma nel frattempo il cinese
sarà realmente convinto di parlare con un suo connazionale.
Con questo ragionamento Searle vuole dimostrare che, anche se un computer dovesse essere dotato
di tutte le regole possibili immaginabili per poter dialogare in tutte le lingue del mondo, non sarà
mai “intelligente” perché non capirà mai quello che sta trasmettendo.

L’intelligenza artificiale debole, favorita da questo genere di argomenti a sostegno, domina la scena
fino alla fine degli anni ’70, quando viene sviluppato il modello del connessionismo. Esso prevede
che la mente umana “funziona” in questo modo grazie alla sua struttura cellulare (una rete di
miliardi di neuroni collegati tra loro), introducendo così l’idea di reti neurali artificiali.
L’idea di base è quella di riprodurre una rete di neuroni biologica tramite una rete di calcolatori
collegati tra loro in più strati (il primo comunica con il mondo esterno e filtra le informazioni verso
gli strati più interni per poterli elaborare).
Ovviamente oggi non ci sono i mezzi, né economici né tecnologici, per ricreare una mente umana
tramite una rete neurale artificiale, tuttavia hanno trovato grande applicabilità in attività dove i dati
possono essere parzialmente errati o non esistono modelli analitici in grado di risolvere un
determinato problema, ad esempio vengono utilizzate in:

- sistemi di riconoscimento di immagini e facciale


- data mining (estrazione di una conoscenza a partire da grandi quantità di dati)
- analisi finanziaria e meteorologica
- pattern funzionali e/o strutturali in proteine e acidi nucleici (bioinformatica in generale)
Alcuni sostenitori dell’intelligenza artificiale forte legata al connessionismo ritengono che la “vera”
intelligenza, semmai dovesse essere realizzata, non possa essere raggiunta da calcolatori, in quanto
elementi statici che non possono interagire autonomamente con l’esterno. Si suppone che
l’intelligenza umana possa essere emulata efficacemente solo da robot, in grado di ricevere stimoli a
fattori esterni (camminare, toccare…) e quindi reagire di conseguenza.
Inoltre l’errore più tipico che si presentava durante i primi tentativi di realizzazione di
un’intelligenza umana, era dovuto alla struttura del mondo esterno: veniva “sottovalutata” la sua
complessità.
Per istruire correttamente un robot è necessario uno studio accurato di tutti i possibili casi in cui può
incappare l’automa una volta gettato all’aperto e lasciato al suo destino, una mole di dati enorme da
inserire al suo interno.
L’idea più gettonata (e più naturale, basti pensare ai bambini) è quella di mettere il robot nelle
condizioni di apprendere, caso per caso, come deve comportarsi per poter sopravvivere alle sfide
che il mondo gli presenterà.