Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Gabriele Zannoni1
1
Esame di Intelligenza Artificiale II anno laurea magistrale in Metodologie Filosofiche, indirizzo in Scienze Cognitive gabrielezannoni@gmail.com Sommario. A partire dagli anni 80 lattenzione degli studiosi di Intelligenza Artificiale si progressivamente spostata sugli agenti intelligenti, tanto da arrivare a considerare la teoria degli agenti non pi come una sottoparte dellIntelligenza Artificiale, ma come un campo di ricerca autonomo. Nel rappresentare, programmare e verificare gli effetti degli agenti vengono usati in molti casi diversi sistemi di logica modale computazionale. Obiettivo di questa ricerca prendere in considerazione uno di questi sistemi di rappresentazione degli agenti, quello basato sulla logica BDI (Beliefs, Desires, Intentions). Dopo una breve introduzione sul rapporto tra agenti e logiche computazionali, discuter prima di tutto i fondamenti filosofici che stanno alla base della logica BDI, e poi prender in esame la trattazione formale di questo sistema logico elaborata da Rao e Georgeff.
Lo scopo di questa ricerca approfondire il rapporto tra agenti intelligenti e logiche computazionali, prendendo in esame da un punto di vista filosofico e formale la logica BDI. Innanzitutto bene riprendere una definizione di agente intelligente per cercare di comprendere come le logiche modali possano essere di grande utilit nello studio e nello sviluppo degli agenti intelligenti. Non esiste una definizione standard di agente intelligente ma senzaltro quella proposta da Jennings, Sycara and Wooldridge comprende tutti i diversi aspetti che caratterizzano gli agenti:
an agent is a computer system, situated in some environment, that is capable of flexible autonomous actions in order to meet its design objectives. Situatedness means that the agent receives sensory input from its environment and that it can perform actions which change the environment in some way. By autonomy we mean that the system should be able to act without the direct intervention of humans (or other agents), and that it should have control over its own actions and internal state. By flexible, we mean that the system is: - responsive: agents should perceive their environment and respond in a timely fashion to changes that occur in it; - pro-active: agents should be able to exhibit opportunistic, goal-directed behavior and take the initiative when appropriate;
Il carattere proattivo e sociale degli agenti, oltre alla loro caratteristica autonomia, ha indotto alcuni studiosi2 a trattare gli agenti intelligenti come veri e propri sistemi intenzionali, secondo la definizione di Dennet3, ossia come sistemi a cui attribuiamo credenze, desideri e intenzioni per spiegarne il comportamento. In questo filone di recerca, molto spesso si fatto ricorso alla logica modale sia per descrivere che per determinare il comportamento degli agenti. Come sottolineano Fisher, Bordini, Hirsch e Torroni, il ricorso alla logica per questo scopo non sorprendente dal momento che essa in grado di fornire una cornice che allo stesso tempo non-ambigua e che pu essere ben compresa, e in cui specifiche logiche possono essere costruite per descrivere particolari scenari. In particolare quando si sceglie una logica appropriata, essa pu garantire un livello di astrazione vicino ai concetti chiave del software da sviluppare, come nel caso della logica applicata ai multi-agent systems.4 Le logiche quindi possono risultare utili, sempre secondo gli autori citati, sia per: - la descrizione degli agenti, mediante la logica e la semantica; - limplementazione degli agenti, grazie allesecuzione delle proposizioni logiche, - lagent analysis, con tecniche di verifica basate sulla logica.5 Esistono moltissime applicazioni e implementazioni di agenti intelligenti basati sulla logica e fornirne una panoramica esaustiva non lo scopo di questa ricerca. Mi concentrer invece su un particolare tipo di logica modale computazionale, la logica BDI, prendendone in esame i fondamenti filosofici e fornendone una trattazione formale.
1 2
N.R. Jennings, K. Sycara, and M. Wooldridge (1998). cfr. ad esempio A.S. Rao and M. P. Georgeff (1991). 3 cfr. ad esempio Daniel C. Dennett (1996). 4 M. Fisher, R. H. Bordini, B. Hirsch, P. Torroni (2007), p.1-2. La traduzione in italiano di chi scrive. 5 Ibid, cfr. p.2. 6 cfr. M. E. Bratman (1984) e M.E.Bratman (1987).
Il contributo decisivo di Bratman con la sua teoria dellazione ragionata quello di considerare decisive per lagire anche le intenzioni degli agenti intelligenti. Le intenzioni secondo lautore, svolgono il ruolo di selezionare le azioni desiderate, con uno specifico e particolare impegno collegato alle azioni scelte. A meno che non intervengano altri fattori, come ad esempio la presa di coscienza che una determinata intenzione impossibile da raggiungere o stata gi realizzata, lagente mosso da unintenzione continuer a perseverare in modo continuato nel suo impegno nel cercare di realizzare le azioni che ha scelto.8 Secondo Bratman, un modello di spiegazione dellazione umana fatto solo di credenze e desideri un modello riduttivo perch considera le intenzioni derivabili o riducibili alle credenze e ai desideri.9 Le intenzioni invece sono un qualcosa di ontologicamente distinto dalle credenze e dai desideri. Unottima sintesi del pensiero di Bratman riguardo alle intenzioni, la troviamo in un lavoro di Cohen e Levesque10, a cui tra laltro fanno anche riferimento Rao e Georgeff nella loro trattazione formale della logica BDI. In primo luogo bene distinguere due diversi significati del termine intenzione: i filosofi infatti hanno tracciato una distinzione tra intenzioni rivolte al futuro e intenzioni rivolte al presente Recentemente, Bratman ha sostenuto che avere intenzione di fare qualcosa e fare qualcosa intenzionalmente non sono lo stesso fenomeno e che il primo dei due ha pi a che fare con la coordinazione dei piani di un agente.11 A mio avviso, la distinzione molto pertinente ed importante sottolineare che le intenzioni di cui si pu parlare a pieno titolo per gli agenti intelligenti sono quelle orientate verso il futuro, dal momento che il fare qualcosa intenzionalmente, ossia con unintenzione nel momento presente, una nozione che richiede un impegno ontologico superiore riguardo alla nozione di intelligenza degli agenti (artificiali) su cui sarebbe necessario discutere. Come ho gi sottolineato in precedenza, Bratman afferma che il comportamento umano non pu essere analizzato solo in termini di credenze e desideri: necessario un terzo stato mentale, le intenzioni, collegato a credenze e desideri ma non riducibile ad essi. Cohen e Levesque evidenziano giustamente che le ragioni per cui Bratman sostiene questa tesi sono fondamentalmente due: - innanzitutto nessun agente pu continuamente misurare i suoi desideri in competizione e le credenze concomitanti, nel decidere cosa fare successivamente. Ad un certo punto, lagente deve semplicemente focalizzarsi su uno stato di cose da realizzare. Decidere cosa fare impone una forma limitata di commitment; la seconda ragione la necessit di coordinare le azioni future. Nel momento in cui si stabilita unazione futura, ovvero si ha unintenzione, un agente tipicamente decide le azioni da intraprendere successivamente
7
cfr. Stanford Encyclopedia of Philosophy alla voce The Logic of Action in Artificial Intelligence 8 cfr. Stanford Encyclopedia of Philosophy alla voce The Logic of Action in Artificial Intelligence 9 M. E. Bratman (1984), p. 376. 10 cfr. P. R. Cohen and H. J. Levesque (1990a). La traduzione in italiano di chi scrive. 11 Ibid, p. 216.
12 13 14
P.. R. Cohen and H. J. Levesque (1990a), p. 217. Ibid, p. 217. Ibid, p. 218.
Rao e Georgeff non sono stati gli unici studiosi a cercare di rendere in termini formali la logica BDI basata sul pensiero di Bratman. Gli stessi Cohen e Levesque, che hanno dato un contributo interessante, come abbiamo visto precedentemente, nel mettere in luce la particolarit della nozione di intenzione, nellopera gi citata, hanno fornito una formalizzazione della logica BDI. La scelta di prendere in esame la formalizzazione di Rao e Georgeff tuttavia non casuale, ma si basa su una precisa scelta riguardante il modo in cui questi due autori riescono ad evitare un inconveniente comune a molte semantiche dei mondi possibili. Si tratta del problema del commitment riguardante gli effetti collaterali non voluti, che questi autori riescono a risolvere con la loro caratterizzazione delle relazioni reciproche tra credenze, desideri e intenzioni. Vediamo pi nel dettaglio come Rao e Georgeff tematizzino queste relazioni. Per farlo efficacemente, ritengo utile seguire lo schema espositivo degli autori in Rao and Georgeff (1991).
A.S. Rao and M.P. Georgeff (1991), p. 474. Tutta la parte che segue fa riferimento allesposizione della teoria di Rao e Georgeff in A.S. Rao and M.P. Georgeff (1991). Per comodit espositiva citer in nota solo i passaggi che riporter in modo letterale. 17 A.S. Rao and M.P. Georgeff (1991), p.475.
gli
operatori
BEL(),
Siamo giunti ora alla parte pi importante dellesposizione della formalizzazione della logica BDI di Rao e Georgeff, ovvero allanalisi di come vengano interpretati e di come operino gli operatori BEL(), GOAL() e INTEND(). Per brevit non affronter in modo formale tutta la semantica del sistema logico, n mi occuper della dimostrazione di completezza del sistema (che tra laltro non viene
18
presa in considerazione dagli autori stessi). Non mi soffermer neppure su alcuni aspetti pi dinamici del sistema, che risultano piuttosto complicati e che richiederebbero una trattazione apposita: ritengo molto pi utile soffermarmi sulla resa delle credenze, dei goals e delle intenzioni allinterno del sistema logico e su come essi interagiscano tra loro. Il primo operatore da prendere in considerazione BEL(), riguardante le credenze. Lassiomatizzazione di questo operatore fa riferimento alla logica modale standard KD45 (detta anche S5), che probabilmente la pi versatile delle logiche modali.19 Loperatore BEL() definito in questi termini: we say that an agent has a belief , denoted BEL(), at time point t if and only if is true in all the belief-accessible worlds of the agent at time t.20 Nella definizione si fa riferimento alla relazione belief-accessible: si tratta di una relazione di accessibilit fra mondi, che consiste, in termini semplici, in una relazione tra il mondo presente in cui si trova lagente e tutti i mondi che lagente crede che siano possibili. E importante sottolineare, tuttavia, che a differenza di molte trattazioni della relazione di accessibilit epistemica, in questo caso i mondi beliefaccessible in realt sono a loro volta time trees. In altri termini, loperatore di credenza indica tutti i mondi con le loro possibili alternative che il soggetto crede che siano possibili. In questo senso, maggiori sono le informazioni in possesso del soggetto e minore il numero di mondi: la conoscenza di informazioni nel momento presente permette di determinare e quindi di escludere mondi alternativi che in base ai dati in possesso del soggetto non sono possibili. I mondi rimasti non rappresentano altro che le diverse configurazioni del mondo che si possono determinare in base alle scelte del soggetto. Simile alla relazione di belief-accessibility anche la relazione di goal-accessibility che ci permetter di definire loperatore GOAL(): the goal-accessibility relation specifies situations the agent desires to be in. I goals quindi non sono nientaltro che i desideri ma con una precisa specifica, che porta Rao e Georgeff a definire la loro teoria fortemente realista: mentre i desideri possono essere tra loro contraddittori, i goals devono essere consistenti. In altre parole, the agent should believe that the goal is achievable21. La consistenza e la compatibilit fra i diversi goals un carattere costitutivo della teoria di Rao e Georgeff e ha come conseguenza il fatto che for each beliefaccessible world w at a given moment in time t, there must be a goal-accessible world that is a sub-world of w at time t.22 Passiamo ora alla trattazione delle intenzioni. Anche queste ultime vengono trattate come insiemi di mondi, questa volta dotati della relazione di intention-accessibility. Questi mondi non sono nientaltro, in termini semplici, che le alternative del mondo che lagente si impegnato a realizzare. Ecco espressa quindi la centralit della nozione di commitment riguardo alle intenzioni che, come abbiamo visto, caratterizza la teoria dellazione di Bratman.
19 20
Per approfondire, vedi S. Galvan (1991). A.S. Rao and M.P. Georgeff (1991), p.475. 21 Ibid, p. 476. 22 Ibid, p. 477.
23 24
Ibid, p. 477. A.S. Rao and M.P. Georgeff (1991), p.478 25 Ibid, p.478. 26 Ibid, p.478.
Figura 1 Terminata la parte sullanalisi della trattazione formale di credenze, desideri e intenzioni, manca per completare un quadro generale della formulazione della logica BDI da parte di Rao e Georgeff, la discussione dei principali assiomi di questa logica. La far in modo schematico nella seguente tabella: in questo modo avremo anche qualche elemento in pi per tirare le conclusioni di questa breve ricerca. ASSIOMA Belief-Goal Compatibility ESPOSIZIONE FORMALE GOAL() BEL() SPIEGAZIONE Linsieme delle beliefs un sovrainsieme di quello dei goals; se lagente adotta una proposizione come goal allora lagente crede che se lagente adotta una proposizione come intenzione allora appartiene anche allinsieme dei goal Esprime come si impegna la volont stabilendo che se un agente ha unintenzione allora agir per cercare di portarla a compimento. Se un agente ha una determinata intenzione sa anche di averla.
INTEND() GOAL()
INTEND(does(e)) does(e)
Beliefs Intentions
about
INTEND() BEL(INTEND())
No Infinite Deferral
4 Conclusioni
Siamo giunti alla fine di questa breve ricerca. Si potrebbe dire molto altro riguardo al sistema logico formalizzato da Rao e Georgeff nellopera citata, prendendo in esame in modo formale, ad esempio, come le intenzioni guidino o determinino limpegno futuro di un agente riguardo a determinate azioni, ma ritengo che quanto visto riguardo a questo sistema logico sia sufficiente per trarre delle interessanti conclusioni. Nel primo paragrafo abbiamo visto brevemente come la logica sia un utile strumento per la descrizione e limplementazione degli agenti intelligenti. Mi sono soffermato poi sulla logica BDI prendendo in esame i fondamenti filosofici di Michael Bratman che caratterizzano questo sistema logico. In particolare risultata molto interessante lanalisi che Bratman fa delle intenzioni mettendo in luce sia come queste non siano riducibili alle credenze o ai desideri di un agente intelligente, sia come il concetto di intenzione richieda un commitment, un impegno forte dellagente nel cercare di portarle a termine. Questa importante distinzione risulta molto adeguata allapplicazione della logica BDI agli agenti intelligenti: se consideriamo infatti le informazioni iniziali possedute da un sistema come le credenze di questo sistema e i desideri come scenari possibili che lagente pu cercare di realizzare modificando e interagendo con il proprio ambiente, risulta molto utile trattare separatamente le intenzioni del sistema, intese come quelle procedure o quellinsieme di azioni che lagente ha deciso di intraprendere per fornire la migliore performance possibile nella sua interazione con lambiente. Nellultima parte di questa ricerca abbiamo visto come Rao e Georgeff formalizzino la teoria di Bratman in particolare riguardo a credenze, desideri e intenzioni.
10
Grazie alla semantica scelta, abbiamo evitato alcuni problemi che altre trattazioni delle logica BDI non riescono a risolvere, come ad esempio il tema degli effetti collaterali non voluti delle azioni intraprese da un agente. La formalizzazione di Rao e Georgeff inoltre risulta molto adatta e per certi versi vicina al senso comune nel considerare un carattere costitutivo dei goals, la loro consistenza e compatibilit: gli agenti implementati con questa logica sono dotati di una forma di realismo che consente una pi efficace presa di decisione e un orientamento verso il futuro ben ancorato alla realt.
Riferimenti bibliografici
M.E. Bratman (1984), Two faces of intention, in The Philosophical Review, volume 93, pp. 375-405. M.E. Bratman (1987), Intentions, Plans, and Practical Reason, Harvard University Press: Cambridge, MA. P. R. Cohen and H. J. Levesque (1990a), Intention is choice with commitment, in Artificial Intelligence, volume 42, pp.213-261. D.C. Dennett (1996), The Intentional Stance, Cambridge, Massachusetts: The MIT Press, 6th printing. E.A. Emerson and J. Srinivasan (1989), Branching time temporal logic, in J.W. de Bakker, W.-P de Roever, G. Rozenberg (1989), a cura di, Linear time, branching time, and partial order in logics and models for concurrency : School/Workshop, Noordwijkerhout, The Netherlands. M. Fisher, R. H. Bordini, B. Hirsch, P. Torroni (2007), Computational Logics And Agents: A Road Map Of Current Technologies And Future Trends, in Computational Intelligence, 23(1). S. Galvan (1991), Logiche intensionali. Sistemi proposizionali di logica modale, deontica, epistemica, Franco Angeli. N. R. Jennings, K. P. Sycara, and M. Wooldridge (1998), A Roadmap of Agent Research and Development, in Journal of Autonomous Agents and Multi-Agent Systems, pp. 7-36. A.S. Rao and M. P. Georgeff (1991), Modeling rational agents within a BDI-architecture, in R. Fikes and E. Sandewall, a cura di, Proceedings of Knowledge Representation and Reasoning (KR&R-91), pagg 473-484. Morgan Kaufmann Publishers. Stanford Encyclopedia of Philosophy alla voce The Logic of Action in Artificial Intelligence.
11