Sei sulla pagina 1di 11

Fondamenti filosofici e trattazione formale della logica BDI

Gabriele Zannoni1
1

Esame di Intelligenza Artificiale II anno laurea magistrale in Metodologie Filosofiche, indirizzo in Scienze Cognitive gabrielezannoni@gmail.com Sommario. A partire dagli anni 80 lattenzione degli studiosi di Intelligenza Artificiale si progressivamente spostata sugli agenti intelligenti, tanto da arrivare a considerare la teoria degli agenti non pi come una sottoparte dellIntelligenza Artificiale, ma come un campo di ricerca autonomo. Nel rappresentare, programmare e verificare gli effetti degli agenti vengono usati in molti casi diversi sistemi di logica modale computazionale. Obiettivo di questa ricerca prendere in considerazione uno di questi sistemi di rappresentazione degli agenti, quello basato sulla logica BDI (Beliefs, Desires, Intentions). Dopo una breve introduzione sul rapporto tra agenti e logiche computazionali, discuter prima di tutto i fondamenti filosofici che stanno alla base della logica BDI, e poi prender in esame la trattazione formale di questo sistema logico elaborata da Rao e Georgeff.

Agenti e logiche computazionali

Lo scopo di questa ricerca approfondire il rapporto tra agenti intelligenti e logiche computazionali, prendendo in esame da un punto di vista filosofico e formale la logica BDI. Innanzitutto bene riprendere una definizione di agente intelligente per cercare di comprendere come le logiche modali possano essere di grande utilit nello studio e nello sviluppo degli agenti intelligenti. Non esiste una definizione standard di agente intelligente ma senzaltro quella proposta da Jennings, Sycara and Wooldridge comprende tutti i diversi aspetti che caratterizzano gli agenti:
an agent is a computer system, situated in some environment, that is capable of flexible autonomous actions in order to meet its design objectives. Situatedness means that the agent receives sensory input from its environment and that it can perform actions which change the environment in some way. By autonomy we mean that the system should be able to act without the direct intervention of humans (or other agents), and that it should have control over its own actions and internal state. By flexible, we mean that the system is: - responsive: agents should perceive their environment and respond in a timely fashion to changes that occur in it; - pro-active: agents should be able to exhibit opportunistic, goal-directed behavior and take the initiative when appropriate;

Fondamenti filosofici e trattazione formale della logica BDI


- social: agents should be able to interact, when appropriate, with other artificial agents and humans.1

Il carattere proattivo e sociale degli agenti, oltre alla loro caratteristica autonomia, ha indotto alcuni studiosi2 a trattare gli agenti intelligenti come veri e propri sistemi intenzionali, secondo la definizione di Dennet3, ossia come sistemi a cui attribuiamo credenze, desideri e intenzioni per spiegarne il comportamento. In questo filone di recerca, molto spesso si fatto ricorso alla logica modale sia per descrivere che per determinare il comportamento degli agenti. Come sottolineano Fisher, Bordini, Hirsch e Torroni, il ricorso alla logica per questo scopo non sorprendente dal momento che essa in grado di fornire una cornice che allo stesso tempo non-ambigua e che pu essere ben compresa, e in cui specifiche logiche possono essere costruite per descrivere particolari scenari. In particolare quando si sceglie una logica appropriata, essa pu garantire un livello di astrazione vicino ai concetti chiave del software da sviluppare, come nel caso della logica applicata ai multi-agent systems.4 Le logiche quindi possono risultare utili, sempre secondo gli autori citati, sia per: - la descrizione degli agenti, mediante la logica e la semantica; - limplementazione degli agenti, grazie allesecuzione delle proposizioni logiche, - lagent analysis, con tecniche di verifica basate sulla logica.5 Esistono moltissime applicazioni e implementazioni di agenti intelligenti basati sulla logica e fornirne una panoramica esaustiva non lo scopo di questa ricerca. Mi concentrer invece su un particolare tipo di logica modale computazionale, la logica BDI, prendendone in esame i fondamenti filosofici e fornendone una trattazione formale.

2 Logica BDI e teoria dellazione di Michael Bratman


La logica BDI un tipo particolare di logica modale computazionale, basata sia sulla logica temporale che su quella modale in senso stretto. La teoria dellazione che sta alla base di questo sistema logico da attribuire al filosofo americano Michael Bratman.6 Il quadro in cui inserisce la teoria dellazione di Bratman quello gi citato della nozione di stato intenzionale di Dennet. Nel cercare di interpretare e di prevedere il comporamente di un agente, umano o artificiale, si segue la strategia di considerarne il comportamento come il prodotto delle credenze e dei desideri di questo agente.7

1 2

N.R. Jennings, K. Sycara, and M. Wooldridge (1998). cfr. ad esempio A.S. Rao and M. P. Georgeff (1991). 3 cfr. ad esempio Daniel C. Dennett (1996). 4 M. Fisher, R. H. Bordini, B. Hirsch, P. Torroni (2007), p.1-2. La traduzione in italiano di chi scrive. 5 Ibid, cfr. p.2. 6 cfr. M. E. Bratman (1984) e M.E.Bratman (1987).

Il contributo decisivo di Bratman con la sua teoria dellazione ragionata quello di considerare decisive per lagire anche le intenzioni degli agenti intelligenti. Le intenzioni secondo lautore, svolgono il ruolo di selezionare le azioni desiderate, con uno specifico e particolare impegno collegato alle azioni scelte. A meno che non intervengano altri fattori, come ad esempio la presa di coscienza che una determinata intenzione impossibile da raggiungere o stata gi realizzata, lagente mosso da unintenzione continuer a perseverare in modo continuato nel suo impegno nel cercare di realizzare le azioni che ha scelto.8 Secondo Bratman, un modello di spiegazione dellazione umana fatto solo di credenze e desideri un modello riduttivo perch considera le intenzioni derivabili o riducibili alle credenze e ai desideri.9 Le intenzioni invece sono un qualcosa di ontologicamente distinto dalle credenze e dai desideri. Unottima sintesi del pensiero di Bratman riguardo alle intenzioni, la troviamo in un lavoro di Cohen e Levesque10, a cui tra laltro fanno anche riferimento Rao e Georgeff nella loro trattazione formale della logica BDI. In primo luogo bene distinguere due diversi significati del termine intenzione: i filosofi infatti hanno tracciato una distinzione tra intenzioni rivolte al futuro e intenzioni rivolte al presente Recentemente, Bratman ha sostenuto che avere intenzione di fare qualcosa e fare qualcosa intenzionalmente non sono lo stesso fenomeno e che il primo dei due ha pi a che fare con la coordinazione dei piani di un agente.11 A mio avviso, la distinzione molto pertinente ed importante sottolineare che le intenzioni di cui si pu parlare a pieno titolo per gli agenti intelligenti sono quelle orientate verso il futuro, dal momento che il fare qualcosa intenzionalmente, ossia con unintenzione nel momento presente, una nozione che richiede un impegno ontologico superiore riguardo alla nozione di intelligenza degli agenti (artificiali) su cui sarebbe necessario discutere. Come ho gi sottolineato in precedenza, Bratman afferma che il comportamento umano non pu essere analizzato solo in termini di credenze e desideri: necessario un terzo stato mentale, le intenzioni, collegato a credenze e desideri ma non riducibile ad essi. Cohen e Levesque evidenziano giustamente che le ragioni per cui Bratman sostiene questa tesi sono fondamentalmente due: - innanzitutto nessun agente pu continuamente misurare i suoi desideri in competizione e le credenze concomitanti, nel decidere cosa fare successivamente. Ad un certo punto, lagente deve semplicemente focalizzarsi su uno stato di cose da realizzare. Decidere cosa fare impone una forma limitata di commitment; la seconda ragione la necessit di coordinare le azioni future. Nel momento in cui si stabilita unazione futura, ovvero si ha unintenzione, un agente tipicamente decide le azioni da intraprendere successivamente
7

cfr. Stanford Encyclopedia of Philosophy alla voce The Logic of Action in Artificial Intelligence 8 cfr. Stanford Encyclopedia of Philosophy alla voce The Logic of Action in Artificial Intelligence 9 M. E. Bratman (1984), p. 376. 10 cfr. P. R. Cohen and H. J. Levesque (1990a). La traduzione in italiano di chi scrive. 11 Ibid, p. 216.

Fondamenti filosofici e trattazione formale della logica BDI


considerando le intenzioni future come date. Questa abilit di pianificare di fare unazione A nel futuro, e di stabilire le decisioni successive ad A, richiede che un agente razionale non possa credere allo stesso tempo che non intraprender lazione A Senza una qualche forma di commitment (ovvero di impegno), decidere che cosaltro fare sarebbe un obiettivo senza speranza. 12 Sempre seguendo lanalisi di Cohen e Levesque, le intenzioni svolgono tre ruoli funzionali: i) porre problemi allagente; lagente deve trovare un modo per risolverli. Ad esempio, se un agente in California indende recarsi a New York un determinato giorno, lagente deve essere motivato a trovare il modo per raggiungere New York. Ovvero, lagente deve formulare un piano lazione per arrivarci. Se lagente non compie nessuna azione per essere in grado di farlo, allora lintenzione non ha il giusto effetto sullagente. ii) le intenzioni forniscono una panoramica di ammissibilit per adottare altre intenzioni. Ad esempio, se un agente intende fare un uovo bollito e sa di avere un solo uovo (e sa anche di non potersene procurare altri), non avr allo stesso tempo intenzione di fare una frittata. iii) gli agenti monitorano il successo dei loro tentativi di realizzare le loro intenzioni. Gli agenti non si limitano a verificare se le loro intenzioni si realizzano, ma sono anche disposti a ripianificare le proprie azoni per realizzare le loro intenzioni se hanno fallito precedentemente.13 Risulta sempre pi evidente quindi come le intenzioni svolgano un interessante ruolo allinterno degli agenti nella pianificazione degli obiettivi e delle azioni intermedie da intraprendere per raggiungerli. In generale, se un agente intende ottenere p, allora: i) lagente crede che p sia possibile ii) lagente non crede che non far p iii) se si verificano determinate condizioni, lagente crede che raggiunger p iv) lagente non deve per forza avere unintenzione per ogni effetto collaterale o collegato con p.14 Il considerare le intenzioni come distinte da credenze e desideri , come abbiamo visto, laspetto pi specifico del pensiero di Bratman ed anche laspetto pi caratteristico della logica BDI. Per completare il discorso, tuttavia, sarebbe necessario prendere in esame pi nel dettaglio le credenze e i desideri e mostrare come funzioni la presa di decisione e lazione in questo tipo di logica. Per svolgere questo compito in modo preciso, ritengo che la cosa migliore sia affrontarlo da un punto di vista formale. La trattazione formale della logica BDI di Rao e Georgeff ci permetter di avere un quadro chiaro e completo di come funzioni un sistema basato su questo tipo di logica.

12 13 14

P.. R. Cohen and H. J. Levesque (1990a), p. 217. Ibid, p. 217. Ibid, p. 218.

La trattazione formale della logica BDI di Rao e Georgeff

Rao e Georgeff non sono stati gli unici studiosi a cercare di rendere in termini formali la logica BDI basata sul pensiero di Bratman. Gli stessi Cohen e Levesque, che hanno dato un contributo interessante, come abbiamo visto precedentemente, nel mettere in luce la particolarit della nozione di intenzione, nellopera gi citata, hanno fornito una formalizzazione della logica BDI. La scelta di prendere in esame la formalizzazione di Rao e Georgeff tuttavia non casuale, ma si basa su una precisa scelta riguardante il modo in cui questi due autori riescono ad evitare un inconveniente comune a molte semantiche dei mondi possibili. Si tratta del problema del commitment riguardante gli effetti collaterali non voluti, che questi autori riescono a risolvere con la loro caratterizzazione delle relazioni reciproche tra credenze, desideri e intenzioni. Vediamo pi nel dettaglio come Rao e Georgeff tematizzino queste relazioni. Per farlo efficacemente, ritengo utile seguire lo schema espositivo degli autori in Rao and Georgeff (1991).

3.1 Caratteri generali


Tre aspetti fondamentali caratterizzano la formalizzazione della logica BDI di Rao e Georgeff: i) Il primo riguarda il modo in cui vengono trattate le intenzioni. Esse, infatti, vengono tradotte in un operatore del primo ordine alla pari di credenze e desideri (dora in avanti goals). ii) Il secondo aspetto unimportante distinzione operata dagli autori tra scelte e possibilit di un agente: we distinguish between the choice an agent has over the actions she can perform and the possibilities of different outcomes of an action. In the former case, the agent can choose among outcomes; in the latter case, the environment makes thet determination.15 iii) Terzo, le particolari relazioni reciproche che intercorrono tra credenze, goals e intenzioni, di cui in parte abbiamo gi parlato in precedenza ma che approfondiremo pi avanti.

3.2 Aspetti rilevanti della sintassi e della semantica


Vediamo ora pi nel dettaglio la caratterizzazione semantica del sistema logico.16 Da un punto di vista semantico il modello scelto da Rao e Georgeff quello di una struttura temporale, chiamate time tree, con un passato finito e un futuro fatto di diverse alternative. Viene introdotta anche la nozione di situazione, definita come a particular time point in a particular world17 .
15 16

A.S. Rao and M.P. Georgeff (1991), p. 474. Tutta la parte che segue fa riferimento allesposizione della teoria di Rao e Georgeff in A.S. Rao and M.P. Georgeff (1991). Per comodit espositiva citer in nota solo i passaggi che riporter in modo letterale. 17 A.S. Rao and M.P. Georgeff (1991), p.475.

Fondamenti filosofici e trattazione formale della logica BDI


Da un punto di vista sintattico, questa caratterizzazione si basa sulla logica temporale CTL18, che viene usata tipicamente per descrivere i programmi software, con laggiunta degli operatori modali corrispondenti alle credenze, ai goals e alle intenzioni. I diversi rami di questo time tree, rappresentano le diverse scelte che un agente pu intraprendere in un determinato momento. Se un agente fa una determinata scelta riguardante un evento e1 allora esso si muover lungo il ramo corrispondente ad e1. Esistono due tipi diverse di formule in questo sistema logico: le cosiddette state formulas, che vengono interpretate in uno specifico momento corrispondente a un nodo del time tree e le path formulas, che corrispondono ad una serie di nodi, ovvero di mondi possibili collegati tra loro. Vengono introdotti due diversi operatori modali riguardanti le path formulas: i) loperatore optional: una path formula optional se, in un determinato nodo del time tree, questa formula vera per almeno uno dei diversi path che partono da questo nodo; ii) loperatore inevitable: una path formula inevitable se, in un determinato nodo del time tree, questa formula vera per tutti i dei diversi path che partono da questo nodo. Esistono diversi tipi di state formulas; nel dettaglio le state formulas sono definite in questo modo: i) qualsiasi proposizione del primo ordine; ii) se 1 e 2 sono state formulas e x denota un individuo o un evento, allora non1, 1 v 2 e x (x) sono formule; iii) se e denota un evento, allora succeeds(e), fails(e), does(e), succeeded(e), faile(e) e done(e) sono state formulas; iv) se una state formula, allora BEL(), GOAL() e INTEND() sono state formulas. Nella definizione delle state formuals, possiamo notare che vengono introdotti diversi operatori. In particolare, gli operatori succeeded(e) e failed(e) indicano lesito felice o meno di una determinata azione intrapresa e sono distinti dalloperatore does(e), che indica pi genericamente che una determinata azione viene intrapresa senza fornire informazioni sulla buona riuscita o meno di questa azione. Gli operatori BEL(), GOAL() e INTEND() denotano rispettivamente le credenze, i goals e le intenzioni di un individuo e li tratter in modo pi esteso in seguito. Per chiudere questa parte, importante ricordare che in quanto facenti parte del sistema logico temporale CTL, vengono adottati gli operatori standard della logica temporale: O (next), (eventually), (always) e U (until).

3.3 Semantica ed assiomi riguardanti GOAL() e INTEND()

gli

operatori

BEL(),

Siamo giunti ora alla parte pi importante dellesposizione della formalizzazione della logica BDI di Rao e Georgeff, ovvero allanalisi di come vengano interpretati e di come operino gli operatori BEL(), GOAL() e INTEND(). Per brevit non affronter in modo formale tutta la semantica del sistema logico, n mi occuper della dimostrazione di completezza del sistema (che tra laltro non viene
18

cfr. E.A. Emerson and J. Srinivasan (1989).

presa in considerazione dagli autori stessi). Non mi soffermer neppure su alcuni aspetti pi dinamici del sistema, che risultano piuttosto complicati e che richiederebbero una trattazione apposita: ritengo molto pi utile soffermarmi sulla resa delle credenze, dei goals e delle intenzioni allinterno del sistema logico e su come essi interagiscano tra loro. Il primo operatore da prendere in considerazione BEL(), riguardante le credenze. Lassiomatizzazione di questo operatore fa riferimento alla logica modale standard KD45 (detta anche S5), che probabilmente la pi versatile delle logiche modali.19 Loperatore BEL() definito in questi termini: we say that an agent has a belief , denoted BEL(), at time point t if and only if is true in all the belief-accessible worlds of the agent at time t.20 Nella definizione si fa riferimento alla relazione belief-accessible: si tratta di una relazione di accessibilit fra mondi, che consiste, in termini semplici, in una relazione tra il mondo presente in cui si trova lagente e tutti i mondi che lagente crede che siano possibili. E importante sottolineare, tuttavia, che a differenza di molte trattazioni della relazione di accessibilit epistemica, in questo caso i mondi beliefaccessible in realt sono a loro volta time trees. In altri termini, loperatore di credenza indica tutti i mondi con le loro possibili alternative che il soggetto crede che siano possibili. In questo senso, maggiori sono le informazioni in possesso del soggetto e minore il numero di mondi: la conoscenza di informazioni nel momento presente permette di determinare e quindi di escludere mondi alternativi che in base ai dati in possesso del soggetto non sono possibili. I mondi rimasti non rappresentano altro che le diverse configurazioni del mondo che si possono determinare in base alle scelte del soggetto. Simile alla relazione di belief-accessibility anche la relazione di goal-accessibility che ci permetter di definire loperatore GOAL(): the goal-accessibility relation specifies situations the agent desires to be in. I goals quindi non sono nientaltro che i desideri ma con una precisa specifica, che porta Rao e Georgeff a definire la loro teoria fortemente realista: mentre i desideri possono essere tra loro contraddittori, i goals devono essere consistenti. In altre parole, the agent should believe that the goal is achievable21. La consistenza e la compatibilit fra i diversi goals un carattere costitutivo della teoria di Rao e Georgeff e ha come conseguenza il fatto che for each beliefaccessible world w at a given moment in time t, there must be a goal-accessible world that is a sub-world of w at time t.22 Passiamo ora alla trattazione delle intenzioni. Anche queste ultime vengono trattate come insiemi di mondi, questa volta dotati della relazione di intention-accessibility. Questi mondi non sono nientaltro, in termini semplici, che le alternative del mondo che lagente si impegnato a realizzare. Ecco espressa quindi la centralit della nozione di commitment riguardo alle intenzioni che, come abbiamo visto, caratterizza la teoria dellazione di Bratman.

19 20

Per approfondire, vedi S. Galvan (1991). A.S. Rao and M.P. Georgeff (1991), p.475. 21 Ibid, p. 476. 22 Ibid, p. 477.

Fondamenti filosofici e trattazione formale della logica BDI


Se intendiamo le intenzioni come come i future paths che lagente sceglie di seguire, allora la relazione di intention-accessibility will be used to map the agents current situation to all her intention-accessible worlds23. Abbiamo visto in precedenza che i mondi dei goals sono dei sotto-mondi di quelli delle credenze. Possiamo fare un passo ulteriore ed evidenziare che, in modo analogo, anche gli intention-accessible worlds sono dei sub-worlds dei goal-accessible worlds, dal momento che non sono nientaltro che i mondi che lagente desidera e che ha scelto di realizzare. Si pu intravedere quindi come venga trattato il rapporto tra credenze, desideri e intenzioni nelle logiche BDI; una sua efficace sintesi ci fornita dai nostri autori: One moves from a belief-accessible world to a goal-accessible world by desiring future paths, and from a goal-accessible world to an intention-accessible world by committing to certain desired future paths24. Nella figura 1, che una mia rielaborazione della figura 3 dellarticolo Rao e Georgeff (1991), presentato un esempio concreto che permette di comprendere ancora meglio la relazione tra credenze, desideri e intenzioni. Lesempio quello di un agente che si trova in una condizione iniziale in cui ha un dente da otturare. Lagente possiede diverse credenze, ovvero che pu recarsi da due diversi dentisti e in questo modo farsi otturare il dente, ma con il prezzo da pagare di dover provare dolore, oppure sa che pu andare a fare compere ma tenersi il dente da otturare. Se lagente desidera risolvere il problema al dente, i diversi goal-worlds gli configurano diverse possibilit, ovvero quella di poter scegliere da quale dentista andare e quella riguardante gli esiti dellintervento del dentista. Nel momento in cui lagente decide di intraprendere un determinato path, ovvero di andare da un dentista specifico, ecco allora determinarsi gli intention-world del nostro agente. La figura 1 ci permette anche di precisare un altro aspetto importante, gi accennato in precedenza, riguardante gli effetti collaterali non voluti delle decisioni. Come sottolineano Rao e Georgef, while for every belief-accessible world there must be a goal-accessible world (and similarly for intentions), the converse need not hold25. Ossia, anche se lagente sa che certi fatti sono inevitabili (nellesempio il fatto che se vuole avere il problema al dente risolto dovr provare dolore), esso non costretto a doverli adottare come goals. Questo ci serve anche per ribadire che le intenzioni e i desideri non sono riducibili alle credenze; come evidenziano correttamente gli autori: this means that goals and intentions, while having to be consistent, need not be closed under the beliefs of the agent26.

23 24

Ibid, p. 477. A.S. Rao and M.P. Georgeff (1991), p.478 25 Ibid, p.478. 26 Ibid, p.478.

Figura 1 Terminata la parte sullanalisi della trattazione formale di credenze, desideri e intenzioni, manca per completare un quadro generale della formulazione della logica BDI da parte di Rao e Georgeff, la discussione dei principali assiomi di questa logica. La far in modo schematico nella seguente tabella: in questo modo avremo anche qualche elemento in pi per tirare le conclusioni di questa breve ricerca. ASSIOMA Belief-Goal Compatibility ESPOSIZIONE FORMALE GOAL() BEL() SPIEGAZIONE Linsieme delle beliefs un sovrainsieme di quello dei goals; se lagente adotta una proposizione come goal allora lagente crede che se lagente adotta una proposizione come intenzione allora appartiene anche allinsieme dei goal Esprime come si impegna la volont stabilendo che se un agente ha unintenzione allora agir per cercare di portarla a compimento. Se un agente ha una determinata intenzione sa anche di averla.

Goal-Intention Compatibility Intention leading to action

INTEND() GOAL()

INTEND(does(e)) does(e)

Beliefs Intentions

about

INTEND() BEL(INTEND())

Fondamenti filosofici e trattazione formale della logica BDI


Beliefs about Goals Goals about Intentions Awareness of Primitive Events GOAL() BEL(GOAL()) INTEND() GOAL(INTEND()) done(e) BEL(done(e)) Se un agente ha un determinato goal sa anche di averlo. Se un agente intende raggiungere , deve avere tra i suoi desideri. Lagente deve essere consapevole di tutti gli eventi primitivi che sono accaduti nel mondo. Questo non significa che debba essere a conoscenza di tutti i fatti e quindi di tutto lambiente, ma che sappia le azioni che sono state intraprese inizialmente. Lagente non pu avere unintenzione e cercare di realizzarla allinfinito. Lassioma lascia aperta la possibilit che nel futuro lagente possa lasciar perdere unintenzione.

No Infinite Deferral

INTEND() inevitable (nonINTEND())

4 Conclusioni
Siamo giunti alla fine di questa breve ricerca. Si potrebbe dire molto altro riguardo al sistema logico formalizzato da Rao e Georgeff nellopera citata, prendendo in esame in modo formale, ad esempio, come le intenzioni guidino o determinino limpegno futuro di un agente riguardo a determinate azioni, ma ritengo che quanto visto riguardo a questo sistema logico sia sufficiente per trarre delle interessanti conclusioni. Nel primo paragrafo abbiamo visto brevemente come la logica sia un utile strumento per la descrizione e limplementazione degli agenti intelligenti. Mi sono soffermato poi sulla logica BDI prendendo in esame i fondamenti filosofici di Michael Bratman che caratterizzano questo sistema logico. In particolare risultata molto interessante lanalisi che Bratman fa delle intenzioni mettendo in luce sia come queste non siano riducibili alle credenze o ai desideri di un agente intelligente, sia come il concetto di intenzione richieda un commitment, un impegno forte dellagente nel cercare di portarle a termine. Questa importante distinzione risulta molto adeguata allapplicazione della logica BDI agli agenti intelligenti: se consideriamo infatti le informazioni iniziali possedute da un sistema come le credenze di questo sistema e i desideri come scenari possibili che lagente pu cercare di realizzare modificando e interagendo con il proprio ambiente, risulta molto utile trattare separatamente le intenzioni del sistema, intese come quelle procedure o quellinsieme di azioni che lagente ha deciso di intraprendere per fornire la migliore performance possibile nella sua interazione con lambiente. Nellultima parte di questa ricerca abbiamo visto come Rao e Georgeff formalizzino la teoria di Bratman in particolare riguardo a credenze, desideri e intenzioni.

10

Grazie alla semantica scelta, abbiamo evitato alcuni problemi che altre trattazioni delle logica BDI non riescono a risolvere, come ad esempio il tema degli effetti collaterali non voluti delle azioni intraprese da un agente. La formalizzazione di Rao e Georgeff inoltre risulta molto adatta e per certi versi vicina al senso comune nel considerare un carattere costitutivo dei goals, la loro consistenza e compatibilit: gli agenti implementati con questa logica sono dotati di una forma di realismo che consente una pi efficace presa di decisione e un orientamento verso il futuro ben ancorato alla realt.

Riferimenti bibliografici
M.E. Bratman (1984), Two faces of intention, in The Philosophical Review, volume 93, pp. 375-405. M.E. Bratman (1987), Intentions, Plans, and Practical Reason, Harvard University Press: Cambridge, MA. P. R. Cohen and H. J. Levesque (1990a), Intention is choice with commitment, in Artificial Intelligence, volume 42, pp.213-261. D.C. Dennett (1996), The Intentional Stance, Cambridge, Massachusetts: The MIT Press, 6th printing. E.A. Emerson and J. Srinivasan (1989), Branching time temporal logic, in J.W. de Bakker, W.-P de Roever, G. Rozenberg (1989), a cura di, Linear time, branching time, and partial order in logics and models for concurrency : School/Workshop, Noordwijkerhout, The Netherlands. M. Fisher, R. H. Bordini, B. Hirsch, P. Torroni (2007), Computational Logics And Agents: A Road Map Of Current Technologies And Future Trends, in Computational Intelligence, 23(1). S. Galvan (1991), Logiche intensionali. Sistemi proposizionali di logica modale, deontica, epistemica, Franco Angeli. N. R. Jennings, K. P. Sycara, and M. Wooldridge (1998), A Roadmap of Agent Research and Development, in Journal of Autonomous Agents and Multi-Agent Systems, pp. 7-36. A.S. Rao and M. P. Georgeff (1991), Modeling rational agents within a BDI-architecture, in R. Fikes and E. Sandewall, a cura di, Proceedings of Knowledge Representation and Reasoning (KR&R-91), pagg 473-484. Morgan Kaufmann Publishers. Stanford Encyclopedia of Philosophy alla voce The Logic of Action in Artificial Intelligence.

11

Potrebbero piacerti anche