Sei sulla pagina 1di 53

See

discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/279872455

Introduzione alla Teoria dei Giochi

Research July 2015


DOI: 10.13140/RG.2.1.4244.3361

CITATIONS READS

0 207

1 author:

Antonio Iannizzotto
Universit degli studi di Cagliari
48 PUBLICATIONS 510 CITATIONS

SEE PROFILE

All content following this page was uploaded by Antonio Iannizzotto on 08 July 2015.

The user has requested enhancement of the downloaded file. All in-text references underlined in blue are added to the original document
and are linked to publications on ResearchGate, letting you access and read them immediately.
INTRODUZIONE ALLA TEORIA DEI GIOCHI

ANTONIO IANNIZZOTTO

Sommario. In questi appunti intendiamo offrire una breve ma rigorosa introduzione alla teoria dei
giochi, utilizzabile per i corsi di laurea magistrale o di dottorato di ricerca in matematica. Il corso
e incentrato principalmente sugli aspetti teorici della disciplina: definizioni formali di gioco, utilita
e soluzione; cenni di analisi multivoca; concetto di equilibrio di Nash; giochi statici non-cooperativi
e cooperativi; giochi a somma nulla; teoremi di minimax; giochi dinamici; rappresentazione
mediante grafi. Infine vengono presentate diverse applicazioni, con particolare attenzione ai modelli
economici.
Ringraziamo la Prof.ssa Ornella Naselli, del Dipartimento di Matematica e Informatica dellU-
niversita degli Studi di Catania, per i molti e preziosi chiarimenti che ci ha offerto su questo
argomento.

Indice
Notazioni 2
1. Introduzione: giochi, soluzioni ed equilibri 3
2. Multifunzioni 7
2.1. Multifunzioni fra spazi topologici 7
2.2. Selezioni continue 11
2.3. Punti fissi 14
2.4. Il principio KKM 17
3. Giochi non cooperativi ed equilibri di Nash 19
3.1. Strategie miste e teorema di Nash 20
3.2. Esempi 22
3.3. Equilibri approssimati 26
4. Giochi a somma nulla e teoria del minimax 28
4.1. Alcuni teoremi di minimax 30
5. Giochi cooperativi 34
5.1. Valore di Shapley 40
5.2. Esempi 43
6. Cenni sui giochi dinamici 45
6.1. Esempi 49
Riferimenti bibliografici 52

Versione del 16 maggio 2015

Dipartimento di Matematica e Informatica


Universita degli Studi di Cagliari
Viale L. Merello 92, 09123 Cagliari, Italy
antonio.iannizzotto@unica.it

1
2 A. IANNIZZOTTO

Notazioni
Introduciamo qui alcuni simboli e notazioni che saranno usati nel seguito:
Insiemi: se X e un insieme, la sua cardinalita si denota |X|.
Sotto- e sopralivelli: se X e un insieme e f : X R, denotiamo
c
f c = {x X : f (x) < c}, f = {x X : f (x) 6 c},
fc = {x X : f (x) > c}, f c = {x X : f (x) > c}.
Spazi topologici: in uno spazio topologico (X, ), denotiamo la famiglia dei chiusi; per ogni
A X denotiamo int(A) linterno, cl(A) la chiusura, A la frontiera di A, rispettivamente, e A la
topologia indotta da su A; per ogni x X denotiamo U(x) la famiglia degli intorni di x.
Spazi metrici: in uno spazio metrico (X, d) denotiamo per ogni x X, S, T X
d(x, S) = inf{d(x, y) : y S}, d(S, T ) = inf{d(x, y) : x S, y T },
e introduciamo la distanza di Hausdorff
n o
dH (S, T ) = max sup d(x, T ), sup d(y, S) ,
xS yT
e per ogni r > 0
Br (S) = {x X : d(x, S) < r}.
Spazi vettoriali: in uno spazio vettoriale (reale) X, per ogni S X denotiamo
nX n o
span(S) = i xi : n N, 1 , . . . n R, x1 , . . . xn S ,
i=1
n
nX n
X o
aff(S) = i xi : n N, 1 , . . . n R, i = 1, x1 , . . . xn S ,
i=1 i=1
n
nX n
X o
conv(S) = i xi : n N, 1 , . . . n [0, 1], i = 1, x1 , . . . xn S .
i=1 i=1
Spazi vettoriali-topologici: ricordiamo che uno spazio vettoriale-topologico e uno spazio vettoriale
X, sul quale e definita una topologia tale che le funzioni (x, y) 7 x + y, (, x) 7 x sono continue
(su R si adotta tacitamente la topologia euclidea); in particolare, ogni spazio normato (X, k k) e
uno spazio vettoriale-topologico; in uno spazio vettoriale-topologico (X, ), denotiamo X il duale
topologico di X, per ogni S X denotiamo

cc(S) = cl conv(S) .
TEORIA DEI GIOCHI 3

1. Introduzione: giochi, soluzioni ed equilibri


Chi in cento battaglie riporta cento vittorie, non e il piu abile in assoluto; al contrario, chi non da
nemmeno battaglia, e sottomette le truppe dellavversario, e il piu abile in assoluto.
Sun Tzu

I primi matematici ad affrontare teoricamente il problema dei giochi furono Zermelo [41] e
Borel [3], con particolare enfasi sugli aspetti logici e probabilistici. Tuttavia, il maggior contributo
verso la formalizzazione di una teoria matematica dei giochi e dovuto a Von Neumann [40] (si
veda anche Israel & Millan Gasca [16]). La moderna teoria dei giochi rappresenta un
tentativo di descrivere le interazioni sociali (specialmente in campo economico) tra soggetti che, in
competizione tra loro, effettuano decisioni razionali cercando di ottenere il massimo vantaggio. Lo
studio ha finalita predittive: determinare, se possibile, la soluzione o le situazioni di equilibrio di
uninterazione prima che essa abbia luogo.
Per elaborare un modello di queste interazioni si ricorre al concetto di gioco, che puo avere diverse
caratteristiche (statico, dinamico, non-cooperativo, cooperativo etc.): questo modello risulta efficace
in quanto permette di trascurare tutti gli aspetti dellinterazione non attinenti alla strategia.
La teoria e stata applicata con successo, oltre che nelle scienze sociali, anche in biologia (evoluzione
di popolazioni di microorganismi), elettronica, scienze militari, psicologia e filosofia morale (teoria
della scelta razionale). Per unampia trattazione della materia rimandiamo alle monografie di
Aubin [1], Burger [6], Colombo [10], Gibbons [14], McKinsey [24], Morgenstern [28],
Morgenstern & von Neumann [29], e alla raccolta di saggi di Kuhn & Tucker [23]. Per i
collegamenti con lanalisi moderna, rimandiamo a Mot, Petrusel & Petrusel [30], Rossi [35].
Dal punto di vista teorico, la teoria dei giochi costituisce un interessante crocevia di branche
mutuamente indipendenti della matematica quali la topologia, lanalisi multivoca, il calcolo delle
probabilita e la teoria dei grafi.
Introduciamo brevemente le definizioni-assiomi della teoria:
Definizione 1.1. Un gioco e uninterazione tra due o piu decisori razionali e intelligenti, detti
giocatori. Un decisore e detto
(i) razionale se dispone di una preferenza sullinsieme degli esiti (vedi Definizione 1.2);
(ii) intelligente se persegue senza commettere errori la massima soddisfazione.
Un gioco statico rappresenta una situazione in cui tutti i giocatori effettuano le loro scelte nello stesso
momento, mentre in un gioco dinamico i giocatori scelgono secondo un certo ordine temporale,
adattando la strategia alle mosse degli altri giocatori. In un gioco deterministico i giocatori
scelgono in condizioni di certezza, ovvero sanno che un determinato insieme di strategie conduce
invariabilmente a un certo esito, mentre in un gioco stocastico, dato un insieme di strategie, vi sono
diversi esiti ciascuno con la sua probabilita. In un gioco non-cooperativo i giocatori non possono
stringere accordi vincolanti tra loro, mentre in un gioco cooperativo possono. Un gioco statico
deterministico non-cooperativo tra un insieme finito di giocatori P1 , . . . Pn (n > 2) e rappresentato
da un complesso
(1.1) = (X1 , . . . Xn , E, h),
dove Xi e linsieme delle strategie del giocatore Pi , E e linsieme degli esiti e h : ni=1 Xi E e la
funzione che associa a ogni n-upla di strategie lesito corrispondente.
Per compiere le proprie scelte, i giocatori hanno bisogno di un criterio:
4 A. IANNIZZOTTO

Definizione 1.2. Una preferenza  e una relazione binaria su un insieme E con le seguenti
proprieta:
(i) e  e per ogni e E (riflessiva);
(ii) se e1  e2 e e2  e3 allora e1  e3 per ogni e1 , e2 , e3 E (transitiva);
(iii) e1  e2 o e2  e1 per ogni e1 , e2 E (completa);
(iv) se E e uno spazio topologico, allora linsieme {e E : e  e} e chiuso per ogni e E
(continua).
Se e1  e2 e non e2  e1 , si scrive e1 e2 . Se e1  e2 e e2  e1 , allora e1 , e2 sono detti equivalenti
(e1 e2 ).

Osservazione 1.3. Una preferenza non e un ordinamento: manca la proprieta antisimmetrica!

Lipotesi di razionalita implica che il giocatore Pi dispone di una preferenza i su E. In molti casi
(come nelle scommesse), tale preferenza puo essere quantificata.

Definizione 1.4. Unutilita e una funzione u : E R con le seguenti proprieta:


(i) per ogni e1 , e2 E, se e1  e2 , allora u(e1 ) 6 u(e2 );
(ii) per ogni e1 , e2 E, se e1 e2 , allora u(e1 ) < u(e2 ).

Lesistenza di una funzione di utilita non e ovvia. Vale in merito il seguente Teorema di
Rappresentazione:

Teorema 1.5. (Kreps [22]) Siano E un insieme non vuoto e  una preferenza su E:
(i) se |E| 6 0 , allora esiste unutilita u : E R;
(ii) se |E| 6 20 , E e uno spazio topologico e  e continua, allora esiste unutilita u : E R
continua.

Assumeremo sempre lesistenza di unutilita per ogni giocatore. Dunque il complesso (1.1) si
riformula come

(1.2) = (X1 , . . . Xn , f1 , . . . fn ),

dove fi = ui h : ni=1 Xi R e detta pay-off del giocatore Pi . Nel caso n = 2, usualmente


denoteremo P , Q i giocatori e = (X, Y, f, g) e rappresenteremo i possibili risultati del gioco in
una (bi)matrice. Questa rappresentazione e detta in forma strategica (ved. Borel [3]).

Esempio 1.6. Il gioco del pari o dispari prevede due giocatori P (che vince se la somma e pari),
Q (che vince se la somma e dispari) con lo stesso insieme di strategie X = Y = {p, d} e due esiti
E = {vince P , vince Q}. Ovviamente ogni giocatore preferisce vincere, ergo attribuisce utilita 1
alla vittoria e 1 alla sconfitta. Il gioco e rappresentato dalla tabella simmetrica:

P \Q p d
p (1, 1) (1, 1)
d (1, 1) (1, 1)

Esempio 1.7. Il gioco della morra cinese (o carta, pietra e forbice) prevede due giocatori P , Q
con lo stesso insieme di strategie X = Y = {c, p, f } e tre esiti

E = {vince P , vince Q, pareggio}.


TEORIA DEI GIOCHI 5

Per ogni giocatore, la vittoria vale 1, il pareggio 0 e la sconfitta 1. Il gioco e rappresentato dalla
tabella simmetrica:
P \Q c p f
c (0, 0) (1, 1) (1, 1)
p (1, 1) (0, 0) (1, 1)
f (1, 1) (1, 1) (0, 0)

In casi semplici, possiamo risolvere un gioco (ovvero, determinare come andranno effettivamente le
cose) usando la tabella dei pay-off mediante il metodo delle eliminazioni iterate. In particolare, se
P e Q hanno strategie fortemente dominanti x e y, la soluzione del gioco sara (x, y).

Definizione 1.8. Nel gioco (1.2), siano xi , yi Xi due strategie. Si dice che
(i) xi domina fortemente yi se per ogni (z1 , . . . zn ) j6=i Xj si ha
fi (z1 , . . . xi , . . . zn ) > fi (z1 , . . . yi , . . . zn );
(ii) xi domina strettamente yi se per ogni (z1 , . . . zn ) j6=i Xj si ha
fi (z1 , . . . xi , . . . zn ) > fi (z1 , . . . yi , . . . zn ),
ed esiste (z 1 , . . . z n ) j6=i Xj t.c.
fi (z 1 , . . . xi , . . . z n ) > fi (z 1 , . . . yi , . . . z n );
(iii) xi domina debolmente yi se per ogni (z1 , . . . zn ) j6=i Xj si ha
fi (z1 , . . . xi , . . . zn ) > fi (z1 , . . . yi , . . . zn ).
Inoltre, xi e detta fortemente (strettamente, debolmente) dominante se domina fortemente (stretta-
mente, debolmente) ogni altra strategia di Xi .

Nei giochi considerati negli Esempi 1.6, 1.7 nessun giocatore ha strategie dominanti. Seguono
alcuni esempi di soluzione per eliminazioni iterate per giochi con due giocatori:

Esempio 1.9. Consideriamo il seguente gioco:


P \Q y1 y2
x1 (1, 2) (0, 1)
x2 (0, 2) (2, 1)
Sia P il primo a giocare: egli osserva che y1 e per Q una strategia fortemente dominante, quindi
sceglie x1 (che gli permette la massima utilita). La soluzione del gioco e pertanto (x1 , y1 ). La
stessa soluzione e raggiunta se Q gioca per primo.

Esempio 1.10. Consideriamo il seguente gioco:


P \Q y1 y2
x1 (3, 3) (2, 2)
x2 (0, 2) (1, 1)
x3 (1, 2) (0, 1)
Sia P il primo a giocare: egli osserva che y2 e fortemente dominata da y1 , dunque sceglie x1 ; la
soluzione e (x1 , y1 ). Se Q gioca per primo si perviene alla stessa soluzione.
6 A. IANNIZZOTTO

Esempio 1.11. Consideriamo il seguente gioco:


P \Q y1 y2
x1 (3, 5) (2, 5)
x2 (3, 0) (0, 2)
x3 (0, 2) (2, 0)
Osserviamo che in questo gioco non esistono strategie fortemente dominanti. Sia P il primo a
giocare: x1 domina strettamente x2 e x3 ; se P elimina x2 , osserva che nel nuovo gioco (ridotto)
y1 domina strettamente y2 , dunque sceglie x1 e la soluzione e (x1 , y1 ); se invece elimina x3 , un
ragionamento analogo porta alla soluzione (x1 , y2 ). Se Q gioca per primo si perviene alle stesse
soluzioni.
Per risolvere queste ambiguita si introduce un concetto di equilibrio analogo a quello in uso in
meccanica:
Definizione 1.12. (Nash [32]) Nel gioco (1.2), la n-upla (x1 , . . . xn ) ni=1 Xi e un equilibrio di
Nash se per ogni i {1, . . . n} si ha
fi (x1 , . . . xn ) > fi (x1 , . . . yi , . . . xn ) per ogni yi Xi .
Linsieme degli equilibri di Nash di si denota Ne().
Consideriamo il caso n = 2. Nella tabella dei pay-off, un equilibrio di Nash corrisponde a una
casella in cui la prima componente e massima tra quelle della stessa colonna e la seconda e massima
tra quelle della stessa riga. I giochi degli Esempi 1.6, 1.7 non presentano equilibri di Nash. Lunico
equilibrio di Nash nellEsempio 1.9 e (x1 , y1 ), nellEsempio 1.10 e (x1 , y1 ). NellEsempio 1.11 ve ne
sono due: (x1 , y1 ) e (x1 , y2 ). Ne deduciamo che
un gioco puo non avere alcun equilibrio di Nash;
un gioco puo avere piu di un equilibrio di Nash;
una strategia fortemente dominata non puo essere componente di un equilibrio di Nash;
una strategia debolmente dominata puo essere componente di un equilibrio di Nash.
Dunque, la risoluzione di un gioco per eliminazione delle strategie fortemente dominate preserva gli
equilibri di Nash (se ve ne sono), mentre la risoluzione per eliminazione delle strategie debolmente
dominate puo sopprimerne alcuni.
Esempio 1.13. Nel gioco noto come battaglia dei sessi, una coppia deve decidere se andare allo
stadio (s) o a teatro (t); luomo (P ) preferisce andare allo stadio in compagnia che a teatro
in compagnia, ma questo e pur sempre meglio che andare allo stadio da solo; la donna (Q) ha
preferenze analoghe. Il gioco e rappresentato dalla seguente tabella:
P \Q s t
s (10, 5) (0, 0)
t (0, 0) (5, 10)
Dunque gli equilibri di Nash sono (s, s) e (t, t)1.
Altri equilibri si possono determinare cambiando paradigma, cioe consentendo a ciascun giocatore
di ripartire la sua scelta tra le varie strategie (come uno speculatore che investe parti del suo
capitale su diversi titoli, variando gli investimenti secondo le sue aspettative): questa e la teoria
delle strategie miste, su cui torneremo in seguito.
1Lesperienza insegna, tuttavia, che la coppia andra a teatro.
TEORIA DEI GIOCHI 7

Il problema dellesistenza (e, in subordine, dellunicita) dellequilibrio di Nash richiede, per essere
risolto, un armamentario matematico alquanto avanzato, che presenteremo nella sua forma piu
generale.

2. Multifunzioni
Who needs set-valued analysis?
J.P. Aubin & H. Frankowska

Lanalisi multivoca estende la tradizionale analisi matematica al caso in cui i valori delle funzioni non
sono singoli elementi di un insieme bens suoi sottoinsiemi: questa scelta corrisponde allesigenza di
studiare con i mezzi dellanalisi matematica fenomeni caratterizzati da un alto grado di incertezza
(come nella teoria dei controlli). Un altro contesto in cui le multifunzioni risultano utili e lo studio
di problemi differenziali con discontinuita (ved. Chang [8] e Filippov [13]), con applicazioni in
meccanica. In questa sezione introduciamo le definizioni di base dellanalisi multivoca e alcuni
teoremi di selezione e di punto fisso. Per approfondimenti rimandiamo ai testi di Aubin &
Frankowska [2] e di Krein & Thompson [21].
Definizione 2.1. Siano X, Y insiemi non vuoti. Una multifunzione F : X 2Y e una funzione
i cui valori sono sottoinsiemi di Y . Si denota
dom(F ) = {x X : F (x) 6= },
F (S) = xS F (x) per ogni S X,
F (T ) = {x X : F (x) T 6= }, F + (T ) = {x X : F (x) T } per ogni T 2Y ,
gr(F ) = {(x, y) X Y : y F (x)}.
La multifunzione inversa IF : Y 2X e definita per ogni y Y da
IF (y) = {x X : y F (x)}.
Osservazione 2.2. Il concetto di multifunzione e, a rigore, identico a quello di relazione binaria.
A differenza da quanto avviene per le funzioni (univoche), ogni sottoinsieme di X Y e il grafico
di una multifunzione. Spesso, tuttavia, si restringe lo studio alle multifunzioni a valori non vuoti
(dom(F ) = X).
Alcune proprieta insiemistiche delle multifunzioni:
Lemma 2.3. Se F : X 2Y e una multifunzione, allora:
(i) F (T ) = X \ F + (Y \ T ) per ogni T 2Y ;
(ii) F + (T ) = X \ F (Y \ T ) per ogni T 2Y ;
(iii) F (iI Ti ) = iI F (Ti ) per ogni (Ti )iI 2Y ;
(iv) F + (iI Ti ) = iI F (Ti ) per ogni (Ti )iI 2Y ;
(v) IF (y) = F ({y}) per ogni y Y .
2.1. Multifunzioni fra spazi topologici. Ci concentriamo ora sulle multifunzioni operanti fra
spazi topologici, rimandando per le nozioni e i risultati di topologia generale a Checcucci,
Tognoli & Vesentini [9]. Nel caso multivoco, la nozione di continuita ha diverse possibili
estensioni:
Definizione 2.4. Siano (X, X ), (Y, Y ) spazi topologici, x X, F : X 2Y .
8 A. IANNIZZOTTO

(i) F e semi-continua inferiormente (s.c.i.) in x se per ogni A Y t.c. F (x) A 6= esiste


U UX (x) t.c. F (z) A 6= per ogni z U ;
(ii) F e semi-continua superiormente (s.c.s.) in x se per ogni A Y t.c. F (x) A esiste
U UX (x) t.c. F (z) A per ogni z U ;
(iii) F e semi-continua in x se per ogni A y t.c. F (x) A esiste U UX (x) t.c. F (z)A 6=
per ogni z U ;
(iv) F e continua in x se e s.c.i. e s.c.s. in x;
(v) F e s.c.i. (s.c.s., semi-continua, continua) in X se e s.c.i. (s.c.s., semi-continua, continua)
in ogni punto di X;
(vi) F e aperta se F (A) Y per ogni A X ;
(vii) F e chiusa se F (C) Y per ogni C X .
Caratterizzazioni della semi-continuita inferiore:
Lemma 2.5. Se (X, X ), (Y, Y ) sono spazi topologici, F : X 2Y , allora le seguenti sono
equivalenti:
(i) F e s.c.i.;
(ii) F (A) X per ogni A Y ;
(iii) F + (C) X per ogni C Y ;
(iv) IF e aperta.
Caratterizzazioni della semi-continuita superiore:
Lemma 2.6. Se (X, X ), (Y, Y ) sono spazi topologici, F : X 2Y , allora le seguenti sono
equivalenti:
(i) F e s.c.s.;
(ii) F + (A) X per ogni A Y ;
(iii) F (C) X per ogni C Y ;
(iv) IF e chiusa.
Tutte le nozioni di continuita introdotte per le multifunzioni sono equivalenti allusuale continuita
nel caso univoco. Un caso speciale e quello delle multifunzioni i cui valori sono intervalli reali:
Lemma 2.7. Se (X, ) e uno spazio topologico, a, b : X R sono funzioni t.c. a(x) 6 b(x) per
ogni x X e F : X 2R e definita da F (x) = [a(x), b(x)] per ogni x X, allora le seguenti sono
equivalenti:
(i) F e s.c.i.;
(ii) a e s.c.s. e b e s.c.i.
Dimostrazione. Dimostriamo solo che (ii) implica (i). Siano x X t.c. a(x) < b(x) (per evitare
casi banali) e A R aperto t.c. F (x) A 6= . Allora esiste y A t.c. a(x) < y < b(x). Poiche
a e s.c.s. e b e s.c.i. abbiamo ay , by e x ay by . Dunque esiste U U(x) t.c. U ay by .
Abbiamo infine y F (z) per ogni z U . 
Analogamente:
Lemma 2.8. Se (X, ) e uno spazio topologico, a, b : X R sono funzioni t.c. a(x) 6 b(x) per
ogni x X e F : X 2R e definita da F (x) = [a(x), b(x)] per ogni x X, allora le seguenti sono
equivalenti:
(i) F e s.c.s.;
TEORIA DEI GIOCHI 9

(ii) a e s.c.i. e b e s.c.s.


Alcuni esempi illustrano le differenze tra le varie nozioni di contenutia:
Esempio 2.9. La multifunzione F : R 2R definita da

{0}
se x < 0
F (x) = [0, 1] se x = 0

{1} se x > 0.

e s.c.s. ma non s.c.i.


Esempio 2.10. La multifunzione F : R 2R definita da

[0, 1]
se x < 0
F (x) = {1/2} se x = 0

[0, 1] se x > 0.

e s.c.i. ma non s.c.s.


Esempio 2.11. Sia g : R R convessa. E definito per ogni x R il sub-differenziale
g(x) = {y R : y(v x) 6 g(v) g(x) per ogni v R}.
La multifunzione g : R 2R e s.c.s.
La semi-continuita e la nozione piu debole:
Lemma 2.12. Se (X, X ), (Y, Y ) sono spazi topologici, F : X 2Y e s.c.i. o s.c.s. e dom(F ) =
X, allora F e semi-continua.
La semi-continuita superiore e legata alla chiusura e alla compattezza degli insiemi.
Lemma 2.13. Se (X, X ) e uno spazio topologico, (Y, Y ) e uno spazio normale2, F : X 2Y e
s.c.s. a valori chiusi, allora gr(F ) X Y e chiuso.
Dimostrazione. Proviamo che A = (X Y ) \ gr(F ) e aperto. Per ogni (x, y) A, esistono
V, W Y t.c. y V , F (x) W e V W = . Poiche F e s.c.s. esiste U UX (x) t.c. F (U ) W .
Dunque U V U(x, y) e U V A. 
Limplicazione non si inverte, fuorche in casi particolari:
Lemma 2.14. Se (X, X ) e uno spazio topologico, (Y, Y ) e uno spazio compatto e F : X 2Y
ha grafico chiuso, allora F e s.c.s.
Estensione del Teorema di Weierstra:
Teorema 2.15. Se (X, X ) e uno spazio compatto, (Y, Y ) uno spazio topologico, F : X 2X
s.c.s. a valori compatti, allora F (X) e compatto.
Dimostrazione. Sia (Ai )iI una famiglia di aperti in Y t.c. F (X) iI Ai . Per ogni x X esiste
Jx I finito t.c. F (x) iJx Ai . Posto J = xX Jx , la famiglia (F + (Ai ))iJ e un ricoprimento
aperto di X, dunque esiste H J finito t.c. X = iH F + (Ai ), da cui F (X) iH Ai . Percio,
F (X) e compatto. 
2Uno spazio normale, o T , e uno spazio di Hausdorff in cui, dati due chiusi C , C t.c. C C = , esistono
4 1 2 1 2
due aperti A1 , A2 t.c. Ci Ai (i = 1, 2) e A1 A2 = , si veda [9].
10 A. IANNIZZOTTO

Estensione del Teorema di Darboux:


Teorema 2.16. Se (X, X ) e uno spazio connesso, (Y, Y ) uno spazio topologico, F : X 2X
semi-continua a valori non vuoti e connessi, allora F (X) e connesso.
Dimostrazione. Procediamo per assurdo: siano A, B Y t.c. F (X) A B, F (X) A 6= ,
F (X) B 6= e F (X) A B = . Gli insiemi F (A), F (B) sono non vuoti e aperti in X: infatti,
per ogni x F (A) si ha in effetti F (x) A, quindi esiste U UX (x) t.c. F (z) A per ogni
z U , da cui U F (A) (similmente si prova che F (B) e aperto). Inoltre F (A) F (B) = X,
F (A) F (B) = , contro lipotesi che X e connesso. 
In vista delle applicazioni, definiamo il prodotto cartesiano di multifunzioni:
Definizione 2.17. Siano X, Y , Z insiemi non vuoti, F : X 2Y , G : X 2Z : il prodotto
cartesiano di F e G e la multifunzione F G : X 2Y Z definita per ogni x X da
(F G)(x) = F (x) G(x).
Lemma 2.18. Se (X, X ), (Y, Y ), (Z, Z ) sono spazi topologici e F : X 2Y , G : X 2Z ,
allora:
(i) se F , G sono s.c.i., F G e s.c.i.;
(ii) se F , G sono s.c.s. a valori compatti, F G e s.c.s.;
(iii) se F , G sono semi-continue a valori compatti, F G e semi-continua.
Dimostrazione. Dimostriamo solo (i): siano (Ai )iI , (Bi )iI sottofamiglie di Y , Z rispettivamente.
Si ha
(F G) (iI Ai Bi ) = iI F (Ai ) G (Bi ) ,


e il secondo insieme e aperto. Dalla Definizione 2.17 segue che F G e s.c.i. 


Una funzione (univoca) continua, definita su un connesso, ha grafico connesso. Questo principio si
estende alle multifunzioni, e inaugura una serie di risultati che legano multifunzioni e connessione:
Teorema 2.19. Se (X, X ) e uno spazio connesso, (Y, Y ) uno spazio topologico, F : X 2Y
s.c.i. a valori non vuoti e connessi, allora gr(F ) e connesso.
Dimostrazione. Segue dal Lemma 2.18 e dal Teorema 2.16, una volta osservato che gr(F ) =
(idX F )(X). 
Unapplicazione:
Lemma 2.20. Se (X, X ), (Y, Y ) sono spazi topologici, S X Y e una delle seguenti condizioni
e verificata:
(i) X e connesso, Sx 6= e connesso per ogni x X, S y e aperto per ogni y Y ;
(ii) Y e connesso, S y 6= e connesso per ogni y Y , Sx e aperto per ogni x X,
allora S e connesso.
Dimostrazione. Sia verificata (i): definiamo F : X 2Y ponendo F (x) = Sx per ogni x X.
Allora F ha valori non vuoti e connessi. Inoltre, per ogni A Y linsieme
F (A) = {x X : (x, y) S per qualche y A} = yA S y ,
e aperto, quindi F e s.c.i. La tesi segue dalla Proposizione 2.19, poiche gr(F ) = S. 
Un lemma di stabilita che sara utile in seguito:
TEORIA DEI GIOCHI 11

Lemma 2.21. Se (X, ) e uno spazio topologico, (Y, d) uno spazio metrico, F, G : X 2Y s.c.i.
a valori non vuoti, r R+
0 e
Br (G(x)) = {y Y : d(y, G(x)) < r} per ogni x X,
allora la multifunzione H : X 2Y definita da H(x) = F (x) Br (G(x)) per ogni x X e s.c.i.
Dimostrazione. Sia A Y aperto. Linsieme
A = {(y, z) Y Y : y A, d(y, z) < r}
e aperto in Y Y . Si ha
(2.1) H (A) = (F G) (A).
Infatti, per ogni x H (A) esiste y F (x) A t.c. d(y, G(x)) < r, quindi esiste z G(x) t.c.
d(y, z) < r. Allora (y, z) (F (x) G(x)) A cos che x (F G) (A). E viceversa. Per la
Proposizione 2.18, la multifunzione F G e s.c.i., dunque (F G) (A) e aperto in X (Proposizione
2.5). Da (2.1) segue la tesi. 
Soffermiamoci sul caso particolare delle multifunzioni fra spazi metrici:
Definizione 2.22. Siano (X, dX ), (Y, dY ) spazi metrici, dYH denoti la distanza di Hausdorff su Y ,
F : X 2Y : F e lipschitziana se esiste L > 0 t.c.
dYH (F (x), F (z)) 6 LdX (x, z) per ogni x, z X.
Se L = 1, F e detta non-espansiva. Se L < 1, F e detta contrazione multivoca.
Lemma 2.23. Se (X, dX ), (Y, dY ) sono spazi metrici e F : X 2Y e lipschitziana, allora F e
s.c.i.
Dimostrazione. Siano L > 0 una costante di Lipschitz per F , A Y aperto, x F (A). Esistono
y F (x) A e r > 0 t.c. BrY (y) A. Dunque, posto = r/L, per ogni z BX (x) abbiamo
dYH (F (x), F (z)) 6 LdX (x, z) < r,
6 . Pertanto, BX (x) F (A) e F risulta s.c.i.
da cui dY (y, F (z)) < r, che implica F (z) A =
(Lemma 2.5). 
2.2. Selezioni continue. Il legame tra analisi multivoca e univoca e dato dalla seguente nozione:
Definizione 2.24. Siano X, Y insiemi non vuoti, F : X 2Y , f : X Y : f e una selezione di
F se f (x) F (x) per ogni x X.
Ovviamente ogni multifunzione a valori non vuoti ammette selezioni. Tuttavia, queste possono
in generale essere irregolari: nella Fig. 1 e mostrata una selezione continua, la multifunzione
dellEsempio 2.9 invece non ha alcuna selezione continua. Si deve a Michael [2527] il principale
risultato di esistenza di selezioni continue per una multifunzione. Questo richiede alcune premesse
topologiche:
Definizione 2.25. Sia (X, ) uno spazio di Hausdorff. Esso e detto paracompatto se ogni ricopri-
mento aperto (Ai )iI di X ammette un raffinamento localmente finito, ovvero un altro ricoprimento
aperto (Bi )iI di X 3 con le seguenti propriea
(i) per ogni i I si ha Bi Ai ;
3Si vede facilmente che il raffinamento puo essere indicizzato rispeto allo stesso insieme di indici I del ricoprimento
originario.
12 A. IANNIZZOTTO

Figura 1. La curva evidenziata e il grafico di una selezione continua della multifunzione.

(ii) per ogni x X esistono U U(x), Jx I finito t.c. U Bi = per ogni i I \ Jx .

Ogni spazio paracompatto e normale. Ogni spazio metrico e paracompatto. Si ha inoltre il seguente
teorema (di partizione dellunita):

Teorema 2.26. Se (X, ) e uno spazio normale e (Ai )iI e un ricoprimento aperto localmente
finito di X, allora esistono una famiglia (i )iI di funzioni continue i : X [0, 1] e una famiglia
(Ci )iI di chiusi t.c.
(i) Ci Ai per ogni i I;
Pi (x) = 0 per ogni x X \ Ci , i I;
(ii)
(iii) iI i (x) = 1 per ogni x X.

In particolare, se (X, ) e uno spazio paracompatto e (Ai )iI e un ricoprimento aperto di X,


allora esiste una partizione continua dellunita (i )iI subordinata ad (Ai )iI (su questa parte, si
veda [9, p. 157 e p. 223]).
Un lemma preparatorio:

Lemma 2.27. Se (X, ) e uno spazio topologico paracompatto, (Y, k k) uno spazio normato,
F : X 2Y s.c.i. a valori non vuoti e convessi, allora per ogni > 0 esiste f : X Y continua
t.c.
d(f (x), F (x)) < per ogni x X.

Dimostrazione. Per ogni y Y sia Ay = F (B (y)). La famiglia (Ay )yY e un ricoprimento aperto
di X, che ammette un raffinamento localmente finito (Ey )yY (Definizione 2.25), cui e subordinata
una partizione continua dellunita (y )yY (Teorema 2.26). Per ogni x X poniamo
X
f (x) = y (x)y.
yY

E definita una funzione f : X Y . Proviamo che f e continua: per ogni x X esistono


U U(x), y1 , . . . yn Y t.c. U Ey = per ogni y Y \ {yi }ni=1 ; dunque, per ogni z U abbiamo
n
X
f (z) = yi (z)yi ,
i=1
TEORIA DEI GIOCHI 13

cos che f e continua in x. Proviamo infine la formula metrica: procedendo come sopra, assumiamo
che per ogni i {1, . . . n} sia yi (x) > 0, da cui x Ayi ; pertanto esiste wi F (x) t.c. kwi yi k < ;
sia
Xn
w= yi (x)wi ,
i=1
allora (per convessita di F (x)) abbiamo w F (x) e anche
n
X
kf (x) wk 6 yi (x)kwi yi k < ,
i=1

da cui d(f (x), F (x)) < . 

Il risultato principale:
Teorema 2.28. (Michael [25]) Se (X, ) e uno spazio topologico paracompatto, (Y, k k) uno
spazio di Banach, F : X 2Y s.c.i. a valori non vuoti, chiusi e convessi, allora F ammette una
selezione continua.
Dimostrazione. Costruiamo una successione (fn ) di funzioni fn : X Y continue t.c. per ogni
x X, n N
1 1
(2.2) d(fn (x), F (x)) <, d(fn (x), fn+1 (x)) < n1 .
2n 2
Procediamo per induzione. Per n = 1, dal Lemma 2.27 segue lesistenza di f1 : X Y continua
t.c. d(f1 (x), F (x)) < 1/2 per ogni x X. Fissato n N, se esistono f1 , . . . fn verificanti (2.2),
definiamo Fn : X 2Y ponendo per ogni x X
Fn (x) = F (x) B1/2n (fn (x)),
cos che Fn e s.c.i. (Lemma 2.21) e ha valori non vuoti (per (2.2)) e convessi. Per la Proposizione
2.27 esiste fn+1 : X Y continua t.c. per ogni x X
1
d(fn+1 (x), Fn (x)) < .
2n+1
In particolare, per ogni x X esiste yx Fn (x) t.c. kfn+1 (x) yx k < 1/2n+1 , da cui
1 1 1
kfn+1 (x) fn (x)k 6 kfn+1 (x) yx k + kyx fn (x)k < + < n1 .
2n+1 2 n 2
Dunque fn+1 verifica (2.2). La successione (fn ) e di Cauchy uniformemente in X: per completezza
di Y , si ha fn f uniformemente in X per qualche f : X Y continua, per la quale si ha da
(2.2)
d(f (x), F (x)) = 0 per ogni x X.
Poiche F ha valori chiusi, f e una selezione continua di F . 

Una conseguenza importante e il seguente teorema di estensione-selezione:


Corollario 2.29. Se (X, ) e uno spazio topologico paracompatto, (Y, k k) uno spazio di Banach,
F : X 2Y s.c.i. a valori non vuoti, chiusi e convessi, C X chiuso, g : C Y continua t.c.
g(x) F (x) per ogni x C, allora F ammette una selezione continua f : X Y t.c. f |C = g.
14 A. IANNIZZOTTO

Dimostrazione. Sia F : X 2Y definita ponendo per ogni x X


(
{g(x)} se x C
F (x) =
F (x) se x
/ C.
Proviamo che F e s.c.i. Per ogni A Y aperto e ogni x F (A), possono darsi due casi:
(a) se x C, allora g(x) A, quindi esiste U U(x) t.c. g(z) A per ogni z U C; inoltre
F (x) A 6= , quindi esiste V U(x) t.c. F (z) A 6= per ogni x V ; posto W = U V ,
abbiamo W U(x) e F (z) A 6= per ogni z W ;
(b) se x / C, esiste U U(x) t.c. F (z) A = F (z) A 6= per ogni z U .
Inoltre, F ha valori chiusi e convessi. Per il Teorema 2.28, F ha una selezione continua f : X Y ,
e ovviamente f (x) = g(x) per ogni x C. 
Di seguito presentiamo alcune applicazioni del Teorema 2.28. La prima e un teorema di estensione
continua per funzioni definite su insiemi chiusi (che generalizza, in un certo senso, il Teorema di
Tietze):
Corollario 2.30. Se (X, ) e uno spazio topologico paracompatto, (Y, k k) e uno spazio di Banach,
C X e non vuoto e chiuso, g : C Y e continua, allora esiste f : X Y continua t.c.
f (x) = g(x) per ogni x C.
Dimostrazione. Applichiamo il Corollario 2.29 alla multifunzione costante definita ponendo F (x) =
Y per ogni x X. 
La seconda e un teorema di esistenza di uninversa continua per operatori lineari continui (che
trova applicazione nella teoria delle equazioni differenziali lineari):
Corollario 2.31. Se (X, k kX ), (Y, k kY ) sono spazi di Banach e hom(X, Y ) e continuo e
suriettivo, allora esiste f : X Y continua t.c. f = idY .
Dimostrazione. Per il teorema della mappa aperta (si veda Rudin [36, p. 47]), la funzione : X
Y trasforma aperti in aperti. Per il Lemma 2.5, ne segue che la multifunzione F = 1 : Y 2X
e s.c.i. Inoltre F ha valori non vuoti, chiusi e convessi. Per il Teorema 2.28 esiste f : Y X
continua t.c. per ogni y Y si ha f (y) F (y), ovvero (f (y)) = y. 
2.3. Punti fissi. Nella teoria dei punti fissi per applicazioni univoche, si distinguono due famiglie
di risultati: i teoremi metrici di punto fisso dovuti a Banach, Caccioppoli, e quelli algebrico-
topologici dovuti a Brouwer, Schauder, Cauty (si veda Granas & Dugundji [17]). Anche il caso
multivoco rispecchia questa distinzione.
Definizione 2.32. Siano X un insieme non vuoto, F : X 2X , x X: x e un punto fisso di F
se x F (x). Linsieme dei punti fissi di F e denotato fix(F ).
Il seguente teorema di punto fisso per le contrazioni multivoche estende il teorema di Banach &
Caccioppoli rispetto allesistenza di punti fissi, ma si perde lunicita:
Teorema 2.33. (Nadler [31]) Se (X, d) e uno spazio metrico completo e F : X 2X una
contrazione multivoca a valori chiusi, allora fix(F ) 6= .
Dimostrazione. Siano L (0, 1) una costante di Lipschitz per F , > 1 un numero reale e
x0 X. Scartando casi banali, supponiamo x0
/ F (x0 ), da cui d(x0 , F (x0 )) > 0. Costruiamo una
successione (xn ) in X t.c.
(2.3) xn F (xn1 ), d(xn1 , xn ) < Ln1 d(x0 , F (x0 )) per ogni n N.
TEORIA DEI GIOCHI 15

Procediamo per induzione. Lesistenza di x1 verificante (2.3) e ovvia. Sia n > 1 e siano x0 , . . . xn
X verificanti (2.3): in particolare,
d(xn , F (xn )) 6 dH (F (xn1 ), F (xn )) 6 Ld(xn1 , xn ) < Ln d(x0 , F (x0 )),
da cui segue lesistenza di xn+1 F (xn ) verificante (2.3). Proviamo ora che (xn ) e una successione
di Cauchy in X: per ogni n, m N, n < m, abbiamo
m
X m
X
d(xm , xn ) 6 d(xi , xi1 ) 6 d(x0 , F (x0 )) Li1 ;
i=n+1 i=n+1

dal Criterio di Cauchy per le serie (e dalla convergenza della serie geometrica di ragione L) segue
che, per ogni > 0, esiste N t.c. se < n < m allora d(xm , xn ) < . Poiche X e completo,
abbiamo xn x. Da (2.3) ho per ogni n N
d(xn , F (x)) 6 dH (F (xn1 ), F (x)) 6 Ld(xn1 , x),
da cui, passando al limite, d(x, F (x)) = 0. Poiche F (x) e chiuso, abbiamo infine x fix(F ). 
Esaminiamo ora i teoremi di punto fisso topologici, cominciando con lestensione del teorema di
Schauder [17, p. 119] al caso multivoco (per la teoria degli spazi di Banach rimandiamo a Fabian
et Al. [11]):
Teorema 2.34. Se (X, k k) e uno spazio di Banach, K X e compatto e convesso e F : K 2K
e s.c.i. a valori non vuoti, chiusi e convessi, allora fix(F ) 6= .
Dimostrazione. Per il Teorema 2.28, F ammette una selezione continua f : K K. Per il citato
teorema di Schauder, esiste x K t.c. f (x) = x. Dunque x fix(F ). 
Per studiare le multifunzioni s.c.s. occorre richiamare un lemma di approssimazione:
Lemma 2.35. (Cellina [7]) Se (X, d) e uno spazio metrico compatto, (Y, k k) uno spazio
normato, F : X 2Y s.c.s. a valori non vuoti e convessi, allora per ogni r > 0 esiste gr : X Y
continua t.c. per ogni x X
d((x, gr (x)), gr(F )) 6 r.
Dimostrazione. Sia fissato r > 0. Per il Lemma 2.6, per ogni x X esiste > 0 t.c.
(2.4) F (B (x)) Br/2 (F (x)).
Per ogni x X poniamo
n  ri o
(x) = sup 0, : F (B (x)) Br/2 (F (x0 )) per qualche x0 B (x) .
2
Dimostriamo che
(2.5) inf (x) = 0 > 0.
xX

Procediamo per assurdo: sia (xn ) una successione in X t.c. (xn ) = n 0. Passando a
unestratta, abbiamo xn x in X. Sia > 0 come in (2.4) per x. Definitivamente, si ha

max n , d(xn , x) < ,
3
da cui
F (B/3 (xn )) F (B (x)) Br/2 (F (x)),
assurdo.
16 A. IANNIZZOTTO

Poniamo per ogni x X


G(x) = F (B0 /2 (x)).
Proviamo che G (y) e aperto in X per ogni y F (X). Infatti, per ogni x G (y) esiste
x0 B0 /2 (x) t.c. y F (x0 ). Posto = 1/2(0 /2 d(x, x0 )), si ricava B (x) G (y).
Dunque (G (y))yF (X) e un ricoprimento aperto di X, da cui si estrae un sotto-ricoprimento
finito (G (yi ))m
i=1 (y1 , . . . ym F (X)). Per il Teorema 2.26, ad esso e subordinata una partizione
continua dellunita (i )m i=1 . Poniamo per ogni x X
m
X
gr (x) = i (x)yi .
i=1

La funzione gr : X Y e ovviamente continua. Fissiamo x X. Per (2.4), (2.5) esistono


(0 /2, r/2], x0 B (x) t.c. F (B (x)) Br/2 (F (x0 )), da cui
G(x) Br/2 (F (x0 )) conv(F (X))
(lultimo essendo un insieme convesso). Per semplicita supponiamo i (x) > 0 se e solo se 1 6 i 6 l
(l 6 m), allora si ha
yi Br/2 (F (x0 )) conv(F (X)), i = 1, . . . l.
Poiche gr (x) e una combinazione convessa di y1 , . . . yl , ne segue
gr (x) Br/2 (F (x0 )) conv(F (X)).
Per la diseguaglianza triangolare e le relazioni precedenti, si ha infine
d((x, gr (x)), gr(F )) 6 d((x, gr (x)), (x0 , gr (x))) + d((x0 , gr (x)), gr(F ))
6 d(x, x0 ) + d(gr (x), F (x0 ))
r
6 + 6 r,
2
il che conclude la dimostrazione. 
Il piu noto teorema di punto fisso per le multifunzioni e il seguente:
Teorema 2.36. (Kakutani [20]) Se K Rn (n N) e compatto e convesso e F : K 2K e
s.c.s. a valori non vuoti, chiusi e convessi, allora fix(F ) 6= .
Dimostrazione. Per ogni k N, dal Lemma 2.35 segue lesistenza di gk : K K continua t.c. per
ogni x K
1
d((x, gk (x)), gr(F )) < .
k
Per il teorema di Brouwer [17, p. 95] esiste xk fix(gk ). A meno di estratte, abbiamo xk x per
qualche x K, da cui (xk , xk ) (x, x), quindi
1
d((x, x), gr(F )) = lim d((xk , xk ), gr(F )) 6 lim = 0.
k k k
Poiche gr(F ) e chiuso (Lemma 2.13), abbiamo infine x fix(F ). 
Se nel Teorema 2.36 sostituiamo Rn con uno spazio normato di dimensione infinita, le ipotesi
diventano troppo restrittive in quanto gli insiemi compatti in un tale spazio sono pochi (per
esempio, un insieme con interno non vuoto in uno spazio di Banach di dimensione infinita non
e mai compatto). Per questo sono state introdotte alcune estensioni improprie (le dimostrazioni
TEORIA DEI GIOCHI 17

sono simili a quella del Teorema 2.36). In una di esse, si ammette luso di topologie vettoriali
localmente convesse, permettendo applicazioni agli spazi di Banach riflessivi4:

Teorema 2.37. (Glicksberg [15]) Se (X, ) e uno spazio vettoriale-topologico localmente con-
vesso di Hausdorff, K X compatto e convesso, F : K 2K a valori chiusi e convessi t.c. gr(F )
e chiuso, allora fix(F ) 6= .

Teorema 2.38. (Browder [5]) Se (X, ) e uno spazio vettoriale-topologico localmente convesso
di Haudorff, K X e compatto e convesso, F : K 2K a valori non vuoti e convessi t.c.
F (y) per ogni y K, allora fix(F ) 6= .

Unaltra strategia comporta luso di punti fissi approssimati:

Definizione 2.39. Siano (X, d) uno spazio metrico, F : X 2X , > 0 un numero reale, x X:
x e detto -punto fisso di F se d(x, F (x)) 6 . Linsieme degli -punti fissi di F e denotato fix (F ).

Vale in merito il seguente risultato:

Teorema 2.40. (Branzei et Al. [4]) Se (X, k k) e uno spazio di Banach riflessivo, S X
limitato, convesso t.c. int(S) 6= , F : S 2S a valori non vuoti e convessi, t.c. gr(F ) e
debolmente chiuso5, allora per ogni > 0 si ha fix (F ) 6= .

Dimostrazione. Supponiamo S = B1 (0) (il caso generale si tratta con aggiustamenti minori).
Fissato > 0, troviamo R t.c. 0 < < min{1, } e poniamo K = (1 )cl(S) = B 1 (0), e
per ogni x K
G(x) = (1 )cl(F (x)).
Dunque, K e un insieme chiuso, convesso, limitato in X, quindi debolmente compatto, e G : K 2K
ha valori convessi e grafico debolmente chiuso. Per il Teorema 2.37 esiste x fix(G), ovvero esiste
y F (x) t.c. x = (1 )y, da cui
d(x, F (x)) 6 kx yk = kxk < .
In conclusione x fix (F ). 

2.4. Il principio KKM. Concludiamo questa sezione con un celebre teorema di coincidenza, in
base al quale la famiglia dei valori di una multifunzione (soggetta a una peculiare ipotesi geometrica)
ha la proprieta dellintersezione finita (si veda anche [17, p. 37]).

Definizione 2.41. Siano X uno spazio vettoriale, S X non vuoto, F : S 2S : F soddisfa


KKM se, per ogni n N, x1 , . . . xn S, si ha
conv(x1 , . . . xn ) ni=1 F (xi ).

Chiaramente, se F soddisfa KKM, allora fix(F ) = S. Inoltre, lunione di due valori F (x1 ) e F (x2 )
contiene il segmento congiungente x1 e x2 , e cos via.

4Uno spazio vettoriale-topologico e detto localmente convesso se ogni punto ha una base di intorni convessi; uno
spazio di Banach con la topologia debole e localmente convesso, e se lo spazio e riflessivo gli insiemi debolmente
chiusi e limitati sono debolmente compatti (si veda [11]).
5Lultima ipotesi significa che gr(F ) e chiuso rispetto alla topologia prodotto della topologia (X , X) per se
stessa, relativizzata a S S (leggere due volte aiuta).
18 A. IANNIZZOTTO

Teorema 2.42. (Knaster et Al. [19]) Se X e uno spazio vettoriale, S X e non vuoto,
F : S 2X soddisfa KKM e F (x) e finitamente chiuso6 per ogni x S, allora per ogni n N,
x1 , . . . xn S si ha
ni=1 F (xi ) 6= .
Dimostrazione. Procediamo per assurdo: sia dunque
(2.6) ni=1 F (xi ) = .
Denotiamo X = span(x1 , . . . xn ), C = conv(x1 , . . . xn ). Su X definiamo una topologia vettoriale di
Hausdorff, rendendo X omeomorfo a uno spazio euclideo: in tale spazio, C e chiuso e limitato,
quindi compatto. Per ogni i {1, . . . n} definiamo i : X R ponendo
i (x) = d(x, F (xi ) X) per ogni x X.
La funzione i e continua. Per ogni x X esiste i {1, . . . n} t.c. i (x) > 0: altrimenti, infatti, si
avrebbe x ni=1 F (xi ) (rammentiamo che gli insiemi F (xi ) X sono chiusi), contro (2.6). Dunque,
per ogni x X e definito un insieme non vuoto
Ix = {i {1, . . . n} : i (x) > 0}.
Definiamo f : X X ponendo
Pn
i (x)xi
f (x) = Pi=1
n per ogni x X.
j=1 j (x)

La funzione f e continua e si ha f (x) C per ogni x X. Dunque, per il teorema di Brouwer [17, p.
95], esiste x0 fix( f |C ). Applicando la condizione KKM otteniamo

x0 = f (x0 ) conv (xi )iIx0 iIx0 F (xi ),
cos che esiste i Ix0 t.c. x0 F (xi ), da cui i (x0 ) = 0, contro la definizione di i . Questo
conclude la dimostrazione. 
Come conseguenza, si puo provare che esiste un punto comune a tutti i valori di una multifunzione:
Corollario 2.43. Se (X, ) e uno spazio vettoriale-topologico di Hausdorff, S X e non vuoto,
F : S 2X soddisfa KKM e ha valori chiusi, ed esiste x0 S t.c. F (x0 ) e compatto, allora
xS F (x) 6= .
Dimostrazione. Si vede facilmente che F (x) e finitamente chiuso per ogni x S. Sia F : S 2F (x0 )
definita ponendo per ogni x S
F (x) = F (x) F (x0 ).
Per il Teorema 2.42, dom(F ) = S. Per ogni n N, x1 , . . . xn S si ha
ni=1 F (xi ) = ni=0 F (xi ) 6= ,
dunque (F (x))xS e una famiglia di sottoinsiemi chiusi del compatto F (x0 ) soddisfacente la
proprieta dellintersezione finita. Dunque esiste x xS F (x) (si veda [9, p. 135]), in particolare
x xS F (x). 

6In uno spazio vettoriale X, si dice che S X e finitamente chiuso se, per ogni sottospazio Y di X di dimensione
finita, linsieme S Y e chiuso in Y (rispetto alla topologia euclidea).
TEORIA DEI GIOCHI 19

3. Giochi non cooperativi ed equilibri di Nash


Ciascuno deve impostare la propria strategia di vita sul presupposto dellostilita altrui.
E. Limonov

In questa sezione riprendiamo il concetto di equilibrio di Nash: usando gli strumenti matematici
introdotti nelle sezioni precedenti, dimostreremo lesistenza di (almeno) un equilibrio di Nash
per un gioco statico non cooperativo deterministico con due giocatori, rappresentato in forma
strategica da = (X, Y, f, g) (alcune nozioni qui introdotte si possono estendere al caso di piu
giocatori). Per approfondimenti rimandiamo ai testi di Aubin [1], Colombo [10] e Gibbons [14].
Specializziamo la Definizione 1.12 al caso di due giocatori:
Definizione 3.1. Un equilibrio (di Nash) per e una coppia (x, y) X Y t.c.
(i) f (x, y) = sup f (, y);
X
(ii) g(x, y) = sup g(x, ).
Y
Linsieme degli equilibri per si denota Ne().
Una nozione collegata a quella di equilibrio e la seguente:
Definizione 3.2. Nel gioco = (X, Y, f, g), la coppia (x, y) X Y e un ottimo (di Pareto) se
non esiste unaltra coppia (x, y) X Y verificante una delle seguenti condizioni:
(i) f (x, y) > f (x, y), g(x, y) > g(x, y);
(ii) f (x, y) > f (x, y), g(x, y) > g(x, y).
Linsieme degli ottimi per si denota Po().
Queste due nozioni sono indipendenti, come dimostra il piu celebre problema della teoria dei giochi,
noto come dilemma del prigioniero:
Esempio 3.3. Due individui vengono arrestati con laccusa di omicidio e richiusi in celle separate.
Il commissario fa a ogni prigioniero la seguente proposta: Se confessi (accusando il tuo complice)
vi incriminero entrambi e sarete condannati a 10 anni di prigione, ma tu sarai liberato per aver
collaborato; se confessate entrambi avrete uno sconto di pena e sarete liberi in 5 anni; se nessuno
di voi confessa, resterete in galera solo per il tempo del processo, cioe 1 anno. Ogni prigioniero sa
che la stessa offerta e stata fatta anche allaltro, e deve decidere cercando di ridurre al minimo gli
anni che deve passare in cella. Denotati P , Q i prigionieri, X = Y = {c, t} le strategie (confessare
e tacere) ed eguagliati i pay-off agli opposti delle durate delle condanne, si ottiene la seguente
tabella:
P \Q c t
c (5, 5) (0, 10)
t (10, 0) (1, 1)
Si vede che Ne() = {(c, c)}, mentre Po() = {(t, t)}. Non potendo comunicare, i due prigionieri
sceglieranno di confessare, raggiungendo cos un equilibrio inefficiente. Questo esito e tipico dei
giochi non cooperativi, nei quali la competizione esasperata preclude la possibilita di accordi.
Un equilibrio e, di solito, la miglior soluzione raggiungibile nei giochi non cooperativi. Si pone
pertanto il problema di individuare condizioni sufficienti per lesistenza di (almeno) un equilibrio.
Per ottenere questo risultato occorre estendere il concetto di strategia utilizzato nella Sezione 1,
introducendo il concetto di tipo probabilistico di strategia mista.
20 A. IANNIZZOTTO

3.1. Strategie miste e teorema di Nash. Richiamiamo unelementare nozione dal calcolo delle
probabilita (si veda Scozzafava [37]):
Definizione 3.4. Sia X = {x1 , . . . xn } un insieme finito (n N, xi 6= xj per ogni i 6= j): una
distribuzione di probabilita su X e una funzione p : X [0, 1] t.c.
n
X
p(xi ) = 1.
i=1

Le strategie miste si possono rappresentare geometricamente: sia : X Rn definita da (xi ) = ei


per ogni i {1, . . . n} (in particolare, e iniettiva). Sia (X) linsieme di tutte le distribuzioni di
probabilita su X, e sia : (X) Rn definita da
n
X
(p) = p(xi )(xi ) per ogni p (X).
i=1

Chiaramente si ha ((X)) = conv((X)), ovvero ((X)) e il simplesso (n 1)-dimensionale


di vertici e1 , . . . en (in particolare, esso e un insieme compatto e convesso), e e un isomorfismo
tra (X) (con le operazioni formali) e ((X)). Identificando, per ogni i {1, . . . n}, xi con la
distribuzione p (X) definita da p(xj ) = i,j per ogni j {1, . . . n}, possiamo considerare
come unestensione di (unica a meno di isomorfismi).
Osservazione 3.5. La Definizione 3.4 si puo estendere al caso in cui X e infinito: allora una
distribuzione di probabilita su X e una misura p su X, t.c. p(X) = 1. Per chiarire: se X
rappresenta linsieme dei possibili esiti di un evento aleatorio (ad esempio una corsa di cavalli),
la funzione p associa a ogni esito (rappresentato da un elemento o da un sottoinsieme di X) la
somma che uno scommettitore punta su tale esito con la prospettiva di vincere 1 se il pronostico si
rivela esatto.
Introduciamo la seguente nozione:
Definizione 3.6. Nel gioco , una strategia mista per il giocatore P (Q) e una distribuzione di
probablilita sullinsieme delle strategie X (Y ). Gli elementi di X (Y ) sono detti strategie pure.
Limpiego di strategie miste corrisponde al seguente schema: P e visto come uno speculatore che
dispone di un capitale pari a 1, da investire in un insieme X di attivita; scegliere una strategia
mista p equivale allora a investire la somma p(xi ) nellattivita xi , per ogni i {1, . . . n} (si puo
formulare lo stesso concetto utilizzando lo schema delle scommesse). Si e visto come linsieme
(X) si puo identificare con un sottoinsieme convesso e compatto di uno spazio euclideo: e quindi
ragionevole ipotizzare, come faremo in seguito, che linsieme delle strategie (miste) di ciascun
giocatore goda di queste proprieta geometriche e topologiche.
Esempio 3.7. Nel gioco considerato nellEsempio 1.6, esteso alle strategie miste, si pone X =
Y = [0, 1]: per ogni (x, y) [0, 1]2 (che rappresenta la valutazione da parte di P che levento p
abbia probabilita x e d invece probabilita (1 x), mentre Q attribuisce a p probabilita y e a d
probabilita (1 y)) i pay-off dei due giocatori sono rispettivamente
f (x, y) = xy x(1 y) (1 x)y + (1 x)(1 y) = 4xy 2x 2y + 1,
g(x, y) = xy + x(1 y) + (1 x)y (1 x)(1 y) = 4xy + 2x + 2y 1
(si noti che f (x, y) = g(x, y)).
TEORIA DEI GIOCHI 21

Per determinare gli equilibri di un gioco si fa uso delle multifunzioni di miglior risposta per i
singoli giocatori e globale, RP : Y 2X , RQ : X 2Y , R : X Y 2XY , definite per ogni
(x, y) X Y da n o
RP (y) = x X : f (x, y) = sup f (, y) ,
X
n o
RQ (x) = y Y : g(x, y) = sup g(x, ) ,
Y
R(x, y) = RP (y) RQ (x).
Le multifunzioni ora introdotte permettono di rappresentare gli equilibri di :
Lemma 3.8. Si ha Ne() = fix(R).
Dimostrazione. Sia (x, y) Ne(), allora per la Definizione 3.1
f (x, y) = sup f (, y), g(x, y) = sup g(x, ),
X Y
da cui (x, y) R(x, y). E viceversa. 
Il seguente teorema di esistenza di un equilibrio e il piu celebre risultato della teoria dei giochi:
Teorema 3.9. (Nash [32]) Se X Rn , Y Rm (n, m N) sono convessi e compatti, f, g :
X Y R sono continue e
(i) f (, y) e quasi-concava7 per ogni y Y ;
(ii) g(x, ) e quasi-concava per ogni x X,
allora Ne() 6= .
Dimostrazione. Adottiamo su X e su Y le rispettive topologie euclidee, e su X Y la topologia
prodotto. Intendiamo applicare alla multifunzione R : X Y 2XY il Teorema 2.36.
La multifunzione RP : Y 2X ha valori non vuoti, chiusi e convessi. Infatti, per ogni y Y , la
f (, y) : X R e continua su un compatto, quindi per il teorema di Weierstra esiste x X t.c.
f (x, y) = sup f (, y) = c,
X

da cui x RP (y); inoltre linsieme RP (y) = f (, y)c e chiuso e convesso per (i) (in effetti, RP (y) e
compatto perche X e compatto).
Proviamo ora che gr(RP ) e chiuso in Y X, procedendo per assurdo: sia (yk , xk ) gr(RP ) per
ogni k N e (yk , xk ) (y, x), ma (y, x)
/ gr(RP ). Allora f (x, y) < supX f (, y). Sia R t.c.
0 < < sup f (, y) f (x, y).
X
Esiste x X t.c.
f (x, y) > f (x, y) + .
Per continuita di f , per k N abbastanza grande abbiamo

max |f (xk , yk ) f (x, y)| , |f (x, yk ) f (x, y)| < .
3
Usando le precedenti diseguaglianze, per k N abbastanza grande otteniamo
2
f (xk , yk ) < f (x, y) + < f (x, y) < f (x, yk ),
3 3
7Se X e un insieme convesso in uno spazio vettoriale e f : X R, allora f e detta quasi-concava (risp.
c
quasi-convessa se f c (risp. f ) e convesso per ogni c R.
22 A. IANNIZZOTTO

contro lipotesi che xk RP (yk ). Pertanto gr(RP ) e chiuso, quindi RP e s.c.s. (Lemma 2.14).
Similmente si prova che RQ : X 2Y e s.c.s. a valori non vuoti, compatti e convessi.
Ne segue che R : X Y 2XY e s.c.s. (Lemma 2.18) a valori non vuoti, compatti e convessi.
Sono pertanto soddisfatte le ipotesi del Teorema 2.36, da cui segue che fix(R) 6= . Per il Lemma
3.8 abbiamo Ne() 6= . 
Osservazione 3.10. Usando unattrezzatura matematica piu sofisticata, e possibile provare
versioni generalizzate del Teorema 3.9 (per esempio, in cui X e Y sono sottoinsiemi compatti e
convessi di uno spazio di Banach di dimensione infinita).
Oltre al risultato di esistenza, il metodo sopra illustrato fornisce un algoritmo per individuare
gli equilibri, che descriviamo limitandoci al caso semplice in cui X = Y = [0, 1]. I grafici delle
multifunzioni RP e RQ si possono rappresentare come curve inscritte nel quadrato [0, 1] [0, 1] (in
generale, queste curve potranno contenere tratti verticali). Si ha allora, per il Lemma 3.8,
(3.1) Ne() = gr(RP ) gr(RQ ).

3.2. Esempi. In questa sezione presentiamo alcuni esempi e applicazioni: alcuni di questi sono
veri giochi o esercizi matematici, altri sono modelli realmente usati nelle scienze sociali. Tutti
possono essere risolti utilizzando il Teorema 3.9 per provare lesistenza degli equilibri, e la formula
(3.1) per determinarli esplicitamente.
Esempio 3.11. Nel gioco della battaglia dei sessi, come abbiamo visto nellEsempio 1.13, (s, s) e
(t, t) sono equilibri di Nash. Passando dalle strategie pure a quelle miste, definiamo X = Y = [0, 1]
e f, g : [0, 1]2 R ponendo per ogni (x, y) [0, 1]
f (x, y) = 10xy + 0x(1 y) + 0(1 x)y + 5(1 x)(1 y) = 15xy 5x 5y + 5
(si puo pensare a x e a (1 x) come al tempo passato allo stadio e a teatro, rispettivamente, da
P ). Analogamente, per ogni (x, y) [0, 1] abbiamo
g(x, y) = 15xy 10x 10y + 10.
Il Teorema 3.9 garantisce lesistenza di almeno un equilibrio. In effetti, ve ne sono tre. Semplici
calcoli forniscono le multifunzioni di miglior risposta:

{0} se y [0, 1/3)

RP (y) = [0, 1] se y = 1/3 ,

{1} se y (1/3, 1]


{0} se x [0, 2/3)

RQ (x) = [0, 1] se x = 2/3 .

{1} se x (2/3, 1]

Gli equilibri si ottengono mediante (3.1), come rappresentato nella Fig. 2:


   
2 1
Ne() = (0, 0), , , (1, 1) (due di essi corrispondono a strategie pure).
3 3
Osserviamo che gli equilibri in strategie miste dipendono dai valori dei pay-off, mentre quelli in
strategie pure solo dalle preferenze (Definizione 1.2).
TEORIA DEI GIOCHI 23

Figura 2. Il metodo dellintersezione.

Esempio 3.12. Nel gioco noto come caccia al cinghiale, due cacciatori P , Q devono scegliere se
andare a caccia di cinghiale o di lepri (X = Y = {c, l}), sapendo che per catturare un cinghiale
bisogna essere in due, mentre per catturare molte lepri e meglio separarsi. Si ha la seguente tabella
dei pay-off:
P \Q c l
c (10, 10) (0, 8)
l (8, 0) (4, 4)
Si ha Ne() = {(c, c), (l, l)} ma Po() = {(c, c)}. Passando alle strategie miste, si ricava

f (x, y) = 6xy 4x + 4y + 4, g(x, y) = 6xy + 4x 4y + 4,

trovando si trova un terzo equilibrio (2/3, 2/3).

Esempio 3.13. Nel gioco dei fumatori, due fumatori P , Q si trovano in una piccola stanza:
entrambi hanno voglia di fumare, ma sono infastiditi dallaria viziata, pertanto ognuno dei due
vorrebbe fumare da solo, ma preferisce comunque fumare insieme allaltro piuttosto che astenersi.
Si ha la seguente tabella dei pay-off:

P \Q f n
f (1, 1) (2, 0)
n (0, 2) (0, 0)

Studiamo direttamente in strategie miste: poniamo X = Y = [0, 1] e ricaviamo

f (x, y) = 2x xy, g(x, y) = 2y xy per ogni (x, y) [0, 1]2 .

Ne segue che RP (y) = RQ (x) = {1} per ogni (x, y) [0, 1]2 , cos che Ne() = {(1, 1)}, ovvero P
e Q scelgono entrambi di fumare. Si noti che Po() = . Questo gioco e un caso particolare del
cosiddetto paradosso liberale, secondo il quale in assenza di divieti ognuno tende a fare come gli
pare senza curarsi del bene comune.

Esempio 3.14. Nel gioco del pollo, reso celebre dal film Rebel without a cause di Nicholas Ray
(1955), due personaggi P , Q si sfidano a correre in macchina verso un burrone: perde chi sterza
per primo. Ogni giocatore dispone di due strategie, sterzare (s) e tirare dritto (d); i pay-off sono,
24 A. IANNIZZOTTO

rispettivamente, 10 per la vittoria, 5 per il pareggio, 1 per la sconfitta e 0 per la morte:

P \Q s d
s (5, 5) (1, 10)
d (10, 1) (0, 0)

Come si vede, Ne() = {(s, d), (d, s)} e Po() = . Passando alle strategie miste si ricava

f (x, y) = x + 10y 6xy, g(x, y) = 10x + y 6xy,

da cui si trova un altro equilibrio, (1/6, 1/6). Questo gioco e un utile schema delle competizioni in
cui la deterrenza riveste un ruolo importante (per esempio, la corsa agli armamenti).

Esempio 3.15. Nel gioco dei ragni, due ragni P e Q (di una specie che produce parecchie uova
ma poche ragnatele) competono per il possesso di una ragnatela: ciascun ragno puo lottare (l) o
arrendersi (a); se entrambi lottano, i pay-off assegnati (che rappresentano le propensioni dei ragni
a lottare) sono p, q > 0, in generale la situazione e descritta dalla tabella

P \Q l a
l (p, q) (10, 0)
a (0, 10) (5, 5)

Gli equilibri dipendono dai valori dei parametri:


se p, q > 0 si ha Ne() = {(l, l)};
se p > 0 = q si ha Ne() = {(l, l), (l, a)};
se p = 0 < q si ha Ne() = {(l, l), (a, l)};
se p = q = 0 si ha Ne() = {(l, l), (l, a), (a, l)}.

Esempio 3.16. Nel gioco dei candidati, le proposte programmatiche in vista di unelezione sono
rappresentate dai numeri reali compresi tra 0 (estrema sinistra) e 1 (estrema destra) e si suppone
che gli elettori siano uniformemente distribuiti lungo questo intervallo e scelgano il candidato col
programma piu vicino alle loro idee: due candidati P e Q devono formulare i loro programmi, col
vincolo che quello di P si collochi piu a sinistra di quello di Q, cos che lelettorato [0, 1] si divide
in due parti
h x + y i hx + y i
0, , ,1 ,
2 2
che votano per P o per Q, rispettivamente. Ovviamente entrambi i candidati puntano a ottenere
la maggioranza dei voti. Il gioco , non rappresentabile in una tabella, presenta X = Y = [0, 1] e
le multifunzioni di miglior risposta
n x+y 1o
RP (y) = x [0, 1] : > = [1 y, 1],
2 2
n x+y 1o
RQ (x) = y [0, 1] : 6 = [0, 1 x].
2 2
Si ottiene

Ne() = (x, 1 x) : x [0, 1]
(in questo caso RP , RQ hanno infiniti valori non degeneri).
TEORIA DEI GIOCHI 25

Esempio 3.17. Riprendiamo il gioco considerato nellEsempio 3.16, ambientandolo in un Paese


di orientamento politico non neutrale: sia : [0, 1] [0, 1] la densita con cui gli elettori si
distribuiscono da sinistra a destra, supponiamo continua e poniamo
Z t
(t) = ( )d per ogni t [0, 1],
0
chiaramente sotto il vincolo (1) = 1. In questo caso, le funzioni di miglior risposta sono
n x + y  1o
RP (y) = x [0, 1] : > ,
2 2
n x + y  1o
RQ (x) = y [0, 1] : 6 .
2 2
In particolare, se (t) = 2t per ogni t [0, 1] (cioe se lelettorato e prevalentemente conservatore),
si ha (
se y [0, 2 1)
RP (y) =  
2 y, 1 se y [ 2 1, 1],
(
[0, 1] se x [0, 2 1)
RQ (x) =   .
0, 2 x se x [ 2 1, 1].
Dunque,

Ne() = (x, 2 x) : x [ 2 1, 1] .
Si puo concludere che al candidato di sinistra non conviene adottare posizioni estreme.
Esempio 3.18. Il duopolio di Cournot e un classico modello economico: due produttori P e Q
si contendono lintero mercato di un bene: i dati fissi sono la soglia di esaurimento del mercato
a > 0 e il costo unitario di produzione c > 0; le strategie rappresentano le quantita prodotte, cos
che X = Y = [0, a]. Si introduce una funzione di domanda (identificata col prezzo) p : [0, a]2 R
definita da 
a (x + y) se x + y < a
p(x, y) = ,
0 se x + y > a
da cui i rispettivi pay-off
(
x(p(x, y) c) = x2 xy + (a c)x se x + y < a
f (x, y) =
cx se x + y > a,
(
y(p(x, y) c) = y 2 xy + (a c)y se x + y < a
g(x, y) =
cy se x + y > a.
Le ipotesi del Teorema 3.9 sono verificate, quindi Ne() 6= . Determiniamo linsieme RP per
y [0, a], distinguendo due casi:
se y 6 a c, allora f (, y) ha un massimo in x = 1/2(a c y) [0, a y], quindi
RP (y) = {1/2(a c y)};
se y > a c, allora f (, y) ha un massimo in x = 0, quindi RP (y) = {0}.
Similmenre si calcola la multifunzione RQ , e intersecando i grafici si trova lunico equilibrio
ac ac
x= , y= .
3 3
26 A. IANNIZZOTTO

3.3. Equilibri approssimati. Quando gli insiemi X, Y non sono compatti, e impossibile applicare
il Teorema 3.9. Per questo si introduce la nozione di equilibrio approssimato:
Definizione 3.19. Siano = (X, Y, f, g) un gioco, > 0: un -equilibrio di Nash per e una
coppia (x, y) X Y t.c.
(i) f (x, y) sup f (, y) ;
X
(ii) g(x, y) sup g(x, ) .
Y
Linsieme degli -equilibri di Nash di si denota Ne ().
Anche in questo caso gli equilibri si possono caratterizzare come punti fissi di una multifunzione:
poniamo per ogni (x, y) X Y
n o
RP (y) = x X : f (x, y) sup f (, y) ,
X
n o

RQ (x) = y Y : g(x, y) sup g(x, ) ,
Y
R (x, y) = RP (y) RQ

(x).
Come nel Lemma 3.8, si ha
(3.2) Ne () = fix(R )
Lesistenza di -equilibri si puo dimostrare sotto ipotesi piu blande riguardo X, Y (compensate da
condizioni piu restrittive su f , g) rispetto a quelle del Teorema 3.9:
Teorema 3.20. (Branzei et Al. [4] Se (X, dX ), (Y, dY ) sono spazi metrici e
(i) f, g : X Y R sono uniformemente continue rispetto alla metrica

d (x, y), (z, w) = dX (x, z) + dY (y, w) per ogni (x, y), (z, w) X Y ;
(ii) fix (R ) 6= per ogni , > 0,
allora per ogni > 0 si ha Ne () 6= .
Dimostrazione. Fissiamo > 0. Per (i) esiste > 0 t.c. per ogni (x, y), (z, w) X Y t.c.

d (x, y), (z, w) <
si ha

(3.3) max |f (x, y) f (z, w)| , |g(x, y) g(z, w)| < .
2
/2 /2
Per (ii) esiste (x, y) fix/2 (R/2 ), cioe (Definizione 2.39) esistono z RP (y) e w RQ (x) t.c.

d((x, y), (z, w)) < .
2
Per (3.3) ne segue

sup f (, y) f (z, y) < f (x, y),
X 2

sup g(x, ) g(x, w) < g(x, y),
Y 2
quindi (x, y) Ne (). 
Lipotesi (ii) e difficile da verificare. Possiamo ricorrere alla teoria dei punti fissi approssimati
sviluppata nella Sezione 2:
TEORIA DEI GIOCHI 27

Corollario 3.21. Se X, Y sono sottoinsiemi limitati convessi di spazi di Banach riflessivi t.c.
int(X), int(Y ) 6= e
(i) f, g : X Y R sono uniformemente continue rispetto alla metrica

d (x, y), (z, w) = kx zkX + ky wkY per ogni (x.y), (z, w) X Y ;

(ii) R : X Y 2XY ha valori non vuoti e convessi per ogni > 0;


(iii) gr(R ) e debolmente chiuso per ogni > 0,
allora per ogni > 0 si ha Ne () 6= .

Dimostrazione. Da (ii) e (iii) segue, per il Teorema 2.40, che per ogni , > 0

fix (R ) 6= .

Rammentando anche (i), vediamo che sono verificate tutte le ipotesi del Teorema 3.20, dunque
Ne () 6= per ogni > 0. 

Ovviamente, la tecnica degli equilibri approssimati e usata in contesti piuttosto astratti. Conclu-
diamo questa sezione mostrando unapplicazione del Teorema 3.20:

Esempio 3.22. Siano (X, k k) uno spazio normato, v X \ {0} e f, g : X X R definite da


v
f (x, y) = kx yk, g(x, y) = x y per ogni (x, y) X X.

1 + kxk
Studiamo il gioco = (X, X, f, g). Si vede facilmente che la multifunzione di miglior risposta
(congiunta) e data da
n v o
R(x, y) = y, x per ogni (x, y) X X,
1 + kxk
pertanto fix(R) = , ovvero Ne() = . Cerchiamo dunque equilibri approssimati, applicando il
Teorema 3.20. Le funzioni f, g : X X R sono lipschitziane (in particolare, uniformemente
continue). Per f la cosa e ovvia. Per g, si dimostra come segue: fissati (x1 , y1 ), (x2 , y2 ) X X,
abbiamo

g(x1 , y1 ) g(x2 , y2 ) 6 v v
x1 y1 x 2 + y2 +

1 + kx1 k 1 + kx2 k


kx1 k kx2 k
6 kx1 x2 k + ky1 y2 k + kvk
(1 + kx1 k)(1 + kx2 k)

6 (1 + kvk)d (x1 , y1 ), (x2 , y2 ) .

Inoltre, fissato > 0, per ogni x X t.c. kxk > kvk/ abbiamo
 kvk
d (x, x), R(x, x) = < ,
1 + kxk

da cui (x, x) fix (R). In particolare, per ogni , > 0 abbiamo fix (R ) 6= . Cos le ipotesi (i)
e (ii) del Teorema 3.20 sono verificate. Dunque, per ogni > 0 si ha Ne () 6= (in effetti si
dimostra che (x, x) Ne () per ogni x X con kxk abbastanza grande).
28 A. IANNIZZOTTO

4. Giochi a somma nulla e teoria del minimax


Mors tua, vita mea.
Anonimo

In questa sezione, dedicata ai giochi a somma nulla, il concetto di equilibrio di Nash viene messo
in relazione con quello di minimax, che e piu generale. Per la teoria del minimax, rimandiamo a
Ricceri & Simons [34].
Definizione 4.1. Un gioco = (X, Y, f, g) e detto a somma nulla se
f (x, y) + g(x, y) = 0 per ogni (x, y) X Y .
In questo caso il gioco si denota = (X, Y, f ).
I giochi a somma nulla corrispondono alle interazioni in cui due (o piu) soggetti si contendono
un capitale fissato: i guadagni di uno equivalgono alle perdite dellaltro. Prendiamo dapprima
in esame il caso finito, ovvero X = {x1 , . . . xn }, Y = {y1 , . . . ym } (n, m N). Se il giocatore P
(che gioca per primo) sceglie la strategia xi (1 i n), allora Q optera per uns strategia yj
(1 j m) t.c.
f (xi , yj ) = min f (xi , ).
Y
Sapendo cio, P sceglie una strategia xi t.c.
min f (xi , ) = max min f.
Y X Y

Similmente, se Q gioca per primo, la sua scelta ricade su yj t.c.


max f (, yj ) = min max f.
X Y X

Questo ragionamento conduce a un concetto di equilibrio diverso da (in effetti, come si vedra, piu
generale di) quello formulato da Nash: una coppia (xi , yj ) X Y verificante leguaglianza di
minimax
(4.1) max min f = min max f.
X Y Y X

Esempio 4.2. Consideriamo il seguente gioco:


P \Q y1 y2
x1 1 2
x2 0 1
x3 1 0
Osservando la tabella (i cui numeri rappresentano i pay-off di P e contemporaneamente gli opposti
dei pay-off di Q), si ricava Ne() = {(x1 , y1 )}; allunico equilibrio di Nash di corrisponde il valore
1. Daltra parte si ha
max min f = min max f = 1,
X Y Y X
in particolare vale (4.1).
Se X, Y sono infiniti, lesistenza di massimi e minimi non e garantita e le definizioni vanno
riformulate:
TEORIA DEI GIOCHI 29

Figura 3. (0, 0) e un punto di sella per la funzione f (x, y) = y 2 x2 .

Definizione 4.3. Sia = (X, Y, f ) un gioco a somma nulla: sono definiti i valori inferiore e
superiore di
f = sup inf f, f = inf sup f
X Y Y X
(entrambi in R {}). Se vale leguaglianza di minimax
(4.2) f = f (= f),
il gioco ha valore f. Un punto di sella e una coppia (x, y) X Y t.c.
sup f (, y) = f (x, y) = inf f (x, ).
X Y

Linsieme dei punti di sella di f si denota sp(f ).


Lidea geometrica di sella e esemplificata dalla Fig. 3. Alcune precisazioni:
Lemma 4.4. Se e un gioco a somma nulla, allora si ha
f f .
Dimostrazione. Per ogni (x, y) X Y abbiamo
inf f (x, ) f (x, y) sup f (, y),
Y X

da cui la tesi. 
Lemma 4.5. Se e un gioco a somma nulla e (x, y) sp(f ), allora si ha (4.2) e
f (x, y) = f.
Dimostrazione. Si ha
f sup f (, y) = f (x, y) = inf f (x, ) f .
X Y

Dal Lemma 4.4 segue (4.2), da quanto sopra segue f (x, y) = f. 

Limplicazione non si inverte:


30 A. IANNIZZOTTO

Esempio 4.6. Siano X = [0, 1], Y =]0, 1] e f : X Y R definita da f (x, y) = xy per ogni
(x, y) X Y . Leguaglianza (4.2) e verificata in quanto
f = sup inf xy = sup 0 = 0,
0x1 0<y1 0x1

f = inf sup xy = inf y = 0.
0<y1 0x1 0<y1

In particolare, f = 0. Tuttavia il gioco in questione non ammette punti di sella. Ragionando per
assurdo, supponiamo che (x, y) sp(f ): allora
x y = sup xy = y > 0,
0x1
mentre
x y = inf xy = 0,
0<y1
assurdo.
Ovviamente (tenendo conto del fatto che f esprime i pay-off di Q) si ha:
Teorema 4.7. Se e un gioco a somma nulla, allora si ha
Ne() = sp(f ).
Dal Lemma 4.5 e dal Teorema 4.7 segue che, se ammette un equilibrio di Nash, allora vale (4.2).
Pertanto, si considera leguaglianza di minimax come una forma debole di equilibrio del gioco
e acquistano interesse nellottica della teoria dei giochi i risultati che, sotto opportune ipotesi,
assicurano il verificarsi di (4.2): i teoremi di minimax.
4.1. Alcuni teoremi di minimax. Il primo teorema di minimax copre un caso molto semplice:
Teorema 4.8. (Von Neumann [40]) Se X Rn , Y Rm (n, m N) sono compatti e convessi,
f : X Y R e bilineare, allora sp(f ) 6= .
Dimostrazione. Sia F : X 2Y definita da

F (x) = y Y : f (x, y) = inf f (x, ) per ogni x X.
Y
Per ogni x X linsieme F (x) 6= e chiuso e convesso. Sia : X R definita da
(x) = inf f (x, ) per ogni x X.
Y
Proviamo che e uniformemente continua: per ogni > 0, per il Teorema di Cantor-Heine esiste
> 0 t.c.

(4.3) |f (x, y) f (z, w)| < per ogni (x, y), (z, w) X Y , d((x, y), (z, w)) < .
2
Siano x, z X t.c. kx zkRn < : per ogni y Y ho
(x) f (x, y) sup |f (x, ) f (z, )| + f (z, y),
Y
da cui
(x) (z) sup |f (x, ) f (z, )| .
Y
Ragionando analogamente otteniamo
(z) (x) sup |f (x, ) f (z, )| .
Y
TEORIA DEI GIOCHI 31

In conclusione, applicando (4.3),



|(x) (z)| sup |f (x, ) f (z, )| < .
Y 2
Proviamo ora che gr(F ) X Y e chiuso: siano (xk , yk ) gr(F ) per ogni k N, (x, y) X Y
t.c. (xk , yk ) (x, y); per ogni n N abbiamo
f (xk , yk ) = (xk ),
da cui, passando al limite per n ,
f (x, y) = (x)
ovvero (x, y) gr(F ). Per il Lemma 2.14, F e s.c.s. Sia ora G : Y 2X definita da

G(y) = x X : f (x, y) = sup f (, y) per ogni y Y .
X
Come sopra dimostro che G e s.c.s. a valori non vuoti, chiusi e convessi. Per il Lemma 2.18,
G F : X Y 2XY e s.c.s. a valori chiusi e convessi. Dunque il Teorema 2.36 assicura
lesistenza di (x, y) fix(G F ): chiaramente si ha (x, y) sp(f ). 
La seguente estensione del Teorema 4.8 introduce la classica situazione concavo-convessa:
Teorema 4.9. (Fan [12]) Se (X, X ), (Y, Y ) sono spazi vettoriali-topologici localmente convessi
di Hausdorff, S X, T Y insiemi non vuoti, compatti e convessi, f : S T R t.c.
(i) f (, y) e s.c.s. e quasi-concava per ogni y T ;
(ii) f (x, ) e s.c.i. e quasi-convessa per ogni x S,
allora si ha
sup inf f = inf sup f.
S T T S

Dimostrazione. Procediamo per assurdo, supponendo che esista c R t.c.


(4.4) f < c < f .
Linsieme K = S T e compatto e convesso nello spazio vettoriale-topologico localmente convesso
di Hausdorff X Y . Sia F : K 2K definita da

F (x, y) = (z, w) K : min{f (x, w) c, c f (z, y)} 0 per ogni (x, y) K.
Dimostriamo che
(4.5) (x,y)K F (x, y) 6= .
c
Per ogni (x, y) K gli insiemi f (x, ) , f (, y)c (non vuoti per (4.4)) sono chiusi per le ipotesi (i),
(ii), quindi
c
F (x, y) = f (, y)c f (x, )
e un sottoinsieme chiuso del compatto K; dunque F ha valori compatti. Inoltre F verifica
KKM (ved. Definizione 2.41): lo proviamo per assurdo, supponendo che esistano n N,
(x1 , y1 ), . . . (xn , yn ) K, (z0 , w0 ) conv((x1 , y1 ), . . . (xn , yn )) t.c.
/ ni=1 F (xi , yi ).
(z0 , w0 )
Questo significa che, per ogni i {1, . . . n}, si ha
f (z0 , yi ) < c < f (xi , w0 ),
32 A. IANNIZZOTTO

ovvero yi f (z0 , )c e xi f (, w0 )c , insiemi entrambi convessi (ancora (i), (ii)). Pertanto


w0 f (z0 , )c e z0 f (, w0 )c , ovvero
c < f (z0 , w0 ) < c,
una contraddizione. Applicando il Corollario 2.43 si ottiene (4.5). Sia dunque (z, w) (x,y)K F (x, y):
si ha per ogni (x, y) K
min{f (x, w) c, c f (z, y)} 0.
Possono presentarsi due casi:
se f (x, w) c per ogni x S, si ha
f sup f (, w) c,
S

contro (4.4);
se esiste x S t.c. f (x, w) > c, allora f (z, y) c per ogni y T , da cui
f inf f (z, ) c,
T

contro (4.4).
In ogni caso, (4.4) conduce a una contraddizione. Tenendo conto della Proposizione 4.4, possiamo
concludere che f = f . 
Osservazione 4.10. Dalla dimostrazione del Teorema 4.9 segue che esiste (x, y) S T t.c.
f (x, y) = f.
Tuttavia, questo non implica che (x, y) sia un punto di sella per f .
Per studiare il problema del minimax in assenza di una struttura vettoriale, tipicamente si tende a
sostituire la convessita con la connessione. Il seguente risultato e tipico di questo approccio:
Teorema 4.11. (Konig [20]) Se (X, X ) e uno spazio topologico, (Y, Y ) uno spazio compatto,
f : X Y R t.c.
c
(i) xH f (x, ) e connesso per ogni c > f , H X non vuoto e finito;
(ii) yK f (, y)c e connesso per ogni c < f , K Y non vuoto;
(iii) f (, y) e s.c.s. per ogni y Y ;
(iv) f (x, ) e s.c.i. per ogni x X,
allora si ha (4.2).
Il limite del Teorema 4.11 consiste nel fatto che (a differenza dalla convessita) la proprieta di
connessione non e stabile rispetto allintersezione. I seguenti esempi chiariscono alcuni aspetti del
problema.
Esempio 4.12. Nello spazio euclideo R2 siano X = B 1 (0), Y = B1 (0), e sia f : X Y R
definita da
f (x, y) = hx, yi per ogni (x, y) X Y .
c
La funzione f verifica le ipotesi (iii), (iv) del Teorema 4.11. Inoltre, f (x, ) e connesso per ogni
c > f , x X e f (, y)c e connesso per ogni c < f , y Y , anche se le condizioni (i), (ii) non sono
verificate. Nondimeno si ha f = 0, f = 1.
TEORIA DEI GIOCHI 33

Esempio 4.13. Siano (Z, k k) uno spazio di Hilbert t.c. dim(Z) = e


 
X = x Z : kxk 1 , Y = y Z : kyk 1 .
Su X adottiamo la topologia forte, su Y quella debole (cos che Y e compatto). Sia f : X Y R
definita da
f (x, y) = hx, yi per ogni (x, y) X Y .
La funzione f verifica le ipotesi (i), (iii), (iv) del Teorema 4.11. Inoltre essa verifica quasi lipotesi
(ii), in quanto yK f (, y)c e connesso per ogni c R e ogni K Y finito. Nondimeno si ha
f = 0, f = 1.
Nel caso particolare in cui X e un intervallo compatto in R, le ipotesi di connessione possono essere
alleggerite, riferendole a singoli sotto- e sopra-livelli di f . Lo strumento fondamentale per questo
studio e il seguente risultato di coincidenza per le multifunzioni:
Lemma 4.14. Se a, b R, a < b, (Z, ) e uno spazio connesso, F, G : Z 2[a,b] sono s.c.i. a
valori non vuoti e connessi, t.c. F (Z) = [a, b], allora esiste z Z t.c.
F (z) G(z) 6= .
Dimostrazione. Procediamo per assurdo, supponendo
(4.6) F (z) G(z) = per ogni z Z.
2
Sia H = F G, allora H : Z 2[a,b] e s.c.i. a valori non vuoti e connessi (Lemma 2.18). Per il
Teorema 2.16, H(Z) e connesso. Siano
A = {(, ) [a, b]2 : < }, B = {(, ) [a, b]2 : > },
insiemi aperti in [a, b]2 t.c. H(Z) A B (per (4.6)). Poiche F (Z) = [a, b], esiste z0 Z t.c.
a F (z0 ): scelto G(z0 ), sempre per (4.6) abbiamo a < ovvero (a, ) H(z0 ) A, cos che
H(Z) A 6= . Similmente dimostriamo che H(Z) B 6= , contro la connessione di H(Z). 
Ne segue un teorema di minimax assai generale:
Teorema 4.15. (Ricceri [35]) Se a, b R, a < b, (Y, ) e uno spazio topologico, f : [a, b]Y R
verifica le seguenti condizioni:
(i) f (x, )c e non vuoto e connesso per ogni x [a, b], c > f ;
(ii) f (, y)c e non vuoto e connesso per ogni y Y , c > f ;
(iii) f (x, ) e s.c.i. per ogni x [a, b];
(iv) f (, y) e s.c.s. per ogni y Y ,
allora si ha
sup inf f = inf sup f.
[a,b] Y Y [a,b]

Dimostrazione. Procediamo per assurdo, supponendo che esista c R t.c.


(4.7) f < c < f .
Su [a, b] adottiamo la topologia euclidea. Siano
 
S = (x, y) [a, b] Y : f (x, y) < c , T = (x, y) [a, b] Y : f (x, y) > c .
Proviamo che S e connesso. Ovviamente [a, b] e connesso; inoltre, per ogni x [a, b], da
c > f inf f (x, )
Y
34 A. IANNIZZOTTO

segue che Sx 6= , e tale insieme e connesso (i); per ogni y Y , S y e aperto (iv). Dunque, lasserto
segue dal Lemma 2.20.
Siano F, G : S 2[a,b] definite da F (x, y) = {x}, G(x, y) = T y per ogni (x, y) S. Per ogni
(x, y) S, chiaramente F (x, y) 6= e connesso; F e s.c.i.; inoltre, per ogni x [a, b], esiste y Y
t.c. x F (x, y) (come visto sopra), quindi F (S) = [a, b]. Daltra parte, per ogni (x, y) S
linsieme G(x, y) 6= e connesso (ii); infine, per ogni z [a, b] e ogni (x, y) G (z) abbiamo
f (z, y) > c,
quindi (iii) esiste W UY (y) t.c.
f (z, w) > c per ogni w W ,
cos che (u, w) G (z) per ogni (u, w) S t.c. w W ovvero G (z) e aperto, in particolare G e
s.c.i. Per il Lemma 4.14 esiste (x, y) S t.c.
F (x, y) G(x, y) 6= .
Si ha dunque x T y , ovvero (x, y) S T , assurdo. 

5. Giochi cooperativi
Hey you, dont tell me theres no hope at all.
Together we stand, divided we fall.
R. Waters

In questa sezione introduciamo i giochi cooperativi, caratterizzati dalla possibilita che i giocatori
si associno in coalizioni per perseguire una maggiore utilita: presupposto fondamentale perche
cio avvenga e che i giocatori possano comunicare tra loro stabilendo degli accordi. Per semplicita
esamineremo il caso dei giochi cooperativi statici. Per approfondimenti rimandiamo a Colombo [10],
Morgenstern [28].
Definizione 5.1. Siano P un insieme, v : 2P R+ una funzione verificante le proprieta
(i) v() = 0;
(ii) se S, T 2P , S T = , allora v(S T ) v(S) + v(T ).
La coppia = (P, v) e detta gioco (cooperativo); gli elementi di P sono detti giocatori, i sottoinsiemi
di P coalizioni, v(S) utilita corrispondente alla coalizione S 2P , v funzione caratteristica del
gioco.
La proprieta (ii) della Definizione 5.1 e detta super-additivita ed esprime il fatto che coalizzarsi
conviene ai singoli giocatori (essa non e richiesta in tutte le versioni della teoria dei giochi
cooperativi). In particolare, alla grande coalizione P corrisponde il valore massimo della funzione
caratteristica: questo rappresenta lutilita totale del gioco, e il problema principale consiste nel
trovare una coalizione che distribuisca tale utilita in modo soddisfacente per tutti i giocatori che la
formano. Nel seguito adotteremo le notazioni P = {1, . . . n} (n N), e v({i}) = v(i) (i P ).
Definizione 5.2. Due giochi = (P, v), 0 = (P, v 0 ) si dicono strategicamente equivalenti ( 0 )
se esistono r > 0, a1 , . . . an R t.c.
X
v 0 (S) = rv(S) + ai per ogni S 2P .
iS
TEORIA DEI GIOCHI 35

Si dimostra facilmente che lequivalenza strategica e effettivamente una relazione di equivalenza


(riflessiva, simmetrica, transitiva) sullinsieme dei giochi con insieme dei giocatori P . Segnaliamo
ora alcune importanti classi di giochi cooperativi.

Definizione 5.3. Un gioco = (P, v) e detto


(i) essenziale se
n
X
v(P ) > v(i);
i=1

(ii) normale se v(P ) = 1 e v(i) = 0 per ogni i P ;


(iii) semplice se v(S) {0, 1} per ogni S 2P ;
(iv) a somma costante se v(S) + v(P \ S) = v(P ) per ogni S 2P .

Chiaramente ogni gioco essenziale e semplice e normale. Inoltre, ogni gioco essenziale puo essere
normalizzato:

Lemma 5.4. Se = (P, v) e un gioco essenziale, allora esiste un unico gioco normale 0 = (P, v 0 )
tale che 0 .

Dimostrazione. Sia P
0 v(S) iS v(i)
v (S) = per ogni S 2P .
v(P ) nj=1 v(j)
P

Il gioco 0 = (P, v 0 ) e normale. Inoltre, posto


h n
X i1
r = v(P ) v(j) , ai = rv(i) per ogni i P ,
j=1

si ha
X
v 0 (S) = rv(S) + ai per ogni S 2P ,
iS

ovvero 0 . Lunicita e provata facilmente. 

Una nozione che sara richiamata in seguito e quella di giocatore fantoccio (dummy player):

Definizione 5.5. In un gioco = (P, v), i P e detto giocatore fantoccio se

v(S {i}) = v(S) + v(i) per ogni S 2P .

Esempio 5.6. Nel gioco delle pertiche, tre esploratori devono attraversare un fiume di larghezza
l > 0 e ognuno di essi possiede una pertica di lunghezza 2l/3. Si ha P = {1, 2, 3} e, posta 1 lutilita
di attraversare il fiume, possiamo enumerare tutti i valori della funzione caratteristica v : 2P R:

v(p1 ) = v(p2 ) = v(p3 ) = 0,

v({p1 , p2 }) = v({p1 , p3 }) = v({p2 , p3 }) = 1,

v({p1 , p2 , p3 }) = 1.
Il gioco = (P, v) e semplice e a somma costante.
36 A. IANNIZZOTTO

Esempio 5.7. Nel gioco della produzione, tre imprenditori P = {1, 2, 3} dispongono di tre materie
prime, per esempio ferro, gomma e legno, nelle quantita indicate dalla seguente tabella:
f g l
1 2 3 3
2 3 0 3
3 1 3 0
Per produrre ununita di prodotto finito (che si vende al prezzo 1) serve ununita di ciascuna
materia prima. La funzione caratteristica determina il ricavo ottenibile da ciascuna coalizione:
v(1) = 2, v(2) = v(3) = 0,
v({1, 2}) = v({1, 3}) = v({2, 3}) = 3,
v({1, 2, 3}) = 6.
Il gioco = (P, v) non e a somma costante (v(1) + v({2, 3}) = 5) e neanche normale. Il gioco
normalizzato 0 = (P, v 0 ) si ottiene ponendo
1 1
r = , a1 = , a2 = a3 = 0.
4 2
Esempio 5.8. Nel gioco della maggioranza pesata, i partiti P = {1, . . . n} (n N) dispongono
ciascuno di si seggi in parlamento (si N per ogni i {1, . . . n}) e il minimo numero di voti
richiesto per approvare una legge e q N. La situazione configura un gioco semplice = (P, v) con
 P
0 se PiS si < q
v(S) = .
1 se iS si q
Le nozioni introdotte di seguito servono a definire un concetto ragionevole di soluzione per i giochi
cooperativi.
Definizione 5.9. Unimputazione per il gioco = (P, v) e un vettore x Rn t.c.
Xn
(i) xi = v(P ) (efficienza);
i=1
(ii) xi v(i) per ogni i {1, . . . n} (razionalita individuale).
Linsieme delle imputazioni di si denota i().
Linsieme i() si puo rappresentare graficamente mediante un simplesso (n 1)-dimensionale in
Rn (come nella Fig. ??). Introduciamo ora la nozione di nucleo, che esprime il sottoinsieme di
i() contenente le imputazioni vantaggiose non solo per i singoli giocatori, ma anche per ciascuna
coalizione:
Definizione 5.10. Il nucleo del gioco = (P, v) e linsieme delle imputazioni x i() t.c.
X
xi v(S) per ogni S 2P .
iS

Il nucleo di si denota c().


Linsieme c() Rn e chiuso e convesso. Il problema di determinare il nucleo di rientra nella
programmazione lineare (una branca dellottimizzazione): introduciamo un insieme
n X o
n P
X = (x1 , . . . xn ) R : xi v(S) per ogni S 2
iS
TEORIA DEI GIOCHI 37

Figura 4. La regione piu scura rappresenta c().

e una funzione f : X R definita da


n
X
f (x1 , . . . xn ) = xi ;
i=1

per il Teorema di Weierstra e per la definizione di X, esiste (x1 , . . . xn ) X t.c.


f (x1 , . . . xn ) = inf f = f v(P ).
X

A questo punto occorre distinguere due casi:


se f = v(P ), allora (x1 , . . . xn ) c();
se f > v(P ), allora c() = .
NellEsempio 5.6 si ricava facilmente c() = . NellEsempio 5.7 occorre risolvere il sistema misto


x1 > 2

x2 > 0




2 6 x1 6 3
x > 0

3



0 6 x 6 3
2
x1 + x2 > 3
x1 + x2 > 3
x1 + x3 > 3





x3 = 6 x1 x2
x2 + x3 > 3





x1 + x2 + x3 = 6

cos che infine si ha


c() = (x1 , x2 , 6 x1 x2 ) R3 : 2 x1 3, 0 x2 3, x1 + x2 3 .


Per risolvere i sistemi del tipo precedente si puo seguire un metodo grafico: rappresentiamo i punti
(x1 , x2 , x3 ) in un triangolo equilatero i cui vertici sono (6, 0, 0), (0, 6, 0) e (0, 0, 6), e sullo stesso
triangolo le equazioni e disequazioni del sistema (tutte lineari) si possono rappresentare mediante
segmenti e diidendo il triangolo. Una volta eliminati tutti i punti che non soddisfano qualcuno dei
vincoli, cio che resta e c() (ved. Fig 4).
38 A. IANNIZZOTTO

Esempio 5.11. Nel gioco dei musicisti, tre suonatori P = {1, 2, 3} si esibiscono da soli, in duo o
in trio percependo i seguenti salari:
v(1) = 100, v(2) = 150, v(3) = 200,
v({1, 2}) = 400, v({1, 3}) = 300, v({2, 3}) = 400,
v({1, 2, 3}) = 600.
Attraverso il procedimento grafico descritto sopra, si ottiene

c() = (x1 , 400 x1 , 200) : 100 x1 200 .
Esempio 5.12. Nel gioco dei guanti, 10 persone hanno ciascuna un guanto sinistro e 11 persone
hanno ciascuna un guanto destro; ovviamente un guanto solo e inservibile, come pure due guanti
uguali, mentre un paio di guanti (diversi) vale 1. Il gioco = (P, v) ha la seguente struttura:
P = L R, dove L = {1, . . . 10} e linsieme di persone con un guanto sinistro e R = {11, . . . 21}
linsieme di persone con un guanto destro, e per ogni S 2P si ha
v(S) = min{|S L|, |S R|}.
Chiaramente
n 21
X o
21
i() = x R : xi = 10, xi 0 per ogni i {1, . . . 21} .
i=1

Detta x i() limputazione che ha le prime 10 componenti pari a 1 e le altre 11 pari a 0, si ha


c() = {x}.
Prima dimostriamo che x c(). Per ogni S 2P abbiamo
X
xi = |S L| v(S).
iS

Poi proviamo che x e lunica imputazione di c(), per assurdo: sia z c() \ {x}. Distinguo due
casi:
se esiste 11 h 21 t.c. zh = a > 0, allora, posto S = P \ {ph }, si ha
X X
10 = v(S) zi = zi = 10 a < 10,
iS i6=h

assurdo;
se zi = 0 per ogni i {11, . . . 21}, da z 6= x segue che esiste 1 j 10 t.c. zj = b < 1, da
cui, per T = {j, 11}, si ha
X
1 = v(T ) zi = zj + z11 = b < 1,
iT

assurdo.
Questo esempio suggerisce lidea di un forte vantaggio per i possessori di guanti sinistri, ovvero del
bene piu raro.
In alcuni casi, il nucleo si determina facilmente:
Lemma 5.13. Se = (P, v) e un gioco essenziale a somma costante, allora c() = .
TEORIA DEI GIOCHI 39

Dimostrazione. Per assurdo: sia x c(). Allora, per ogni j {1, . . . n} si ha


X
v(P ) v(j) = v(P \ {j}) xi = v(P ) xj ,
i6=j

cioe xj = v(j), da cui


n
X n
X
v(P ) = xi = v(i),
i=1 i=1
assurdo. 

Nei giochi semplici (Definizione 5.3 (iii)) si definisce una classe particolare di giocatori:
Definizione 5.14. Sia = (P, v) un gioco semplice: i e detto giocatore di veto se v(P \ {i}) = 0.
Chiaramente, in un gioco semplice ogni coalizione vincente deve contenere tutti gli eventuali
giocatori di veto: se S 2P e i
/ S e un giocatore di veto, si ha S P \ {i}, da cui
v(S) v(P \ {i}) = 0.
Questa nozione si collega a quella di nucleo:
Teorema 5.15. Se = (P, v) e un gioco semplice, le seguenti sono equivalenti:
(i) c() 6= ;
(ii) ha almeno un giocatore di veto.
Dimostrazione. Proviamo che (i) implica (ii), per assurdo: sia v(P \ {i}) = 1 per ogni i {1, . . . n}
e sia x c(); allora per ogni j {1, . . . n} si ha
X
0 xj = 1 xi 1 v(P \ {j}) = 0,
i6=j

contro lipotesi che x sia unimputazione. Proviamo che (ii) implica (i): sia S la coalizione formata
da tutti i giocatori di veto (S 6= ). Definiamo x Rn ponendo

0 se i
/S
xi = .
1/|S| se i S
Otteniamo cos
n
X
xi = 1.
i=1

Inoltre, se T 2P , distinguiamo due casi:


se v(T ) = 0, allora banalmente
X
xi v(T );
iT
se v(T ) = 1, per quanto sopra S T , da cui
X X
xi xi = 1.
iT iS

Dunque, x c(). 
40 A. IANNIZZOTTO

5.1. Valore di Shapley. Definiamo adesso il piu comune (non lunico) concetto di soluzione per
un gioco cooperativo = (P, v). Introduciamo linsieme delle permutazioni di P = {1, . . . n},
denotato

P ! = : P P : biunivoca .
Per ogni i P , P ! sia

S(i, ) = j P : (j) < (i)
la coalizione formata dai giocatori che precedono i nellordine stabilito da , e sia
M (i, ) = v(S(i, ) {i}) v(S(i, ))
il contributo marginale di i (ovvero lincremento di utilita offerto dal giocatore i alla coalizione
S(i, )). Per la (ii) della Definizione 5.1 si ha
(5.1) M (i, ) v(i) per ogni i P , P !.
Facendo variare P !, la media dei contributi marginali di i ne misura il valore:

Definizione 5.16. Il valore di Shapley del gioco e il vettore = (1 , . . . n ) definito da


1 X
i = M (i, ) per ogni i P .
n!
P !

Il valore di Shapley di si denota Sv().

Linterpretazione della Definizione 5.16 e la seguente: per ogni i P , i rappresenta la ricompensa


corrisposta al giocatore i, tanto maggiore quanto piu rilevante e il contributo dato da i alle varie
coalizioni che si possono formare. Per esempio, se si vuole organizzare un torneo di calcio avendo a
disposizione molti bravi attaccanti ma pochi bravi difensori, il valore di questi ultimi (cioe la loro
quota del premio in caso di vittoria) sara maggiore di quello degli attaccanti.

Osservazione 5.17. La formula della Definizione 5.16 puo risultare di difficile computazione (n!
addendi). In tal caso si puo usare la formula equivalente
1 X
i = |S|!(n |S| 1)! (v(S {i}) v(S)) per ogni i P .
n!
iS
/

Infatti, per ogni P !, M (i, ) non dipende da bens solo da S(i, ). Daltra parte, il numero
delle permutazioni che producono una fissata coalizione S e |S|!(n |S| 1)!. In questa formula,
gli addendi sono 2n1 (sottoinsiemi di P \ {i}), il che rende la formula apprezzabile per valori
grandi di n, in quanto
2n1
lim = 0.
n n!
Esempio 5.18. Sia = (P, v) il gioco con P = {1, 2, 3} e
v(1) = v(2) = v(3) = 0,

v({1, 2}) = v({1, 3}) = 4, v({2, 3}) = 6,

v({1, 2, 3}) = 20.


TEORIA DEI GIOCHI 41

I contributi marginali possono essere raccolti nella seguente tabella:

\i 1 2 3
123 0 4 16
132 0 16 4
213 4 0 16
231 14 0 6
312 4 16 0
321 14 6 0

Dunque si ha Sv() = (6, 7, 7).

I seguenti risultati mostrano che il valore di Shapley rappresenta una soluzione del gioco:

Teorema 5.19. Si ha Sv() i().

Dimostrazione. Innanzitutto osserviamo che


n n
X X 1 X
i = M (i, )
n!
i=1 i=1 P !
n
1 XX
= M (i, )
n!
P ! i=1
1 X 
= v(P ) v()
n!
P !
= v(P ).

Inoltre, per ogni i P , da (5.1) segue


1 X
i v(i) = v(i).
n!
P !

Dunque, e unimputazione. 

Inoltre si hanno altre proprieta, riassunte nel seguente Teorema di Shapley:

Teorema 5.20. (Shapley [39]) Siano = (P, v), 0 = (P, v 0 ) giochi con Sv() = , Sv(0 ) = 0 :
(i) detto + 0 = (P, v + v 0 ), allora Sv( + 0 ) = + 0 (additivita);
(ii) se esistono r > 0, a1 , . . . an R t.c. v 0 (S) = rv(S) + iS ai per ogni S 2P , allora
P
0 = r + (a1 , . . . an ) (equivarianza per equivalenza strategica);
(iii) se esiste P ! t.c. v 0 (S) = v((S)) per ogni S 2P , allora 0i = (i) (simmetria);
(iv) se i P e un giocatore fantoccio, allora i = v(i).

Dimostrazione. Dimostriamo (i): per ogni i P si ha


1 X
Svi ( + 0 ) = (v + v 0 )(S(i, ) {i}) (v + v 0 )(S(i, ))

n!
P !
= i + 0i .
42 A. IANNIZZOTTO

Dimostriamo (ii): per ogni i P si ha


1 X 0
0i = v (S(i, ) {i}) v 0 (S(i, ))

n!
P !
1 X X X 
= rv(S(i, ) {i}) + aj + ai rv(S(i, )) aj
n!
P ! jS(i,) jS(i,)
1 X 
= rM (i, ) + ai
n!
P !
= ri + ai .
Dimostriamo (iii): per ogni i P si ha
1 X 0
0i = v (S(i, ) {i}) v 0 (S(i, ))

n!
P !
1 X 
= v((S(i, )) {(i)}) v((S(i, )))
n!
P !
= (i) .
Dimostriamo (iv): si ha
1 X 
i = v(S(i, ) {i}) v(S(i, ))
n!
P !
1 X
= v(i)
n!
P !
= v(i).
Questo conclude la dimostrazione. 
Osservazione 5.21. Le proprieta (i)-(iv) sono caratteristiche del valore di Shapley (altre definizioni
di soluzione di un gioco possiedono alcune di queste proprieta, ma non tutte).
Introduciamo una nuova classe di giochi:
Definizione 5.22. Un gioco = (P, v) e detto convesso se
v(S T ) + v(S T ) v(S) + v(T ) per ogni S, T 2P .
Linterpretazione della Definizione 5.22 e la seguente: siano A, B, C 2P t.c. A B, B C = ;
posto S = A C, T = B, si ha
v(B C) v(B) v(A C) v(A),
ovvero il contributo marginale offerto da C a una coalizione e tanto maggiore, quanto piu grande
e la coalizione stessa. Nei giochi convessi il valore di Shapley assume unimportanza ancora piu
spiccata:
Teorema 5.23. Se = (P, v) e un gioco convesso, allora Sv() c().
Dimostrazione. Fissata P !, sia i = M (i, ). Chiaramente i(). Dimostriamo che
c(): per ogni T 2P , dalla convessita di segue che per ogni i T
 
i = v {j P : (j) (i)} v {j P : (j) < (i)}
 
v {j T : (j) (i)} v {j T : (j) < (i)} ,
TEORIA DEI GIOCHI 43

da cui
X X  X 
i v {j T : (j) (i)} v {j T : (j) < (i)}
iT iT iT
= v(T ).
Rammentando che c() e convesso e che
1 X
Sv() = ,
n!
P !
si ha infine c(). 
Di conseguenza, i giochi convessi hanno nucleo non vuoto. Ma, anche se c() = , il valore di
Shapley fornisce una soluzione di .
5.2. Esempi. Presentiamo qui alcuni esempi di giochi cooperativi, studiati mediante il valore di
Shapley.
Esempio 5.24. Quattro azionisti possiedono rispettivamente il 10%, 20%, 30%, 40% di unazienda;
in una riunione dellassemblea degli azionisti, una proposta viene approvata se ottiene i voti dei
titolari di piu del 50% dellazienda. Questa situazione si puo rappresentare con un gioco semplice
= (P, v), dove P = {1, 2, 3, 4} e
v(1) = v(2) = v(3) = v(4) = 0,
v({1, 2}) = v({1, 3}) = v({1, 4}) = v({2, 3}) = 0, v({2, 4}) = v({3, 4}) = 1,
v({1, 2, 3}) = v({1, 2, 4}) = v({1, 3, 4}) = v({2, 3, 4}) = 1,
v({1, 2, 3, 4}) = 1.
Poiche e semplice e non ha alcun giocatore di veto, si ha c() = (Proposizione 5.15). Per
calcolare Sv() usiamo lOsservazione 5.17:
1 X 
i = |S|!(3 |S|)! v(S {i}) v(S) .
4!
iS
/
Ricavo = (2/24, 6/24, 6/24, 10/24), con il sorprendente esito che la ricompensa di 2 e uguale a
quella di 3, benche questultimo possieda piu titoli.
Esempio 5.25. Il Consiglio di Sicurezza dellONU e formato da 5 membri permanenti (con diritto
di veto) e da 10 membri transitori (senza diritto di veto); una proposta al Consiglio viene approvata
se ottiene almeno 9 voti favorevoli, tra i quali tutti i voti dei membri permanenti. Nasce un gioco
semplice = (P, v) con P = {1, . . . 15}, V = {1, . . . 5} (giocatori di veto) e funzione caratteristica
definita per ogni S 2P da

1 se |S| 9 e V S
v(S) = .
0 altrimenti
Questo e uno dei casi in cui lOsservazione 5.17 risulta utile (15! 1300 109 , 214 = 16384):
1 X 
(5.2) i = |S|!(14 |S|)! v(S {i}) v(S) per ogni i P .
15!
iS
/

Fissato i P \ V , per ogni S 2P , i


/ S esaminiamo tre casi speciali:
se |S| 7 si ha v(S {i}) v(S) = 0;
se |S| 9 si ha v(S {i}) v(S) = 0;
44 A. IANNIZZOTTO

se V \ S 6= si ha v(S {i}) v(S) = 0.


Dunque in (5.2) vanno contate solo le coalizioni S P \ {i} t.c. |S| = 8, V S: il loro numero e
9!/(3!6!), sicche
9!8!6! 4
i = = .
15!3!6! 2145
Se invece i V , osserviamo che
se |S| 7 si ha v(S {i}) v(S) = 0;
se V \ (S {i}) 6= si ha v(S {i}) v(S) = 0.
Dunque in (5.2) vanno contate solo le coalizioni S P \ {i} t.c. |S| 8, V \ {i} S e si ricava

14
1 X k!(14 k)!10! 421
i = = .
15! (k 4)!(14 k)! 2145
k=8

Dal confronto tra i due risultati si puo dedurre che un membro permanente del Consiglio e molto
piu importante di uno transitorio, indipendentemente dalla durata.

Per concludere, presentiamo un esempio di gioco subadditivo (la differenza, rispetto alla Definizione
5.1, e che puo aversi v(S T ) < v(S) + v(T ) per una coppia di coalizioni S, T 2P , S T = ).
Per tali giochi, i concetti di imputazione e di nucleo come sono stati fin qui definiti non hanno
senso, mentre e ancora possibile calcolare il valore di Shapley.

Esempio 5.26. Nel gioco dellaeroporto, si considera un aeroporto in cui atterrano aerei diversi,
che richiedono piste di lunghezza diversa; il costo di manutenzione di ciascuna pista va ripartito
tra gli aerei che ne fanno uso, tenendo conto che ognuno di essi usura una parte diversa della pista.
I giocatori (gli aerei) siano P = {1, . . . n}, raggruppati in k classi

P1 = {1, . . . m 1}, . . . Pk = {mk1 + 1, . . . mk } (1 m1 . . . mk = n)

in modo che gli aerei della classe Pj abbiano bisogno di una pista di costo (lunghezza) cj (0 < c1 <
. . . < ck ). Detta S 2P una coalizione (per esempio, una compagnia aerea), definiamo v(S) come
costo della pista piu lunga di cui necessita (si noti che in questo caso la funzione caratteristica
misura un costo, anziche una ricompensa):

v(S) = max {cj : S Pj 6= } .

Cos e definito un gioco = (P, v) (la funzione caratteristica v non e super-additiva). Il valore di
Shapley e alquanto difficile da calcolare in base alla Definizione 5.16. E piu semplice procedere
come segue:
il costo c1 del primo tratto di pista e diviso tra tutti gli aerei di P ;
il costo c2 c1 del secondo tratto e diviso tra gli aerei del sottoinsieme kj=2 Pj ;
...
il costo ck ck1 dellultimo tratto e diviso tra gli aerei del sottoinsieme Pk .
TEORIA DEI GIOCHI 45

Si dimostra che la ripartizione di costi cos ottenuta corrisponde a . Per esempio, se P = {1, 2, 3}
con P1 = {1, 2}, P2 = {3} e c1 = 1, c2 = 4, la tabella dei contributi marginali e la seguente:
\i 1 2 3
123 1 0 3
132 1 0 3
213 0 1 3
231 0 1 3
312 0 0 4
321 0 0 4
Si ricava Sv() = (1/3, 1/3, 10/3).

6. Cenni sui giochi dinamici


Non si puo discendere due volte nel medesimo fiume.
Eraclito

In questa sezione esponiamo alcuni elementi di teoria dei giochi dinamici, che sono caratterizzati
dalla sequenzialita delle scelte dei vari giocatori (ved. Gibbons [14], Morgenstern & von
Neumann [29]). Questi giochi sono efficacemente rappresentati tramite grafi, pertanto e utile
richiamare alcune nozioni elementari relative a questi oggetti geometrici.
Definizione 6.1. Un grafo (semplice) e una coppia G = (V, E) dove V = {v1 , . . . vn } (n N) e
un insieme non vuoto e
E {e 2V : |e| = 2}
e un insieme di coppie non ordinate di elementi di V . Gli elementi di V sono detti vertici di G,
quelli di E sono detti lati. Se e = {v, w} e un lato, v e w ne sono gli estremi; se e, f E, e 6= f ,
e f 6= , e e f sono consecutivi. Se v, w V e {v, w} E, v e w sono adiacenti.
Alcune nozioni relative ai grafi:
Definizione 6.2. Siano G = (V, E) un grafo, v V : il grado di v e

deg(v) = {e E : v e} .
Se deg(v) = 0, v e detto vertice isolato. Una catena di estremi v, w V e un insieme ordinato
C = (e1 , . . . em ), dove m N, ei E, per ogni i {1, . . . m}, ei , ei+1 sono consecutivi per ogni
i {1, . . . m 1}, v estremo di e1 , w estremo di em ; se v = w e i vertici intermedi sono distinti a
due a due, C e un ciclo; G e detto aciclico se non contiene cicli; G e connesso se per ogni v, w V
esiste una catena C che congiunge v e w. Un sotto-grafo di G e una coppia G 0 = (V 0 , E 0 ) dove
V 0 V ed E 0 e linsieme dei lati di G con gli estremi in V 0 .
Piu sofisticata e la nozione di grafo orientato, in cui si adotta un ordine tra gli estremi di un lato:
Definizione 6.3. Un grafo orientato e una coppia G = (V, E) dove V = {v1 , . . . vn } (n N) e
un insieme non vuoto e E V V . Una catena di estremi v, w V e un insieme ordinato
C = (e1 , . . . em ), dove m N, ei E, per ogni i {1, . . . m}, ei , ei+1 sono consecutivi per ogni
i {1, . . . m 1}, v primo estremo di e1 , w secondo estremo di em . Se G e un grafo orientato, su
V e definita una relazione dordine  mediante la legge
v  w se esiste una catena C di estremi v e w..
46 A. IANNIZZOTTO

La classe piu studiata di grafi:


Definizione 6.4. Un albero e un grafo orientato, connesso, aciclico. Se G e un albero, un
sotto-albero e un sotto-grafo G 0 = (V 0 , E 0 ) t.c.
V 0 = {v0 } {v V : v0  v},
dove v0 V .
Richiamando la Definizione 1.1 e la susseguente discussione, definiamo un gioco dinamico (determi-
nistico, non-cooperativo) come linterazione tra due o piu decisori razionali e intelligenti (giocatori),
che effettuano le loro scelte (mosse) in una sequenza temporale prefissata; ogni giocatore, quando
effettua ogni sua mossa, e informato di tutte le mosse precedenti sue e degli altri giocatori e delle
loro conseguenze (informazione completa); ai giocatori e vietato stringere accordi vincolanti. Una
strategia, per un giocatore, e una sequenza di mosse condizionate dalle mosse degli altri giocatori.
Un gioco di questo genere si suole rappresentare in forma estesa (ved. Zermelo [41], Kuhn
& Tucker [23]): denotiamo il gioco con e definiamo linsieme dei giocatori P = {P1 , . . . Pn }
(n N) e quello degli stati del gioco S = {s1 , . . . sm } (m N). Sullinsieme degli stati e definito un
ordine parziale  (relazione transitiva e antisimmetrica). Uno stato s S e detto iniziale se non
esiste t S t.c. t  s (linsieme degli stati iniziali e denotato Si ) e finale (o esito) se non esiste
t S t.c. s  t (linsieme degli stati finali e denotato Se ), altrimenti e un turno. Ogni giocatore Pi
(1 i n) dispone di una preferenza sullinsieme Se (ved. Definizione 1.2), e per il Teorema 1.5
anche di una funzione di utilita ui : Se R. Una mossa e una coppia ordinata (s, t) S S t.c.
(i) s  t;
(ii) non esiste u S t.c. s  u  t.
Una storia e una sequenza finita di stati (s1 , . . . sk ) (k N e detto lunghezza) t.c.
s1  s2  . . .  sk .
Una storia e detta conclusa se sk Se . Elenchiamo di seguito gli assiomi che saranno adottati
nella presente discussione:
lo stato iniziale s0 e unico;
per ogni stato finale s Se esiste ununica storia che congiunge s0 con s (la lunghezza di
questa storia e detta altezza di s);
esiste una regola di turno, ovvero una funzione : S \ Se P che associa a ogni stato il
giocatore a cui spetta muovere.
Sotto queste ipotesi, un gioco si puo rappresentare mediante un grafo G = (S, E), dove E e linsieme
delle mosse consentite.
Teorema 6.5. Se e un gioco e G il grafo che lo rappresenta, allora G e un albero.
Esempio 6.6. Nel gioco dei fiammiferi due giocatori P , Q tolgono a turno quanti fiammiferi
vogliono da uno di due gruppi originariamente di 2 fiammiferi ciascuno, posti su un tavolo; vince il
primo che lascia il tavolo vuoto. Sia P il primo a muovere. Lalbero che rappresenta questo gioco
ha 6 foglie, cioe vi sono 7 esiti, 3 dei quali favorevoli a P e 4 a Q, come rappresentato nella Fig. 5.
Il concetto di equilibrio di Nash si puo applicare anche ai giochi dinamici.
Esempio 6.7. Riprendiamo in esame il gioco dellEsempio 3.3, introducendo stavolta una regola di
turno: per esempio, sia P il primo a giocare, quindi gioca Q, in condizioni di completa informazione.
Al secondo turno, se P ha scelto c, Q sceglie c, mentre se P ha scelto t, Q sceglie c. Sapendo cio,
TEORIA DEI GIOCHI 47

Figura 5. Il gioco dei fiammiferi: le foglie 10, 13, 14 rappresentano conclusioni favorevoli
a P , mentre 8, 15, 16, 17 rappresentano conclusioni favorevoli a Q.

al primo turno P sceglie c e si ritorna allunico equilibrio (c, c). Lo stesso avviene se Q gioca per
primo.

Esempio 6.8. Il gioco dellentrata e un modello molto generale che abbraccia il seguente caso:
un produttore P deve decidere se introdursi (i) oppure no (o) in un mercato monopolizzato da
un altro produttore Q; questi puo reagire aggressivamente (a), abbassando i prezzi e infliggendo
una perdita a se oltre che al concorrente, oppure pacificamente (p), dividendo il mercato con P .
Assumiamo che il prezzo unitario del prodotto sia 1, il costo unitario di produzione sia 1/2 e il
prezzo ribassato sia 1/3, inoltre la saturazione del mercato sia raggiunta per 12 unita prodotte.
Rappresentando questo gioco in forma strategica, otteniamo la seguente tabella dei pay-off (in
cui il pay-off di un produttore coincide col suo guadagno, o perdita, globale):

P \Q a p
i (1, 1) (3, 3)
o (0, 2) (0, 6)

Si ha Ne() = {(i, p)}.


Consideriamo ora il gioco in senso dinamico: chiaramente la prima mossa spetta a P , che sceglie i,
inducendo Q a scegliere p. Daltra parte, se Q gioca per primo lesito e lo stesso.

Il modo piu semplice per risolvere un gioco dinamico e quello basato sul metodo di induzione a
ritroso (o algoritmo di Zermelo-Kuhn): si tratta di un procedimento finalizzato a eliminare, in un
numero finito di passi, tutte le mosse irrazionali di tutti i giocatori; quello che resta e lunione
delle storie razionali, che conduce alle soluzioni del gioco.
Sia un gioco:
scegliamo uno stato finale s di altezza massima;
48 A. IANNIZZOTTO

determiniamo lo stato immediatamente precedente t S e linsieme T degli stati immediata-


mente successivi a t (tra cui s);
detto Pi (1 i n) il giocatore che muove in t, determiniamo s0 T t.c.
ui (s0 ) = max ui ;
T

definiamo un nuovo gioco 0eliminando tutti gli stati di T e attribuendo a t unutilita per
Pi uguale a ui (s0 );
ripetiamo il procedimento partendo da t (che e uno stato finale di 0 );
...
raggiungiamo lo stato iniziale s0 .
Attraverso questo procedimento si determina una storia soddisfacente la seguente definizione:
Definizione 6.9. Un equilibrio perfetto nei sottogiochi per il gioco e una storia completa
C = (s0 , s1 , . . . sp ) (p N) t.c. per ogni 0 j p 1 la mossa migliore per il giocatore che gioca
in sj e (sj , sj+1 ). Linsieme degli equilibri perfetti nei sottogiochi di e indicato con spe().
Il procedimento di induzione a ritroso fornisce una dimostrazione costruttiva del seguente risultato:
Teorema 6.10. (Selten [38]) Se e un gioco dinamico a informazione completa con un insieme
finito di stati, allora spe() 6= .
In generale tale soluzione non e unica, poiche in qualche stato possono darsi due o piu mosse
ottimali equivalenti per un giocatore. Nel gioco dellEsempio 6.6, vi sono 3 equilibri perfetti nei
sottogiochi, tutti favorevoli a Q. Nel gioco dellEsempio 6.8, si ha spe() = {(i, p)}.
Esempio 6.11. Sia un gioco con 2 giocatori P , Q e due mosse, rappresentato dalla seguente
tabella dei pay-off:
P \Q y1 y2
x1 (2, 1) (0, 0)
x2 (1, 1) (1, 2)
Si ha Ne() = {(x1 , y1 ), (x2 , y2 )}. Supponendo che P giochi per primo, si puo procedere per
induzione a ritroso e ricavare spe() = {(x1 , y1 )}. Laltro equilibrio (x2 , y2 ) si puo interpretare
come effetto di una minaccia di ritorsione da parte di Q: esso comporta una scelta, da parte di
P , non ottimale (ma solo perche la minaccia gli preclude lesito migliore). Dal punto di vista della
razionalita individuale, questa minaccia non e credibile, in quanto implica la disponibilita da parte
di Q a danneggiare se stesso (nella realta la faccenda e diversa, come provano i terroristi suicidi).
Se invece gioca per primo Q, linduzione a ritroso fornisce la soluzione spe() = {(x2 , y2 )}.
Si noti che un equilibrio perfetto nei sottogiochi non sempre e un equilibrio di Nash per la versione
statica del gioco:
Esempio 6.12. Sia un gioco con 2 giocatori P , Q e due mosse, rappresentato dalla seguente
tabella dei pay-off:
P \Q y1 y2
x1 (2, 1) (0, 0)
x2 (3, 0) (1, 1)
Si vede facilmente che Ne() = {(x2 , y2 )}. Se inseriamo una regola di turno per cui P gioca per
primo, otteniamo spe() = {(x1 , y1 )}.
TEORIA DEI GIOCHI 49

Il modello dei giochi dinamici si puo generalizzare indebolendo lipotesi di informazione completa.
Puo verificarsi che alcuni stati del gioco s1 , . . . sk (k N), nei quali e di turno sempre lo stesso
giocatore Pi (1 i n), siano per tale giocatore indistinguibili: si parla allora di informazione
incompleta e linsieme {s1 , . . . sk } e detto insieme informativo. Coerentemente, le mosse a di-
sposizione di Pi in ognuno degli stati che formano lo stato informativo sono le stesse (esse pero
conducono a esiti diversi a causa di quelle informazioni che Pi ignora).
Limpasse si risolve introducendo una distribuzione di probabilita sullinsieme informativo (ved.
Definizione 3.4): se la probabilita di sj secondo Pi e xj , con 0 xj 1 per ogni j {1, . . . k} e
k
X
xj = 1,
j=1

e se uj (definita sullinsieme degli stati finali raggiungibili da sj ) e lutilita per Pi subordinata allo
stato sj , allora Pi fa la sua scelta in modo da massimizzare lutilita mista
k
X
u= xj uj .
j=1

Esempio 6.13. Consideriamo un gioco con due giocatori P , Q: P gioca per primo scegliendo tra
due mosse {a, b}; se sceglie a raggiunge uno stato finale con utilita (1, 3); se sceglie b, P deve fare
unaltra mossa da scegliere in {c, d}, ma alloscuro di Q; quindi gioca Q, che puo scegliere in {e, f }
con la seguente tabella dei pay-off:
P \Q e f
c (3, 2) (0, 0)
d (2, 2) (1, 1)
Sia 0 x 1 la probabilita, secondo Q, che P abbia scelto c al secondo stadio (dunque 1 x e la
probabilita che abbia scelto d). Allora Q deve massimizzare lutilita v data da
v(e) = 2x + 2(1 x) = 2,
v(f ) = 0x + 1(1 x) = 1 x.
Qualunque sia x, Q sceglie e. Dunque P , alla sua seconda mossa, puo attribuire le utilita u(c) = 3,
u(d) = 2 e sceglie c. Risalendo allo stato iniziale del gioco, P sceglie b e i pay-off finali sono (3, 2).
Quando si introducono le probabilita, pero, bisogna tenere conto delle valutazioni di tutti i giocatori:
infatti, in base alla propria intelligenza e alla razionalita degli altri, ogni giocatore modifica le
sue valutazioni in base alle mosse che ha osservato. Per studiare questo tipo di giochi si adopera
lapproccio bayesiano, che e basato sulle probabilita condizionate e sul metodo di induzione a ritroso.
Tale approccio non sara qui trattato, ma il seguente Esempio 6.20 ne fornisce un assaggio.

6.1. Esempi. Presentiamo infine alcuni esempi di giochi dinamici, sia in regime di informazione
completa che di informazione incompleta.
Esempio 6.14. Nel gioco dellultimatum, su un tavolo ci sono 100 monete; il giocatore P fa una
proposta di spartizione al giocatore Q (in cui ognuno riceva almeno una moneta, cioe da 1 a 99);
se questi accetta (a), si procede secondo la proposta; se rifiuta (r), nessuno prende monete. Si
ha spe() = {(99, 1)}, il che dimostra come il concetto di equilibrio sia spesso in contrasto con
lesperienza.
50 A. IANNIZZOTTO

Esempio 6.15. Nel gioco dei pirati, 5 pirati devono dividere un bottino di 1000 dobloni secondo il
seguente procedimento: il pirata P1 fa la sua proposta e la mette ai voti, se ottiene la maggioranza
(stretta) il bottino viene diviso secondo la sua proposta, altrimenti P1 viene ucciso; P2 fa la sua
proposta... Questo enigma si risolve per induzione a ritroso:
P5 , rimasto solo, prende i 1000 dobloni per se;
P4 non puo garantirsi il voto di P5 e muore;
P3 offre 1 doblone a P4 e ne conserva 999;
P2 offre 2 dobloni a P4 e 1 a P5 e ne conserva 997;
P1 offre 2 dobloni a P5 e 1 a P3 e ne conserva 997.
Inaspettatamente, P1 puo risolvere il problema in modo molto vantaggioso.
Esempio 6.16. Il duopolio di Stackelberg e quasi identico a quello dellEsempio 3.18, la sola
differenza essendo che P ha una posizione dominante, cioe gioca per primo. Dunque P sceglie la
sua strategia x sapendo che Q rispondera con la strategia condizionata
acx
y(x) = .
2
Dunque P opera in modo tale da massimizzare il proprio pay-off f : [0, a] R, definito da
(a c)x x2
f (x) = f (x, y(x)) = .
2
Lequilibrio raggiunto e
ac ac
x= , y= .
2 4
Osserviamo che la posizione dominante di P distorce il mercato, consentendogli un maggior profitto
a danno di Q, ma a vantaggio dei consumatori (il prezzo e piu basso).
Esempio 6.17. La corsa agli sportelli e un modello usato per interpretare le crisi di fiducia che
talvolta colpiscono il mercato finanziario. Siano 0 < s < d < r numeri reali. Due investitori P , Q
hanno depositato in banca ciascuno una somma d, che la banca ha investito in parte; al tempo I,
la banca dispone di una somma 2s, mentre al tempo II, giunto a maturazione linvestimento, essa
dispone di una somma 2r. Gli investitori possono scegliere se prelevare (p) o lasciare (l) al tempo
I, con i seguenti pay-off:
P \Q p l
p (s, s) (d, 2s d)
l (2s d, d) (rinvio)
oppure al tempo II, con i seguenti pay-off:
P \Q p l
p (r, r) (2r d, d)
l (d, 2r d) (r, r)
Il gioco al tempo II ha un solo equilibrio di Nash (p, p), quindi al tempo I attribuiamo (r, r) come
pay-off della coppia di strategie (l, l) che pertanto diventa anchessa equilibrio di Nash. Procedendo
per induzione a ritroso, si ha lo stesso risultato: lunico equilibrio perfetto nei sottogiochi e la
storia in cui P e Q lasciano al tempo I e prelevano al tempo II.
Esempio 6.18. Nel gioco del prendere o lasciare (detto anche gioco del millepiedi per la caratte-
ristica forma del grafo associato), due giocatori P , Q scelgono a turno se prendere (p) o lasciare (l)
un premio che inizialmente vale 1 e poi cresce di 1 a ogni turno fino a un valore k (k N pari);
TEORIA DEI GIOCHI 51

se dopo k turni il premio e ancora intatto, viene diviso in parti eguali. Comincia P . Linduzione
a ritroso fornisce un unico equilibrio perfetto nei sottogiochi, corrispondente alla scelta da parte
di P di prendere al primo turno. Tuttavia questo equilibrio e lungi dallessere ottimale. Questo
esempio mostra come il metodo dellinduzione a ritroso possa anche condurre a dei paradossi.
Esempio 6.19. Riprendiamo in esame il gioco dellEsempio 3.3, supponendo che P giochi per
primo e Q giochi ignaro della scelta di P . Sia 0 x 1 la probabilita che P abbia taciuto secondo
Q, allora Q confronta le utilita
v(t) = 1x 10(1 x) = 9x 10,
v(c) = 0x 5(1 x) = 5x 5
e sceglie sempre c in quanto v(c) > v(t) per ogni x [0, 1]. P , al momento di scegliere, lo sa:
quindi deduce le proprie utilita che sono u(t) = 10, u(c) = 5 e sceglie c. Si noti che la soluzione
e identica a quella dellEsempio 3.3: infatti, lincertezza rende irrilevante lordine delle mosse.
Esempio 6.20. Esaminiamo un semplice gioco di carte con due giocatori P , Q. Allinizio entrambi
puntano 1; poi P pesca una carta da un mazzo ordinario e la guarda; P sceglie tra due opzioni, f
(fold) e r (raise): se sceglie f , mostra la carta e prende il banco se la carta e rossa, mentre se e
nera lo prende Q; se sceglie r, aggiunge 1 e lascia la carta coperta; ora gioca Q, che ha pure due
scelte, m (meet) e p (pass): se sceglie p rinuncia e P prende il banco, se sceglie m punta 1 e scopre
la carta, e anche in questo caso il banco va a P se la carta e rossa e a Q se e nera. Gli stati che
seguono alla scelta r da parte di P formano un insieme informativo per Q, che deve scegliere in
condizioni di incertezza.
Secondo Q, la probabilita che la carta coperta sia rossa e x [0, 1] (quindi la probabilita che sia
nera e 1 x). Allora le utilita ponderate di Q sono date dalla funzione v : {m, p} R definita da
v(m) = 2x + 2(1 x) = 2 4x,
v(p) = x (1 x) = 1.
A questo punto e chiaro che Q sceglie m se 0 x < 3/4, e indifferente se x = 3/4 e sceglie p se
3/4 < x 1. In particolare, se x = 1/2, la scelta di Q e sempre m. In questo caso si puo procedere
per induzione a ritroso: le utilita di P al momento della sua mossa sono
u(r) = 2, u(f ) = 1 se la carta e rossa,
u(r) = 2, u(f ) = 1 se la carta e nera.
Dunque, P sceglie r se la carta e rossa e f se e nera. Si potrebbe osservare che, a questo punto,
Q, che gioca dopo P , puo dedurre il colore della carta dalla mossa di P : se P sceglie r la carta e
rossa e a Q conviene scegliere p; se P sceglie f la carta e nera e a Q conviene scegliere m.

But the game never ends


When your whole life depends
On the turn of a friendly card.
A. Parsons & E. Woolfson
52 A. IANNIZZOTTO

Riferimenti bibliografici
[1] J.P. Aubin, Mathematical methods of game and economic theory, North-Holland (1979). 3, 19
[2] J.P. Aubin, H. Frankowska, Set-valued analysis, Birkhauser (2008). 7
[3] E. Borel, La theorie du jeu et le equations integrales a noyau symetrique, C.R. Hebdomadaires des Seances de
lAcademie des Sciences 173 (1921) 1304-1308. 3, 4
[4] R. Branzei, J. Morgan, V. Scalzo, S. Tijs, Approximate fixed point theorems in Banach spaces with
applications in game theory, J. Math. Anal. Appl. 285 (2003) 619-628. 17, 26
[5] F. Browder, On a new generalization of the Schauder fixed point theorem, Math. Ann. 174 (1967) 285-290. 17
[6] E. Burger, Introduzione alla teoria dei giochi, Franco Angeli (1967). 3
[7] A. Cellina, Approximation of set valued functions and fixed point theorems, Ann. Mat. Pura Appl. 82 (1969)
1724. 15
[8] K.C. Chang, Variational methods for nondifferentiable functionals and their applications to partial differential
equations, J. Math. Anal. Appl. 80 (1981) 102-129. 7
[9] V. Checcucci, A. Tognoli, E. Vesentini, Lezioni di topologia generale, Feltrinelli (1982). 7, 9, 12, 18
[10] F. Colombo, Introduzione alla teoria dei giochi, Carocci (2008). 3, 19, 34
[11] M. Fabian, P. Hamala, P. Hajek, V. Montesinos, V. Zizler, Banach space theory, Springer (2011). 15, 17
[12] K. Fan, Applications of a theorem concerning sets with convex sections, Math. Ann. 163 (1966) 189-203. 31
[13] A.F. Filippov, A differential equation with discontinuous right hand side, Math. Sbornik 54 (1960) 99128. 7
[14] R. Gibbons, Teoria dei giochi, Il Mulino (1992). 3, 19, 45
[15] I.L. Glicksberg, A further generalization of the Kakutani fixed point theorem, with applications to Nash
equilibrium points, Proc. Amer. Math. Soc. 3 (1952) 170-174. 17
[16] G. Israel, A. Millan Gasca, Il mondo come gioco matematico, Bollati Boringhieri (2008). 3
[17] A. Granas, J. Dugundji, Fixed point theory, Springer (2003). 14, 15, 16, 17, 18
[18] S. Kakutani, A generalization of Brouwers fixed point theorem, Duke Math. J. 8 (1941) 457-459. 16, 32
[19] B. Knaster, C. Kuratowski, S. Mazurkiewicz, Ein Beweis des Fixpunktsatzes fur n-dimensionale Simplexe,
Fund. Math. 14 (1926). 18
[20] H. Konig, A general minimax theorem based on connectedness, Arch. Math. (Basel) 59 (1992) 55-64. 16, 32
[21] E. Krein, A.C. Thompson, Theory of correspondences, Wiley (1984). 7
[22] D.M. Kreps, Notes on the theory of choice, Westview Press (1988). 4
[23] H.W. Kuhn, A.W. Tucker (Eds.), Contributions to the theory of games, Princeton University Press (1953).
3, 46, 52
[24] J.C.C. McKinsey, Introduction to the theory of games, Rand (1952). 3
[25] E. Michael, Continuous selections I, Ann. of Math. 63 (1956) 361382. 11, 13
[26] E. Michael, Continuous selections II, Ann. of Math. 64 (1956) 562580. 11
[27] E. Michael, Continuous selections III, Ann. of Math. 65 (1956) 375390. 11
[28] O. Morgenstern, Teoria dei giochi, Bollati Boringhieri (1969). 3, 34
[29] O. Morgenstern, J. von Neumann, Theory of games and economic behavior, Princeton (1953). 3, 45
[30] G. Mot, A. Petrusel, G. Petrusel, Topics in nonlinear analysis and applications to mathematical economics,
Casa Cartii de Stiinta (2007). 3
[31] S.B. Nadler, Multi-valued contraction mappings, Pacific J. Math. 30 (1969) 475488. 14
[32] J. Nash, Non-cooperative games, Ann. Math. 54 (1951) 286295. 6, 21
[33] B. Ricceri, Some topological mini-max theorems via an alternative principle for multifunctions, Arch. Math.
(Basel) 60 (1993) 367377. 3, 33
[34] B. Ricceri, S. Simons (eds.), Minimax theory and applications, Kluwer (1998). 28
[35] J.D. Rossi, Tug-of-war games and PDEs, Proc. Roy. Soc. Edinburgh Sect. A 141 (2011) 319369. 3, 33
[36] W. Rudin, Functional analysis, McGraw-Hill (1991). 14
[37] R. Scozzafava, Incertezza e probabilita, Zanichelli (2001). 20
[38] R. Selten, Game theory and economic behaviour, Edward Elgar (1999). 48
[39] L.S. Shapley, A value for n-person games, in [23]. 41
[40] J. von Neumann, Zur Theorie der Gesellschaftsspiele, Math. Ann. 100 (1928) 295-320. 3, 30
[41] E. Zermelo, Uber die Anwendung der Mengenlehre auf die Theorie des Schachspiels, Proceedings of the Fifth
International Congress of Mathematicians (1913) 501-504. 3, 46

View publication stats

Potrebbero piacerti anche