Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
RICERCA OPERATIVA
per i corsi di Laurea in Ingegneria BTRR e MMER
29 Novembre 2012
Corso: Ricerca Operativa (Laurea e Laurea Magistrale)
Settore: MAT09 - Crediti: 6
Sapienza Università di Roma
A.A. 2012-2013
Programma.
Il programma coincide con il contenuto delle dispense.
La parte relativa alla modellistica matematica non è argomento in sede di
esame scritto. È soprattutto utile ai fini della prova di laboratorio di RO.
NON sono in programma le seguenti dimostrazioni/teoremi:
4. il paragrafo 7.4
6. il teorema 10.2.1
1
Capitolo 1
Introduzione
1
1937 la Royal Air Force iniziò degli esperimenti di un sistema di controllo della difesa aerea
basato sull’uso di una stazione radar situata a Bawdsey Research Station, nella costa est; già dai
primi esperimenti si resero conto che era molto difficile gestire efficientemente le informazioni
provenienti dal radar. Nel luglio 1938 furono compiuti altri esperimenti con l’aggiunta di quat-
tro stazioni radar lungo la costa nella speranza che il sistema di controllo migliorasse sia in
copertura sia in efficienza; invece non fu cosı̀ ; dai nuovi esperimenti emersero seri problemi:
c’era la necessità di coordinare e correlare le tante informazioni, spesso anche in conflitto tra di
loro, che venivano ricevute dalle stazioni radar aggiunte. Nell’imminenza della Guerra si rese
necessario tentare qualche nuovo approccio; perciò il sovrintendente della Bawdsey Research
Station propose di sviluppare un programma di ricerca che riguardasse gli aspetti operativi del
sistema e non più solamente quelli prettamente tecnici che erano da considerare soddisfacenti.
Il termine “Operational Research” – Ricerca nelle operazioni (militari) – fu coniato per descri-
vere questa nuova branca delle scienze applicate. Fu quindi selezionato un gruppo di scienziati
di vari discipline per costituire un “OR team”; il progetto fu diretto dal comandante in capo
della Royal Air Force, Air Chief Marshal Sir Hugh Dowding. Nell’estate del 1939 la Gran
Bretagna effettuò l’ultima esercitazione pre-bellica dove si evidenziò un notevole miglioramento
nelle operazioni di difesa aerea grazie al contributo del gruppo di scienziati. Nacque quindi una
vera e propria sezione che più tardi, nel 1941, prese il nome formale di “Operational Research
Section”. Durante il conflitto mondiale furono molteplici e importanti i contributi strategici di
questa sezione permettendo di salvare piloti e aerei.
Al termine della guerra, alcuni degli scienziati coinvolti nel progetto formarono nuclei di
ricercatori per lo sviluppo post bellico e la loro attività si estese a campi diversi da quello
militare; in particolare, con l’espandersi delle iniziative industriali e con l’avvento dei com-
puter che sono uno strumento essenziale per la risoluzione dei problemi, c’è stata un’espansione
dell’utilizzo della RO all’interno di diverse realtà applicative.
Dagli anni ’60 in poi le applicazioni della RO hanno avuto diffusione crescente, inizialmente
nell’ambito di grandi gruppi industriali e succesivamente, grazie anche alla disponibilità di
grandi potenze di calcolo a costi contenuti, in quasi ogni settore industriale, nei servizi e nelle
amministrazioni pubbliche.
• Finanza e Investimenti;
si vuole rispondere a domande del tipo: quanto dobbiamo investire, e come? Dove
rimediare i capitali necessari? Quanto ci costerà? Alcuni esempi sono:
2
– Selezione degli investimenti:
si tratta di scegliere, fra un vasto insieme di alternative di investimento, quali atti-
vare e quali no in presenza di vincoli di budget e con l’obiettivo di massimizzare i
ricavi.
– Scelta del portafoglio;
consiste nel decidere in quali titoli e con quali quote investire i nostri capitali in
modo da massimizzare il ricavo atteso, oppure minimizzare il rischio, etc.
– Determinazione del prezzo di derivati finanziari;
si vuole determinare il prezzo di un prodotto derivato finanziario (per esempio
di un’opzione o di un future) in funzione del tempo e dell’andamento del titolo
sottostaste.
• pianificazione della produzione;
come assegnare la forza lavoro alle varie attività della nostra impresa? Su quali macchine
e per quanto tempo ci conviene effettuare i nostri processi?
Si tratta di pianificare i livelli di produzione e/o l’utilizzazione di risorse; si hanno spesso
problemi di allocazione ottima di risorse cioè problemi riguardanti la distribuzione di
risorse limitate tra alternative concorrenti in modo da minimizzare il costo complessivo o
massimizzare il guadagno totale; tali risorse possono essere materie prime, manodopera,
tempi di lavoro su macchine, capitali investiti.
• gestione ottima delle scorte;
si tratta di determinare i livelli di produzione e di scorte nella gestione di materiali grezzi,
prodotti in lavorazione etc.; quando e quanto conviene riordinare materiali o beni in modo
da ottenere il miglior compromesso fra costi di riordino e di produzione/acquisto e costi di
immagazzinamento. Conviene, cioè, ordinare o produrre più spesso minori quantità per
far fronte alla domanda corrente, oppure ordinare/produrre maggiori quantità e lasciarle
in magazzino per soddisfare anche la domanda futura?
• localizzazione e dimensionamento di impianti;
Quanti depositi di un’impresa di distribuzione alimentare costruire e dove localizzarli per
servire i negozi a dettaglio in un’area d’interesse? Dove costruire degli ospedali (o scuole
o stazioni dei vigili del fuoco) in modo da ottimizzare il servizio fornito? Dove conviene
costruire le stazioni di base di una rete GSM/UMTS per coprire soddisfacentemente
territorio e traffico, e con che potenza dovranno trasmettere? In senso lato, si tratta
di problemi in cui si deve decidere dove istallare “impianti di produzione” in modo da
“rifornire” in modo ottimale aree distribuite su un territorio.
• progetto di reti di comunicazione / telecomunicazione;
si tratta di definire i collegamenti e dimensionare le capacità di una rete stradale, di
telecomunicazione, di trasmissione dati, etc., in modo da garantire il traffico tra le varie
origini e destinazioni e minimizzare il costo complessivo; ad esempio, per instradare le
comunicazioni telefoniche e dati fra Roma e Venezia, conviene costruire una nuova linea
ad alta velocità in fibra ottica fra Firenze e Bologna oppure istallare un ponte radio a
larga banda?
• determinazione di flussi ottimi; si devono inviare merci (informazioni, telecomunicazioni,
corrente elettrica, etc.) da alcune sorgenti (origini) a un certo numero di destinazioni
utilizzando una rete di strade (fibre ottiche, doppini telefonici, cavi coassiali, emettitori)
in modo da soddisfare le richieste minimizzando i costi di trasporto.
3
• assegnazione di frequenze di trasmissione;
quali frequenze (prese da una banda limitata) devo assegnare a una rete di trasmetti-
tori radio-televisivi in modo da minimizzare le interferenze reciproche o massimizzare la
copertura del territorio?
• sequenziamento;
quali processo o operazione effettuare prima e quali dopo? Per esempio, come sequenziare
i treni sulla rete in modo da evitare conflitti sulle tratte e minimizzare i tempi morti, le
attese alle stazioni, etc.?
• project planning;
come sequenziare le molteplici attività di un progetto? Quanto durerà il progetto? Come
devono essere gestite le risorse?
• allocazione ottima di componenti elettronici (VLSI design);
come disegnare una piastra madre in modo da minimizzare le lunghezze dei percorsi
seguiti dai segnali elettrici?
• determinazione dei turni del personale;
si tratta, ad esempio, di assegnare ai convogli il personale viaggiante sui treni (conducenti,
bigliettai, etc.) in modo da minimizzare il numero di viaggi ”a vuoto” (necessari per
riportare il personale alla loro sede). Un problema analogo si presenta nell’assegnazione
di equipaggi (piloti, hostess, stewart) a voli.
• manutenzione di beni;
cioè il problema di decidere quando e se effettuare la manutenzione di alcuni beni soggetti
ad usura, in modo da minimizzare il costo complessivo.
• istradamento di veicoli;
quali percorsi devono seguire i veicoli di una flotta di automezzi per, ad esempio, rac-
cogliere l’immondizia, o rifornire una rete di negozi, in modo da minimizzare le distanze
complessive percorse?
• studi sulla struttura del DNA;
come assegnare sequenze a geni minimizzando la probabilità dell’errore sperimentale?
Come determinare un albero filogenetico massimizzando la verosimiglianza?
• progettazione di forme ottime;
che forma deve avere una macchina in modo da presentare meno resistenza possibile
all’aria? Che profilo deve evere l’ala di un aereo in modo da massimizzare la portanza?
• calcolo delle traiettorie ottime;
qual è la traiettoria che permette ad un veicolo spaziale di arrivare sulla luna e tornare
usando la quantità minima di carburante?
• ricostruzione di immagini;
come si possono visualizzare le informazioni fornite, per esempio, da una TAC in modo
da renderle più leggibili possibili per il medico?
• progettazione strutturale ;
qual è il progetto di un ponte o di un grattacielo che resiste meglio a venti molto forti o
alle sollecitazioni derivanti da un terremoto?
4
• yield management ;
Letteralmente traducibile come ”Gestione del ritorno economico”. In una azienda carat-
terizzata da varietà di servizi e di prezzi, domanda variabile nel tempo, stabilire quanti e
quali servizi vendere avendo incertezza sulla domanda futura, allo scopo di massimizzare
il profitto globale. Si tratta di un problema diffuso tra le compagnie di trasporto aereo,
ferroviario, marittimo, ma anche per catene alberghiere e di noleggio auto.
Questa lista, lungi dall’essere esaustiva, serve a mettere in evidenza le potenzialità degli
strumenti della RO nella risoluzione di problemi applicativi complessi e disparati.
In Italia la penetrazione della RO è stata piuttosto lenta. La situazione è rovesciata negli
Stati Uniti e nell’Europa Centro-Settentrionale ove la crescita del settore è stata formidabile. Le
ragioni del ritardo sono in primo luogo culturali: mancanza di conoscenze approfondite da parte
delle aziende, insufficente disseminazione dei risultati da parte dell’accademia. Lentamente,
questa situazione va modificandosi anche in Italia, e la sensibilità delle aziende è fortemente
cresciuta negli ultimi due-tre anni. In particolare ci si è resi conto che l’informatizzazione capil-
lare e l’accresciuta potenza di calcolo non sono sufficienti a risolvere i problemi dell’organizzazione
aziendale in modo ottimale.
A confermare questo asserto si consideri il seguente, illuminante esempio (dovuto a G. B.
Dantzig1 ): si supponga di essere a capo di un’azienda che impiega 70 dipendenti e deve assegnare
ciascuno di essi a 70 differenti mansioni; poiché le capacità lavorative di ogni singolo dipendente
sono diverse, non è indifferente per l’azienda come effettuare l’assegnamento. Naturalmente si
deve fare in modo che ciascun dipendente sia assegnato ad una sola mansione e che ciascuna
mansione sia svolta esattamente da un dipendente. Il problema consiste nel confrontare le
70! possibilità che ci sono per selezionare quella migliore nel senso che permetta di ottenere il
maggiore utile per l’azienda. Le possibilità sono un numero molto grande, più grande di 10100 .
Ora si supponga di disporre di un calcolatore capace di effettuare un milione di calcoli al secondo
e che sia in funzione dal tempo del big bang; avrebbe questo calcolatore oggi nell’anno 2000
esaminato tutte le 70! combinazioni possibili ? La risposta è no. Supponiamo allora di disporre
di un calcolatore che possa effettuare un bilione di assegnamenti per ogni nano secondo; la
risposta sarebbe ancora no. Supponiamo allora di riempire la superficie terrestre di calcolatori
di questo tipo che lavorano in parallelo; la risposta sarebbe ancora no. Si dovrebbe disporre in
verità di 1040 terre ciascuna ricoperta di calcolatori di questo tipo, in funzione dal tempo del
big bang fino a quando il sole si raffredderà.
Da questo esempio facile da enunciare si deduce come in certe situazioni sia assolutamente
impossibile esaminare tutti i casi possibili per determinare qual è il migliore. Per questo,
prima dell’avvento della RO, l’unica possibilità era affidarsi al buon senso di persone guidate
dall’esperienza che stabilivano regole “ad hoc” di base che dovevano essere seguite per risolvere
i problemi (“ad hoc” ground-rule approach).
A questo tipo di approccio si contrappone la RO, il cui contributo centrale consiste nell’introduzione
del cosiddetto approccio modellistico-ottimizzatorio per la soluzione di un problema di decisione.
In questo approccio si organizza l’analisi di un problema reale in due fasi:
5
aspetti essenziali e che schematizzi le interrelazioni esistenti tra i diversi aspetti del
fenomeno che si sta studiando;
• lo sviluppo di metodi matematici efficienti (algoritmi di soluzione) per determinare una
soluzione ottima del problema o una sua buona approssimazione.
6
1.3 L’approccio modellistico
Il termine modello è di solito usato per indicare una costruzione artificiale realizzata per ev-
idenziare proprietà specifiche di oggetti reali. Esistono modelli concreti (come ad esempio i
prototipi di aerei o automobili), ma più spesso, come nella Ricerca Operativa, si considerano
modelli astratti cioè modelli matematici che usano il simbolismo dell’algebra per mettere in
evidenza le relazioni principali dell’oggetto che deve essere modellato. I modelli di cui si trat-
terà in seguito sono quindi modelli matematici, e sono costituiti da un insieme di relazioni che
descrivono in modo semplificato, ma rigoroso, uno o più fenomeni del mondo reale. La nozione
di modello matematico per rappresentare il mondo reale non è certo nuova: già Pitagora nel IV
secolo a.C. tentava di costruire un modello matematico dell’Universo. L’interesse per la mod-
ellistica matematica è notevolmente cresciuto e attualmente si confida che attraverso modelli
matematici sia possibile rappresentare molteplici aspetti del mondo reale e studiarne le pro-
prietà. Ciò ha portato ad un enorme sviluppo delle applicazioni della modellistica matematica
anche al di fuori delle tradizionali applicazioni alle scienze fisiche. Si è cosı̀ avuta di fatto una
vasta utilizzazione di modelli matematici in settori lontani dagli ambiti più tradizionali come,
ad esempio, le scienze sociali, la biologia, le scienze ambientali, la psicologia. Come esempi
concreti, si pensi agli studi sulla dinamica della popolazione, sulla diffusione delle epidemie,
sul risanamento ambientale. Questa notevole diffusione della modellistica matematica è anche
dovuta al fatto che l’evoluzione di un modello matematico può essere rapidamente studiata
grazie all’uso di moderni calcolatori elettronici.
È evidente come in molti casi le situazioni rappresentate da un modello sono molto complesse
e alcune volte influenzate da fenomeni di natura aleatoria; per questa ragione, sono state definite
diverse classi di modelli matematici: modelli stocastici che considerano grandezze che possono
essere influenzate da fenomeni aleatori e modelli deterministici che considerano grandezze esatte;
inoltre a seconda che le interazioni tra le grandezze sono immediate o distribuite nel tempo, si
parla di modelli statici e di modelli dinamici.
L’approccio modellistico per risolvere un problema di decisione o, più in generale, l’impiego
di metodi matematici per la soluzione di problemi applicativi, viene di solito realizzato at-
traverso diverse fasi. Tali fasi possono essere schematizzate nel seguente modo:
• Descrizione e Analisi del problema
• Costruzione del modello
• Analisi del modello
• Selezione di “buone” soluzioni (simulazione e/o ottimizzazione)
• Validazione del modello
7
una corrispondenza tra relazioni del mondo reale (relazioni tecnologiche, leggi fisiche, vincoli di
mercato, etc.) e relazioni matematiche (equazioni, disequazioni, dipendenze logiche, etc.).
1. Associare opportune variabili di decisione alle grandezze reali. Tali variabili costi-
tuiscono le incognite del problema.
2. Esprimere quantitativamente i legami esistenti tra le variabili e le limitazioni
derivanti da considerazioni di carattere fisico, economico, etc. Tali legami e limi-
tazioni definiscono i vincoli. L’insieme dei valori delle variabili per cui i vincoli sono
soddisfatti costituisce l’insieme ammissibile.
3. Esprimere formalmente l’obiettivo che si intende minimizzare o massimizzare.
8
caratterizzare analiticamente le soluzioni di un problema di ottimo e quindi consentire di svol-
gere analisi qualitative, anche in assenza di soluzioni numeriche esplicite; un esempio è l’analisi
della sensibilità delle soluzioni di un problema di ottimo rispetto a variazioni parametriche.
9
quenza di operazioni che definiscono una successione di valori {xk }, una nuova approssimazione
x∗ . La possibilità di realizzazione di algoritmi è fortemente legata alla capacità di definire
condizioni di ottimalità che caratterizzano la soluzione ottima di un certo modello.
L’analisi del modello matematico e la definizione di un algoritmo per la sua soluzione sono
aspetti fortemente legati tra di loro.
Molto spesso software di ottimizzazione e di simulazione sono integrati con software statistico
o con fogli elettronici (spreadsheets). La combinazione di simulazione e/o ottimizzazione con
la “visualizzazione” dei risultati è una combinazione vincente. La visualizzazione rende l’uscita
del processo di simulazione e/o di ottimizzazione molto più comprensibile e aggiunge spesso
maggior credibilità al modello, soprattutto nei confronti di un pubblico non tecnico.
L’uso di fogli elettronici per la costruzione di modelli per l’uso di simulazione e di ottimizzazione
sarà discusso in un capitolo successivo.
10
ANALISI
DEL PROBLEMA
COSTRUZIONE
DEL MODELLO
ANALISI
DEL MODELLO
SOLUZIONE
NUMERICA
VALIDAZIONE
DEL MODELLO
11
– Possibilità di simulazioni.
Con un modello è possibile effettuare esperimenti che spesso non è possibile effettuare di-
rettamente nella realtà. La fase di simulazione è un passo fondamentale nella costruzione
di un modello che può essere utilizzata per verificare l’effetto di una decisione, non nec-
essariamente quella ottima, su un prototitpo del sistema e non sul sistema stesso; ad
esempio, l’uso di un modello consente di studiare gli effetti dell’adozione di una partico-
lare misura economica in un paese senza la necessità di sperimentarla direttamente. Il
decision maker ha uno strumento che gli consente di valutare l’effetto di una sua decisione
senza essere necessariamente in grado di capire l’aspetto modellistico del problema.
La qualità delle risposte fornite dal modello dipende dall’accuratezza della sua definizione:
la fase di validazione é cruciale per valutare la soluzione numerica ottenuta e completare il
modello introducendo elementi trascurati in una prima fase.
Esempio 1.4.1 – Capital Budgeting. Supponiamo di dover investire £1000 sul mercato
finanziario. Supponiamo inoltre che il mercato offra tre tipi diversi di investimenti A, B, C
ciascuno caratterizzato da un prezzo d’acquisto e da un rendimento netto, che sono riassunti
nella seguente tabella:
A B C
costo 750 200 800
rendimento 20 5 10
Si vuole decidere quali degli investimenti effettuare per massimizzare il rendimento sapendo che
gli investimenti A, B, C non si possono effettuare in modo parziale cioà non sono frazionabili.
12
– Variabili di decisione. In questo caso il decisore vuole semplicemente sapere, per ogni investi-
mento, se tale investimento deve essere effettuato oppure no. Una scelta naturale delle variabili
di decisione è la seguente:
n
0 non si effetua l’investimento i−esimo
xi = i = A, B, C (1.1)
1 si effettua l’investimento i−esimo
– Insieme ammissibile. In base alla definizione delle variabili, le possibili scelte compatibili con
il nostro budget sono:
(0) non si effettuano investimenti xA = xB = xC = 0
(1) si effettua l’investimento A; xA = 1, xB = xC = 0
(2) si effettua l’investimento B; xA = 0, xB = 1, xC = 0
(3) si effettua l’investimento C; xA = xB = 0, xC = 1
(4) si effettuano gli investimenti A e B; xA = xB = 1, xC = 0
(5) si effettuano gli investimenti B e C; xA = 0, xB = xC = 1.
(6) si effettuano gli investimenti A e C; xA = 1, xB = 0, xC = 1.
(7) si effettuano gli investimenti A, B e C; xA = xB = xC = 1.
Tra queste solo alcune sono compatibili con il nostro budget. In particolare, notiamo che le
possibilità A, C e A, B, C non sono ammissibili in quanto il costo supera la nostra disponibilità,
come si evince dalla Tabella 1.4.
L’insieme ammissibile oè costituito dalle scelte (0) − (5) ed è dato da:
0 1 0 0 1 0
S = 0 , 0 , 1 , 0 , 1 , 1
0 0 0 1 0 1
S ⊆ {0, 1}3
13
Investimento
(0) (1) (2) (3) (4) (5) (6) (7)
costi 0 750 200 800 950 1000 1550 1750
rendimento 0 20 5 10 25 15 30 35
Anche la funzione obiettivo può essere scritta in forma più sintetica come:
14
Capitolo 2
Modelli di Ottimizzazione
2.1 Introduzione
In questo capitolo ci occuperemo più nel dettaglio di quei particolari modelli matematici noti
come Modelli di Ottimizzazione che rivestono un ruolo centrale nella RO. In termini generali,
data una funzione f : IRn −→ IR, ed S ⊆ IRn , un problema di Ottimizzazione può essere formulato
nella forma:
min f (x)
(P O)
x ∈ S.
min −f (x)
x∈S
15
L’insieme ammissibile S è un sottoinsieme di IRn e quindi x = (x1 , x2 , . . . , xn )T è una
variabile vettoriale n-dimensionale e la funzione obiettivo f è una funzione di n variabili reali
f (x1 , x2 , . . . , xn ).
Il punto x? è detto soluzione ottima o minimo globale e il corrispondente valore f (x? ) di dice
valore ottimo.
16
Definizione 2.2.4 (Punto di minimo locale) Un punto x∗ ∈ S si dice punto di minimo
locale di f su S se esiste un intorno U (x∗ ) di x∗ tale che:
17
• Problemi di Ottimizzazione Continua.
Le variabili possono assumere tutti i valori reali (x ∈ IRn ); ed inoltre si parla di
problemi di ottimizzazione continua
– vincolata se S ⊂ IRn
– non vincolata se S = IRn .
• Problemi di Ottimizzazione Discreta.
Le variabili sono vincolate ad essere numeri interi (x ∈ Zn ); si possono distinguere
all’interno di questa classe di problemi altre due classi:
– programmazione a numeri interi se S ⊆ Zn
– ottimizzazione booleana se S ⊆ {0, 1}n .
• Problemi misti.
Solo alcune delle variabili sono vincolate ad essere intere.
g1 (x) ≤ 0
g2 (x) ≤ 0
g3 (x) ≤ 0
..
.
gm (x) ≤ 0
18
Quindi si può riscrivere il problema di ottimizzazione (PO) nella forma
min f (x)
(2.1)
gi (x) ≤ 0, i = 1, . . . , m.
19
che è nella forma (2.1) dove g1 (x1 , x2 ) = 1 − x1 − x2 , g2 (x1 , x2 ) = x1 − 1, g3 (x1 , x2 ) = x2 − 1.
L’insieme ammissibile è un poliedro; la funzione obiettivo è quadratica. Si tratta quindi di un
problema di Programmazione Non Lineare.
Esempio 2.3.4 Si consideri una funzione obiettivo f (x1 , x2 ) = 3x31 + 7x21 + x2 che si vuole
minimizzare, con vincoli x1 + x2 ≤ 21 , x1 ≥ 0, x2 ≥ 1. Si ottiene il problema
min 3x31 + 7x21 + x2
x1 + x2 ≤ 12
x1 ≥ 0
x2 ≥ 1
che è un problema di Programmazione Non Lineare che può essere facilmente ricondotto nella
forma (2.1) riscrivendo gli ultimi due vincoli nella forma −x1 ≤ 0 e −x2 ≤ −1.
Esempio 2.3.5 Si consideri una funzione obiettivo f (x1 , x2 ) = x1 +x2 che si vuole minimizzare
sulla regione ammissibile descritta dal vincolo di uguaglianza 4x1 − x2 = −2. Il problema
risultante è:
min x1 + x2
4x1 − x2 = −2
che è un problema di Programmazione Lineare con un solo vincolo di uguaglianza.
Ogni giorno la quantità di ciascuno dei preparati base (in ettogrammi) della quale il colorificio
può disporre è la seguente
P1 P2 P3
750 1000 400
Il prezzo di vendita del colorante C1 è di 7 Euro al litro, mentre il colorante C2 viene venduto
a 10 Euro al litro. Determinare la strategia ottimale di produzione giornaliera in modo da
massimizzare i ricavi ottenuti dalla vendita dei due coloranti.
20
Formulazione.
Si vuole costruire il modello di Programmazione Lineare che rappresenti il problema in analisi
considerando le limitazioni date dalle produzioni effettivamente realizzabili.
È immediato associare le variabili di decisione ai quantitativi di coloranti prodotti. Siano,
quindi, rispettivamente x1 e x2 i quantitativi (in litri) da produrre giornalmente dei due col-
oranti.
Nel formulare il modello di Programmazione Lineare si deve verificare che siano soddisfatte
le ipotesi fondamentali:
• Proporzionalità.
I consumi dei preparati base e i ricavi ottenibili sono proporzionali ai quantitativi di col-
oranti prodotti. Ad esempio, per produrre una quantità x2 di colorante C2 si consumano
2x2 ettogrammi di P2 e dalla vendita di x2 litri di C2 si ricavano 10x2 migliaia di lire
indipendentemente dalla quantità prodotta e venduta dell’altro tipo di colorante.
• Additività.
I consumi dei preparati base e i ricavi rispettivamente associati alla produzione dei due
coloranti sono additivi, nel senso che per produrre x1 litri di colorante C1 e x2 di C2 si
consumano x1 +2x2 ettogrammi di preparato di base P2 e si ricavano 7x1 +10x2 migliaia
di lire.
• Continuità.
Ogni variabile introdotta nel modello può assumere tutti i valori reali nell’intervallo di
ammissibilità.
x1 + x2 ≤ 750
x1 + 2x2 ≤ 1000
x2 ≤ 400.
x1 ≥ 0, x2 ≥ 0.
21
Esempio 2.4.2 (Un problema di pianificazione della produzione industriale)) Un’industria
chimica fabbrica 4 tipi di fertilizzanti, Tipo 1, Tipo 2, Tipo 3, Tipo 4, la cui lavorazione
è affidata a due reparti dell’industria: il reparto produzione e il reparto confezione. Per ot-
tenere fertilizzante pronto per la vendita è necessaria naturalmente la lavorazione in entrambi i
reparti. La tabella che segue riporta, per ciascun tipo di fertilizzante i tempi (in ore) necessari
di lavorazione in ciascuno dei reparti per avere una tonnellata di fertilizzante pronto per la
vendita.
Tipo 1 Tipo 2 Tipo 3 Tipo 4
Reparto produzione 2 1.5 0.5 2.5
Reparto confezionamento 0.5 0.25 0.25 1
Dopo aver dedotto il costo del materiale grezzo, ciascuna tonnellata di fertilizzante dà i seguenti
profitti (prezzi espressi in Euro per tonnellata)
Tipo 1 Tipo 2 Tipo 3 Tipo 4
profitti netti 250 230 110 350
22
Ragionando in modo analogo per il reparto confezionamento si ottiene
Le espressioni (2.3), (2.4) costituiscono i vincoli del modello. Si devono inoltre esplicitare
vincoli dovuti al fatto che le variabili xj , j = 1, . . . 4 rappresentando quantità di prodotto non
possono essere negative e quindi vanno aggiunti i vincoli di non negatività
x1 ≥ 0, x2 ≥ 0, x3 ≥ 0, x4 ≥ 0.
– Vincoli. Il diametro della base non può superare le dimensioni del magazzino e quindi deve
essere
2x ≤ 10.
23
La limitazione dell’altezza del contenitore varia al variare del diametro di base in quanto il tetto
è spiovente. Dato che la pendenza del tetto è del 20%, dovrà risultare
y ≤ 5 − 0.2 · 2x.
Inoltre disponendo solo di una quantità limitata di materiale plastico la superficie totale del
contenitore cilindrico non può superare 200m2 e quindi deve risultare
max x2 y
x≤5
y ≤ 5 − 0.2 · 2x
2πx2 + 2πxy ≤ 200
x ≥ 0, y ≥ 0.
– Vincoli. Poiché le due variabili rappresentano un’offerta si tratta di quantità non negative
xi ≥ 0 per i = 1, 2.
Più in generale nel caso di n mercati distinti, posto x = (x1 , . . . , xn )T si ha l’insieme ammissibile:
S = {x ∈ Rn : x ≥ 0} .
24
Molto spesso le funzioni fi (xi ) hanno un andamento lineare del tipo
La funzione ricavo risulta essere quindi una funzione quadratica del tipo
n
X
xi (ai − mi xi ) = −xT M x + aT x
i=1
x = (x0 , x1 , . . . , xn ) ∈ Rn+1 .
che rappresentano la differenza tra il valore effettivo della funzione φ(ti ) e il valore ottenuto con
la funzione approssimante pn (ti ; x). È allora possibile considerare diverse funzioni di ottimo
1. minimizzazione dell’errore quadratico medio
m
X
min ei (x)2 ,
i=1
Si tratta di problemi di ottimizzazione non vincolata. Osserviamo che nel caso 1, la funzione
obiettivo é quadratica nelle incognite x (si veda l’esempio 6.5.2). I problemi del tipo 2 e 3
hanno funzione obiettivo che non è continuamente differenziabile. Nel paragrafo 3.3.4 si vedrà
che problemi del tipo 2 e 3 possono essere ricondotti a problemi di programmazione lineare.
25
A titolo di esempio numerico sia φ(t), t ∈ R una funzione nota sperimentalmente che assume i
valori seguenti:
t 0 1 2 3
Φ(t) 0 1 4 9
Si vuole approssimare la funzione y = φ(t) con un polinomio di primo grado (ovvero una retta)
del tipo y = x1 t + x0 in cui x0 , x1 sono le incognite. Si definiscono gli errori
ei (xi ) = yi − (x1 ti + x0 ), i = 1, . . . , 4.
26
Capitolo 3
Modelli di Programmazione
Lineare
min cT x
Ax ' b.
27
Si osservi che, indicando con aTi , i = 1, . . . , m, le righe della matrice A, ciascun vincolo del
problema, ovvero ciascuna disuguaglianza della (3.1) può essere scritto nella forma aTi x ' bi ,
i = 1, . . . , m con ' pari a ≤, ≥ oppure =.
Tra le forme di poliedri più usate nella definizione di problemi di PL abbiamo le seguenti:
(a) S = {x ∈ Rn : Ax = b}
(b) S = {x ∈ Rn : Ax ≥ b}
(c) S = {x ∈ Rn : Ax = b, x ≥ 0} (forma standard)
In R2 sono poliedri, ad esempio, gli insiemi definiti come segue.
x2
x2
x2
3 3
3
S
x1 3
3 1 x1 3 x1
S
a) b) c)
28
(c) (forma standard) S = {x ∈ R2 : x1 + x2 = 3, x1 ≥ 0, x2 ≥ 0} rappresentato in c) di
Figura 3.1. La matrice A = (1 1) e b = 3.
In generale però è sempre possibile sempre riportarsi ad una delle forme (b) o (c) con
semplici trasformazioni dei vincoli o delle variabili. È da notare che non è possibile ricondursi
nel caso generale a problemi con soli vincoli di uguaglianza del tipo
min cT x
Ax = b.
Tali problemi sono in effetti di scarsa rilevanza pratica in quanto è possibile dimostrare che se
esiste una soluzione ammissibile e il problema non è illimitato allora tutte le soluzioni ammissibili
sono ottime. In particolare vale il teorema 10.2.1.
Trasformazioni dei vincoli Osserviamo che si può sempre supporre che il secondo mem-
bro di un vincolo di uguaglianza o disuguaglianza sia non negativo. Infatti, se cosı̀ non fosse,
basta moltiplicare per (−1) (ovvero cambiare di segno) ad entrambi i membri del vincolo e,
eventualmente cambiare il verso della disuguaglianza. Supponiamo quindi nel seguito, senza
perdere di generalità che bj ≥ 0.
aTj x ≤ bj , (3.2)
ove la variabile xn+1 rappresenta la differenza, non negativa, tra il secondo e il primo membro
della disuguaglianza (3.2), e viene detta variabile di slack. D’altra parte una disuguaglianza del
tipo
aTj x ≥ bj , (3.3)
può essere posta nella forma
ove la variabile xn+1 rappresenta la differenza, non negativa, tra il primo e il secondo membro
della disuguaglianza (3.3), e viene detta variabile di surplus. Quando la distinzione non è
necessaria, le variabili slack e di surplus vengono chiamate variabili ausiliarie.
3x1 + 4x3 ≤ 5
−5x1 + x2 − 6x3 = −7
8x1 + 9x3 ≥ 2
29
può essere riscritto nella forma
3x1 + 4x3 + x4 = 5
5x1 − x2 + 6x3 = 7
8x1 + 9x3 − x5 = 2
x4 ≥ 0
x5 ≥ 0
x1 − 0.5x2 − x3 ≤ 3
con xi ≥ 0, i = 1, 2, 3. 2
30
20
15
10
0
-10 -5 0 5 10
© ª
Figura 3.2: max 2x, −x, 12 x + 9
tipo per n = 1 e m = 3 è rappresentato in Figura 3.2. I problemi di questo tipo sono di solito
chiamati problemi minimax.
Aggiungendo una variabile v ∈ R è possibile mostrare che tale problema è equivalente al
problema di Programmazione Lineare:
minx,v v
x∈S (3.5)
cTi x + di ≤ v, i = 1, . . . , m.
Per dimostrare l’equivalenza dei problemi (3.4) e (3.5), dobbiamo fare vedere che data una
soluzione x∗ del problema (3.4) possiamo determinare una soluzione (x, v)∗∗ del problema (3.5)
e viceversa.
Supponiamo di avere una soluzione x∗ del problema (3.4). Posto x∗∗ = x∗ e v ∗∗ =
max1≤i≤m {cTi x∗ + di } abbiamo che la coppia (x, v)∗∗ è ammissibile per il problema (3.5),
infatti
x∗∗ = x∗ ∈ S cTi x∗∗ + di ≤ v ∗∗ = max {cTi x∗∗ + di }.
1≤i≤m
∗∗
Inoltre v ≤ v per ogni (x, v) ammissibile.
Viceversa, sia data una soluzione ottima (x, v)∗ del problema (3.5), una soluzione ammissibile
del problema (3.4) è x∗∗ = x∗ ∈ S. Si tratta anche della soluzione ottima perche‘
v ≥ v ∗ = max {cTi x∗ + di }
1≤i≤m
31
3.2.2 Funzione modulo
Si consideri il problema
min |cT x| (3.6)
x∈S
con x ∈ IRn , c ∈ IRn . Il problema (3.6) può essere equivalentemente scritto nella forma
20
15
10
0
10
5
-10 0
-5
0 -5
5 -10
10
32
3.3 Semplici esempi di problemi di programmazione lin-
eare
Chiariremo meglio i concetti finora esposti con alcuni esempi. I problemi descritti hanno una
funzione essenzialmente esemplificativa. In casi concreti, un problema di programmazione lin-
eare può avere un numero di variabili di decisione e un numero di vincoli dell’ordine delle decine
e centinaia di migliaia.
Un problema di miscelazione
Un’industria conserviera deve produrre succhi di frutta mescolando polpa di frutta e dolcificante
ottenendo un prodotto finale che deve soddisfare alcuni requisiti riguardanti il contenuto di
vitamina C, di sali minerali e di zucchero. La polpa di frutta e il dolcificante vengono acquistati
al costo rispettivamente di Lire 400 e Lire 600 ogni ettogrammo. Inoltre dalle etichette si ricava
che 100 grammi di polpa di frutta contengono 140 mg di vitamina C, 20 mg di sali minerali e
25 grammi di zucchero, mentre 100 grammi di dolcificante contengono 10 mg di sali minerali,
50 grammi di zucchero e non contengono vitamina C. I requisiti che il prodotto finale (cioè
il succo di frutta pronto per la vendita) deve avere sono i seguenti: il succo di frutta deve
contenere almeno 70 mg di vitamina C, almeno 30 mg di sali minerali e almeno 75 grammi di
zucchero. Si devono determinare le quantità di polpa di frutta e di dolcificante da utilizzare
nella produzione del succo di frutta in modo da minimizzare il costo complessivo dell’acquisto
dei due componenti base.
Formulazione.
Si vuole costruire un modello di Programmazione Lineare che rappresenti il problema in analisi
tenendo presente i requisiti di qualità richiesti. Si verifica facilmente che le ipotesi fondamentali
di un modello di Programmazione Lineare sono soddisfatte.
– Variabili. È naturale associare la variabili di decisione alle quantità di polpa di frutta e di
dolcificante da utilizzare per la produzione del succo di frutta. Quindi siano x1 e x2 rispettiva-
mente le quantità espresse in ettogrammi di polpa di frutta e di dolcificante che devono essere
utilizzate.
– Funzione obiettivo. È rappresentata dal costo complessivo dell’acquisto dei due componenti
base e quindi è data da 400x1 +600x2 . Questa espressione naturalmente deve essere minimizzata.
– Vincoli. Poiché un ettogrammo di polpa contiene 140 mg di vitamina C e il dolcificante non
contiene vitamina C, il primo vincolo da considerare riguardante il contenuto di vitamina C del
succo di frutta si può scrivere nella forma
140x1 ≥ 70.
33
Analogamente per rispettare il requisito sul contenuto di sali minerali del succo di frutta si
dovrà imporre il vincolo
20x1 + 10x2 ≥ 30.
Infine il vincolo sul contenuto di zucchero del succo di frutta si può esprimere nella forma
x1 ≥ 0, x2 ≥ 0.
C1 C2 ··· Cm
b1 b2 ··· bm .
34
Generalizzando quanto fatto nell’esempio,è naturale introdurre le variabili di decisione x1 , x2 , . . . , xn
rappresentanti la quantità di ciascuna sostanza S1 , S2 , . . . , Sn da utilizzare nella miscela. In-
troducendo come spazio delle variabili lo spazio delle n−uple reali IRn si può considerare un
x ∈ IRn definendo x = (x1 , . . . , xn )T .
La funzione obiettivo può essere scritta
n
X
z = c1 x1 + . . . + cn xn = cj xj .
j=1
• in alcuni casi si richiede che una certa sostanza appartenga alla miscela solo se un’altra
sostanza vi appartiene (o non vi appartiene). Questi vincoli sono detti disgiuntivi e la
loro formalizzazione matematica sarà discussa nel Capitolo 12.
35
3.3.2 Modelli di trasporto.
Sono definite m località origini indicate con O1 , . . . , Om , e n località destinazioni indicate con
D1 , . . . , Dn . Ogni origine Oi , (i = 1, . . . , m) può fornire una certa disponibilità ai ≥ 0 di merce
che deve essere trasferita dalle origini alle destinazioni
O1 ··· Om
a1 ··· am .
Ad ogni destinazione Dj , (j = 1, . . . , n) è richiesta una quantità bj ≥ 0 di merce.
D1 ··· Dn
b1 ··· bn .
Supponiamo che il costo del trasporto di una unità di merce da Oi a Dj sia pari a cij . Tali costi
nella realtà sono spesso collegati alle distanze tra origini e destinazioni. Si può cosı̀ costruire la
seguente tabella
D1 ··· Dj ··· Dn
O1 c11 ··· c1j ··· c1n
.. .. .. ..
. . . .
Oi ci1 ··· cij ··· cin
.. .. .. ..
. . . .
Om cm1 ··· cmj ··· cmn
Il problema consiste nel pianificare i trasporti in modo da soddisfare le richieste delle destinazioni
minimizzando il costo del trasporto complessivo nella seguente ipotesi:
• la disponibilità complessiva uguaglia la richiesta complessiva, cioè
m
X n
X
ai = bj ; (3.10)
i=1 j=1
si escludono possibilità di giacenze nelle origini, cioè tutta la merce prodotta in una origine
deve essere trasportata in una delle destinazioni; si escludono possibilità di giacenze nelle des-
tinazioni, cioè la quantità totale che arriva in una destinazione Dj deve uguagliare la richiesta
bj .
Formulazione.
Si vuole dare una formulazione del problema in esame in termini di un problema di program-
mazione lineare supponendo quindi che siano verificate le ipotesi di linearità e continuità.
– Variabili. Per ogni coppia di origine e destinazione Oi , Dj si introducono le variabili di
decisione xij rappresentanti la quantità di merce da trasportare da Oi , a Dj . Si tratta di mn
variabili
D1 ··· Dj ··· Dn
O1 x11 ··· x1j ··· x1n
.. .. .. ..
. . . .
Oi xi1 ··· xij ··· xin
.. .. .. ..
. . . .
Om xm1 ··· xmj ··· xmn
36
– Funzione obiettivo. La funzione obiettivo da minimizzare sarà data da costo totale del
trasporto e quindi da
Xm Xn
z= cij xij .
i=1 j=1
• vincoli di origine
n
X
xij = ai i = 1, . . . , m; (3.11)
j=1
impongono che tutta la merce prodotta in una origine sia trasportata alle destinazioni;
si tratta di m vincoli;
• vincoli di destinazione
m
X
xij = bj j = 1, . . . , n; (3.12)
i=1
impongono che la quantità totale di merce che arriva in ciascuna delle destinazioni
uguaglia la richiesta; si tratta si n vincoli.
xij ≥ 0 i = 1, . . . , n; j = 1, . . . , m.
Si è cosı̀ ottenuta una formulazione del problema dei trasporti con mn variabili e m+n+mn
vincoli:
Xm X n
min cij xij
i=1 j=1
X n
xij = ai i = 1, . . . , m (3.13)
j=1
Xm
xij = bj j = 1, . . . , n
i=1
xij ≥ 0 i = 1, . . . , n; j = 1, . . . , m.
37
Teorema 3.3.1 Condizione necessaria e sufficiente affinché il problema (3.13) ammetta soluzione,
cioè che esista una soluzione ammissibile, è che risulti
m
X n
X
ai = bj . (3.14)
i=1 j=1
Tale risultato chiarisce perché nella formulazione classica del problema dei trasporti si adotta
l’ipotesi (3.10) cioè che la disponibilità complessiva uguagli la richiesta complessiva.
Passiamo, ora, ad analizzare alcune varianti della formulazione classica del problema dei
trasporti; può infatti accadere che non tutte le rotte di trasporto siano disponibili: se non è
possibile il trasporto da una certa origine Oi ad una destinazione Dj si pone, per convenzione,
cij = ∞.
Oppure possono esistere rotte di trasporto Oi − Dj in cui vi sono limitazioni sulle quantità
massima di merci trasportabili uij . Questo produce dei vincoli del tipo xij ≤ uij .
Infine, si può supporre che la disponibilità complessiva possa essere superiore alla domanda
cioè
Xm Xn
ai ≥ bj . (3.15)
i=1 j=1
In tal caso, possono essere ammesse giacenze nelle origini e/o nelle destinazioni; se si accetta
di avere giacenze nelle origini, allora i vincoli di origine diventano
n
X
xij ≤ ai i = 1, . . . , m;
j=1
Anche nel caso in cui valga la (3.15), il problema dei trasporti può essere posto nella sua
formulazione classica, cioè con soli vincoli di uguaglianza, introducendo una destinazione fittizia
che abbia una richiesta pari a
Xm n
X
ai − bj
i=1 j=1
e ponendo uguale a zero il costo per raggiungere questa destinazione fittizia da qualsiasi origine.
Un problema di trasporto
Consideriamo un’industria che produce un bene di consumo in due stabilimenti di produzione,
situati rispettivamente a Pomezia e a Caserta. La produzione viene prima immagazzinata in
due depositi, situati uno a Roma e l’altro a Napoli. Quindi i prodotti vengono distribuiti alla
rete di vendita al dettaglio. Per ogni unità di prodotto, il costo del trasporto dallo stabilimento
al deposito è dato dalla Tabella:
38
Roma Napoli
Pomezia 1 3
Caserta 3.5 0.5
Costi di trasporto euro/unità
La capacità produttiva dei due stabilimenti è limitata, per cui ogni settimana il bene in
questione non può essere prodotto in più di 10000 unità nello stabilimento di Pomezia e in più
di 8000 unità nello stabilimento di Caserta. Inoltre le statistiche di vendita informano che ogni
settimana vengono vendute mediamente 11000 unità tramite il deposito di Roma e 4600 unità
tramite il deposito di Napoli. L’industria vuole minimizzare il costo del trasporto della merce
dagli stabilimenti ai depositi, assicurando che i depositi ricevano settimanalmente le quantità
medie prima indicate.
Le variabili di decisione sono le quantità del bene di consumo trasportate settimanalmente,
che possiamo associare alle variabili x1 , x2 , x3 , x4 nel seguente modo:
quantità trasportata da Pomezia a Roma x1
quantità trasportata da Pomezia a Napoli x2
quantità trasportata da Caserta a Roma x3
quantità trasportata da Caserta a Napoli x4
che corrisponde in forma di tabella a
Roma Napoli
Pomezia x1 x2
Caserta x3 x4
Variabili decisione
La funzione obiettivo è il costo sostenuto settimanalmente per il trasporto:
z(x1 , x2 , x3 , x4 ) = x1 + 3x2 + 3.5x3 + 0.5x4 .
P P
Osserviamo che i ai = 18000 e j bj = 15600, dunque siamo nell’ipotesi (3.15) e supponiamo
di accettare giacenze nelle origini.
Poichè i due stabilimenti hanno capacità produttiva limitata deve essere
x1 + x2 ≤ 10000
x3 + x4 ≤ 8000.
Poichè si vuole garantire il rifornimento medio settimanale (senza giacenza), deve essere
x1 + x3 = 11000
x2 + x4 = 4600.
Infine evidentemente deve risultare xi ≥ 0, i = 1, 2, 3, 4, e quindi il problema di programmazione
lineare per l’industria dell’esempio è il seguente:
min z = x1 + 3x2 + 3.5x3 + 0.5x4
x1 + x2 ≤ 10000
x3 + x4 ≤ 8000
x1 + x3 = 11000
x2 + x4 = 4600
xi ≥ 0, i = 1, 2, 3, 4.
39
3.3.3 Un problema di Yield Management ferroviario
Una compagnia ferroviaria vende i biglietti per il treno che effettua il percorso dalla città A
(Roma) alla B (Bologna) effettuando una fermata intermedia F1 (Firenze).
x13
x12 x23
1 2 3
L1 L2
Figura 3.4: Un treno con percorso composto da due tratte L1 , L2 e tre Origini-Destinazione
(1,2), (2,3), (1,3)
Le tariffe sono fissate a priori e dipendono solo dalla distanza tra le origini-destinazioni. In
particolare i prezzi in Euro (1a classe) per per ciascuna possibile Origine-Destinazione (O-D)
coperta dal treno sono riportati nella Tabella 3.3.3.
Tabella 3.1: Tariffe per le tre possibili O-D coperte dal treno
Tabella 3.2: Domanda prevista per le tre possibili O-D coperte dal treno
Il problema consiste nel determinare quanti posti vendere su ciascuna Origine -Destinazione
(O-D) coperta dal treno in modo da massimizzare il profitto.
Formulazione.
Si vuole costruire un modello di Programmazione Lineare che rappresenti il problema in analisi
tenendo presente i requisiti richiesti. Si assume che la domanda effettiva per ciascuna origine-
Destinazione sarà almeno pari al valor medio µ.
40
– Variabili. È naturale associare la variabili di decisione alle quantità di posti prenotabili su
ciascuna Origine-Destinazione possibile. In questo caso, sono le tre variabili x12 , x13 e x23 che
rappresentano rispettivamente i posti prenotabili sulla tratta A-F1 , A-B, F1 -B.
– Funzione obiettivo. È rappresentata dal profitto (atteso) relativo alla vendita e quindi è data
da 42, 35x12 + 53, 20x13 + 18, 59x23 . Questa espressione naturalmente deve essere massimizzata.
– Vincoli. Osserviamo innanzitutto che, poiché per ipotesi si avranno almeno µ domande per
ciascuna Origine-Destinazione, è necessario imporre i vincoli
x12 ≤ 420
x13 ≤ 355
x23 ≤ 335
Infine si deve esplicitare il vincolo di non negatività sulle variabili cioè x12 , x23 , x13 ≥ 0.
In principio le variabili rappresentano dei posti, e quindi si dovrebbero esplicitare anche i vincoli
di interezza. Questi vincoli possono essere omessi come sarà chiarito in un prossimo capitolo.
Quindi la formulazione finale è
41
utilizzando le trasformazioni nel paragrafo 3.2. Nel primo caso la funzione obiettivo è
f (m, q) = max {|x1 ti + x0 − y(ti )|} = max{|x0 |, |x1 + x0 − 1|, |2x1 + x0 − 4|, |3x1 + x0 − 9|}.
i=0,1,2,3
42
Capitolo 4
43
µ ¶
a1
con a1 , a2 ∈ IR fissati e con c ∈ IR. Il vettore a = individua una direzione ortogonale alle
a2
rette della famiglia (4.2) ed è orientato dalla parte in cui sono le rette della famiglia ottenute
per valori crescenti della c, cioè verso il semipiano in cui risulta a1 x1 + a2 x2 ≥ c.
Come esempio del risultato riportato dalµlemma ¶ appena dimostrato, si consideri la disug-
3
uaglianza lineare 3x1 +x2 ≥ 6. Il vettore a = individua una direzione ortogonale alla retta
1
3x1 + x2 = 6 ed è orientato verso il semipiano individuato dalla disuguaglianza 3x1 + x2 ≥ 6
(Figura 4.2).
Nella pratica, per determinare quale dei due semipiani è individuato dalla disuguaglianza
lineare a1 x1 +a2 x2 ≥ c si può procedere semplicemente in questo modo: dopo aver rappresentato
la retta a1 x1 + a2 x2 = c per individuare qual è il semipiano di interesse, si può scegliere un
punto P del piano (l’origine degli assi è il piú semplice) e valutare l’espressione a1 x1 + a2 x2 in
questo punto; se il valore cosı̀ ottenuto è maggiore o uguale di c allora il semipiano individuato
dalla disuguaglianza lineare a1 x1 + a2 x2 ≥ c è quello contenente il punto P ; in caso contrario
è quello opposto.
44
x
2
T
ax> C
-
y
θ
a
_
x
T ≤ C
ax
x
1
3x 1+ x2 > 6
3x 1+ x2 ≤ 6
1111111
0000000
0000000
1111111
a
45
Nel piano cartesiano Ox1 x2 l’equazione quadratica
la cui intersezione è la circonferenza stessa. S ≤ è l’insieme dei punti ”interni“ alla circonferenza,
mentre S ≥ rappresenta i punti “esterni”.
Nel piano cartesiano Ox1 x2 le equazioni quadratiche riconducibili alla forma
¡ ¢
h(x1 , x2 ) = x2 − ¡a1 x21 + a2 x1 + a3 ¢ = 0
h(x1 , x2 ) = x1 − a1 x22 + a2 x2 + a3 = 0
rappresentano rispettivamente una parabola con asse parallelo all’asse delle ordinate e ascissa
a2
del vertice pari a − 2a 1
e una parabola con asse parallelo all’asse delle ascisse e ordinata del
a2
vertice pari a − 2a1 . Consideriamo senza perdere di generalità la prima delle due equazioni e
gli insiemi individuati dai due vincoli di disuguaglianza corrispondenti
S ≤ = {x ∈ IR2 : x2 ≤ a1 x21 + a2 x1 + a3 }
S ≥ = {x ∈ IR2 : x2 ≥ a1 x21 + a2 x1 + a3 }
S ≤ è l’insieme dei punti che si trova “internamente” alla parabola stessa e S ≥ è l’insieme dei
punti “esterni”.
f (x1 , x2 ) = k (4.4)
46
funzione obiettivo su un piano cartesiano Ox1 x2 si considera la famiglia di rette parallele (k =
C)
c1 x1 + c2 x2 = C (4.5)
ottenuta al variare di C, che rappresentano le rette di livello della funzione. Sulla base di quanto
esposto nel paragrafo precedente,
µ valori
¶ superiori della C si determinano traslando le rette nel
c1
verso individuato dal vettore che rappresenta, quindi, una direzione di crescita per la
c2
funzione c1 x1 + c2 x2 . Ovviamente, la direzione opposta sarà una direzione di decrescita.
Quindi, geometricamente, un problema di massimizzazione consisterà nel considerare la
traslazione nel verso della direzione di crescita della funzione obiettivo, mentre in un problema
di minimizzazione si considera la traslazione nel verso opposto (Figura 4.3)
x2
12
11
direzione di crescita
10
7
6
1 2 3 4 5 6 2 x +x =12 x1
1 2
2 x 1 +x 2=8 2 x 1 +x 2=10
Per rappresentare questa funzione obiettivo su un piano cartesiano Ox1 x2 si considera la famiglia
di curve (k = r2 )
(x1 − a1 )2 + (x2 − a2 )2 = C 2 (4.7)
47
ottenuta al variare di C, che rappresentano circonferenze concentriche di raggio variabile C.
Se il problema è di massimizzazione si vuole trovare il massimo valore di raggio ottenibile
in corrispondenza di valori ammissibili per x1 e x2 ; viceversa se si tratta di minimizzazione.
Osserviamo che se il centro della circonferenza base è ammissibile, esso costituisce il punto di
minimo globale.
x2
A x1
48
Le curve di livello x1 = k sono rette parallele all’asse delle ordinate con valore crescente
all’aumentare di k. Si determina il punto di minimo globale nel punto A = (0, 0)T di valore
f ∗ = 0. Si osserva che il punto C è un massimo globale, mentre il punto B risulta essere un
minimo locale.
x1 + x2 = 1
2 1
(x1 − 1) + x2 2 ≤ 4
Soluzione. L’insieme ammissibile F é dato dal segmento di retta che ha per estremi i punti
³ ´T ³ ´
1 1 1 1
x̃ = 1 − 2√ , √
2 2 2
e x̄ = 1 + √ , √
2 2 2 2
T.
Esempio 4.3.4
Si consideri ora il problema di allocazione ottima di risorse del Paragrafo 2.4.1 che è rappresen-
tato dal seguente problema di Programmazione Lineare:
49
Figura 4.5: Soluzione grafica in IR2 dell’Esempio 4.3.3.
In Figura 4.7 è evidenziato il semipiano individuato dal secondo vincolo x1 + 2x2 ≤ 1000.
Infine in Figura 4.8 è evidenziato il semipiano individuato dal terzo vincolo x2 ≤ 400.
Ovviamente i vincoli di non negatività delle variabili x1 ≥ 0 e x2 ≥ 0 rappresentano
rispettivamente il semipiano delle ascisse non negative e il semipiano delle ordinate non negative.
L’insieme ammissibile del problema di Programmazione Lineare che stiamo esaminando è
dato quindi dall’intersezione di tali semipiani e si può indicare con
n o
S = (x1 , x2 ) ∈ IR2 | x1 + x2 ≤ 750, x1 + 2x2 ≤ 1000, x2 ≤ 400, x1 ≥ 0, x2 ≥ 0 .
Tale regione di piano prende nome di regione ammissibile, è un insieme convesso ed è rappre-
sentato in Figura 4.9.
Tutti i punti P (x1 , x2 ) appartenenti a questa regione sono punti dell’insieme ammissibile
del problema e quindi tutti i punti di questa regione costituiscono soluzioni ammissibili del
problema.
Si consideri ora la funzione obiettivo 7x1 + 10x2 e si consideri la famiglia di rette
7x1 + 10x2 = C
ottenute al variare del parametro C. Esse costituiscono le curve di livello della funzione in
due variabili f (x1 , x2 ) = 7x1 + 10x2 che sono ovviamente delle rette come rappresentato in
Figura 4.10.
In riferimento al problema di allocazione ottima rappresentato dal problema di Program-
mazione Lineare che stiamo esaminando, il parametro C rappresenta il profitto totale che deve
50
Figura 4.6: Semipiano individuato dal vincolo x1 + x2 ≤ 750
51
Figura 4.8: Semipiano individuato dal vincolo x2 ≤ 400
52
Figura 4.10: Curve di livello della funzione f (x1 , x2 ) = 7x1 + 10x2 e punto di ottimo
essere massimizzato. Per C = 0 si ottiene la linea di livello passante per l’origine del piano
Ox1 x2 . Ovviamente, scegliendo x1 = 0 e x2 = 0 (che è un punto ammissibile in quanto
(0, 0) ∈ S) si ottiene il profitto totale nullo. All’aumentare del valore di tale profitto, cioè
all’aumentare del valore della costante C, graficamente si ottengono rette parallele alla retta
di livello passanteµ per¶l’origine traslate nella direzione di crescita della funzione 7x1 + 10x2
7
data dal vettore (Figura 4.10). Poiché si desidera massimizzare la funzione obiettivo,
10
si cercherà di raggiungere il valore piú alto per la C ottenuto scegliendo per x1 e x2 valori
ammissibili cioè tali che (x1 , x2 ) ∈ S. Osservando la rappresentazione grafica della regione
ammissibile S si deduce che all’aumentare di C, le rette di livello della funzione obiettivo inter-
secano la regione ammissibile finché C ≤ 6000. Tale valore è ottenuto per x1 = 500 e x2 = 250
e non esistono altri punti della regione ammissibile in cui la funzione obiettivo assume valori
maggiori. Il valore 6000 è, quindi, il massimo valore che la funzione obiettivo può raggiungere
soddisfacendo i vincoli. Tale soluzione ottima è raggiunta in corrispondenza del punto P di
coordinate (x1 , x2 ) = (500, 250); tale punto non è un punto qualsiasi, ma costituisce quello che
nella geometria piana viene detto vertice del poligono convesso che delimita la regione ammissi-
bile. Il fatto che l’ottimo del problema è raggiunto in corrispondenza di un vertice della regione
ammissibile non è casuale, ma come si vedrà in seguito, è una caratteristica fondamentale di
un generico problema di Programmazione Lineare. Si osservi fin d’ora che la frontiera della
regione ammissibile è definita dalle rette
53
e che ogni intersezione di due di queste rette è un vertice della regione ammissibile; il numero di
queste possibili intersezioni (non tutte necessariamente appartenenti alla regione ammissibile)
è ovviamente pari al piú a 10. Si osservi, infine, che nel punto di ottimo sono attivi i vincoli
x1 + x2 ≤ 750 e x1 + 2x2 ≤ 1000 mentre non è attivo il vincolo x2 ≤ 400.
Nel caso particolare che abbiamo esaminando, la soluzione ottima determinata è unica,
ma in generale può accadere che le rette di livello della funzione obiettivo siano parallele ad
un segmento del perimetro del poligono che delimita la regione ammissibile; in questo caso
potrebbe accadere che esistano piú punti ammissibili in cui la funzione assume lo stesso valore
ottimo e quindi la soluzione non sarebbe piú unica; nel problema in esame, ciò accadrebbe, ad
esempio, se la funzione obiettivo fosse cx1 + 2cx2 con c costante reale positiva (Figura 4.11);
infatti, tutti i punti del segmento AB rappresentano soluzioni ottime.
Tuttavia, anche in questo caso si può sempre trovare un vertice che costituisce una soluzione
ottima.
Esempio 4.3.5
Consideriamo ora un problema di miscelazione descritto nel paragrafo 3.3.1 che è rappresentato
54
dal seguente problema di Programmazione Lineare:
min(400x1 + 600x2 )
140x1 ≥ 70
20x1 + 10x2 ≥ 30
25x1 + 50x2 ≥ 75
x1 ≥ 0, x2 ≥ 0
Nelle figure che seguono rappresentati i vincoli lineari di questo problema; In particolare nella
Figura 4.12 è evidenziato il semipiano individuato dal vincolo 140x1 ≥ 70. Nella Figura 4.13
e nella Figura 4.14 sono evidenziati rispettivamente i semipiani individuati dai vincoli 20x1 +
10x2 ≥ 30 e 25x1 + 50x2 ≥ 75.
Ovviamente i vincoli di non negatività delle variabili x1 ≥ 0 e x2 ≥ 0 rappresentano rispettiva-
mente il semipiano delle ascisse non negative e il semipiano delle ordinate non negative.
L’insieme ammissibile del problema di Programmazione Lineare che stiamo esaminando è
dato quindi dall’intersezione di tali semipiani e si può indicare con
n o
Se = (x1 , x2 ) ∈ IR2 | 140x1 ≥ 70, 20x1 + 10x2 ≥ 30, 25x1 + 50x2 ≥ 75, x1 ≥ 0, x2 ≥ 0 .
55
Figura 4.13: Semipiano individuato dal vincolo 20x1 + 10x2 ≥ 30
56
Figura 4.15: La regione ammissibile Se
lema. Si osservi che, a differenza della regione ammissibile del problema considerato nell’esempio
precedente, la regione ammissibile Se è illimitata.
Ora, tracciando le curve di livello della funzione obiettivo 400x1 +600x2 si ottiene la famiglia
di rette
400x1 + 600x2 = C.
Trattandosi di un problema di minimizzazione si vuole determinare il valore piú basso di C
ottenuto scegliendo per x1 e x2 valori ammissibili cioè tali che (x1 , x2 ) ∈ S. e Osservando la
rappresentazione grafica dellaµ regione e
¶ ammissibile S e osservando che la direzione di decrescita
400
è quella opposta al vettore , si deduce che al diminuire di C, le rette di livello della
600
funzione obiettivo intersecano la regione ammissibile finché C ≥ 1000 (Figura 4.16)
Tale valore è ottenuto per x1 = 1 e x2 = 1 e non esistono altri punti della regione ammissibile
in cui la funzione obiettivo assume valori minori. Il valore 1000 è, quindi, il minimo valore che
la funzione obiettivo può raggiungere soddisfacendo i vincoli. Tale soluzione ottima è raggiunta
in corrispondenza del punto P di coordinate (x1 , x2 ) = (1, 1); si osservi che anche in questo
caso tale punto è un punto particolare della regione ammissibile. Si osservi, infine che in questo
punto sono attivi i vincoli 20x1 + 10x2 ≥ 30 e 25x1 + 50x2 ≥ 75 mentre risulta non attivo il
vincolo 140x1 ≥ 70.
57
Figura 4.16: Curve di livello della funzione 400x1 + 600x2 e punto di ottimo
determinare una soluzione ottima. Tuttavia è facile dedurre, sempre per via geometrica, che
un problema di Programmazione Lineare può non ammettere soluzione ottima. Ad esempio, se
nell’Esempio 4.3.4 sostituiamo il vincolo x2 ≤ 400 con il vincolo x2 ≥ 1000, la regione ammis-
sibile sarebbe vuota nel senso che non esisterebbe nessun punto del piano che soddisfa tutti i
vincoli. In questo caso il problema risulterebbe inammissibile e questo indipendentemente dalla
funzione obiettivo e dal fatto che il problema è in forma di minimizzazione o massimizzazione.
Un altro esempio di problema di Programmazione Lineare che non ammette soluzione ot-
tima si può ottenere considerando il problema dell’Esempio 4.3.5 e supponendo che la funzione
obiettivo debba essere massimizzata anziché minimizzata. In questo caso nella regione ammis-
sibile (che è illimitata) la funzione obiettivo può assumere valori arbitrariamente grandi cioè
tali che comunque scelto un valore M > 0 esiste un punto in cui la funzione obiettivo assume
valore maggiore di M ; questo significa che il problema è illimitato superiormente e quindi non
può esistere una soluzione ottima.
Sulla base di queste considerazioni sulla geometria di un problema di Programmazione
Lineare (PL) in due variabili si può intuire che le situazioni che si possono verificare sono le
seguenti:
58
• il problema di PL ammette soluzione ottima (che può essere o non essere unica) in
un vertice del poligono convesso che delimita la regione ammissibile;
• il problema di PL non ammette soluzione ottima perché
Quindi se si suppone che esiste un punto ammissibile, cioè che la regione ammissibile sia
non vuota, allora sembrerebbe di poter dedurre che o il problema di Programmazione Lineare
ammette soluzione ottima in un vertice del poligono convesso che delimita la regione ammissibile
oppure è illimitato.
Questi asserti, ora semplicemente dedotti intuitivamente per via geometrica, hanno in effetti
una validità generale e verranno enunciati e dimostrati in maniera rigorosa nel capitolo 10.
Come ultima considerazione intuitiva si vuole citare la possibilità che la regione ammissibile sia
x 2
1111111111111111111111111111
0000000000000000000000000000
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
x 1
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
Figura 4.17: Regione ammissibile costituita da una striscia di piano
costituita da una striscia di piano, cioè dalla porzione di piano compresa tra due rette parallele
(Figura 4.17). In questo caso non esistono vertici per la regione ammissibile e il problema risulta
59
illimitato ad eccezione del caso particolare in cui le rette di livello della funzione obiettivo sono
parallele alle rette che delimitano la striscia di piano; in questo caso si hanno infinite soluzioni.
La non esistenza di vertici in questo caso si intuisce essere legata al fatto che la regione
ammissibile costituita da una striscia di piano contiene rette. Infatti nei casi delle regioni am-
missibili S e Se dei problemi di Programmazione Lineare dell’Esempio 4.3.4 e dell’Esempio 4.3.5
non esistono rette interamente contenute in S o in S. e Anche la regione illimitata Se può contenere
semirette, ma non rette.
Nel caso in cui la regione ammissibile non contiene nemmeno semirette (che è il caso della
regione S dell’Esempio 4.3.4), cioè la regione ammissibile sia chiusa e limitata, è possibile
garantire l’esistenza di un minimo (e un massimo) assoluto per funzioni continue grazie al
teorema di Weierstrass.
60
Capitolo 5
Problemi di ottimizzazione
convessa e concava
Definizione 5.1.2 Siano x e y due punti in IRn . L’insieme dei punti di IRn ottenuti come
z = (1 − β)x + βy,
Esempio 5.1.3 Nella figura 5.1 è rappresentato il segmento in IR2 avente per estremi i punti
x = (1, 1)T e y = (8, 5)T . Per β = 0 ritroviamo il punto x, mentre per β = 1 ritroviamo il punto
y; i punti segnati nella figura come xa , xb e xc corrispondono rispettivamente a valori di β pari
a 0.25, 0.5 e 0.75.
61
5 x2 x2
β=0.75
4
xc
β=0.5
3
xb
β=0.25
2
xa
β=0
1
x1
x1
Dalla figura 5.1 risulta ovvio che il concetto di segmento è la generalizzazione, al caso di
IRn dell’ usuale concetto di segmento valido nel piano.
Notiamo anche come, nel caso in cui gli estremi appartengano ad IR1 , e sono quindi due
numeri (scalari), diciamo a e b, il concetto di segmento di estremi a e b coincida con quello di
intervallo [a, b], fatto che giustifica la notazione [x, y] impiegata per indicare il segmento.
Definizione 5.1.4 Un insieme X ⊆ IRn è convesso se per ogni coppia di punti appartenenti
all’insieme, appartengono all’insieme anche tutti i vettori ottenibili come loro combinazione
convessa.
Utilizzando il concetto di segmento chiuso, la definizione di insieme convesso può essere rifor-
mulata nel modo seguente:
Esempio 5.1.5 In IR2 gli insiemi (a) , (b) della figura 5.2 sono convessi, mentre gli insiemi (c),
(d) della stessa figura non lo sono. Infatti agli insiemi (c),(d) appartengono coppie di punti,
quali quelle segnate nella figura, tali che il segmento che li congiunge presenta dei punti non
appartenenti all’insieme; ciò non avviene invece comunque si prendano coppie di punti negli
insiemi (a) e (b).
Una importante proprietà degli insiemi convessi è espressa dal seguente teorema.
62
d
a c e
b
Esempio 5.1.7 L’insieme (e) della figura 5.2 è dato dall’intersezione di due insiemi convessi
ed è convesso
Dal Teorema (5.1.6) si può derivare, con un semplice ragionamento induttivo, il seguente
corollario.
Passiamo ora a considerare dei particolari insiemi convessi che rivestono un ruolo importante
nella teoria della programmazione lineare.
Consideriamo l’espressione
a1 x1 + . . . + an xn = b
che, con notazione vettoriale possiamo scrivere aT x = b, con a ∈ IRn e b ∈ IR. Possiamo allora
dare le seguenti definizioni.
H = {x ∈ IRn : aT x = b}
S≤ = {x ∈ IRn : aT x ≤ b}
S≥ = {x ∈ IRn : aT x ≥ b}
Nel caso dello spazio IR2 il concetto di iperpiano coincide con quello di retta, mentre nel caso
dello spazio IR3 il concetto di iperpiano coincide con quello di piano. In maniera intuitiva, i
semispazi possono essere pensati come l’ insieme dei punti che “giacciono” da una stessa parte
rispetto all’iperpiano.
63
AAAAAAAAAAAAAAAA
x2
AAAAAAAAAAAAAAAA
AAAAAAAAAAAAAAAA
AAAAAAAAAAAAAAAA
10x 1 + 5x2 ‡25
AAAAAAAAAAAAAAAA
5
AAAAAAAAAAAAAAAA
4
AAAAAAAAAAAAAAAA
3
2
AAAAAAAAAAAAAAAA
1
AAAAAAAAAAAAAAAA
AAAAAAAAAAAAAAAA
1 2 3 4 5 6 x1
10x + 5x =25
10x1 + 5x2 †25
Esempio 5.1.10 Con riferimento alla figura 5.3, l’iperpiano (= retta) 10x1 + 5x2 = 25 divide
lo spazio (= piano) in due semispazi: S ≥ = {x ∈ IR2 : 10x1 + 5x2 ≥ 25}, indicato in grigio nella
figura, e S ≤ = {x ∈ IR2 : 10x1 + 5x2 ≤ 25}, indicato in bianco nella figura.
Notiamo che l’iperpiano H fa parte di tutti e due i semispazi e che l’intersezione dei due
semispazi coincide con l’iperpiano. In termini insiemistici abbiamo che
H ⊂ S≥, H ⊂ S≤, S ≥ ∩ S ≤ = H.
e quindi che aT z ≤ b 2
Utilizzando il Teorema (5.1.11) e il Teorema (5.1.6) e ora facile dimostrare che anche un
iperpiano è un insieme convesso.
64
Corollario 5.1.12 Un iperpiano è un insieme convesso.
In IR3 possibili poliedri sono i cubi, i tetraedi ecc. In R2 sono poliedri, ad esempio, i
segmenti, le rette, poligoni piani, ecc.
Naturalmente, risulta:
Sono esempi di punti estremi: per un cerchio, i punti della circonferenza che lo delimita; per un
segmento [x1 , x2 ], gli estremi x1 , x2 ; per un triangolo, i suoi vertici (non sono punti estremi i
punti dei lati che non siano vertici). L’insieme dei punti estremi di un insieme convesso C verrà
indicato con il simbolo Ext(C), ossia:
Un insieme convesso può non ammettere punti estremi. Ad esempio, un iperpiano, un semis-
pazio, una sfera aperta non hanno punti estremi.
Osserviamo inoltre che Ext(C) è contenuto nella frontiera di C e quindi nessun insieme convesso
aperto può ammettere punti estremi.
Esempio 5.1.15 Nell’insieme di figura 5.4 il punto A non è un punto estremo, in quanto è
interno al segmento che congiunge i punti B e C, anch’essi appartenenti all’insieme; lo stesso
vale per il punto D, interno al segmento [E,F]. Sono invece punti estremi dell’insieme i punti E,
F, G, H.
65
G
F C H
A
Nel caso in cui l’insieme convesso sia un poliedro, i punti estremi sono detti anche vertici.1
Definizione 5.2.1 Una funzione f (x) si dice convessa su un insieme convesso C se, presi
comunque due punti y, z ∈ C risulta che:
1
In realtà la definizione di vertice è concettualmente diversa, ma si dimostra che un punto di un
poliedro è punto estremo se e solo se è un vertice.
66
Definizione 5.2.2 Una funzione f (x) si dice concava su un insieme convesso C se, presi co-
munque due punti y, z ∈ C risulta che:
Quest’ultima relazione mette in evidenza che, se si rappresenta graficamente nel piano (β, φ) la
funzione φ(β), il grafico della funzione nell’intervallo (0, 1) si trova al di sotto del segmento, detto
secante, che congiunge i punti (0, φ(0)) e (1, φ(1)) e coincide solo negli estremi del segmento. Si
può concludere che una funzione strettamente convessa è caratterizzata dalla proprietà di avere
il grafico sempre al di sotto di ogni sua secante.
Una funzione lineare del tipo cT x + b è sia convessa che concava (ma NON è strettamente
convessa o strettamente concava).
Una problema con insieme ammissibile convesso S e funzione obiettivo lineare è sia convesso
che concavo.
67
e dunque
1.8
1.6
1.4
1.2
0.8
0.6
0.4
S
0.2
-0.2
-0.2 0 0.2 0.4 0.6 0.8 1 1.2
68
Nel caso in cui gi per i = 1, . . . , m e hj per j = 1, . . . , p siano funzioni lineari, S è un poliedro
e quindi un insieme convesso. Se invece qualche gi o hj è non lineare possiamo utilizzare la
seguente proposizione fornisce una condizione solo sufficiente per la convessità di S.
S = {x ∈ Rn : g(x) ≤ 0, }.
Ovvero tutti i punti del segmento [y, z] sono in S che dimostra che l’insieme S i è convesso.
É possibile quindi enunciare la seguente condizione sufficiente.
Se per ogni i le funzioni gi (x) sono convesse in IRn , e per ogni j le funzioni hj sono funzioni
del tipo aTj x − bj , allora l’insieme S è convesso.
Si assuma che i vincoli di disuguaglianza siano dati da funzioni gi (x) convesse in IRn , e che i
vincoli di uguaglianza siani dati da funzioni del tipo aTj x − bj .
Se la funzione obiettivo f (x) è una funzione convessa in IRn , il Problema (5.4) è convesso.
Se la funzione obiettivo f (x) è una funzione concava in IRn , il Problema (5.4) è concavo.
Notiamo che, la condizione sufficiente del Teorema 5.3.3 non è soddisfatta nell’Esempio
5.3.1 a causa della non convessità del vincolo x31 − x2 ≤ 0.
69
5.3.1 Problema di ottimizzazione convesso
I problemi di ottimizzazione convessi sono di particolare importanza per due motivi. Il primo è
che la grande maggioranza dei problemi di ottimizzazione che si incontrano nella pratica sono
convessi. Il secondo è che la convessità induce alcune proprietà che semplificano l’analisi e la
soluzione di un problema convesso.
Una delle proprietà più significative è la seguente:
Teorema 5.3.5 [Assenza di ottimi locali] Sia S ⊆ Rn un insieme convesso e f una funzione
convessa su S. Allora, il problema
min f (x)
x∈S
o non ha soluzione, o ha solo soluzioni globali; non può avere soluzioni esclusivamente locali.
Figura 5.6: Costruzione geometrica utilizzata nella dimostrazione del Teorema 5.3.5 N.B. nella
figura x∗ é il minimo locale, e x rappresenta il minimo globale
f ((1 − β)x̂ + βx∗ ) ≤ (1 − β)f (x̂) + βf (x∗ ) = f (x̂) + β(f (x∗ ) − f (x̂)), per ogni β ∈ [0, 1].
Il termine β(f (x∗ ) − f (x̂)) risulta < 0, per ogni β ∈ (0, 1], e si annulla solo per β = 0. Quindi,
poichè in ogni punto x ∈ (x̂, x∗ ] risulta f (z) < f (x̂), non esiste nessun intorno di raggio ρ > 0
in cui x̂ può soddisfare la definizione di minimo locale.
70
5.3.2 Problema di ottimizzazione concavo
I problemi di programmazione concava costituiscono una classe molto ampia di problemi non
convessi, che include numerose classi di problemi inerentemente “difficili”. La difficoltà princi-
pale che si manifesta nella soluzione di problemi di tipo concavo risiede nel fatto che possono
esssere presenti molti punti di minimo locale che non sono punti di minimo globale. In casi
del genere la ricerca delle soluzioni globali può divenire un problema di natura combinatoria,
che può richiedere, nel caso peggiore, tempi di calcolo esponenzialmente crescenti con le dimen-
sioni del problema (È possibile dimostrare, in particolare, che, sotto opportune ipotesi, molti
problemi di ottimizzazione combinatoria possono essere riformulati come problemi (continui) di
programmazione concava.).
Per i problemi di programmazione concava è possibile dimostrare che le soluzioni ottime, ove
esistano, appartengono alla frontiera dell’insieme ammissibile. Più precisamente vale il risultato
seguente.
Teorema 5.3.6 [Assenza di soluzioni ottime interne] Sia S ⊆ Rn un insieme convesso e
f una funzione concava su S. Allora, se esiste un punto di minimo globale del problema
min f (x)
x∈S
e se la funzione obiettivo non è costante su S, ogni punto di minimo globale appartiene alla
frontiera di S.
Dimostrazione. Supponiamo che il problema ammetta soluzione e che x∗ sia una soluzione
ottima. Poichè, per ipotesi, f non è costante su S deve esistere un punto x̂ ∈ S tale che
f (x̂) > f (x∗ ) = min f (x).
x∈S
Supponiamo ora che z ∈ S sia un punto interno all’insieme ammissibile. Deve allora esistere
una sfera aperta B(z; ρ) con centro in z e raggio ρ > 0 tutta contenuta in S. Sulla retta
congiungente x̂ con z possiamo allora determinare un y ∈ B(z; ρ) ⊆ S tale che z appartenga al
segmento [x̂, y] e risulti y 6= z, ossia possiamo trovare un λ con 0 ≤ λ < 1 tale che
z = (1 − λ)x̂ + λy.
Per la concavità di f e l’ipotesi che sia f (x̂) > f (x∗ ), tenendo conto del fatto che f (y) ≥ f (x∗ )
e che 1 − λ > 0 (perchè y 6= z), si ottiene:
f (z) ≥ (1 − λ)f (x̂) + λf (y) > (1 − λ)f (x∗ ) + λf (x∗ ) = f (x∗ ).
Ciò dimostra che f (z) > f (x∗ ) e quindi che non può esistere una soluzione ottima in un punto
interno. 2
Per quanto riguarda la Programmazione Lineare, poiché si tratta di un problema sia con-
vesso che concavo, abbiamo, come immediata conseguenza, il seguente corollario
Corollario 5.3.7 Se un problema di Programmazione Lineare ammette soluzione, allora il
minimo globale si trova sulla frontiera del poliedro ammissibile.
Nel seguito vedremo che nel caso in cui l’insieme ammissibile sia un poliedro, vale una proprietà
più forte. In particolare, nel caso di problemi di Programmazione Lineare (Capitolo 10), almeno
un punto di minimo globale deve trovarsi su un vertice del poliedro ammissibile.
71
5.4 Caratterizzazione funzioni convesse continuamente dif-
ferenziabili
Se f è una funzione convessa differenziabile possiamo dare condizioni necessarie e sufficienti
di convessità espresse per mezzo delle derivate prime o seconde dalla funzione. Ci limitiamo a
riportare i risultati seguenti.
Teorema 5.4.1 (Condizioni necessarie e sufficienti di convessità) Sia C un insieme con-
vesso aperto, sia f : C → R e supponiamo che ∇f sia continuo su C. Allora f è convessa su
C se e solo se, per tutte le coppie di punti x, y ∈ C si ha:
f (y) ≥ f (x) + ∇f (x)T (y − x). (5.5)
Inoltre f è strettamente convessa su C se e solo se, per tutte le coppie di punti x, y ∈ C con
y 6= x, si ha:
f (y) > f (x) + ∇f (x)T (y − x). (5.6)
Dal punto di vista geometrico, la condizione del teorema precedente esprime il fatto che una
funzione è convessa su C se e solo se in un qualsiasi punto y ∈ C l’ordinata f (y) della funzione
non è inferiore alle ordinate dei punti del piano tangente al grafo della funzione in un qualsiasi
altro punto x di C.
Nel teorema successivo riportiamo una condizione necessaria e sufficiente di convessità espressa
per mezzo delle derivate seconde.
72
Data una matrice A si definisce forma quadratica associata alla matrice A la funzione
n X
X n
xT Ax = aij xi xj . (5.7)
i=1 j=1
Una forma quadratica è quindi una particolare funzione quadratica in cui il termine lineare è
identicamente nullo (c = 0).
Si verifica facilmente che il gradiente e l’Hessiano della forma quadratica sono dati rispet-
tivamente da 2Ax e 2A.
La forma quadratica xT Ax si dice:
- definita positiva, se risulta xT Ax > 0 ∀x ∈ IRn , x 6= 0;
- semidefinita positiva se risulta xT Ax ≥ 0 ∀x ∈ IRn ;
- indefinita se per qualche x risulta xT Ax > 0, e per altri x risulta xT Ax < 0.
Corrispondentemente, si dice che la matrice A associata alla forma quadratica è rispettivamente
definita positiva, semidefinita positiva, indefinita.
La forma quadratica xT Ax si dice (semi)definita negativa se −xT Ax è (semi)definita posi-
tiva.
Nel caso di funzioni quadratiche, la matrice hessiana A è costante e la condizione di con-
vessità dei Teoremi 5.4.2 e 5.4.3 diventa:
Teorema 5.4.4 Una funzione quadratica q(x) è convessa su IRn se, e solo se, risulta:
1 T
y Ay ≥ 0, per ogni y ∈ IRn ;
2
inoltre, la funzione q(x) è strettamente convessa su IRn se e solo se risulta
1 T
y Ay > 0, per ogni y ∈ IRn .
2
Notare che nel caso di funzione quadratica la condizione di stretta convessità è condizione
necessaria e sufficiente.
Per verificare se una matrice A è definita positiva, si può utilizzare un semplice test.
Si osserva che se A è semidefinita positiva allora risulta detAk ≥ 0, ma non è vero in generale
il viceversa. Basta prendere come esempio la matrice
µ ¶
0 0
A=
0 2a22
73
con a22 < 0 e la forma quadratica associata
in cui a11 = a12 = 0. I minori principali A1 e A2 hanno determinante nullo, e quindi soddisfano
il criterio detAk ≥ 0, ma q(x) è semidefinita negativa !!!
Per verificare se una matrice A è semidefinita positiva si deve applicare un criterio molto
più oneroso riportato di seguito.
Criterio 2 Siano Dik ,jk le sottomatrici di A con elementi aij ,ottenute da A eliminando n − k
righe e colonne in tutti i possibili modi, dette minori principali di A, ovvero le sottomatrici
con elementi aij , i = i1 , . . . , ik , j = j1 , . . . , jk , per 1 ≤ k ≤ n. Denotato con detDik ,jk il
determinante di Dik ,jk , si ha:
- A è semidefinita positiva se, e solo se, Dik ,jk ≥ 0 per ogni 1 ≤ k ≤ n.
Osserviamo che il criterio fornisce delle condizioni sufficienti di NON convessitá. In parti-
colare, data una matrice A quadrata e simmetrica, se risulta aii < 0 per qualche i = 1, . . . , n
allora la matrice NON è semidefinita posiitva (né dunque definita positiva). Analogamente se
risulta
detDik ,jk < 0
per un qualunque minore principale allora la matrice NON è semidefinita posiitva.
Per analizzare se una matrice A è definita/semidefinita negativa si possono applicare i criteri
precedenti alla matrice −A associata alla forma quadratica.
Un altro test per verificare il segno di una forma quadratica consiste nel determinare gli
autovalori della matrice A, cioe’ i valori αi , i = 1, . . . , n che risolvono l’equazione di grado n:
det(A − αI) = 0,
4x21 + 8x22 − x1
74
Figura 5.7: Grafico della funzione quadratica convessa Dell’Esempio 5.4.5.
75
Capitolo 6
6.1 Introduzione
Con riferimento al problema di ottimizzazione minx∈Rn f (x), iniziamo in questo capitolo lo stu-
dio delle condizioni di ottimalità. Nei successivi capitoli affronteremo lo studio delle condizioni
di ottimalità in relazione alle classi di problemi vincolati di nostro interesse.
In termini molto generali, una condizione di ottimalità è una condizione (necessaria, sufficiente,
necessaria e sufficiente) perché un punto x∗ risulti una soluzione ottima (locale o globale)
del problema. Ovviamente, una condizione di ottimalità sarà significativa se la verifica della
condizione risulta più “semplice” o più “vantaggiosa” (da qualche punto di vista) rispetto
all’applicazione diretta della definizione. Le condizioni di ottimalità si esprimono infatti, tipi-
camente, attraverso sistemi di equazioni, sistemi di disequazioni, condizioni sugli autovalori di
matrici opportune.
Lo studio delle condizioni di ottimalità ha sia motivazioni di natura teorica, sia motivazioni
di natura algoritmica. Dal punto di vista teorico, una condizione di ottimalità può servire a
caratterizzare analiticamente le soluzioni di un problema di ottimo e quindi consentire di svol-
gere analisi qualitative, anche in assenza di soluzioni numeriche esplicite; un esempio è l’analisi
della sensibilità delle soluzioni di un problema di ottimo rispetto a variazioni parametriche.
Dal punto di vista algoritmico, una condizione necessaria può servire a restringere l’insieme in
cui ricercare le soluzioni del problema originario e a costruire algoritmi finalizzati al soddis-
facimento di tale condizione; una condizione sufficiente può servire a dimostrare che un punto
ottenuto per via numerica sia una soluzione ottima del problema e quindi a definire criteri di
arresto del procedimento risolutivo.
76
Definizione 6.2.1 (Direzione di discesa) Sia f : Rn → R e x ∈ Rn . Si dice che un vettore
d ∈ Rn , d 6= 0 è una direzione di discesa per f in x se esiste t̃ > 0 tale che
Se f è una funzione lineare, ossia se f (x) ≡ cT x allora d è una direzione di discesa (in un
qualsiasi punto x ∈ IRn ) se e solo se cT d < 0.
Dimostrazione. È noto (vedi Appendice A) che per una qualunque funzione continuamente
differenziabile possiamo scrivere
f (x + td) = f (x) + t∇f (x)T d + α(x, t) (6.1)
α(x, t)
dove α(x, t) soddisfa lim = 0. Per valori sufficientemente piccoli di t possiamo dunque
t→0 t
scrivere
f (x + td) − f (x) ' t∇f (x)T d;
se ∇f (x)T d < 0 risulta allora f (x + td) − f (x) < 0 che quindi dimostra che d è una direzione
di discesa.
Ricordando che ∇f (x)T d = k∇f (x)kkdk cos θ dove θ è l’angolo compreso tra ∇f (x) e d, dal
punto di vista geometrico la condizione ∇f (x)T d < 0 esprime il fatto che se una direzione d
forma un angolo ottuso con il gradiente di f in x, allora d è una direzione di discesa per f in x.
Sia f continuamente differenziabile e sia d ∈ Rn un vettore non nullo. Se l’angolo θ tra ∇f (x)
e d soddisfa
θ > 90o
allora d è di discesa per f in x.
77
Tra le direzioni di discesa, un ruolo particolarmente importante è svolto dalla direzione dell’antigradiente
d = −∇f (x). Se ∇f (x) 6= 0, la direzione dell’antigradiente d = −∇f (x) è sempre una direzione
di discesa, infatti risulta
La definizione è illustrata nella figura 6.1, con riferimento agli insiemi di livello di una funzione
in R2 . La direzione dell’antigradiente è utilizzata per la definizione di un semplice algoritmo
∆
f( x*)
> 90o
f(x)=f( x*)
x*
f(x)<f( x*)
x*+t d
direzione di discesa x*
d
78
Osserviamo che nel caso di funzione lineare f = cT x, risulta ∇f (x) = c, quindi la condizione
espressa dal Teorema 6.2.2 coincide con la caratterizzazione ottenuta in base della definizione
di direzione di discesa. Nel caso lineare, la relazione (6.1) vale con α(x, t) ≡ 0 e dunque la
condizione del Teorema 6.2.2 caratterizza tutte e sole le direzioni di discesa. Si tratta cioè di
una condizione necessaria e sufficiente, mentre nel caso generale è solo una condizione sufficiente.
Nel caso di funzione lineare vale quindi la seguente caratterizzazione:
Nel caso generale, la condizione di discesa enunciata è solo sufficiente, in quanto possono esistere
direzioni di discesa tali che ∇f (x)T d = 0. Illustriamo le varie possibilità nel seguente esempio.
sia dato il punto x̄ = (−1, 0)T e la direzione d = (−1, 0)T . Il gradiente della funzione vale
µ ¶
3x21 − 3
∇f (x) = .
2x2
Si verifica facilmente che il gradiente della funzione si annulla nel punto x̄, quindi la condizione
sufficiente espressa dal teorema 6.2.2 non è soddisfatta in quanto ∇f (x̄)T d = 0. La direzione d
è però di discesa in x̄. Infatti risulta x̄ + td = (−1 − t, 0)T e la funzione vale:
Mostriamo che esiste un valore di t̄ tale che −t3 − 3t2 + 2 < 2 = f (x̄) per ogni 0 < t ≤ t̄. La
condizione che si ottiene è −t3 − 3t2 < 0 che risulta verificata per qualunque valore di t > 0,
quindi effettivamente la direzione è di discesa nel punto.
si consideri ora il punto x̃ = (1, 0)T e la stessa direzione d = (−1, 0)T . Si verifica facilmente
che il gradiente della funzione si annulla nel punto x̃, e quindi la condizione sufficiente espressa
dal teorema 6.2.2 anche in questo caso non è soddisfatta in quanto ∇f (x̃)T d = 0. In questo
caso però la direzione d non è di discesa, risulta infatti x̃ + td = (1 − t, 0)T e la funzione vale:
Dobbiamo quindi verificare se esiste un t̄ > 0 tale che per ogni t ∈ (0, t̄] risulta −t3 + 3t2 =
t2 (−t+3) < 0. Si verifica facilmente che la condizione è verificata solo per valori di t abbastanza
grandi (t > 3) e quindi d non è di discesa. Si tratta invece di una direzione di salita, infatti
scegliendo t̄ < 3, si ottiene che f (x̃ + td) > f (x̃) per ogni t ∈ (0, t̄].
Consideriamo ora il punto x̂ = (0, 0)T in cui il gradiente di f vale ∇f (x̂) = (−3, 0)T . Risulta
che la direzione d = (−1, 0)T è di salita in x̂, mentre la direzione opposta −d = (1, 0)T è di
discesa.
79
Dall’esempio e dalle considerazioni precedenti risulta evidente che dato in un punto x ed
una direzione d, sono possibili solo questi casi:
La condizione del teorema 6.2.2 diventa anche necessaria nel caso di convessità della funzione
obiettivo.
∇f (x)T d < 0.
Dimostrazione. Sia f convessa, dobbiamo solo dimostrare che la condizione ∇f (x)T d < 0 è
necessaria (la sufficienza è data dal teorema 6.2.2). Sia x ∈ IRn e sia d una direzione di discesa
per f in x. Possiamo scrivere per la convessità della funzione
Se per assurdo fosse ∇f (x)T d ≥ 0 allora per α > 0 sufficientemente piccolo, si avrebbe f (x +
αd) ≥ f (x) contraddicendo l’ipotesi che d sia di discesa.
Se f è differenziabile due volte è possibile caratterizzare l’andamento di f lungo una di-
rezione assegnata tenendo conto anche delle derivate seconde e di ciò si può tener conto, come
si vedrà in seguito, per stabilire condizioni di ottimo del secondo ordine.
Introduciamo la definizione seguente.
dT ∇2 f (x)d < 0.
Una direzione a curvatura negativa è quindi tale che la derivata direzionale seconda è negativa
in x, per cui diminuisce localmente la derivata direzionale del primo ordine. In particolare vale
il risultato seguente.
80
Teorema 6.2.6 (Condizione di discesa del secondo ordine)
Sia f : Rn → R due volte continuamente differenziabile nell’intorno di un punto x ∈ Rn e sia
d ∈ Rn un vettore non nullo. Supponiamo che risulti
∇f (x)T d = 0,
dT ∇2 f (x)d < 0.
nel punto x̄ = (−1, 0)T . La direzione d = (−1, 0)T è tale che ∇f (x̄)T d = 0, quindi la condizione
sufficiente espressa dal teorema 6.2.2 non è soddisfatta. Verifichiamo la condizione del Teorema
6.2.6. La matrice hessiana è
µ ¶ µ ¶
6x1 0 x̄ −6 0
∇2 f (x) = = .
0 2 0 2
min f (x), (P − N V )
x∈IRn
81
con f : IRn → IR non lineare e continuamente differenziabile. Osserviamo preventivamente che
in questo caso non si può applicare in modo diretto il teorema di Weierstrass per l’esistenza di
un minimo. Condizioni di esistenza possono essere comunque ottenute con riferimento ad un
insieme ammissibile “fittizio”. In particolare, dato un qualunque punto x̂ in cui la funzione vale
f (x̂), e si considera l’insieme non vuoto (contiene almeno x̂)
min f (x)
(P − N V L)
x ∈ L(x̂)
Deriviamo ora le condizioni di ottimo per (P-NV). Una conseguenza immediata della Definizione
6.2.1 di direzione di discesa è la condizione necessaria di minimo locale enunciata nel teorema
successivo.
La condizione necessaria può consentire di selezionare tra tutti i punti ammissibili i poten-
ziali candidati ad essere punti di minimo locale. Per ricavare delle condizioni di ottimalità
dalla condizione enunciata nel Teorema 6.3.1 occorre utilizzare una caratterizzazione analitica
delle direzioni di discesa. In effetti la verifica della condizione espressa dal Teorema 6.3.1 è
essenzialmente equivalente all’applicazione della definizione di minimo locale.
Si può però specificare ulteriormente la condizione necessaria utilizzando la caratterizzazione
di direzione di discesa. Si ottiene allora la seguente condizione necessaria.
Se x∗ è un punto di minimo locale del del problema (P) non può esistere una direzione d ∈ Rn
in x∗ tale che ∇f (x∗ )T d < 0.
Tale condizione può essere equivalentemente enunciata come segue.
82
Ricordando che ∇f (x∗ )T d = k∇f (x∗ )kkdk cos θ dove θ è l’angolo compreso tra ∇f (x∗ ) e d, dal
punto di vista geometrico la condizione ∇f (x∗ )T d ≥ 0 richiede che 0o ≤ θ ≤ 90o per ogni d.
Se x∗ è un punto di minimo locale del del problema (P), allora per ogni d l’angolo θ formato
con ∇f (x∗ ) è
0o ≤ θ ≤ 90o .
I possibili candidati ad essere punti di minimo locale del problema (P-NV) si determinano
determinando le soluzioni di ∇f (x) = 0.
83
1
0.8
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
−1
Senza ulteriori ipotesi sulla funzione obiettivo, la condizione è solo necessaria. Ricordando che
se ∇f (x∗ ) 6= 0 la direzione d = ∇f (x∗ ) è di salita nel punto x∗ , si ottiene che la condizione
∇f (x∗ ) = 0 è anche necessaria di massimo locale. In generale si hanno questi possibili casi.
Sia f : Rn → R continuamente differenziabile su Rn e sia x? ∈ Rn tale che ∇f (x? ) = 0 allora
è vera una delle seguenti affermazioni:
1. x? è un minimo locale (non esistono in x? direzioni di discesa);
2. x? è un massimo locale (non esistono in x? direzioni di salita);
3. x? è un punto di sella (esistono in x? sia direzioni di discesa che di salita).
Dai teoremi 6.3.3 e 6.3.6 si ottiene quindi una condizione necessaria e sufficiente di minimo
globale non vincolato.
84
f(x)
salita
discesa
x*
x2
x1
Possiamo dare delle condizioni che utilizzano la caratterizzazione del secondo ordine di
direzione di discesa espressa al Teorema 6.2.6. In particolare quindi abbiamo:
Se si considera la matrice Hessiana si ottiene una condizione necessaria del secondo ordine.
85
Dimostrazione. La (a) segue dalla caratterizzazione di direzioni di discesa del secondo ordine
data dal Teorema 6.2.6.
Se tuttavia ∇2 f (x? ) è definita positiva, si può stabilire un risultato più forte, che riportiamo
nel teorema successivo.
Dimostrazione. Utilizzando il Teorema di Taylor, e tenendo conto del fatto che ∇f (x? ) = 0,
possiamo scrivere:
1
f (x? + αd) = f (x? ) + α2 d0 ∇2 f (x? )d + o(α2 ),
2
e quindi si ottiene:
f (x? + αd) − f (x? ) 1 o(α2 )
2
= d0 ∇2 f (x? )d +
α 2 α2
Quindi per valori di α piccoli, l’ultimo termine è trascurabile (o(α2 )/α2 → 0 per α → 0), per
cui f (x? + αd) − f (x? ) > 0 per ogni d, il che prova l’enunciato.
Dai risultati precedenti si possono dedurre facilmente condizioni necessarie e condizioni suffici-
enti di massimo locale (basta infatti imporre condizioni di minimo su −f ).
In particolare, la condizione che x? sia un punto stazionario, ossia tale che ∇f (x? ) = 0 è
condizione necessaria sia perché x? sia un punto di minimo, sia perchè x? sia un punto di
massimo.
Una condizione necessaria del secondo ordine per un massimo locale è che ∇f (x? ) = 0 e ∇2 f (x? )
sia semidefinita negativa. Una condizione sufficiente di massimo locale è che ∇f (x? ) = 0 e
∇2 f (x) sia semidefinita negativa in un intorno di x? . Condizione sufficiente perchè x? sia un
punto di massimo locale stretto è che ∇f (x? ) = 0 e ∇2 f (x? ) sia definita negativa.
Se risulta ∇f (x? ) = 0 e la matrice Hessiana ∇2 f (x? ) è indefinita (ossia, esistono vettori d per
cui d0 ∇2 f (x? )d > 0 e altri per cui d0 ∇2 f (x? )d < 0) allora si può escludere che x? sia un punto
di minimo o di massimo locale e x? viene usualmente denominato punto di sella.
Un punto di sella è un punto stazionario in corrispondenza al quale esistono sia direzioni di
discesa (quando d0 ∇2 f (x? )d < 0) sia direzioni di salita (quando d0 ∇2 f (x? )d > 0).
o Se ∇f (x? ) = 0 e ∇2 f (x? ) è semidefinita (negativa o positiva) non si può determinare la
natura di x? in assenza di altre informazioni. Tuttavia se ∇2 f (x? ) non è semidefinita positiva
(negativa) si può escludere che x∗ sia un punto di minimo (massimo).
86
Una classe di particolare interesse di funzioni non lineari è quella delle funzioni quadratiche,
ovvero del tipo
1
f (x) = xT Qx + cT x
2
n
con Q matrice simmetrica n×n e c ∈ IR . Poiché la matrice hessiana di una funzione quadratica
è costante è facile verificare la convessità della funzione (vedi paragrafo 5.2 del Capitolo 5). Nel
caso quadratico è anche possibile formalizzare i risultati di esistenza di un minimo globale.
Vale in particolare la seguente caratterizzazione.
87
1
0.5
−0.5
−1
1
0.5 1.5
0 1
−0.5 0.5
−1 0
µ ¶T
1
Se α > 0 e β > 0, allora esiste un unica soluzione al sistema ∇q = 0 ed è , 0 . Inoltre la
α
2
matrice ∇ q è definita positiva; si tratta quindi dell’unico punto di minimo globale.
Se α = 0 e β è qualsiasi, non esiste soluzione al sistema ∇q = 0. Notare che se β ≥ 0 la matrice
è semidefinita positiva, ma questo non assicura l’esistenza del minimo globale.
µ ¶T
1
Se α > 0 e β = 0, esistono infinite soluzioni al sistema ∇q = 0 ed è ,ξ con ξ qualsiasi.
α
Inoltre la matrice ∇2 q è semidefinita positiva; si tratta quindi di infiniti punti di minimo globale.
1
Se α < 0 e β > 0 si ha un’unica soluzione ( , 0). Ma la matrice hessiana è indefinita; si tratta
α
quindi di un punto di sella.
µ ¶T
1
Nel caso di α < 0 e β < 0 , allora esiste un unica soluzione al sistema ∇q = 0 ed è ,0 .
α
Inoltre la matrice ∇2 q è definita negativa; si tratta quindi dell’unico punto di massimo globale.
2
88
1
−1
−2
−3
1
0.5 1.5
0 1
−0.5 0.5
−1 0
89
0
−0.2
−0.4
−0.6
−0.8
−1
1
0.5 1.5
0 1
−0.5 0.5
−1 0
Gli algoritmi che ci proponiamo di studiare possono essere descritti per mezzo dello schema
concettuale seguente:
1. Scelta del punto iniziale. Il punto iniziale dell’algoritmo è un dato del problema e
deve essere fornito in relazione alla particolare funzione che si intende minimizzare. Il
punto x0 dovrebbe essere scelto come la migliore stima disponibile della soluzione ottima,
eventualmente facendo riferimento a un modello semplificato della funzione obiettivo.
Nella maggior parte dei casi, tuttavia, non esistono criteri generali per effettuare una
buona scelta di x0 .
90
4
−1
−2
2
1 0.5
0
0 −0.5
−1 −1
−1.5
−2 −2
Nella soluzione di problemi applicativi (non convessi) può essere conveniente ripetere la
ricerca a partire da punti iniziali differenti, ad esempio generati casualmente, e scegliere
poi il punto stazionario migliore tra quelli cosı̀ determinati.
in cui ε > 0 è un valore sufficientemente piccolo (valori standard richiedono ε ∈ [10−8 , 10−3 ]).
Per quanto riguarda la p scelta
Pn della norma, tra le più utilizzate ci sono k · k2 e k · k∞ .
Ricordiamo che kxk2 = x2 e kxk
i=1 i ∞ = max1≤i≤n {|xi |}.
3. Scelta della direzione. I criteri seguiti nella scelta della direzione di ricerca dk indi-
viduano il particolare metodo di ottimizzazione utilizzato.
Tra i metodi esistenti, il metodo del gradiente (o metodo della discesa più ripida) utilizza
come direzione dk = −∇f (xk );
91
1
−1
−2
−3
−4
2
1 0.5
0
0 −0.5
−1 −1
−1.5
−2 −2
4. Calcolo del passo. Il calcolo dello scalare αk > 0 costituisce la cosiddetta ricerca
unidimensionale o ricerca di linea e viene effettuato valutando la funzione obiettivo lungo
la direzione dk . Per la ricerca unidimensionale sono disponibili diversi algoritmi che
possono prevedere il calcolo del punto di minimo di f (xk + αdk ) rispetto a α (ricerca
di linea esatta) oppure l’individuazione di un intervallo di valori accettabili per αk ai
fini dell’ottenimento della convergenza (ricerca di linea inesatta). In questo corso non
entreremo nel dettagli delle Ricerche di Linea.
x ≥ 0.
Si osservi che il minimo non vincolato x∗ , ovvero il punto che annulla il gradiente della funzione
ai − ci
obiettivo 2M x∗ − (a − c) = 0, ha componenti x∗i = . Dunque se ai − ci ≥ 0 pe ogni i, il
2mi
∗
punto x ha tutte le componenti non negative ed é ottimo (unico) anche del problema vincolato.
Vediamo un esempio numerico. Un monopolista che produce un unico bene ha due tipi di clienti
A e B. Si indicano con xA e xB le quantità di bene offerte dal monopolista ai due clienti. I
92
clienti di tipo A sono disposti a pagare il prezzo fA (xA ) = 50 − 5xA e i clienti di tipo B sono
disposti a pagare il prezzo fB (xB ) = 100 − 10xB . Il costo di produzione dipende solo dalla
quantità di prodotto finale x = xA + xB ed è C = 90 + 20x. Seguendo il modello precendente
si ottiene per il profitto l’espressione:
La mat rice hessiana è definita positiva, ed esiste un unico punto di che annulla il gradiente
x∗ = (3, 4)T che ha componenti positive, dunque é soluzione del problema vincolato originario.
93
Capitolo 7
Ottimizzazione vincolata
7.1 Introduzione
Con riferimento al problema di ottimizzazione
min f (x)
x∈S
con S ⊂ Rn , illustriamo nel seguito alcune condizioni di ottimalità in relazione alle classi di
problemi di nostro interesse. In particolare ci riferiremo a problemi i cui S è un generico insieme
convesso, a problemi di programmazione matematica con insieme ammissibile poliedrale.
Al fine di individuare le condizioni di ottimo, introduciamo il concetto di direzione ammis-
sibile che insieme al concetto di direzione di discesa introdotto nel Capitolo 6 consentirà di
caratterizzare i punti di minimo locale.
S = {x ∈ R2 : x1 + x2 ≤ 3, x1 ≥ 1, x2 ≥ 0}
94
x2
(1,1)
x1
95
3. x2 = 1 > 0 per ogni t.
Quindi NON esiste un tmax > 0 per cui il punto y appartiene ad S. La direzione non è dunque
ammissibile.
min f (x)
(P )
x∈S
Una conseguenza immediata della Definizione 6.2.1 di direzione di discesa e della Definizione 7.2.1
di direzione ammissibile è la condizione necessaria di minimo locale enunciata nel teorema suc-
cessivo.
Dimostrazione. Sia x∗ un minimo locale. Per assurdo, se esistesse una direzione d al tempo
stesso ammissibile e di discesa in x∗ , allora in ogni intorno di x∗ sarebbe possibile trovare, per
t > 0 abbastanza piccolo, un punto x∗ + td ∈ S tale che f (x∗ + td) < f (x∗ ), il che contraddice
l’ipotesi che x∗ sia un punto di minimo locale.
La condizione necessaria può consentire di selezionare tra tutti i punti ammissibili i potenziali
candidati ad essere punti di minimo locale.
Il risultato espresso nel Teorema 7.3.1 può essere poco significativo qualora vi siano regioni (di
frontiera) dell’insieme ammissibile, tali che nei punti di queste regioni non esistano affatto di-
rezioni ammissibili. In tal caso, la condizione del Teorema 7.3.1 non è in grado di discriminare le
soluzioni ottime dagli altri punti ammissibili. Una situazione del genere si verifica, tipicamente,
quando siano presenti vincoli di eguaglianza non lineari.
Consideriamo, a titolo esemplificativo, un problema in due variabili.
min x2
x21 + x22 = 1
L’unico punto di minimo è il punto (0, − 1)T . Se consideriamo un qualsiasi punto (x1 , x2 ) ∈ S
l’insieme delle direzioni ammissibili è vuoto e quindi la condizione del Teorema 7.3.1 è sod-
disfatta in ogni punto di S e non dà alcuna informazione aggiuntiva per la selezione di punti
candidati ad essere ottimi. Tale situazione è illustrata nella figura 7.2.
2
96
x2
S (x1,x2)
x1
(0,-1)
Figura 7.2: Esempio 7.3.2 in cui in qualunque punto ammissibile non esiste direzione ammis-
sibile.
Per ricavare delle condizioni di ottimalità dalla condizione enunciata nel Teorema 7.3.1
occorre utilizzare una caratterizzazione analitica delle direzioni di discesa e delle direzioni am-
missibili. In effetti la verifica della condizione espressa dal Teorema 7.3.1 è essenzialmente
equivalente all’applicazione della definizione di minimo locale.
Si può però specificare ulteriormente la condizione necessaria utilizzando la caratterizzazione
di direzione di discesa del teorema 6.2.2.
Si ottiene allora la seguente condizione necessaria.
Se x∗ è un punto di minimo locale del problema (P) non può esistere una direzione ammissibile
d ∈ Rn in x∗ tale che ∇f (x∗ )T d < 0.
Tale condizione può essere equivalentemente enunciata come segue.
Ricordando che ∇f (x∗ )T d = k∇f (x∗ )kkdk cos θ dove θ è l’angolo compreso tra ∇f (x∗ ) e d, dal
punto di vista geometrico la condizione ∇f (x∗ )T d ≥ 0 richiede che 0o ≤ θ ≤ 90o per ogni d
ammissibile.
97
Se x∗ è un punto di minimo locale del del problema (P), allora per ogni d ammissibile l’angolo
θ formato con ∇f (x∗ ) è
0o ≤ θ ≤ 90o .
La condizione espressa dal Teorema 7.3.3 è solo necessaria di minimo locale. Illustriamo la
condizione con un esempio.
Si tratta della minimizzazione di una funzione quadratica concava su un poliedro (la regione
ammissibile e le curve di livello della funzione obiettivo sono rappresentate in Figura 7.3.)
Geometricamente si individuano i minimi globali sui vertici del cubo ammnissibile. Consideri-
x2
(1,1)
S
x1
e in x∗ vale ∇f (x∗ ) = (−2, − 2)T (freccia rossa in Figura 7.3). Si osservi che il gradiente della
funzione obiettivo NON si annulla in x∗ . Le direzioni ammissibili d nel punto x∗ sono in base
98
alla definizione le soluzioni del sistema definito da x∗ + td con t ≥ 0 (in Figura 7.3 sono i vettori
nella regione compresa tra le frecce blu), cioè:
x∗1 + td1 = 1 + td1 ≥ −1
x∗1 + td1 = 1 + td1 ≤1
x∗2 + td2 = 1 + td2 ≥ −1
x∗2 + td2 = 1 + td2 ≤1
ovvero le direzioni ammissibile sono quelle che soddisfano
2 + td1 ≥ 0
td1 ≤ 0
2 + td2 ≥ 0
td2 ≤ 0.
La seconda e quarta condizione impongono d1 , d2 ≤ 0, mentre la prima e terza impongono
solo delle condizioni sullo spostamento t e richiedono µ rispettivamente
¶ che 0 ≤ t ≤ 2/|d1 | e
d1
0 ≤ t ≤ 2/|d2 |. Dunque risulta ∇f (x∗ )T d = (−2 − 2) = −2(d1 + d2 ) ≥ 0 per ogni d
d2
ammissibile (ovvero tale che d1 , d2 ≤ 0). Quindi la condizione necessaria è soddisfatta.
Sia dato ora il punto x̄ = (0, 0)T interno alla regione ammissibile (nessun vincolo attivo).
Ogni vettore d ∈ IR2 è ammissibile in x̄. Inoltre risulta ∇f (x̄)T d = 0 per ogni d, in quanto
∇f (x̄) = 0, quindi è verificata la condizione necessaria. Ciononostante il punto x̄ non è un
minimo locale, anzi è un massimo. Infatti per ogni d ∈ IR2 risulta x̄ + td = (td1 , td2 )T e la
funzione vale f (x̄ + td) = −t2 (d21 + d22 ). Per ogni t 6= 0 e d 6≡ 0 risulta
f (x̄ + td) = −t2 (d21 + d22 ) < f (x̄) = 0,
ovvero qualunque d non identicamente nulla è di discesa in x̄. 2
Possiamo dare delle condizioni che utilizzano la caratterizzazione del secondo ordine di
direzione di discesa espressa al Teorema 6.2.6. In particolare quindi abbiamo:
A partire dalle condizioni espresse dai teoremi 7.3.3 e 7.4.3 è possibile ricavare condizioni
più specifiche in base alle caratterizzazioni delle direzioni ammissibili, e quindi in base alla
struttura e alle proprietà delle funzioni che definiscono i vincoli del problema.
Considereremo nel seguito solo i casi di nostro interesse.
99
Teorema 7.4.1 (Direzioni ammissibili insieme convesso) Sia S ⊆ IRn un insieme con-
vesso e sia x̄ un qualsiasi punto di S. Allora comunque si fissi x ∈ S tale che x 6= x̄, la direzione
d = x − x̄ è una direzione ammissibile per S in x̄.
Teorema 7.4.2 [Condizioni necessarie di minimo locale con insieme ammissibile convesso]
Sia x∗ ∈ S un punto di minimo locale del problema (P-CONV) e supponiamo che f sia contin-
uamente differenziabile su IRn . Allora si ha:
Teorema 7.4.3 [Condizioni necessarie e sufficienti di minimo globale nel caso convesso]
Sia S un sottoinsieme convesso di Rn e supponiamo che f sia una funzione convessa con-
tinuamente differenziabile su IRn . Allora x∗ ∈ S è un punto di minimo globale del problema
(P-CONV) se e solo se
Dimostrazione. La necessità segue dal Teorema 7.4.2. La sufficienza segue dal Teorema 5.4.1.
Infatti, se f è convessa e x∗ ∈ S deve essere, per ogni x ∈ S:
e quindi se vale la (7.2) si ha che f (x) ≥ f (x∗ ) per ogni x ∈ S, il che prova che x∗ è un punto
di minimo globale.
Teorema 7.4.4 (Condizioni necessarie del secondo ordine di minimo locale con in-
sieme ammissibile convesso)
100
Sia x∗ ∈ S un punto di minimo locale del problema (P-CONV). Se f è due volte continuamente
differenziabile su un insieme aperto contenente S, risulta
(x − x∗ )T ∇2 f (x∗ )(x − x∗ ) ≥ 0, per ogni x∈S tale che ∇f (x∗ )0 (x − x∗ ) = 0. (7.3)
Dimostrazione. In base al Teorema 7.3.1 sappiamo che non può esistere una direzione am-
missibile di discesa. Se f è due volte continuamente differenziabile ed esiste x ∈ S tale che la
direzione ammissibile d = x − x∗ soddisfi ∇f (x∗ )T d = 0. Applicando il teorema 6.2.6 si ottiene
allora la (7.3).
Consideriamo il seguente esempio in cui i vincoli sono solo limitazioni superiori ed inferiori sulle
variabili.
Esempio 7.4.5 Consideriamo l’esempio 7.3.4
min −x21 − x22
−1 ≤ x1 ≤ 1
−1 ≤ x2 ≤ 1
L’insieme ammissibile è convesso, quindi le condizioni necessarie richiedono che in un punto x∗
risulti ∇f (x∗ )T (x − x∗ ) ≥ 0 per ogni x ∈ S. In particolare in questo caso
µ ¶
−2x1
∇f =
−2x2
e deve risultare quindi
−2x̄1 (x1 − x̄1 ) − 2x̄2 (x2 − x̄2 ) ≥ 0 per ogni − 1 ≤ x1 ≤ 1 − 1 ≤ x2 ≤ 1.
Verifichiamo che le condizioni sono soddisfatte in x̄ = (1, 1)T . Deve risultare
−2(x1 − 1) − 2(x2 − 1) ≥ 0 per ogni − 1 ≤ x1 ≤ 1 − 1 ≤ x2 ≤ 1.
Il termine x1 − 1 ≤ 0 per punti x ∈ S e analogamente x2 − 1 ≤ 0 per x ∈ S, quindi la condizione
è effettivamente soddisfatta.
101
7.6 Direzioni ammissibili di un poliedro
Per caratterizzare le direzioni ammissibili di un poliedro è necessario introdurre ulteriori definizione.
A tal scopo analizziamo nuovamente l’esempio 7.2.2.
S = {x ∈ R2 : x1 + x2 ≤ 3, x1 ≥ 1, x − 2 ≥ 0}
x2 x2
(1,1) (1,1)
x1
x1
In Figura 7.4 sono rappresentati i due semispazi definiti singolarmente dai due vincoli
x1 + x2 ≤ 3 e x1 ≥ 1 che definiscono il poliedro S. Se valutiamo i vincoli in x̄ = (1, 1)T (in
rosso nella figura 7.4) abbiamo:
x̄1 + x̄2 < 3,
x̄1 = 1
x̄2 > 0
ovvero solo il vincolo x1 ≤ 1 è soddisfatto all’uguaglianza.
Dalla figura 7.4 è evidente che nel punto x̄ ogni direzione d ∈ IRn è ammissibile rispetto al
vincolo x1 + x2 ≤ 3 a patto di scegliere adeguatamente il valore dello spostamento t. Analoga-
mente rispetto al vincolo x2 ≥ 0 (non rappresentato in figura 7.4) che individua il primo e
secondo quadrante, nel punto x̄ ogni direzione è ammissibile. Se invece consideriamo il semis-
pazio individuato dal vincolo x1 ≥ 1 è evidente che non tutte le direzioni sono ammissibili. Ad
102
esempio la direzione d = (−1 0)T (considerata nell’esempio 7.2.2 e disegnata in rosso in figura
7.4) non consente di mantenere l’ammissibilità del vincolo per nessun valore di t > 0.
Dato un poliedro definito come S = {x ∈ IRn : Ax = b}, risulta I(x̄) = {1, . . . , m}.
Dato un poliedro in forma standard S = {x ∈ IRn : Ax = b, x ≥ 0}, i vincoli attivi sono quelli
di uguaglianza più gli eventuali componenti di x̄j = 0, ovvero risulta I(x̄) = {1, . . . , m} ∪ {j ∈
{1, . . . , n} : x̄j = 0}.
Inoltre per ogni direzione ammissibile d, il punto x̄ + td è ammissibile per ogni valore di t che
soddisfa la condizione
aTj x̄ − bj
0 < t ≤ tmax = min (7.5)
j ∈I(x̄):
/ aT
j
d<0 |aTj d|
103
Dimostrazione. Sia x̄ tale che aTi x̄ ≥ bi per ogni i = 1, . . . , m. Definiamo un punto x = x̄ + td
con t > 0.
Verifichiamo che le direzione ammissibili sono tutte e sole quelle per cui vale la (7.4). Si tratta
quindi di verificare le condizioni su d per cui risulta
Per ogni i ∈ I(x̄), vale aTi x̄ = bi da cui aTi x̄ + taTi d = bi + taTi d. Quindi si ottiene per i ∈ I(x̄):
Per ogni j ∈ / I(x̄), vale aTj x̄ > bi da cui aTj x̄ + taTj d > bj + taTj d. Abbiamo due possibili casi:
1.) aj d ≥ 0 oppure 2.) aTj d < 0.
T
Se aTj d ≥ 0, allora per ogni t > 0 risulta bj + taTj d ≥ bj e il punto è sempre ammissibile rispetto
al vincolo j−esimo. Se invece aTj d < 0, è necessario scegliere t abbastanza piccolo in modo
che aTj x̄ − t|aTj d| continui ad essere ≥ bj per t > 0. In ogni caso (1. o 2.) la direzione risulta
ammissibile.
Verifichiamo che il valore di tmax deve soddisfare la (7.5).
Sia quindi data d ammissibile. Dalle considerazioni precedenti si ha che per ogni i ∈ I(x̄), vale
aTi (x̄ + td) ≥ bi per ogni t > 0.
Consideriamo allora gli indici j ∈ / I(x̄). Abbiamo già visto che nel caso aTj d ≥ 0, possiamo
scrivere per ogni t > 0 aTj (x̄ + td) = aTj x̄ + taTj d ≥ aTj x̄ > bj per ogni t > 0.
Consideriamo allora il caso aTj d < 0 in cui sappiamo che t non può assumere tutti i valori
positivi. Dobbiamo trovare il valore di t che soddisfa la condizione di ammissibilità espressa da
aTj (x̄ + td) = aTj x̄ + taTj d = aTj x̄ − t|aTj d| ≥ bj . Risolvendo la condizione aTi x̄ − t|aTj d| ≥ bj si
ottiene che
aTj x̄ − bj
t≤ .
|aTi d|
/ I(x̄) e tale che aTj d < 0, si ottiene la limitazione data
Poiché questo deve valere per ogni j ∈
dalla (7.5).
Introduciamo la seguente notazione matriciale: indichiamo con AI(x̄) la matrice |I(x̄)| × n
costituita dalle righe di A con indice in I(x̄), ovvero, se A = (aTi )i=1,...,m , si ha
Sia x̄ ∈ S, le direzioni ammissibili in x̄ sono tutte e sole le soluzioni del sistema lineare
AI(x̄) d ≥ 0
104
Esempio 7.6.4 Sia dato il poliedro
2d1 − d2 ≥ 0
d1 ≥ 0
Il valore di tmax si ottiene considerando i vincoli non attivi e dipende ovviamente dalla partico-
lare direzione ammissibile considerata. Sia, ad esempio d¯ = (1, 2)T . Risulta aT1 d¯ = 3 − 4 < 0 e
aT4 d¯ = 1 > 0. Quindi il valore di tmax è individuato dal primo vincolo e si ha in particolare
In figura 7.5 è rappresentato il poliedro, il punto x̄, l’insieme delle direzioni ammissibili (insieme
compreso tra le due frecce blu tratteggiate), i punto ottenibili spostandosi da x̄ lungo le direzioni
ammissibili (regione compresa tra le due frecce blu a tratto intero) e il valore del passo tmax
relativo alla direzione ammissibile d¯ = (1, 2)T . Il punto x̄ + tmax d¯ = (6, 24)T è indicato in
rosso in figura 7.5. 2
Corollario 7.6.5 Dato il poliedro S = {x ∈ IRn : Ax ≥ b}. Sia x̄ un punto ammissibile e sia
I(x̄) = {i ∈ {1, . . . , m} : aTi x̄ = bi } l’insieme degli indici attivi in x̄ e supponiamo che esista
un vettore d non nullo tale che
con
aTj x̄ − bj aTj x̄ − bj
t+
max = min t−
max = min (7.6)
j ∈I(x̄):
/ aT
j
d<0 |aTj d| j ∈I(x̄):
/ aT
j
d>0 aTj d
Si intende che se l’insieme degli indici su cui viene calcolato il minimo è vuoto, il corrispondente
valore t+ −
max e/o tmax vale ∞.
105
x2
tmax
(0,12)
x1
Si osservi che in questo caso, t può assumere qualunque valore non nullo (anche negativo).
106
Dato un poliedro definito da un sistema di equazioni lineari del tipo Ax = b, e un punto
ammissibile x̄. Una direzione d è ammissibile se e solo se risulta
Ad = 0.
Ad = 0,
(7.7)
dj ≥ 0 per ogni j ∈ J(x̄).
Inoltre per ogni direzione ammissibile d, un punto x̄ + td è ammissibile per ogni valore di t che
soddisfa la condizione
x̄j
0 ≤ t ≤ tmax = min
j: x̄j 6=0: dj <0 |dj |
dove si intende che se l’insieme su cui si effettua il minimo {j : x̄j 6= 0 : dj < 0} è vuoto, il
valore tmax = ∞.
Questa condizione può essere formulata come non esistenza di soluzione di una sistema
lineare. Utilizzando la notazione matriciale introdotta precedentemente, possiamo scrivere la
condizione necessaria espressa dal teorema 7.7.1 come segue.
Se x∗ è un punto di minimo locale di (P-POL) allora non esiste una soluzione d ∈ Rn al sistema
di disequazioni lineari
AI(x∗ ) d ≥ 0,
(7.8)
∇f (x∗ )T d < 0.
107
Esempio 7.7.2 Consideriamo il problema
x2
x1
Il sistema delle direzione ammissibili è già stato definito nell’Esempio 7.6.4. Il gradiente della
funzione obiettivo µ ¶
2(x1 + 10)
∇f (x) =
2(x2 − 12)
che in x̄ vale ∇f (x̄) = (20, 0)T . Il sistema (7.8) diventa
2d1 − d2 ≥ 0
d1 ≥ 0 (7.9)
20d1 < 0
108
Ricordando che un poliedro è un insieme convesso e quindi vale la caratterizzazione delle di-
rezione ammissibili data nel teorema 7.4.1 è possibile applicare il Teorema 7.4.3 e ottenere il
seguente risultato.
Sia f una funzione convessa. Un punto x∗ ∈ S è minimo globale di (P-POL) se e solo se non
esiste una soluzione d ∈ Rn al sistema di disequazioni lineare
AI d ≥ 0,
(7.10)
∇f (x∗ )T d < 0.
Possiamo inoltre dare una condizione necessaria del secondo ordine utilizzando il teorema
7.3.3.
Teorema 7.7.5 (Condizioni necessarie del 2o ordine di minimo locale sul poliedro)
Sia x∗ un punto di minimo del Problema (P-POL). Allora risulta
109
x2
x x1
Possiamo infatti utilizzare la caratterizzazione delle direzioni ammissibili data nel paragrafo
7.6. Consideriamo allora il caso piú generale di problema
min f (x)
aTi x ≥ bi i = 1, . . . , m (7.11)
aTj x = bj j = 1, . . . , p
Se x∗ è minimo globale del problema (7.11) allora non esiste una soluzione d ∈ Rn al sistema
di disequazioni lineare
110
Se x∗ è minimo globale del problema (P-POL-ST) allora non esiste una soluzione d ∈ Rn al
sistema di disequazioni lineare
Ad = 0,
dJ(x∗ ) ≥ 0 (7.12)
∇f (x∗ )T d < 0.
con J(x∗ ) = {j ∈ {1, . . . , n} : x∗j = 0}.
Naturalmente anche in questo caso le condizioni diventano necessarie e sufficienti nel caso in
cui la funzione obiettivo sia convessa.
Sia dato il problema (PL). Un punto x∗ è minimo globale se e solo se non esiste una soluzione
d ∈ Rn al sistema di disequazioni lineare
AI(x∗ ) d ≥ 0,
(7.13)
cT d < 0.
Analogamente nel caso di problemi di Programmazione Lineare in forma standard del tipo
min cT x
Ax = b (P L − ST )
x ≥ 0,
possiamo affermare:
Ad = 0,
dJ(x∗ ) ≥ 0 (7.14)
T
c d < 0.
111
sistema di equazioni. Questa nuova formulazione costituisce la forma classica delle condizioni
di ottimo per problemi di programmazione matematica. Sarà descritta nel Capitolo 9.
Gli algoritmi per la soluzione del problema (7.15) consentono, in generale, soltanto la determi-
nazione di punti dell’insieme
Per i commenti generali rimandiamo al paragrafo 6.4. Qui ci limitiamo a commentare i seguenti
punti: Scelta della direzione e Criterio di arresto.
Assegnato un punto xk , possiamo considerare il problema vincolato
Osserviamo che la funzione obiettivo è lineare e poiché si è supposto che S sia compatto il
problema precedente ammette una soluzione xk∗ . La direzione dk = xk∗ − xk è una direzione
ammissibile in xk . Se all’ottimo risulta ∇f (xk )T (xk∗ − xk ) ≥ 0 allora il punto xk è ottimo per il
problema (7.15) (e dunque risulta soddisfata la verifica effettuata al Passo 2 sull’appartenenza
di xk all’insieme Ω). Viceversa se ∇f (xk )T (xk∗ − xk ) < 0 la direzione dk = xk∗ − xk risulta
essere anche di discesa. È dunque possibile determinare con opportuni metodi un passo αk > 0
112
lungo dk , tale che xk+1 ∈ S e f (xk+1 ) < f (xk ). L’algoritmo cosı̀definito è noto come Metodo
di Frank-Wolfe o Conditional gradient method.
Osserviamo che se l’insieme ammissibile S è un poliedro, ovvero è definito da vincoli lineari, il
sottoproblema (7.16) relativo al calcolo della direzione diviene un problema di programmazione
lineare.
113
Capitolo 8
Teoremi dell’alternativa
8.1 Introduzione
Nel capitolo 7, le condizioni di ottimo per problemi con vincoli lineari sono state formulate
come “NON esistenza” di soluzione di un sistema di equazioni e disequazioni lineari. Tali
condizioni possono essere riscritte come condizioni di esistenza di soluzioni di un diverso sistema
di equazioni e disequazioni lineare. A tale scopo si utilizzano i cosı̀detti teorema dell’alternativa.
I teoremi dell’alternativa consentono di ridurre il problema della non esistenza di soluzioni di
un sistema di equazioni e disequazioni lineari assegnato a quello dell’esistenza di soluzioni di
un altro sistema lineare.
Un risultato di alternativa relativo a due assegnati sistemi lineari (I) e (II), consiste nel
dimostrare che:
Bd ≥ 0 gT d < 0 (I)
BT u = g u≥0 (II)
ha soluzione u ∈ IRp .
114
Dimostrazione. [(II) ha soluzione −→ (I) non ha soluzione.] Sia ū soluzione del sistema
(I) e supponiamo per assurdo che esista una soluzione d¯ del sistema (II), ovvero che la coppia
ū, d¯ soddisfi:
B d¯ ≥ 0 g T d¯ < 0,
T
B ū = g ū ≥ 0.
Allora si può scrivere:
ū≥0 B T ū=g
B d¯ ≥ 0 =⇒ ūT B d¯ ≥ 0 =⇒ g T d¯ ≥ 0,
che contraddice l’ipotesi che d¯ soddisfi g T d¯ < 0.
[(I) non ha soluzione −→ (II) ha soluzione.] La dimostrazione di questa implicazione è
in due parti. Si dimostra preliminarmente che se (I) non ha soluzione allora esiste un vettore
u ∈ Rp tale ch B T u = g. Successivamente dimostreremo che u ≥ 0.
Se (I) non ha soluzione, allora in particolare non esiste una soluzione nemmeno al sistema di
equazioni lineari
Bd = 0 g T d = −1 [(I)eq].
Il sistema [(I)eq] si può scrivere in forma matriciale come segue:
µ ¶ µ ¶
B 0
d =
gT −1
e quindi se: µ ¶ µ ¶
B 0 B
rango = rango + 1. (8.1)
gT −1 gT
D’altra parte, l’ultima riga (g T − 1) è linearmente indipendente dalle righe di (B 0) e quindi:
µ ¶
B 0 ¡ ¢
rango = rango B 0 + 1 = rango(B) + 1. (8.2)
gT 1
Dalle (8.1) (8.2), tenendo conto del fatto che il rango di una matrice è eguale al rango della
trasposta, si ottiene
µ ¶
¡ ¢ B
rango B T g = rango = rango(B)
gT
e ciò implica che il sistema B T u = g ha soluzione, ovvero esiste una rappresentazione di g del
tipo:
X p
g= ui bi . (8.3)
i=1
115
Dimostriamo innanzitutto che la tesi è vera per p = 1 e quindi supponiamo che
6∃d∈R: g T d < 0, bT1 d ≥ 0.
Quindi per la (8.3) risulta g = ub1 con u ∈ R. Se c = 0, il risultato è ovvio in quanto si può
assumere u = 0. Se c 6= 0 deve anche essere b1 6= 0 e possiamo considerare il vettore d¯ = b1 6= 0.
Ne segue che bT1 d¯ = kb1 k2 > 0 e quindi, per ipotesi, deve risultare cT d¯ ≥ 0. Si ottiene quindi
g T d¯ = (ub1 )T (b1 ) = ukb1 k2 ≥ 0,
che implica u ≥ 0.
Supponiamo ora che il risultato sia vero per una matrice con p − 1 righe e dimostriamo che vale
per una matrice con p righe. Quindi supponiamo che:
non esista d ∈ Rn tale che Bd ≥ 0, g T d < 0 (8.4)
con B matrice p × n.
Sappiamo che esiste u ∈ Rp tale che vale la (8.3). Tra tutti i possibili u per cui vale la (8.3) de-
terminiamo un vettore ū con il massimo numero di componenti non negative e indichiamo con s
il numero di componenti non negative di ū. Riordiniamo le componenti di ū e conseguentemente
le colonne di B in modo che le componenti non negative siano le prime s, ovvero risulti
ū1 , . . . , ūs ≥ 0, ūs+1 , . . . , ūp < 0.
Allora possiamo scrivere
s
X p−1
X
g= ūi bi + ūi bi + ūp bp .
i=1 i=s+1
Si tratta di dimostrare che deve essere s = p. Per assurdo supponiamo che s < p.
Possiamo scrivere
m−1
X
g = ĝ + ūi bi , (8.5)
i=s+1
avendo posto
s
X
ĝ = ūi bi + ūp bp (8.6)
i=1
La dimostrazione procede in due passi principali. Si dimostra inizialmente che
Bd ≥ 0 Bd ≥ 0
[Affermazione 1] Se 6 ∃ d ∈ Rn : =⇒ 6 ∃ d ∈ Rn :
cT d < 0 ĝ T d < 0
Successivamente che
[Affermazione 2]
Bd ≥ 0 bTi d ≥ 0, i = 1, . . . , p − 1,
Se 6 ∃ d ∈ Rn : =⇒ 6 ∃ d ∈ Rn :
ĝ T d < 0 ĝ T d < 0.
116
Se [Affermazione 1] e [Affermazione 2] sono vere, come conseguenza dell’ipotesi 8.4, si ha che
Quindi c risulta essere la combinazione lineare dei vettori bi con s + 1 coefficienti non negativi
û1 , . . . , ûs , ûp = 0. Ma questo è assurdo perché per ipotesi avevamo supposto che s fosse il
massimo numero di coefficienti non negativi nella definizione di g.
Si tratta quindi di dimostrare che valgono le [Affermazione 1] e [Affermazione 2].
Dimostrazione [Affermazione 1]. Sia d tale che Bd ≥ 0, e quindi, per ipotesi g T d ≥ 0; moltipli-
cando scalarmente la (8.5) per d si ottiene
≥0
p−1
X |{z}
0 ≤ g T d = ĝ T d + ūi bTi d per ogni d : b0i d ≥ 0 i = 1, . . . , p.
i=s+1
p−1
X
Poiché ūs+1 , . . . , ūp−1 < 0, la ūi bTi d ≤ 0 e quindi deve essere necessariamente:
i=s+1
ĝ T d ≥ 0 per ogni d : Bd ≥ 0.
117
s
X
Se bTi d¯ ≥ 0 per i = 1, . . . , p − 1, allora ūi bTi d ≥ 0. D’altra parte ūp < 0 e quindi ĝ T d¯ < 0 se
i=1
e solo se risulta bTp d¯ > 0. Quindi d¯ è un vettore tale che
ma allora per ipotesi deve essere ĝ T d¯ ≥ 0 che contraddice ĝ T d¯ < 0. Quindi anche l’[Affermazione
2] è dimostrata.
118
Capitolo 9
Le condizioni di
Karush-Kuhn-Tucker
9.1 Introduzione
In questo capitolo deriveremo le condizioni necessarie di Karush-Kuhn-Tucker (KKT) per prob-
lemi vincolati in cui S è descritto da vincoli di disuguaglianza e/o di uguaglianza lineari. Si
tratta di formulare in modo alternativo le condizioni necessarie del paragrafo 7.5. A questo
scopo si devono utilizzare i teoremi dell’alternativa descritti nel Capitolo 8.
Se x∗ è un punto di minimo locale allora non esiste una soluzione d ∈ Rn al sistema di dise-
quazioni lineare
AI(x∗ ) d ≥ 0,
(9.1)
∇f (x∗ )T d < 0.
dove AI(x∗ ) è la matrice AI(x∗ ) = (aTi )i∈I(x∗ ) di dimensione |I(x∗ )|×n e I(x∗ ) = {i : aTi x∗ = bi }.
Identificando il sistema (9.1) con il sistema (I) del Lemma di Farkas, e utilizzando il Lemma di
Farkas, possiamo affermare quanto segue.
119
Non esiste una soluzione d ∈ Rn al sistema di disequazioni lineare (9.1) se e solo se esiste una
soluzione del sistema
ATI(x∗ ) u = ∇f (x∗ ),
(9.2)
u ≥ 0.
dove u è un vettore di dimensione |I(x∗ )|.
2d1 − d2 ≥ 0
d1 ≥ 0
20d1 < 0
A cui corrispondono
µ ¶
2 −1
AI(x∗ ) = ∇f (x∗ ) = (20, 0)T .
1 0
Il sistema (7.9) non ammette soluzione. Applicando il Lemma di Farkas deve esistere un vettore
u ∈ IR2 tale che u ≥ 0 e
µ ¶T µ ¶ µ ¶
2 −1 u1 20
=
1 0 u2 0
Il sistema si scrive
2u1 + u2 = 20
−u1 = 0
u1 ≥ 0, u2 ≥ 0
che ammette la soluzione u1 = 0, u2 = 20. 2
Dimostrazione. Sia x∗ un punto di minimo locale; poiché x∗ deve essere ammissibile vale
la (i). Inoltre non deve ammettere soluzione il sistema (9.1). Abbiamo già osservato che,
identificando il sistema (9.1) con il sistema (I) del Lemma di Farkas, possiamo affermare che
esiste una soluzione u del sistema (9.2).
120
Sia u∗i ≥ 0, i ∈ I(x∗ ) una soluzione del sistema precedente e definiamo un vettore λ∗ ∈ Rm
ponendo: ½ ∗
ui per i ∈ I(x∗ )
λ∗i = (9.3)
0 / I(x∗ ).
per i ∈
Risulta ovviamente λ∗ ≥ 0 ed è soddisfatta la (iii). Inoltre, la (iv) è una conseguenza immediata
della definizione (9.3) di λ∗ . Abbiamo infatti che
½ ∗
∗ T ∗ ui (bi − aTi x∗ ) = 0 per i ∈ I(x∗ )
λi (bi − ai x ) =
0(bi − aTi x∗ ) = 0 per i ∈/ I(x∗ ).
X
Infine, ricordando che la (9.2) può essere scritta ∇f (x∗ ) = u∗i ai possiamo scrivere
i∈I(x∗ )
X X
∇f (x∗ ) = u∗i ai + 0 · ai = AT λ∗ .
i∈I(x∗ ) i6∈I(x∗ )
Osserviamo che la (ii) esprime il fatto che in un punto di minimo locale il gradiente della
funzione è esprimibile come combinazione non negativa (conica) dei gradienti dei vincoli attivi
in x∗ : X
∇f (x∗ ) = λ∗i ai , λ∗i ≥ 0
i∈I(x∗ )
Le condizioni enunciate si possono esprimere in una forma equivalente facendo riferimento alla
funzione Lagrangiana.
121
rispetto a x, per cui la coppia (x∗ , λ∗ ) costituisce un punto stazionario della funzione La-
grangiana. Possiamo allora riscrivere le condizioni di KKT come segue
L(x∗ , λ∗ ) = f (x∗ ).
I punti candidati ad essere minimo di un problema del tipo (P-POL) possono essere deter-
minati risolvendo le condizioni di KKT. Introduciamo allora la seguente definizione.
Un punto x̄ è detto punto di KKT del problema (P-POL) se esiste λ̄ ∈ IRm tale che valgano le
condizioni:
(i) Ax̄ ≥ b,
(ii) ∇L(x̄, λ̄) = 0,
(iii) λ̄ ≥ 0,
(iv) λ̄T (b − Ax̄) = 0.
Determiniamo tutti punti di KKT. Mettiamo innanzitutto il problema nella forma (P-POL).
1
min −x22 − x1
2
−x1 + x2 ≥ −1
− 12 x1 − x2 ≥ −1
x1 ≥ 0
122
La funzione Lagrangiana per questo problema è:
1 1
L(x, λ) = −x22 − x1 + λ1 (−1 + x1 − x2 ) + λ2 (−1 + x1 + x2 ) − λ3 x1
2 2
Le condizioni di KKT sono:
(i) (ammissibilità)
−x1 + x2 ≥ −1
1
− x1 − x2 ≥ −1
2
x1 ≥ 0
(ii) (stazionarietà)
1 1
− + λ1 + λ2 − λ3 = 0
2 2
−2x2 − λ1 + λ2 = 0
(iv) (complementarità)
λ1 (−1 + x1 − x2 ) = 0
1
λ2 (−1 + x1 + x2 ) = 0
2
λ3 x1 = 0
123
4. (4/3, 1/3)T con moltiplicatori λ = (1/9 , 7/9, 0)T con valore della funz. obiettivo
f = −7/9;
5. (1, 1/2)T con moltiplicatori λ = (0 , 1, 0)T con valore della funz. obiettivo f = −3/4;
Poiché l’insieme ammissibile è compatto, esiste un punto di minimo globale e si trova tra i
punti di KKT determinati so pra. Si tratta di scegliere quello con valore della funzione obiettivo
minore: si tratta dei due punti (0, 1) e (0, − 1).
2
Ricordando che la condizione (9.1) diventa necessaria e sufficiente di ottimo globale nell’ipotesi
che f sia convessa, otteniamo che anche le condizioni di KKT sono necessarie e sufficienti di
ottimo globale nell’ipotesi che f sia convessa. Vale infatti il teorema seguente.
Teorema 9.2.4 (Condizioni necessarie e sufficienti di ottimo globale)
Sia f una funzione convessa con ∇f continuo in IRn . Un punto x∗ è minimo globale di (P-POL)
se e solo se esiste λ∗ ∈ IRm tale che valgano le condizioni:
(i) Ax∗ ≥ b,
(ii) ∇f (x∗ ) − AT λ∗ = 0,
(iii) λ∗ ≥ 0,
(iv) λ∗ T (b − Ax∗ ) = 0.
Se inoltre f è strettamente convessa e valgono le condizioni precedenti, allora il punto x∗ è
l’unico punto di minimo globale di f su S.
L(x, λ) = (x1 + 10)2 + (x2 − 12)2 + λ1 (−30 − 3x1 + 2x2 ) + λ2 (−12 − 2x1 + x2 ) − λ3 x1 − λ4 x2
124
Possiamo facilmente verificare che il punto ammissibile x = (0, 0)T non soddisfa le condizioni
di KKT. Infatti dalle condizioni di complementaritá si ottiene che λ2 = λ1 = 0. Sostituendo in
∇x L(x, λ) = 0 si ha
20 − λ3 = 0
−24 − λ4 = 0
da cui si ottiene il valore λ4 = −24 < 0 che non è accettabile.
Consideriamo invece il punto (0, 12)T . In questo caso dalle condizioni di complementaritá si
ottiene che λ4 = λ1 = 0. Sostituendo in ∇x L(x, λ) = 0 si ha
20 − 2λ2 − λ3 = 0
λ2 = 0
da cui si ottiene λ2 = 0 e λ3 = 20 > 0. Quindi il punto (0, 12)T soddisfa le condizioni di KKT.
2
Teorema 9.2.6 (Condizioni necessarie del 2o ordine di minimo locale sul poliedro)
Sia x∗ un punto di minimo del Problema (P-POL). Allora esiste un vettore λ∗ ∈ Rm tale che
risultino soddisfatte le condizioni di KKT ed inoltre risulta
min f (x)
Ax = b
min f (x)
Ax ≥ b
−Ax ≥ −b
L(x, µ1 , µ2 ) = f (x) + µT1 (b − Ax) + µT2 (−b + Ax) = f (x) + (µ1 − µ2 )T (b − Ax).
125
dove µ ∈ Rm può assumere qualunque valore (positivo, negativo, nullo) in quanto differenza di
due quantità non negative. Inoltre la condizione di complementarità è banalmente soddisfatta
in ogni punto ammissibile. Dunque possiamo affermare:
min f (x)
Ax = b
∇x L(x∗ , µ∗ ) = ∇f (x∗ ) − AT µ∗ = 0
Naturalmente le condizioni di KKT possono essere scritte per un qualunque problema di min-
imizzazione su un poliedro1 . Nel caso generale supponiamo di avere un problema definito da
vincoli di uguaglianza e disuguaglianza del tipo.
min f (x)
Dx = h (P − GEN)
Ax ≥ b
1
Nel caso in cui l’insieme ammissibile non sia un poliedro, è ancora possibile definire le condizioni
necessarie di KKT purché i vincoli soddisfino opportune ipotesi dette condizioni di qualificazione dei
vincoli. In questo corso non si trattano vincoli non lineari generici.
126
in cui D è una matrice p × n, A è una matrice q × n, h ∈ IRp , b ∈ IRq . Allora
Determiniamo tutti punti di KKT. Mettiamo innanzitutto il problema nella forma (P-GEN).
1
min −x22 − x1
2
x1 − x2 = 1
− 12 x1 − x2 ≥ −1
x1 ≥ 0
127
(i) (ammissibilità)
x1 − x2 = 1
1
− x1 − x2 ≥ −1
2
x1 ≥ 0
(ii) (stazionarietà)
1 1
− + µ + λ1 − λ2 = 0
2 2
−2x2 − µ + λ1 = 0
(iii) (non negatività)
λ1 , λ2 ≥ 0
(iv) (complementarità)
1
λ1 (−1 + x1 + x2 ) = 0
2
λ2 x1 = 0
Determiniamo i punti di KKT esaminando tutti i casi possibili. Dalla condizione λ2 x1 = 0
si ottiene che
(i)
x1 = 0 7−→
(iv) (ii)2
x2 = −1 7−→2 λ1 = 0, 7−→ µ = 2 7−→ λ2 = 3/2
(ii)3
0 = λ2 x1 =
λ1 = 0
(ii) (ii)2
7−→1 µ = 1/2, 7−→ x2 = −1/4, 7−→
1
x1 = 3/4
(i)
λ2 = 0 imponiamo
(iv)2 +(i) (ii)1 +(ii)2
λ1 > 0 7−→ x1 = 4/3, x2 = 1/3, 7−→ λ1 = 7
9 µ = 19 .
Quindi abbiamo trovato 3 punti di KKT
1. x1 = (0, − 1)T con moltiplicatori µ = 2 e λ = (0, 3/2)T con valore della funz. obiettivo
f = −1;
2. x2 = (3/4, − 1/4)T con moltiplicatori µ = 1/2 e λ = (0, 0)T con valore della funz.
obiettivo f = −7/16;
3. x3 = (4/3, 1/3)T con moltiplicatori µ = 1/9 e λ = (7/9, 0)T con valore della funz.
obiettivo f = −7/9;
Poiché l’insieme ammissibile è compatto, esiste un punto di minimo globale e si trova tra i
punti di KKT determinati sopra. Si tratta di scegliere quello con valore della funzione obiettivo
minore: si tratta del punto x1 = (0, − 1).
2
Possiamo inoltre scrivere le condizioni necessarie del secondo ordine. In particolare si ha:
Teorema 9.2.10 (Condizioni necessarie del 2o ordine) Sia x∗ un punto di minimo locale
del problema (P-GEN). Allora esistono vettori λ∗ ∈ IRp e µ∗ ∈ IRq tali che risultino soddisfatte
le condizioni di KKT e inoltre risulta
z T ∇2xx L(x∗ , λ∗ , µ∗ )z ≥ 0 per ogni z : Dz = 0, AI(x∗ ) z ≥ 0 e ∇f (x∗ )T z = 0
128
Consideriamo nuovamente l’esempio 9.2.9.
Esempio 9.2.11 Consideriamo i 3 punti di KKT precedentemente determinati e verifichiamo
se soddisfano le condizioni necessarie del secondo ordine. La funzione Lagrangiana per questo
problema è:
1 1
L(x, λ) = −x22 − x1 + µ(−1 + x1 − x2 ) + λ1 (−1 + x1 + x2 ) − λ2 x1
2 2
il cui hessiano è µ ¶
0 0
∇2xx L(x, λ, µ) = = ∇2 f (x).
0 −2
µ ¶
−1/2
Quindi per ogni z = (z1 , z2 )T risulta z T ∇2xx L(x∗ , λ∗ , µ∗ )z = −2z22 . Inoltre ∇f = .
−2x2
Consideriamo il punto x1 = (0, − 1)T . Dobbiamo determinare i vettori z che definiscono
le direzioni ammissibili. In x1 è attivo il vincolo di disuguaglianza x1 ≥ 0, quindi le direzioni
ammissibili sono i vettori z ∈ R2 che risolvono il sistema
z1 − z2 = 0
z1 ≥ 0,
ovvero tutti i vettori del tipo z = (t, t)T con t ≥ 0. Inoltre deve risultare
µ 1 ¶
1 T T −2 1
∇f (x ) z = (t, t) = − t + 2t = 0,
2 2
da cui si ottiene t = 0 e z = (0, 0)T . La condizione necessaria del secondo ordine quindi è
soddisfatta in quanto −2t2 ≡ 0.
Consideriamo il punto x2 = (3/4, −1/4)T . In x2 non è attivo nessun vincolo di disuguaglianza,
quindi le direzioni ammissibili sono i vettori z ∈ R2 che risolvono il sistema
z1 − z2 = 0
ovvero tutti i vettori del tipo z = (t, t)T . Inoltre deve risultare
µ 1 ¶
2 T T −2 1 1
∇f (x ) z = (t, t) 1 = − t + t = 0.
2 2 2
La condizione necessaria del secondo ordine quindi NON è soddisfatta in quanto −2t2 ≥ 0 non
è verificata qualunque sia t. Il punto x2 non può essere un minimo locale.
Consideriamo il punto x3 = (4/3, 1/3)T . In x3 è attivo il primo vincolo di disuguaglianza,
quindi le direzioni ammissibili sono i vettori z ∈ R2 che risolvono il sistema
z1 − z2 = 0
− 12 z1 − z2 ≥ 0
ovvero tutti i vettori del tipo z = (t, t)T con t ≤ 0. Inoltre deve risultare
µ 1 ¶
−2 1 2
∇f (x3 )T z = (t, t)T 2 = − t − t = 0,
−3 2 3
che è verificata per t = 0. Quindi l’unico vettore z = (0, 0)T e la condizione necessaria del
secondo ordine quindi è soddisfatta in quanto −2t2 ≡ 0 è verificata. 2
129
Capitolo 10
In questo capitolo i risultati dei capitoli precedenti saranno applicati a problemi di Program-
mazione Lineare (PL).
Abbiamo già visto che l’insieme ammissibile di un problema di programmazione lineare è un
poliedro e dunque un insieme convesso e che la PL è un problema sia concavo che convesso.
Dunque, se ammette soluzione, il minimo globale (non necessariamente unico) si trova sulla
frontiera dell’insieme ammissibile.
Ci proponiamo di studiare alcune proprietà dei poliedri che consentano di caratterizzare
le soluzioni ottime di un problema di programmazione Lineare. Successivamente si deriva la
teoria della dualità per la PL a partire dalle condizioni di KKT.
rango{AI(x̄) } = n
dove AI(x̄) la matrice |I(x̄)| × n costituita dalle righe di A con indice in I(x̄)
aTi d = 0 i ∈ I(x̄)
in I(x̄) equazioni e n incognite, ha rango inferiore a n e dunque ammette una soluzione non
nulla. Dal teorema 7.6.3, sappiamo che d è una particolare direzione ammissibile; notiamo
130
inoltre che, poiché anche −d è soluzione del sistema omogeneo, anche −d è una direzione
ammissibile. Allora possiamo considerare i due punti
y = x̄ + td
z = x̄ + t(−d)
e sappiamo che per valori di t sufficientemente piccoli sono entrambi ammissibili1 . Osserviamo
però che possiamo scrivere
1 1
x̄ = y + z
2 2
ovvero x̄ può essere ottenuto come combinazione convessa con coefficiente β = 12 di due punti
ammissibili e distinti. Ma questo contraddice che x̄ sia un vertice.
Dimostriamo la parte sufficiente, ovvero che se rango{ai i ∈ I(x̄)} = n allora x̄ è un vertice.
Osserviamo preliminarmente che la condizione rango({ai i ∈ I(x̄)}) = n implica che x̄ sia
l’unica soluzione del sistema
aTi x = bi per ogni i ∈ I(x̄).
Procediamo ora per assurdo e supponiamo che il punto x̄ non sia un vertice. Allora non può
essere l’unico punto ammissibile e in particolare esisteranno due punti ammissibili v e w distinti
da x̄ e tali che x̄ possa essere espresso come combinazione convessa di v e w ovvero
Osserviamo che deve essere necessariamente aTi v = bi e aTi w = bi per ogni i ∈ I(x̄). Se cosı̀ non
fosse, e aTi v > bi e/o aTi w > bi si avrebbe l’assurdo
131
Esempio 10.1.4 Sia dato il poliedro dell’Esempio 7.6.4
x2
x1
In v1 sono attivi i vincoli 2x1 − x2 ≥ −12, x1 ≥ 0, ovvero I(v1 ) = {2, 3}. Consideriamo le righe
della matrice A corrispondenti µ ¶
2 −1
1 0
che si verifica sono linearmente indipendenti.
132
In v2 sono attivi i vincoli 3x1 − 2x2 ≥ −30, x1 ≥ 0, ovvero I(v1 ) = {1, 3}. Consideriamo le
righe della matrice A corrispondenti µ ¶
3 −2
1 0
che si verifica sono linearmente indipendenti.
In v3 sono attivi i vincoli 2x1 −x2 ≥ −12, 3x1 −2x2 ≥ −30, ovvero I(v1 ) = {1, 2}. Consideriamo
le righe della matrice A corrispondenti
µ ¶
3 −2
2 −1
che si verifica sono linearmente indipendenti. 2
Si noti che il teorema 10.1.1 non esclude che in un vertice siano attivi più di n vincoli.
133
1. I = {1, 2, 3}; il sistema aTi x = bi con i ∈ I ha rango pari a 3 e l’unica soluzione è il punto
(1, 1, 0)T che però non risulta ammissibile, perché risulta (−4 − 1 − 2)(1, 1, 0)T < −4;
2. I = {1, 2, 4} il rango della matrice è 2 < n, quindi non può essere un vertice;
3. I = {2, 3, 4} il sistema ammette l’unica soluzione (3, 2 , −5) che è ammissibile e quindi è
un vertice;
4. I = {1, 3, 4} il sistema ammette l’unica soluzione (2, 2, −3) che è ammissibile e quindi è
un vertice.
Tuttavia bisogna porre attenzione al fatto che esistono poliedri che non contengono vertici. Un
esempio e’ dato nella figura 10.2 in cui il poliedro è la parte di piano contenuta tra due rette
parallele r1 e r2 .
r1
1111111111111111111111111111
0000000000000000000000000000
0000000000000000000000000000
1111111111111111111111111111
x2
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
r2
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111 x1
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
Figura 10.2: Poliedro senza vertici.
Vedremo nel prossimo paragrafo che il caso in cui il poliedro non ha vertici è l’unico caso
in cui il problema di PL corrispondente può avere soluzione ottima (ovviamente sulla frontiera)
senza che nessuna soluzione coincida con un vertice.
Risulta quindi interessante capire quando un poliedro può non ammettere vertice. A tal
scopo introduciamo la seguente definizione
Definizione 10.1.7 (Retta) Sia S un poliedro. Il poliedro contiene una retta se esiste un
punto x̄ ∈ S e una direzione d ∈ IRn tale che
La caratterizzazione dei casi in cui un poliedro non ammette vertici è riportata nel seguente
risultato, di cui omettiamo la prova.
134
Teorema 10.1.8 Un poliedro P non vuoto non ha vertici se e solo se contiene una retta.
È evidente che il poliedro nella Figura 10.2 contiene rette (in particolare contiene, per
esempio, r1 , r2 ) e quindi, non contiene vertici.
Osservazione 10.1.9 Nel caso le variabili del problema di PL siano vincolate ad essere tutte
non negative ovvero tra i vincoli compaiono x ≥ 0, questo implica che il poliedro ammissibile è
interamente contenuta nel primo ortante e quindi non può contenere rette. Quindi, in base al
teorema precedente, tutti i poliedri contenuti nel primo ortante o sono vuoti o hanno dei vertici.
Notiamo che questa è sicuramente la classe di poliedri che più frequentemente si incontra nelle
applicazioni.Possiamo dunque affermare:
Se un poliedro
S ⊆ {x ∈ IRn : x ≥ 0}
è non vuoto, ammette sempre almeno un vertice.
Dumque, risulta vero il seguente risultato.
S = {x ∈ IRn : Ax = b, x ≥ 0}.
S = {x ∈ IRn : Ax ≥ b, x ≥ 0}
(con A matrice m × n) può essere trasformato in forma standard con l’aggiunta di variabili di
surplus come segue
½µ ¶ ¾
x
S0 = ∈ IRn+m : Ax − s = b, x ≥ 0, s ≥ 0 .
s
Possiamo mettere in relazione i vertici di S con i vertici di S 0 . Vale infatti il seguente risultato.
135
n
Teorema
µ ¶ 10.1.12 x̄ è un vertice del poliedro
½µS =¶{x ∈ IR : Ax ≥ b, x ≥ 0} se e solo ¾ se
x̄ 0 x n+m
con s̄ = Ax̄ − b è un vertice di S = ∈ IR : Ax − s = b, x ≥ 0, s ≥ 0 .
s̄ s
µ ¶
x̄
Dimostrazione. Osserviamo preliminarmente che x̄ ∈ S se e solo se ∈ S 0 . Infatti
Ax̄ − b
per definizione Ax̄ − b = s̄ ≥ 0. µ ¶
x̄
Supponiamo che x̄ sia un vertice di S ma per assurdo non sia vertice di S 0 . Dunque
µ 1 ¶ µ 2 ¶ s̄
x 0 x
esistono altri due punti distinti ∈S e ∈ S 0 tali che
s1 s2
µ ¶ µ 1 ¶ µ 2 ¶
x̄ x x
= (1 − β) +β ∈ S 0 per qualche β ∈ (0, 1)
s̄ s1 s2
e
Ax1 − s1 = b, Ax2 − s2 = b, x1 ≥ 0, s1 ≥ 0, x2 ≥ 0, s2 ≥ 0.
Dunque x1 ∈µS e x¶2 ∈ S. Inoltre 1 2 1 1 2
µ 2x ¶6= x altrimenti s = Ax − b = Ax − b = s e dunque
2
1
x x
i due punti ∈ S0 e ∈ S 0 non sarebbero distinti. Ma allora risulta anche
s1 s2
x̄ = (1 − β)x1 + βx 2
µ che contraddice
¶ l’ipotesi che x̄ sia un vertice.
x̄
Supponiamo ora ∈ S 0 sia un vertice di S 0 , ma, per assurdo, x̄ NON sia vertice di
Ax̄ − b
S. Allora esistono due punti x1 , x2 ∈ S tali che
x̄ = (1 − β)x1 + βx2
per qualche β ∈ (0, 1).
µ 1 ¶ µ 2 ¶
x x
Siano s1 = Ax1 − b ≥ 0 e s2 = Ax2 − b ≥ 0, dunque ∈ S 0
e ∈ S 0 . Inoltre si ha
s1 s2
¡ ¢
(1 − β)s1 + βs2 = (1 − β)(Ax1 − b) + β(Ax2 − b) = A (1 − β)x1 + βx2 − b = Ax̄ − b = s̄
che contraddice l’ipotesi che (x̄, s̄)T sia un vertice di S 0 .
con S poliedro. È da notare che il caso di problemi con soli vincoli di uguaglianza del tipo
min cT x
Ax = b
con A matrice m × n é di scarsa rilevanza pratica in quanto è possibile dimostrare che se esiste
una soluzione ammissibile e il problema non è illimitato allora tutte le soluzioni ammissibili sono
ottime. Quindi il problema con soli vincoli di uguaglianza, si riduce essenzialmente allo studio
di sistemi di equazioni lineari.
In particolare vale il seguente risultato.
136
Teorema 10.2.1 Sia dato il problema di PL
min cT x
Ax = b
cioè tutte le soluzioni ammissibili hanno lo stesso valore della funzione obiettivo.
Se invece esiste una d ammissibile per cui cT d 6= 0, possiamo senza perdere di generalità supporre
che sia cT d < 0 (altrimenti sarebbe sufficiente considerare la direzione −d). La direzione d è di
discesa e possiamo scrivere
min cT x
(10.1)
Ax ≥ b
137
Nella dimostrazione del teorema fondamentale della PL, faremo riferimento a problemi di PL
in forma (10.1) ed useremo l’ipotesi (solo semplificativa della dimostrazione) che il poliedro non
contenga rette, che, in base al Teorema 10.1.8, ci assicura l’esistenza di almeno un vertice del
poliedro.
Teorema 10.2.3 (Teorema fondamentale della PL) Sia dato il problema di PL in forma
(10.1). Supponiamo che il poliedro S = {x ∈ Rn : Ax ≥ b} non contenga rette. Allora è vera
una e una sola delle delle seguenti tre affermazioni.
(a) Il problema non ammette soluzioni ammissibili (la regione ammissibile è vuota).
(b) Il problema è illimitato inferiormente sulla regione ammissibile.
(c) Esiste almeno una soluzione ottima e almeno una di esse è un vertice del poliedro.
Dimostrazione. Ovviamente le tre affermazioni dell’enunciato sono incompatibili, nel
senso che se è vera una, non possono essere vere le altre due. Quindi, per dimostrare il teorema,
basterà mostrare che non può succedere che non si verifichi nessuna delle tre. Mostreremo
questo facendo vedere che se non sono vere né (a) né (b), allora deve essere vera la (c).
Supponiamo quindi che la regione ammissibile sia non vuota e che il problema non sia
illimitato inferiormente. Si tratta quindi di dimostrare che esiste un vertice v ∗ tale che cT v ∗ ≤
cT x per ogni x ammissibile.
Se il poliedro contiene solo un punto v ∗ allora v ∗ è ovviamente la soluzione ottima ed è anche
un vertice. Supponiamo allora che il poliedro contenga più di un punto (e quindi infiniti).
La dimostrazione prosegue in due parti. Nella prima parte dimostriamo la seguente affer-
mazione
Per ogni punto x̃ ∈ S, esiste un vertice v k tale che cT v k ≤ cT x̃.
La seconda parte utilizza invece risultati già noti. In particolare, dal Teorema 10.1.3, sappiamo
che i vertici del poliedro sono in numero finito; li indichiamo con v 1 , . . . v p . Quindi tra tutti
i vertici v i possiamo scegliere quello per cui il valore della funzione obiettivo è minore, che
indichiamo con v ∗ . Risulta quindi cT v ∗ ≤ cT v i per ogni vertice v i e quindi in particolare
possiamo scrivere anche per il vertice v k determinato nel prima parte
cT v ∗ ≤ cT v k
Mettendo insieme le due affermazioni in rosso, possiamo finalmente scrivere
cT v ∗ ≤ cT v k ≤ cT x̃, per ogni x̃ ∈ S
il che prova che l’affermazione (c) è vera.
Dimostriamo la prima parte. Sia x̃ una soluzione ammissibile che non sia un vertice, dimostri-
amo che è possibile trovare un vertice v tale che cT v ≤ cT x̃. La dimostrazione è costruttiva.
Poiché x̃ non è un vertice, per il Teorema 10.1.1, il sistema
aTi d = 0, i ∈ I(x̃)
non ha rango massimo e quindi ammette una soluzione d¯ non nulla. Dunque, per il Corollario
7.6.5, ±d¯ sono direzioni ammissibili e i punti x̃+td¯ con t ∈ [0, t+ ¯ −
max ] e x̃−td con t ∈ [0, tmax ] sono
+ −
ammissibili. Si dimostra ora che min{tmax , tmax } < ∞, cioè che lo spostamento ammissibile
lungo almeno una delle due direzioni ±d¯ è finito.
A questo scopo, scegliamo la direzione d¯ tale cT d¯ ≤ 0 e dunque è possibile una delle due
condizioni:
138
(i) cT d¯ = 0;
(ii) cT d¯ < 0.
Se cT d¯ = 0 ovviamente anche cT (−d)¯ = 0. Poiché il poliedro non contiene rette deve risultare
+ −
che almeno uno tra tmax e tmax è < ∞. Senza perdita di generalità possiamo assumere che sia
t+
max < ∞.
Se invece cT d¯ < 0, la direzione d¯ risulta dunque essere una direzione di discesa (vedi para-
grafo 6.2) e per ogni t > 0 risulta
Poiché per ipotesi il problema non è illimitato, questo non si può verificare, dunque t 6→ ∞
e necessariamente t+ max < ∞.
In entrambi i casi otteniamo che x̃ + td¯ è ammissibile per 0 ≤ t ≤ t+
max < ∞.
Definiamo il punto
y = x̃ + t+ d;¯
max
cT y = cT x̃ − t+ T T
max |c d| ≤ c x̃.
Verifichiamo quali vincoli sono attivi in y. Ricordando che per i ∈ I(x̃) risulta aTi d¯ = 0,
otteniamo
aTi y = aTi (x̃ + t+ ¯ T
max d) = ai x̃ = bi i ∈ I(x̃)
Quindi I(x̃) ⊆ I(y). Facciamo ora vedere che I(x̃) ⊂ I(y), ovvero che in y è attivo almeno un
vincolo in più rispetto ad x̃. Consideriamo quindi i vincoli NON attivi in x̃ e si indichi con
jmax ∈
/ I(x̃) un indice per cui:
aTjmax x̃ − bjmax
t+
max = ¯
|aT d| jmax
(cioè un indice per cui è raggiunto il minimo nella formula (7.6)). Per definizione risulta che
/ I(x̃) e aTjmax d¯ < 0. Possiamo allora scrivere:
l’indice jmax ∈
ajTmax x̃ − bjmax T
aTjmax x = aTjmax x̃ + t+ T ¯ T + T T ¯ = bj
max ajmax d = ajmax x̃ − tmax |ajmax d| = ajmax x̃ − ¯ |ajmax d|
|aT d|
jmax
max
Quindi abbiamo che I(y) ⊇ I(x̃) ∪ {jmax }, cioè in y è attivo almeno un vincolo che non era
attivo in x̃. Osserviamo che potrebbe esistere più di un indice per cui è raggiunto il minimo
nella formula (7.6). In questo caso avrei attivi in y tanti vincoli in più rispetto a x̃ quanti sono
tali indici. Abbiamo quindi dimostrato che, a partire da un qualunque punto ammissibile x̃ che
non è un vertice, possiamo determinare un nuovo punto y con valore della funzione obiettivo
non superiore e con un numero di vincoli attivi linearmente indipendenti maggiore rispetto a
x̃. Se y non è un vertice, possiamo ripetere lo stesso procedimento fino a quando non troviamo
un punto in cui sono attivi n vincoli linearmente indipendenti, cioè un vertice. Quindi abbiamo
dimostrato l’affermazione che ci serviva:
139
Per ogni punto x ∈ S, esiste un vertice v tale che cT v ≤ cT x.
La dimostrazione è conclusa. 2
Illustriamo con un esempio la tecnica costruttiva utilizzata nella dimostrazione del teorema
precedente.
x2
v3
v2
d
v1 x x1
3 t+max
9
13
Il poliedro ha tre vertici che abbiamo già calcolato nell’Esempio 10.1.4, che indichiamo con
v 1 , v 2 , v 3 (puntini rossi in figura). Sia x = (3, 0) un punto ammissibile (puntino blu in figura).
Si verifica facilmente che x̃ non è un vertice. Infatti I(x̃) = {4} (è attivo solo il vincolo x2 ≥ 0)
e risulta ovviamente rango{ai i ∈ I(x̄)} = 1 < n = 2. Consideriamo allora il sistema omogeneo
aT4 d = 0 ovvero d2 = 0.
Quindi una qualunque direzione del tipo (d1 , 0)T con d1 6= 0 è ammissibile in x̃. Sia d¯ = (−1, 0)
una possibile soluzione (indicata in azzurro in Figura 10.3). Risulta cT d¯ = 4d1 = −4 < 0 e si
consideri il punto
x̃ + td¯ = (3, 0)T + t(−1, 0)T = (3 − t, 0)T .
140
Calcoliamo il valore di
½ ¾
9 + 30 6 + 12 3
t+
max = min , , = min{13, 9, 3} = 3.
3 2 1
Si osservi in Figura 10.3 che i valori 13,9,3 che compaiono dentro il min per il calcolo di t+max
corrispondono rispettivamente al valore del passo t per cui il punto x̃ + td¯ “sfonda” rispettiva-
mente il primo, il secondo e il terzo vincolo. Il valore di t+
max = 3 corrisponde al massimo valore
del passo t per cui il punto rimane ammissibile. Sia allora
y = x̃ + t+ ¯ T
max d = (0, 0)
min cT x
Ax = b (10.2)
x ≥ 0.
Nel caso di problemi di PL in forma standard, ricordando che in questo caso il poliedro
ammissibile non contiene rette, possiamo enunciare il teorema fondamentale come segue:
Teorema 10.2.5 (Teorema fondamentale della PL) Sia dato il problema di PL in forma
min cT x
Ax = b
x ≥ 0.
Allora è vera una e una sola delle delle seguenti tre affermazioni.
(a) Il problema non ammette soluzioni ammissibili (la regione ammissibile è vuota).
(b) Il problema è illimitato inferiormente sulla regione ammissibile.
(c) Esiste almeno una soluzione ottima e almeno una di esse è un vertice del poliedro.
141
sono molto rilevanti se si vuole realizzare un algoritmo efficiente e robusto ma possono essere
trascurate se si vuole semplicemnete sesere in grado di interpretare l’output di un qualunque
software che implementa tale metodo (vedi anche il capitolo 15).
Il Metodo del Simplesso si applica a problemi di Programmazione Lineare in forma standard
del tipo:
min cT x (10.3)
Ax = b
x ≥ 0n
con b ≥ 0m . Non vi è perdita di generalità nell’assumere che il problema sia in forma standard
e con termini noti non negativi.
L’obiettivo del metodo del simplesso è quello di individuare una soluzione di base ammissibile
ottima del problema (10.3) ovvero un vertice ottimo del poliedro
P = {x ∈ IRn : Ax = b, x ≥ 0n }.
L’idea di cercare la soluzione ottima in un vertice della regione ammissibile, invece, trova
giustificazione nei risultati dei capitoli precedenti e, in particolare, nel Teorema 10.2.3.
Il Metodo del Simplesso è caratterizzato dalle seguenti operazioni principali:
Descriveremo brevemente una implementazione del Metodo del Simplesso, detta implemen-
tazione in due fasi. In tale implementazione, la procedura che consente di verificare se il
problema di PL è ammissibile e, in caso affermativo, individua la prima base ammissibile viene
detta Fase I del Metodo del Simplesso. Se il problema non possiede una soluzione di base
ammissibile allora il poliedro P è vuoto ed il problema è inammissibile. In tal caso la Fase I
termina segnalando l’inammissibilità del problema.
La Fase II del Metodo del Simplesso è caratterizzata dalle operazioni (2), (3) e (4). In tale
fase, a partire da una SBA, l’algoritmo costruisce una sequenza di soluzioni di base ammissibili,
verificando, ad ogni iterazione, l’ottimalità della SBA corrente e l’illimitatezza del problema.
Sotto opportune condizioni, l’algoritmo converge in un numero finito di iterazioni alla soluzione
ottima del problema (10.3).
Alla base della struttura della Fase II, ci sono le operazioni di verifica dell’ottimalità di
una SBA, di verifica dell’illimitatezza del problema (10.3) e di costruzione di una nuova SBA.
Nel seguito descriveremo solo il criterio di ottimalitá usando nel simplesso perché costitusce un
informazione contenuta negli output dei software commerciali.
142
10.3.1 Soluzione di Base Ammissbile (SBA) e costi ridotti
Una sottomatrice B (m × m) di A si dice matrice di base di A se è non singolare. Data
una matrice di base B, è sempre possibile, eventualmente riordinando le colonne, esprimere
la matrice A nella forma A = (B, N ) dove N è la matrice definita dalle colonne fuori base.
Analogamente si possono partizionare i vettori
µ ¶ µ ¶
xB cB
x= , c=
xN cN
le variabili xB si dicono variabili di base e le variabili xN variabili fuori base. Quindi si può
riscrivere il problema in forma standard come segue:
min cTB xB + cTN xN
BxB + N xN = b
xB ≥ 0,
xN ≥ 0
Poiché B è non singolare per ipotesi, possiamo esprimere le variabili di base xB in funzione
delle variabili xN e si ottiene
xB = B −1 b − B −1 N xN (10.4)
e sostituendo si può scrivere:
min cTB B −1 b + (cTN − cTB B −1 N )xN
B −1 b − B −1 N xN ≥ 0m , (10.5)
xN ≥ 0
Questo problema nelle sole variabili xN è detto problema ridotto ed è ottenuto per proiezione
delle variabili xB nel sottospazio delle variabili xN .
Data una base B, una soluzione del tipo xB = B −1 b, xN = 0 si dice Soluzione Ammissibile di
Base (SBA) se e solo se B −1 b ≥ 0.
Le SBA ed i vertici di un poliedro in forma standard sono in stretta relazione. Vale infatti il
seguente teorema.
Teorema 10.3.1 [2] Dato un poliedro in forma standard, un punto x̄ è un vertice se e solo se
è una SBA.
Il problema (10.5), nelle sole variabili xN , è equivalente al problema (10.3). In particolare,
risulta ovvio verificare
µ quanto
¶ segue.
x̂B
Un vettore x̂ = è una soluzione ammissibile di (10.3) se e solo se il vettore x̂N è
x̂N
una soluzione ammissibile di (10.5) e x̂B = B −1 b − B −1 N x̂N . Inoltre, il valore della funzione
obiettivo del problema (10.3) calcolata in x̂ è uguale al valoreµ −1 della¶ funzione obiettivo del
B b
problema ridotto calcolata in x̂N . Di conseguenza, se x̄ = è la soluzione di base
0n−m
ammissibile associata alla matrice B, abbiamo che x̄N = 0n−m è la soluzione corrispondente
del problema ridotto e che cT B −1 b è il valore della funzione obiettivo per entrambi i problemi.
I coefficienti di xN nella funzione obiettivo del problema ridotto sono le componenti del
vettore γ definito da:
γ T = cTN − cTB B −1 N
143
che è detto vettore dei coefficienti ridotti.
Dimostrazione. Dobbiamo dimostrare che, se il vettore dei coefficienti ridotti è non negativo,
risulta
cT x ≥ cT x̄
per una qualunque soluzione ammissibile x. Calcoliamo cT x̄ = cTB x̄B + cTN x̄N = cTB x̄B =
cµTB B −1 b.
¶ Una qualunque soluzione ammissibile x del problema (10.3) può essere suddivisa in
xB
. Allora risulta che cT x = cTB xB + cTN xN e ricordando l’espressione (10.4) di xB
xN
cT x = cTB B −1 b + γ T xN
cT x ≥ cTB B −1 b = cT x̄.
Ma la precedente relazione mostra che la soluzione di base ammissibile x̄ associata alla matrice
di base B è ottima per il problema (10.3). 2
min x1 + 3x2 + x3
x1 + 5x2 + 2x3 = 6
2x1 + x2 − x4 = 2
x1 ≥ 0, x2 ≥ 0, x3 ≥ 0 x4 ≥ 0
144
4
6. x3 = x4 = 0, x1 = x2 = 10
9 9 (SBA).
6 µ ¶ µ ¶
0 x1 6
Consideriamo la SBA ; le variabili di base xB = = , le variabili fuori
0 x4 10
µ ¶ 10 µ ¶
x2 1 0
base xN = = 0; la matrice di base B = . I coefficienti di costo ridotto
x3 2 −1µ ¶
T T T −1 −1 1 0
γ = cN − cB B N richiede il calcolo dell’inversa B = . Dunque sostituendo si
2 −1
ottiene
µ ¶µ ¶
T 1 0 5 2
γ = (3 1) − (1 0) = ( −2 −1 ) 6≥ 0,
2 −1 1 0
dunque non è possibile concludere nulla sulla ottimlità della soluzione.
145
Capitolo 11
In questo capitolo utilizzeremo le condizioni di KKT del capitolo 9 per derivare le condizioni
necessarie e sufficienti di ottimo per la programmazione lineare.
min cT x
(P L)
Ax ≥ b
Teorema 11.1.1 (Condizioni di KKT per il problema (PL)) Un punto x∗ è minimo glob-
ale del problema di Programmazione Lineare (PL) se e solo se esiste λ∗ ∈ IRm tale che valgano
le condizioni:
(i) Ax∗ ≥ b,
(ii) c = AT λ∗ ,
(iii) λ∗ ≥ 0,
145
(iv) λ∗ T (b − Ax∗ ) = 0.
Osserviamo che la (i) é una condizione nelle sole variabili x, le (ii) e (iii) sono condizioni nei
soli moltiplicatori λ.
Possiamo fare qualche ulteriore considerazione. Le condizioni (ii) e (iii) esprimono il fatto
che λ∗ ∈ IRm deve essere ammissibile rispetto ai vincoli lineari
AT λ = c
(11.1)
λ≥0
Il sistema (11.1) rappresenta un poliedro in forma standard nello spazio IRm .
Consideriamo allora un x ∈ IRn soluzione ammissibile del problema (PL), e un λ ∈ IRm ap-
partenente al poliedro definito da (11.1), ovvero una coppia (x, λ) che soddisfa
Ax ≥ b, λ ≥ 0, AT λ = c. (11.2)
∑m
Osservando che λT (b − Ax) = i=1 λi (bi − aTi x) ≤ 0, possiamo facilmente scrivere
(λ≥0, b≤Ax)
cT x ≥ cT x + λT (b − Ax)
= bT λ + (cT − λT A)x
(AT λ=c)
= bT λ.
cT x ≥ bT λ.
Si tratta di un risultato molto significativo, che riprenderemo più avanti. Notiamo che, in parti-
colare, poiché il minimo globale x∗ del problema (PL) è ammissibile, otteniamo immediatamente
che vale
cT x⋆ ≥ bT λ (11.3)
per ogni λ che soddisfa (11.1). Possiamo quindi affermare che una qualunque soluzione λ ∈
IRm che soddisfa (11.1) consente di determinare una limitazione inferiore al valore ottimo del
problema (PL).
Per migliorare la limitazione inferiore espressa dalle disuguaglianza (11.3), si può rendere quanto
più possibile grande il termine di destra bT λ della disuguaglianza (11.3), cioè si può massimizzare
la quantità bT λ al variare del vettore λ ∈ IRm , tra tutti i vettori che soddisfano AT λ = c, λ ≥ 0.
Piú formalmente si può cercare la soluzione del problema
max bT λ
AT λ = c (11.4)
λ≥0
Si tratta di un problema di PL in forma standard (è sufficiente cambiare verso all’ottimizzazione
da max a min). La coppia di problemi di Programmazione Lineare (PL) e (PL-ST) viene detta
primale-duale.
146
(Problema primale e duale)
Il problema
min cT x
(11.5)
Ax ≥ b
e il problema
max bT λ
AT λ = c (11.6)
λ≥0
costituiscono una coppia primale-duale di Programmazione Lineare.
Vedremo nel seguito che, in maniera simmetrica, il problema (11.5) risulterà il problema duale
del problema (11.6). La coppia primale (P) - duale (D) costituita dai problemi (11.5) e (11.6)
è solo una possibile coppia primale-duale. La relazione tra i valori delle funzioni obiettivo
del problema primale e duale in un qualunque punto ammissibile primale-duale che abbiamo
ricavato in relazione alla coppia primale-duale (11.5) e (11.6) puó essere generalizzato ad una
qualunque coppia primale-duale (P)-(D) e costituisce un risultato noto come Teorema della
dualità debole.
Teorema 11.1.2 (Teorema della Dualità debole) Sia data una coppia primale (P) - duale
(D) di problemi di programmazione lineare. Per ogni soluzione ammissibile x̄ del problema di
PL primale (P) ed ogni soluzione ammissibile λ̄ del problema di PL duale (D) si ha
bT λ̄ ≤ cT x̄
cioè il valore della funzione obiettivo duale in λ̄ è minore o uguale del valore della fuzione
obiettivo primale in x̄.
Osserviamo ora che la condizione di complementaritá (iv) del Teorema 11.1.1 può essere
scritta in modo equivalente utilizzando la condizione (ii). In particolare possiamo scrivere
(ricordando che (AT λ∗ )T = λ∗ T A)
(iv) (ii)
0 = λ∗ T (b − Ax∗ ) = λ∗ T b − λ∗ T Ax∗ = λ∗ T b − x∗ T c.
Possiamo quindi scrivere le condizioni necessarie e sufficienti di KKT in una forma equivalente
e più diffusamente utilizzata come condizioni di ottimo per la Programmazione Lineare.
147
(Condizioni necessarie e sufficienti di ottimo per (PL))
Un punto x∗ è minimo globale del problema di Programmazione Lineare
min cT x
(P L)
Ax ≥ b
É possibile dimostrare che il valore de i moltiplicatori λ∗ del teorema 11.1.1 sono la soluzione
ottima del problema (11.4). In effetti le condizioni necessarie e sufficienti di minimo globale
per (11.6) sono le stesse condizioni per il problema (11.5). Questa affermazione costituisce il
teorema della Dualità forte per la PL.
Teorema 11.1.3 (Teorema della Dualità forte) Il problema di PL (11.5) ammette min-
imo x∗ ∈ IRn se e solo se il problema duale (11.6) ammette minimo λ∗ ∈ IRm e risulta
cT x⋆ = bT λ⋆ .
Dimostrazione. La dimostrazione consiste nel far vedere che le condizioni di ottimo del prob-
lema primale coincidono con le condizioni di ottimo per il problema duale. Per quanto riguarda
il problema primale (11.5) abbiamo già dimostrato che le condizioni di ottimo richiedono che
esista un moltiplicatore λ∗ ∈ IRm tale che
(i) Ax∗ ≥ b,
(ii) c = AT λ∗ ,
(iii) λ∗ ≥ 0,
(iv) bT λ∗ = cT x∗ .
Dimostriamo ora che queste condizioni sono effettivamente anche condizioni necessarie e suf-
ficienti di ottimo per il problema duale (11.4). Si utilizza il teorema 9.2.7. Osserviamo che
il problema duale (11.4) è in forma di massimizzazione e che è definito nello spazio IRm . As-
sociamo agli n vincoli di uguaglianza AT λ = c i moltiplicatori z ∈ IRn e ai vincoli λ ≥ 0 i
moltiplicatori v ∈ IRm . La funzione Lagrangiana è dunque
Per il teorema 9.2.7 λ∗ è minimo globale del problema (11.4) se e solo se esistono dei vettori
z ∗ ∈ IRn e v ∗ ∈ IRm tali che
(a) AT λ∗ = c, λ∗ ≥ 0,
(b) −b + Az ∗ − v ∗ = 0,
148
(c) v ∗ ≥ 0,
(d) v ∗ T λ∗ = 0.
La condizione (a) fornisce immediatamente le (i) e (ii).
Dalla condizione (b) si può ricavare v ∗ e si ottiene
−b + Az ∗ = v ∗ .
Imponendo la (c) v ∗ ≥ 0 si ottiene
−b + Az ∗ ≥ 0
Sostituendo in (d) si ha poi
È evidente la forte relazione che esiste tra i due problemi di Programmazione Lineare (11.5)
e (11.6) e dunque le condizioni di ottimalità sono spesso riportate in riferimento alla coppia
primale–duale (PL) e (PL-ST).
Condizioni di Ottimalità
Siano dati x̄ ∈ IRn e λ̄ ∈ IRm . Allora x̄ e λ̄ sono soluzioni ottime rispettivamente per la coppia
max bT λ
min cT x
(P L) AT λ = c (P L − ST )
Ax ≥ b
λ≥0
Teorema 11.1.4 (Teorema della Dualità Forte) Sia data una coppia primale (P) - duale
(D) di problemi di programmazione lineare. Il problema primale (P) ammette una soluzione
ottima x⋆ se e solo se il problema duale (D) ammette una soluzione ottima λ⋆ . Inoltre i valori
delle funzioni obiettivo dei due problemi all’ottimo sono uguali cioè risulta
cT x⋆ = bT λ⋆ .
149
Ricordando inoltre che x∗ è un minimo del problema (PL), e quindi risulta cT x∗ ≤ cT x per
ogni x tale che Ax ≥ b, possiamo affermare:
(Limitazione superiore ed inferiore per il valore ottimo del problema (PL))
Sia x∗ un minimo globale del problema di Programmazione Lineare (PL). Per ogni (x̃, λ̃) che
soddisfa Ax ≥ b, λ ≥ 0, AT λ = c, risulta
bT λ̃ ≤ cT x∗ ≤ cT x̃.
Analogamente per il problema in forma standard possiamo dare una limitazione inferiore e
superiore al valore ottimo bT λ∗ . Infatti, presa una qualunque coppia (x, λ) che soddisfa (11.2),
si può scrivere
(AT λ=c)
bT λ = bT λ + xT (c − AT λ)
= cT x + λT (b − Ax)
(λ≥0, b≤Ax)
≤ cT x.
Corollario 11.1.5 Se x̄ è una soluzione ammissibile del problema primale (P) e λ̄ una soluzione
ammissibile del problema duale (D) tali che
cT x̄ = bT λ̄ (11.7)
allora x̄ e λ̄ sono soluzioni ottime rispettivamente per il problema primale (P) e per il problema
duale (D).
Utilizzando il teorema della dualità debole possiamo anche derivare delle condizioni di
illimitatezza di un problema di PL. Vale in particolare questo risultato.
Dim.: Supponiamo che (P) sia illimitato e che, per assurdo, il problema duale (D) sia am-
missibile, cioè che esista una soluzione ammissibile λ̄ del problema duale (D). Allora, per il
Teorema 11.1.2 (Teorema della Dualità debole), risulta cT x ≥ bT λ̄ per ogni soluzione am-
missibile x del problema primale (P). Ma questo contraddice l’ipotesi che (P) sia illimitato
inferiormente. Analogamente si pu procedere con il viceversa.
150
Il Teorema Fondamentale della PL (cfr. Teorema 10.2.2) afferma che per un problema di
PL possiamo verificarsi solo tre possibili casi: il problema ammette soluzione ottima, oppure è
illimitato oppure è inammissibile.
Sulla base dei risultati fino ad ora esaminati si evince che data un coppia primale–duale di
problemi di Programmazione Lineare possono verificarsi solo le possibilità riportate schemati-
camente nella tabella che segue.
DUALE
ottimo finito SI NO NO
inammissibile NO SI SI
151
sono partizionate nella variabili y vincolate in segno e z non vincolate in segno e corrispon-
dentemente anche i coefficienti di costo della funzione obiettivo sono partizionati in c1 e c2 ; i
vincoli sono scritti suddividendo quelli di uguaglianza (=) e quelli di disuguaglianza (≥ 0).
Osservazione importante
Nella definzione di regole per la costruzione del problema duale di un generico problema di
PL è essenziale mettere il problema nella forma indicata, con particolare attenzione al “verso”
dell’ottimizzazione, cioè min o max, e al “verso” dei vincoli di disuguaglianza che corriponden-
temente devono essere nella forma ≥ o ≤.
Per costruire il problema duale del problema (11.8) è sufficiente riportarsi alla forma del
problema (PL) con soli vincoli di disuguaglianza . A tale scopo riscriviamo il problema (11.8)
nella forma equivalente
min cT1 y + cT2 z
Cy + Dz ≥ h
−Cy − Dz ≥ −h
Ey + F z ≥ g
y≥0
ovvero in forma matriciale
( )T ( )
c1 z
min
c2 y
C D ( ) h
−C −D y −h
≥ ,
E F z g
In1 0 0
dove In1 è la matrice identità di ordine n1 . Quindi il problema (11.8) è stato ricondotto nella
forma (PL) in cui
C D h ( )
−C −D −h c1
A= b= c=
E F g c2
In 1 0 0
Siamo quindi in grado di scrivere il duale di questo problema nella forma (PL-ST)
max bT λ
AT λ = c
λ≥0
in cui ( )
T C −C E In1
A =
D −D F 0
e il vettore delle variabili duali si puó decomporre in λ = (u, v, w, t)T ∈ IRm = IR2p+q+n1 . Il
problema duale si scrive in forma matriciale
152
T
h u
−h v
max
g w
0 t
( ) u ( )
C −C E In1 v c1
=
D −D F 0 w c2
t
u, v, w, t ≥ 0.
Sviluppando si ottiene
max hT u − hT v + g T w max hT (u − v) + g T w
C T u − C T v + E T w + In1 t = c1 C T (u − v) + E T w + t = c1
che è equivalente a
DT u − DT v + F T w = c2 DT (u − v) + F T w = c2
u ≥ 0, v ≥ 0, w ≥ 0, t ≥ 0 u ≥ 0, v ≥ 0, w ≥ 0, t ≥ 0.
Effettuando il cambio di variabili u − v = µ si ottiene il seguente problema
max hT µ + g T w
C T µ + E T w + t = c1
DT µ + F T w = c2
w ≥ 0, z ≥ 0.
max hT µ + g T w
C T µ + E T w ≤ c1
(11.9)
DT µ + F T w = c2
w≥0
nelle variabili (µ, w) ∈ IRq × IRp , con µ non vincolata in segno e w ≥ 0.
Il problema (11.9) è il problema duale del problema (11.8) che viene detto problema primale.
Osservazione importante
Le variabili (x, y) sono dette variabili primali e corrispondono ai moltiplicatori dei vincoli lineari
di tipo generale del problema duale. Le variabili (µ, w) sono dette variabili duali e corrispondono
ai moltiplicatori dei vincoli lineari di tipo generale del problema primale.
I due problemi costituiscono la generica coppia coppia primale–duale.
153
trasponendo quella dell’altro, si ha che ad ogni variabile di un problema corrisponde un vincolo
nell’altro. Si osserva inoltre uno scambio tra i termini noti di un problema e i coefficienti della
funzione obiettivo dell’altro.
Queste proprietà possono essere cosı̀ schematicamente riassunte:
Queste corrispondenze possono essere riassunte nella tabella che segue dove gli insieme I,
J, M e N sono insiemi di indici:
PRIMALE DUALE
min cT x max bT u
= bi , i ∈ I ui , i ∈ I, libere
VINCOLI VARIABILI
≥ bi , i ∈ J ui , i ∈ J, ui ≥ 0
xj ≥ 0, j ∈ M ≤ cj , j ∈ M
VARIABILI VINCOLI
xj , j ∈ N libere = cj , j ∈ N
154
Il problema duale è il seguente problema di minimizzazione
Dopo aver riscritto il secondo vincolo come −x1 − x2 + 6x3 ≥ −9 si può formulare facilmente
il problema duale associato
min x1 + 3x2
x1 + 4x2 ≥ 24
5x1 + x2 ≥ 25
x1 ≥ 0, x2 ≥ 0
Geometricamente si ricava facilmente che questo problema ammette soluzione ottima nel punto
(x1 , x2 ) = (4, 5) e il valore ottimo della funzione obiettivo è pari a 19. Se si considera il problema
duale
max 24u1 + 25u2
u1 + 5u2 ≤ 1
4u1 + u2 ≤ 3
u1 ≥ 0, u2 ≥ 0;
si ricava facilmente (geometricamente) che, in accordo con quanto previsto dal Teorema( della
)
14 1
Dualità Forte, anche questo problema ammette soluzione ottima nel punto (u1 , u2 ) = ,
19 19
e il valore ottimo della funzione obiettivo vale 19.
155
Esempio 11.2.4 Si consideri il problema di Programmazione Lineare
max cT x
aT x ≤ b,
x≥0
min by
ai y ≥ ci , i = 1, . . . , n
y≥0
{ }
ci ck
e sia Ik = i : = l’insieme degli indici per cui si raggiunge il massimo. Un vettore y
ai ak
ck
è ammissibile duale se e solo se soddisfa y ≥ . Poiché si tratta di un problema di minimiz-
ak
c
zazione, la soluzione ottima duale è y ∗ =
k
> 0.
ak
∗
La soluzione ottima x deve soddisfare le condizioni di complementarità:
x∗i (ai y ∗ − ci ) = 0 i = 1, . . . , n
y ∗ (b − aT x∗ ) = 0
156
/ Ik , si ha, dalla prima delle equazioni precedenti, x∗i = 0. Inoltre, dalla seconda, si
Per ogni i ∈
T ∗
ha a x = b. Evidenziando le variabili in Ik si ottiene
∑
ai x∗i = b.
i∈Ik
b
x∗j = , per un j ∈ Ik
aj
∗
xi = 0, per ogni i ̸= j
è ottima.
in cui x, a, c sono vettori di IRn , ci > 0 e 0 < ai < b per i = 1, . . . , n e si assuma che
c1 c2 cn
> > ... > .
a1 a2 an
Utilizzando la teoria della dualità, determinare la soluzione ottima e il valore ottimo della
funzione obiettivo.
Soluzione. Analogamente all’esercizio precedente scriviamo il problema duale di
max cT x
(λ) aT x ≤ b,
(zi ) x≤1
x≥0
157
Mostriamo innnanzitutto che, nelle ipotesi poste, esiste un solo k ∈ {1, . . . , n} tale che x∗k ∈
(0, 1) (per cui cioè x∗k è frazionaria).
Infatti sia x∗k ∈ (0, 1), per le condizioni di complementarità risulta zk∗ = 0 e ak y ∗ − ck = 0, cioè
ck
y∗ = . Se esistesse un altro indice h ∈ {1, . . . , n} tale che x∗h ∈ (0, 1), questo implicherebbe
ak
ck ch
= , che è assurdo perchè abbiamo supposto che i rapporti peso-ingombro fossero ordinati
ak ah
ck
in modo strettamente decrescente.1 Sia quindi x∗k ∈ (0, 1). Allora y ∗ = ̸= 0 e quindi dalle
ak
T ∗
condizioni di complementarità deve risultare a x = b.
Partizioniamo gli indici {1, ∑. . . , n} \∗ {k}
∑in due insiemi I1 = {i : x∗i = 1} e I0 = {i : x∗i = 0}.
Allora possiamo scrivere i∈I1 ai xi + i∈I0 ai xi + ak x∗k = b, da cui si ottiene
∗
∑
∗
b − i∈I1 ai
xk = .
ak
Possiamo ora dimostrare che risulta x∗i = 1 per i < k e x∗i = 0 per i > k. L’indice k viene
chiamato indice critico proprio perchè rappresenta l’ “oggetto” (attività, progetto o simili) il
cui inserimento determina la violazione della capacità b.
Dimostriamo quindi che
I1 = {1, . . . , k − 1} I0 = {k + 1, . . . , n}.
Sia = 1, allora per le condizioni di complementarità risulta zi∗ = ci − ai y ∗ , ma zi∗ ≥ 0 per
x∗i
ck ci
l’ammissibilità duale e quindi otteniamo y ∗ = ≤ che, nelle ipotesi di ordinamento dei
ak ai
coefficienti, vale solo se i < k. D’altra parte, se xi = 0 risulta zi∗ = 0 e per l’ammissibilità duale
∗
ck ci
ai y ∗ − ci ≥ 0, cioè y ∗ = ≥ che vale solo se i > k.
ak ai
1
Questa ipotesi serve solo per semplificare la trattazione del problema. Nel caso di ordinamento non
c1 c2 cn
crescente > > ... > si può procedere come nell’esercizio precedente (vedi anche §??).
a1 a2 an
158
u2
x2
SD
k=15
k=0
SP
x1 u1
k=15
k=0
159
1. conviene acquisire una quantità maggiore di risorsa relativa al primo vincolo ? Quanta e a
quale prezzo ?
2. quando diventa conveniente produrre anche il prodotto x1 ?
Possiamo rispondere a queste domande facendo delle analisi di tipo geometrico sul problema
primale e duale.
Cambiamenti nei termini noti dei vincoli. Acquisire una quantità maggiore di risorsa
relativa al primo vincolo significa incrementare il r.h.s del vincolo da 5 a 5 + δ con δ ≥ 0. Da
un punto di vista analitico i due problemi (P) e (D) diventano
L’aumento della prima risorsa (r.h.s. primo vincolo) di un valore δ produce un aumento della
funzione obiettivo pari a u∗1 δ = 3δ purché δ ≤ 3.
Il valore ottimo della variabile duale u∗1 rappresenta il massimo costo affrontabile per l’aumento
di una unità di risorsa.
Il valore u∗1 = 3 è detto prezzo ombra relativo alla prima risorsa (al primo vincolo). L’intervallo
0 ≤ δ ≤ 3 è l’intervallo entro cui la previsione sulla variazione della funzione obiettivo è valida.
(In realtà si può prevedere anche un decremento −δ).
160
u2
x2
δmax
δmax
SD
(5+δ)/2
k=15+3δ
SP
=5+δ
=5 x1 u1
min cT x {
(P) (D) max bT u
Ax = b
AT u ≤ c
x≥0
min cT x {
(P∆ ) (D∆ ) max(b + ∆)T u
Ax = b + ∆
AT u ≤ c
x≥0
Siano x⋆ e u⋆ rispettivamente la soluzione ottima del problema (P) e del problema (D). Siano
inoltre x⋆ (∆) e u⋆ (∆) rispettivamente la soluzione del problema (P∆ ) e del problema (D∆ )
Dalle formulazioni di questi problemi si possono facilmente dedurre due osservazioni:
161
• la variazione del termine noto b nel problema primale si riflette in un cambiamento dei
coefficienti della funzione obiettivo del problema duale;
• la regione ammissibile del problema (D) e del problema (D∆ ) sono uguali; da questo
segue che se u⋆ ∈ IRm è soluzione ottima del problema (D) allora u⋆ è ammissibile per il
problema (D∆ ), ma non necessariamente è ottima per (D∆ ).
Inoltre per il Teorema della dualità forte applicato alla coppia primale–duale (P)–(D) deve
essere
cT x⋆ = bT u⋆ , (11.10)
mentre, sempre per il Teorema della dualità forte ma applicato alla coppia primale–duale (P∆ )–
(D∆ ) deve essere
cT x⋆ (∆) = (b + ∆)T u⋆ (∆). (11.11)
Se la soluzione ottima x⋆ soddisfa un’opportuna ipotesi (cioè che in x⋆ non ci siano più
di n vincoli attivi) e se il vettore ∆ ha componenti “sufficientemente” piccole allora si può
dimostrare che:
u⋆ (∆) = u⋆ . (11.12)
Utilizzando la (11.10), la (11.11) e la (11.12) si ha:
dove ∆ = (δ1 , . . . , δm )T .
Dalla precedente relazione segue che una possibile interpretazione della variabile duale u⋆i è
quella di essere un prezzo associato ad un incremento unitario del termine noto bi . Per questa
ragione le variabili duali u⋆i , i = 1, . . . , m, vengono denominate prezzi ombra.
Il prezzo ombra di un vincolo rappresenta la variazione del valore della funzione obiettivo quando
il r.h.s. del vincolo è aumentato di una unità, mentre tutti gli altri dati del problema sono fissati.
1. I prezzi ombra sono tanti quanti i vincoli lineari generali (esclusi i vincoli di non negatività
sulle variabili).
2. l’unità di misura dei prezzi ombra è espressa in (unità di misura funzione obiettivo)/(unità
misura vincolo).
3. I prezzi ombra corrispondono al valore delle variabili duali (all’ottimo), ovvero ai molti-
plicatori di KKT relativi alla soluzione ottima primale.
162
11.4 Interpretazione della Dualità
Se un problema di Programmazione Lineare proviene da una precisa classe di problemi applica-
tivi e dunque ha una struttura bene definita, il suo corrispondente duale si può prestare ad
essere interpretato come problema applicativo diverso ma collegato al problema primale.
Naturalmente si vorrà fare in modo che questa operazione di sottrazione dei preparati base dalla
produzione dei coloranti e vendita diretta risulti economicamente conveniente e quindi mentre
si vuole minimizzare l’espressione (11.16) affinché i prezzi di vendita risultino competitivi sul
mercato, si imporrà che il profitto ottenuto vendendo direttamente i quantitativi di preparato
base necessario per ottenere un litro di colorante sia maggiore o uguale del profitto associato
alla vendita di un litro di colorante stesso; quindi, utilizzando i dati del problema riportati nella
tabella dell’Esempio 2.4.1, si deve imporre che risulti
u1 + u2 ≥ 7
u1 + 2u2 + u3 ≥ 10
163
In generale, se si considera un generico problema di allocazione ottima di m risorse Ri ,
i = 1, . . . , m con la possibilità di fabbricare n prodotti Pj , j = 1, . . . , n, come abbiamo già
esaminato nel capitolo precedente si può formulare questo problema come
max cT x
Ax ≤ b (11.17)
x≥0
dove ricordiamo x ∈ IRn è il vettore avente per componenti i livelli di produzione di ciascuno
dei prodotti, c ∈ IRn il vettore dei profitti netti e b ∈ IRm il vettore delle disponibilità massima
di ciascuna delle risorse.
Supponiamo ora di voler sottrarre risorse alla produzione per venderle direttamente e siano
ui , i = 1, . . . , m i prezzi unitari associati alla vendita dell’i-esima risorsa. Supponendo che per
ciascuna risorsa si voglia destinare alla vendita una quantità pari alla disponibilità massima di
quella risorsa, si ottiene un profitto pari a
b1 u1 + b2 u2 + · · · + bm um .
Per rendere competitivi sul mercato i prezzi unitari ui da assegnare alle risorse vendute diret-
tamente, si vogliono scegliere i valori piú bassi possibile per le ui , ma naturalmente, affinché
questa operazione di vendita diretta in luogo della fabbricazione dei prodotti risulti conveniente
si deve imporre che il profitto ottenuto vendendo direttamente le risorse necessarie per fabbri-
care un prodotto sia maggiore o uguale al profitto che si ricaverebbe dalla vendita del prodotto
finito. Quindi per ogni prodotto, si deve imporre che valga
164
Ricordiamo che le variabili x1 e x2 rappresentano le quantità di polpa di frutta e di dolcificante
da utilizzare nella produzione del succo di frutta che deve avere come requisito un contenuto
minimo di 70 mg di vitamina C, 30 mg di sali minerali e 75 grammi di zucchero. Supponiamo ora
che un’industria farmaceutica venda compresse di nutrimenti puri, cioè compresse di vitamina
C, di sali minerali e di zucchero e che vuole immettere queste compresse su un ipotetico mercato
come offerta sostitutiva al succo di frutta per l’acquisizione di vitamina C, di sali minerali e di
zucchero. Naturalmente questa industria farmaceutica vuole massimizzare il profitto ricavato
dalla vendita delle compresse, ma al tempo stesso deve dare un prezzo alle compresse tale da
essere competitiva. Siano allora u1 , u2 e u3 i prezzi di vendita rispettivamente di 1 mg di
vitamina C, di 1 mg di sali minerali e di 1 grammo di zucchero; supponendo che la vendita di
questi nutrimenti puri sia pari ai fabbisogni minimi (cioè a 70 mg di vitamina C, a 30 mg di
sali minerali e a 75 grammi di zucchero), l’espressione del profitto dell’industria farmaceutica
che dovrà essere massimizzata è
70u1 + 30u2 + 75u3 .
Affinché i prezzi di vendita dei componenti puri in compresse fissati dall’industria siano concor-
renziali, si deve imporre che il costo unitario dei nutrimenti puri sia minore o uguale al prezzo
che si dovrebbe pagare per avere la stessa quantità di componente attraverso gli ingredienti del
succo di frutta, cioè dalla polpa di frutta e dal dolcificante. Quindi si devono imporre i seguenti
vincoli
165
minimi della miscela, cioè per ciascun componente pari a bi , il profitto totale dell’industria che
vende i componenti utili allo stato puro è
b1 u1 + b2 u2 + · · · + bm um .
max bT u
AT u ≤ c
u≥0
che è immediato verificare essere il problema duale del problema di miscelazione assegnato
(11.18).
x1 + x2 + x3 = 50
y1 + y2 + y3 = 55
x1 + y1 = 30
x2 + y2 = 40
x3 + y3 = 35
x1 ≥ 0, x2 ≥ 0, x3 ≥ 0, y1 ≥ 0, y2 ≥ 0, y3 ≥ 0.
dove x1 , x2 , x3 rappresentano rispettivamente quantità di acqua da trasportare dal primo
stabilimento a tre impianti e y1 , y2 , y3 rappresentano rispettivamente la quantità di acqua da
trasportare dal secondo stabilimento a tre impianti. Ricordiamo inoltre che la disponibilità
giornaliera di acqua presso i due stabilimenti è rispettivamente di 50 e 55 ettolitri di acqua,
mentre le richieste giornaliere di acqua presso i tre impianti sono rispettivamente di 30, 40 e 35
ettolitri.
Supponiamo ora che una compagnia specializzata in trasporto di acqua (esterna all’industria)
voglia proporsi all’industria di acque minerali per effettuare il trasporto dell’acqua dagli sta-
bilimenti agli impianti. Naturalmente la compagnia di trasporti, per convincere l’industria
di acque minerali ad avvalersi del servizio di trasporto esterno, dovrà proporre dei prezzi di
trasporto vantaggiosi. A tale scopo la compagnia dei trasporti propone all’industria di prele-
vare un ettolitro di acqua da ciascuno dei due stabilimenti per un prezzo unitario (in migliaia
166
di lire) rispettivamente pari a u1 e u2 e di consegnare un ettolitro di acqua a ciascuno dei tre
impianti per un prezzo unitario (in migliaia di lire) rispettivamente pari a v1 , v2 e v3 . Quindi la
compagnia dei trasporti vorrà massimizzare la funzione che fornisce il suo profitto complessivo
che è data da
50u1 + 55u2 + 30v1 + 40v2 + 35v3 .
Tuttavia affinché l’offerta della compagnia dei trasporti risulti vantaggiosa per l’industria delle
acque minerali i prezzi del trasporto proposti dovranno risultare non superiori a quelli che
l’industria avrebbe effettuando in proprio i trasporti stessi. Quindi dovrà risultare
u 1 + v1 ≤ 250
u 1 + v2 ≤ 100
u 1 + v3 ≤ 85
u 2 + v1 ≤ 120
u 2 + v2 ≤ 80
u 2 + v3 ≤ 150.
In generale, consideriamo ora un generico problema dei trasporti già esaminato nel capitolo
precedente. Supponiamo che un’azienda voglia provvedere in proprio ad effettuare il trasporto
di materiali e che quindi cerchi di risolvere il problema dei trasporti
∑m ∑ n
min cij xij
i=1 j=1
∑
n
xij = ai i = 1, . . . , m (11.19)
j=1
∑m
xij = bj j = 1, . . . , n
i=1
xij ≥ 0 i = 1, . . . , n; j = 1, . . . , m
dove, ricordiamo, che le cij rappresentano il costo del trasporto dall’origine i alla destinazione
j, le ai le disponibilità all’i-esima origine e le bj le richieste alla j-esima destinazione.
Supponiamo, ora che una compagnia che esegue trasporti voglia proporsi a questa azienda,
come alternativa vantaggiosa all’effettuazione dei trasporti in proprio; a tale scopo questa com-
pagnia propone all’azienda di prelevare un’unità di prodotto dall’origine i per un prezzo unitario
167
ui e di consegnare una unità di prodotto alla destinazione j per un prezzo unitario vj . Per as-
sicurare che i suoi prezzi siano competitivi rispetto a quelli che l’azienda avrebbe effettuando i
trasporti in proprio, la compagnia di trasporti deve fare sı̀ che risulti
ui + vj ≤ cij
Quindi il problema che la compagnia di trasporti formula per determinare quali prezzi ui e vj
proporre all’azienda è il seguente
∑
m ∑
n
max ai ui + bj vj
i=1 j=1
(11.20)
ui + vj ≤ cij i = 1, . . . , m, j = 1, . . . , n
che è il problema duale del problema dei trasporti (11.19).
168
Capitolo 12
min cT x
Ax ≥ b
x ∈ Z n;
o in cui solo alcune della variabili sono vincolate ad assumere valore intero (PLI mista):
min cT x
Ax ≥ b
x1 ∈ Z n1 , x2 ∈ Rn2 ;
con x = (x1 x2 ) e n1 + n2 = n.
Grazie alla generalità del modello, un grandissimo numero di problemi reali possono essere
rappresentati da modelli di Programmazione Intera. In generale, i modelli di Programmazione
Lineare Intera sono adatti alle applicazioni caratterizzate dall’indivisibilità delle risorse e dalla
necessità di scegliere tra un numero finito di alternative. Queste applicazioni includono problemi
operativi quali la distribuzione di beni ed il sequenziamento delle attività produttive; problemi di
pianificazione quali la gestione ottima del portafoglio titoli e la localizzazione degli impianti ed
infine problemi di progettazione quali il progetto di circuiti VLSI ed il progetto di sistemi auto-
matici di produzione (robotica). Un problema di Ottimizzazione Combinatoria è un particolare
problema di PLI in cui le variabili sono vincolate ad assumere solo valori {0, 1}.
Nelle ipotesi che la regione ammissibile di PLI sia costituita da un insieme finito di punti,
in linea di principio potrebbe essere sempre possibile risolvere il problema di PLI calcolando il
valore della funzione obiettivo in ogni punto ammissibile e scegliendo quello che la minimizza.
Definiremo questo metodo Enumerazione Totale. Se la cardinalità dell’insieme ammissibile
di PLI è piccola allore l’enumerazione totale non solo è possibile, ma è certamente il modo
migliore di risolvere un problema di PLI. Se, viceversa, la cardinalità dell’insieme delle soluzioni
ammissibili è molto grande, l’enumerazione totale diviene non proponibile (vedi anche l’esempio
dovuto a Dantzig descritto nel paragrafo 1.2).
167
Osserviamo che se abbiamo un problema di PLI con dieci variabili e supponiamo che ognuna
di queste variabili possa assumere dieci valori diversi, il numero di possibili punti ammissibili è
di 1010 , cioè 10 miliardi. Questo semplice esempio mostra che l’enumerazione totale è raramente
utile nei casi pratici, dove spesso il numero di variabili intere è dell’ordine delle centinaia se non
delle migliaia.
Le questioni teoriche poste da tali problemi e le tecniche usate per la loro soluzione hanno
caratteristiche molto diverse da quelle relative ai problemi di ottimizzazione continua studiati
nei precedenti capitoli. In generale la PLI è da un punto di vista algortimo più difficile della
PL anche nel caso binario.
Lo scopo di questo capitolo è quindi quello di dare alcune indicazioni sulle peculiarietà dei
problemi di Programmazione Lineare Intera (PLI) e studiare una classe di algoritmi per la loro
risoluzione.
168
In questo caso l’evento è costituito dalla effettuazione (o meno) del singolo progetto. In generale,
questi problemi di scelta tra progetti possono avere più vincoli (si pensi al caso in cui il ”budget”
sia mensile e si voglia pianificare per più di un mese); in tal caso il problema viene detto di
knapsack multidimensionale.
Un esempio di problema di knapsack è l’esempio 1.4.1 di Capital Budgeting nel Capitolo 1.
12.1.2 Assegnamento
Un generico problema di assegnamento consiste nel determinare il modo ottimale di assegnare
lavori a persone o, più in generale, di assegnare mezzi (persone, macchine, etc. ) ad attività.
Supponiamo che n persone P1 ,. . . ,Pn , debbano svolgere n lavori L1 ,. . . , Ln ; ciascun lavoro
deve essere svolto esattamente da una persona e ciascuna persona deve svolgere un lavoro.
Naturalmente le persone hanno diversi livelli di esperienza, competenza ed abilità e quindi si
può introdurre un costo dell’assegnamento della persona i al lavoro j; indichiamo tale costo con
cij e supponiamo che sia noto. Questo costo può, ad esempio, essere interpretato come tempo
medio impiegato dalla persona i ad eseguire il lavoro j. Il problema è quello di assegnare i
lavori alle persone minimizzando il costo totale di realizzazione di tutti i lavori. Questo tipo di
problemi sorge in molte situazioni pratiche: esempi tipici sono i problemi di assegnamento del
personale all’interno di una azienda e i problemi di assegnare determinati mezzi di trasporto ad
alcune particolari linee.
Esaminiamo, ora una formulazione.
Formulazione.
– Variabili. Per ogni lavoro i e per ogni persona j, (i, j = 1, . . . , n) introduciamo le seguenti
variabili binarie n
1 se la persona i è assegnata al lavoro j
xij =
0 altrimenti.
2
Si tratta di n variabili:
L1 · · · Lj · · · Ln
P1 x11 · · · x1j · · · x1n
.. .. .. ..
. . . .
Pi xi1 ··· xij ··· xin
.. .. .. ..
. . . .
Pn xn1 ··· xnj ··· xnn
– Funzione obiettivo. La funzione obiettivo da minimizzare sarà data dal costo totale cioè da
n X
X n
cij xij .
i=1 j=1
Naturalmente, se le cij anziché essere dei costi fossero i valori utili ricavati dall’assegnamento
della persona i al lavoro j, allora la funzione obiettivo andrebbe massimizzata.
– Vincoli. (Vincoli di assegnamento.) Poiché esattamente una persona deve essere assegnata al
lavoro j, allora si avranno i seguenti n vincoli
n
X
xij = 1 j = 1, . . . , n.
i=1
169
Inoltre, poiché ciascuna persona deve essere assegnata ad una sola attività, si avranno altri n
vincoli
Xn
xij = 1 i = 1, . . . , n.
j=1
Osservazione 12.1.1 Nel seguito di questo capitolo si vedrá che in effetti il problema di asseg-
namento può essere formulato rimuovendo il vincolo di interezza, cioé equivalentemente come
un problema di PL. Il vincolo xij ∈ {0, 1} corrisponde a 0 ≤ xij ≤ 1 con xij intero; rimuovere
il vincolo di interezza corrisponde dunque al problema:
Xn X n
min cij xij
i=1 j=1
n
X
xij = 1
i=1
n
X
xij = 1
j=1
0 ≤ xij ≤ 1, i, j = 1, . . . , n.
Esempio 12.1.2 In un Dipartimento universitario, sono attivati cinque corsi diversi che pos-
sono essere tenuti da cinque professori. Ogni professore esprime delle preferenze sul corso che
vorrebbe tenere, indicando un punteggio. A preferenza più alta corrisponde un punteggio più
alto. I punteggi sono riportati nella seguente tabella:
corso1 corso2 corso3 corso4 corso5
insegnante1 7 5 4 4 5
insegnante2 7 9 7 9 4
insegnante3 4 6 5 8 5
insegnante4 5 4 5 7 4
insegnante5 4 5 5 8 9
Si vuole assegnare ciascun professore ad un corso cercando di massimizzare il valore medio
inteso come media delle preferenze.
Formulazione
– Variabili. Le variabili di decisione sono le variabili booleane:
170
n
1 se l’insegnante i è assegnata al corso j
xij = i, j = 1, . . . , 5.
0 altrimenti.
– Funzione obiettivo. Indicando con cij il punteggio assegnato dall’insegnante i alla corso j, la
funzione obiettivo è il valore medio delle preferenze:
5 5
1 XX
cij xij .
5 i=1 j=1
171
funzione lineare di tali variabili. In molti problemi pratici, tuttavia, tale ipotesi non è giustificata
in quanto il costo di una attività, in funzione del livello cui essa viene svolta, può avere un
andamento come quello riportato in Figura 12.1.
costo
coeff. ang. c
x : livello dell'attività
Il valore fj è detto costo fisso dell’attività j e deve essere pagato solamente se l’attività j
viene svolta ad un livello non nullo. Per esempio, supponiamo che la variabile xj rappresenti
la quantità di petrolio greggio che deve essere trasportata da un pozzo A ad una raffineria B.
In questo caso, se il pozzo A non rifornisce la raffineria B il costo complessivo di trasporto è
ovviamente nullo. Se, al contrario, si decide di inviare una quantità non nulla xj di greggio da
A a B, al costo di trasporto cj xj (proporzionale alla quantità trasferita) dovrà essere sommato
il costo fisso di costruzione dell’oleodotto fj .
Se indichiamo che Jf le attività che prevedono un costo fisso, la funzione obiettivo può essere
genericamente scritta come X X
z(x) = cj xj + zj (x).
j ∈J
/ f j∈Jf
172
dove y ∈ {0, 1}|Jf | è il vettore le cui componente sono yj e z(x) è una funzione lineare. Il
problema ha peró delle variabili binarie. Si deve inoltre imporre un vincolo che consenta di
modellare la condizioni logiche
xj > 0 ⇒ yj = 1
xj = 0 ⇒ yj = 0
Osserviamo infatti che in assenza di tale vincolo e nell’ipotesi che fj ≥ 0, nella soluzine ottima
il valore di yj sarebbe = 0 trattandosi di un problema di minimizzazione. Dunque la condizione
xj = 0 ⇒ yj = 0 non necessita di essere imposta.
Se supponiamo di conoscere un limite superiore per la variabile xj , cioè un valore α positivo
maggiore del più grande valore che può assumere la xj , il vincolo
xj − αyj ≤ 0
dove α è un numero positivo maggiore del più grande valore che può essere assunto da ciascuna
delle variabili xj in una soluzione ottima. Se xj > 0 la variabile yj sarà forzata ad assumere il
valore 1 ed il suo costo fisso si aggiungerà al valore della funzione obiettivo.
Esempio 12.2.1 In una centrale elettrica sono a disposizione tre generatori e ogni giorno si
deve decidere quali usare di giorno e quali di notte per assicurare una produzione di almeno 4000
megawatts di giorno e di almeno 2800 megawatts di notte. L’uso di un generatore comporta la
presenza di personale tecnico che sorvegli il suo funzionamento; tale personale viene retribuito
in maniera diversa tra il giorno e la notte e a seconda del tipo di generatore; tali costi di
attivazione sono riportati nella tabella che segue (in migliaia di lire) insieme al costo per ogni
megawatt prodotta e alla massima capacità di produzione in megawatts per ogni singolo periodo
(giorno/notte).
173
Formulare un modello di PLI che permetta di rappresentare il problema in analisi.
Formulazione.
È un problema di costo fisso e può essere formulato in termini di Programmazione Lineare
Intera come appena descritto in generale. Per brevità di notazione, chiameremo 1o periodo il
giorno e 2o periodo la notte.
– Variabili. Indichiamo con xAi , xBi e xCi , i = 1, 2, i megawatts generati rispettivamente dai
generatori A, B e C nel periodo i. Inoltre, per ottenere una formulazione lineare, è necessario
introdurre sei variabili 0 − 1, δAi , δBi e δCi , i = 1, 2, definite come segue :
½
1 se il generatore A è attivato nell’i-esimo periodo
δ Ai = i = 1, 2.
0 se nell’i-esimo periodo il generatore A non è attivato
xAi − 2000δAi ≤ 0 i = 1, 2
xBi − 1700δBi ≤ 0 i = 1, 2
xCi − 2500δCi ≤ 0 i = 1, 2.
Quindi la formulazione complessiva può essere scritta
³
min 3xA1 + 3xA2 + 5xB1 + 5xB2 + 6xC1 + 6xC2 +
´
+750δ A + 1000δ A + 600δ B + 900δ B + 800δ C + 1100δ C
1 2 1 2 1 2
xA1 + xB1 + xC1 ≥ 4000
xA2 + xB2 + xC2 ≥ 2800
xA1 − 2000δA1 ≤ 0
xB1 − 1700δB1 ≤ 0
xC1 − 2500δC1 ≤ 0
x A2 − 2000δA2 ≤ 0
x B2 − 1700δB2 ≤ 0
x C2 − 2500δC2 ≤ 0
i ≥ 0, xBi ≥ 0, xCi ≥ 0,
x A i = 1, 2
δAi ∈ {0, 1}, δBi ∈ {0, 1}, δCi ∈ {0, 1} i = 1, 2.
174
12.2.2 Variabili indicatrici
Un altro classico uso di variabili 0−1, consiste nell’indicare le relazioni di dipendenza tra alcune
grandezze di un problema; tali variabili binarie vengono dette variabili indicatrici.
Supponiamo di conoscere un limite superiore per la variabile x, cioè un valore M positivo
maggiore del più grande valore che può assumere la x; allora introducendo il vincolo
x − Mδ ≤ 0 (12.1)
la variabile δ ∈ {0, 1} è forzata ad assumere valore 1 se x > 0; abbiamo, quindi, modellato la
condizione logica
x>0⇒δ=1 (12.2)
e quindi anche la condizione equivalente δ = 0 ⇒ x = 0; ma la (12.1) non implica il viceversa
della (12.2) cioè δ = 1 ⇒ x > 0; infatti dalla (12.1) si ha che se δ = 1 allora 0 ≤ x ≤ M , che è
sempre verificato.
Tuttavia, in alcuni casi, può essere necessario imporre la condizione
δ=1⇒x>0 (12.3)
(che è equivalente a x = 0 ⇒ δ = 0). La condizione logica (12.3) non si può facilmente
rappresentare con un vincolo;
Supponiamo, ad esempio, che in un problema di miscelazione una variabile x rappresenti
la quantità di un ingrediente da includere nella miscela e quindi si ha x ≥ 0; si può usare una
variabile indicatrice δ ∈ {0, 1} per distinguere tra il caso in cui x = 0 e x > 0. La condizione
logica (12.3) afferma che se δ = 1 allora l’ingrediente rappresentato da x deve apparire nella
miscela, ma non fornisce nessuna indicazione sulla quantità dell’ingrediente. In realtà è più
verosimile imporre una condizione logica del tipo
δ=1⇒x≥m>0 (12.4)
cioè se δ = 1 allora la variabile x assume un valore almeno pari ad m.
La (12.4) è rappresentabile dal vincolo
x − mδ ≥ 0. (12.5)
Esempio 12.2.2 Sia data la seguente tavola di valori nutrizionali che riporta il tipo di ali-
mento, il costo unitario, le unità di sostanze (proteine, carboidrati, grassi, vitamine, calcio) per
unità di alimento
175
costo prot. carb. grassi vitam. calcio
1 0.15 0 7 1 1 0
2 0.23 1 0 3 1 4
3 0.79 5 0 4 0 1
4 0.47 2 2 1 3 0
5 0.52 0 3 0 2 1
Formulare un problema di PLI che permetta di trovare una dieta di costo minimo sapendo
che si devono assumere almeno 3 unità di proteine, 10 unità di carboidrati, 2 unità di grasso, 3
unità di vitamine e 2 unità di calcio e sapendo che se è presente l’alimento 1 la dieta non può
contenere l’alimento 5.
Formulazione.
È un classico problema di miscelazione; le quantità di alimenti presenti nella dieta si suppongono
frazionabili. A causa della presenza di una condizione logica, è necessario utilizzare, in aggiunta
alle variabili del problema, una variabile 0 − 1 per modellarla cioè per esprimere con un vincolo
il legame tra la presenza nella dieta dell’alimento 1 e dell’alimento 5.
– Variabili di decisione. Introduciamo come variabili del problema le unità di alimenti presenti
nella dieta, xi con i = 1, . . . , 5. Inoltre, introduciamo la variabile booleana δ ∈ {0, 1}.
– Vincoli. Si hanno i seguenti vincoli:
• Vincoli di qualità: la dieta deve contenere alcuni valori minimi di sostanze nutrizionali;
dalla tabella si ottiene che deve essere
x2 + 5x3 + 2x4 ≥ 3
7x1 + 2x4 + 3x5 ≥ 10
x1 + 3x2 + 4x3 + x4 ≥ 2
x1 + x2 + 3x4 + 2x5 ≥ 3
4x2 + x3 + x5 ≥ 2
• Vincolo logico: se nella dieta è presente l’alimento 1 allora non deve esserci l’alimento 5.
Vogliamo quindi definire dei vincoli che consentano di esprimere le seguenti condizioni
logiche
x1 > 0 ⇒ δ=1
δ=1 ⇒ x5 = 0
176
• Vincoli di non negatività: Si tratta di quantità di alimenti, e quindi deve essere
xi ≥ 0 i = 1, . . . , 5.
177
problema come programmazione a numeri interi:
n X
X n
min [D(i, j)xij ]
i=1 j=1
Xn
xij = 1 per j = 1, 2, . . . , n
i=1
Xn
xij =1 per i = 1, 2, . . . , n
j=1
X
xij ≥ 1 per (R, S) ∈ π
i∈R,j∈S
x ∈ {0, 1}n×n .
Il primo insieme di vincoli garantisce che in ogni città il commesso viaggiatore provenga da
una sola altra città. Il secondo insieme di vincoli garantisce che dopo ogni città il commesso
viaggiatore prosegua per una sola altra città. Il terzo insieme di vincoli garantisce che la
soluzione fornita dal modello sia formata da un unico percorso che attraversa tutte le città e
non da una serie disgiunta di percorsi che visitano sottoinsiemi diversi di città.
Se non fosse per il terzo insieme di vincoli, il problema sarebbe uguale a quello dell’assegnamento
visto sopra. Il terzo insieme di vincoli complica il problema, facendo sı̀ che non sia risolubile
con la programmazione lineare. In effetti si tratta di uno dei piu difficili problemi combinatori
con cui si ha normalmente a che fare e la sua soluzione richiede tipicamente algoritmi complessi
e notevole dispendio di tempo di calcolo. Si noti che il terzo insieme di vincoli ha cardinalità
esponenziale rispetto al numero di città da visitare. Si tratta infatti di 2n−2 vincoli (in effetti
esiste una formulazione più sofisticata che permette di scrivere il problema con solo n2 vincoli
aggiuntivi introducendo n variabili aggiuntive non binarie).
178
valore ottimo di PL è sicuramente non peggiore (migliore o al piú uguale) di quello di PLI cioé
(trattandosi di minimizzazione)
z ∗ ≤ zI∗ ,
ovvero la soluzione del rilassamento lineare costituisce un limite inferiore al valore ottimo della
soluzione ottima intera
Per chiarire ulteriormente quanto detto facciamo un semplice esempio informale. Supponiamo
di voler trovare lo studente più giovane di una facoltá. Si tratta di trovare lo studente (“punto
ammissibile”) che minimizza la funzione obiettivo che associa ad ogni studente la sua età. Con-
sideriamo poi il problema di trovare lo studente più giovane di tutta l’università. Ovviamente
l’insieme ammissibile di questo nuovo problema è più ampio di quello del problema precedente,
comprendendo tutti gli studenti di tutte le facoltà (“problema rilassato”). Se noi risolviamo
il “problema rilassato” il valore ottimo che troviamo (età dello studente più giovane di tutta
l’università) è ovviamente minore o tutt’al più uguale al valore ottimo del problema di trovare
lo studente più giovane della facoltà che ci interessa. Se poi risulta che lo studente più giovane
di tutta l’università è proprio uno studente della facoltà d’interesse, allora è ovvio che questo
studente è anche “la soluzione ottima” del problema originario, è cioè lo studente più giovane
della facoltà che ci interessa.
Dunque se la soluzione ottima del prblema di PL x∗ ∈ S è intera, significa che x∗ ∈ SI e dunque
si tratta anche della soluzione ottima del problema di PLI.
Se la soluzione ottima del rilassamento lineare x∗ ∈ S è intera allora questa è anche la soluzione
ottima del problema di PLI, cioè x∗ = x∗I .
Se, invece, anche una sola delle componenti di x∗ ∈ S non è intera x∗ non è ammissibile per PLI,
dunque tantomeno ottima. Si può allora essere tentati di determinare una soluzione ottima di
PLI arrotondando x∗ a un punto a coordinate intere “vicino” a x∗ .
Questa Soluzione per Arrotondamento può essere un metodo pratico di grande utilità
per la soluzione di PLI, se tutte variabili del problema sono variabili intere che rappresentano il
numero di oggetti indivisibili usati o prodotti, ed è ragionevole aspettarsi che le variabili stesse
abbiano valori abbastanza grandi all’ottimo. Inoltre i vincoli lineari dovrebbero essere tali da
poter facilmente decidere se l’ammissibilità è preservata arrotondando una variabile non intera
al più vicino valore intero (o, per esempio, al più vicino valore intero inferiore). Per esempio,
se x1 rappresenta il numero di automobili di un certo modello che devono essere assemblate
durante un mese e se esiste una limitazione inferiore su x1 , è ragionevole aspettarsi che un
valore x̄1 = 1000.1 possa essere arrotondato a 1001 senza che venga violata l’ammissibilità. Se
tutte le variabili del problema sono di questo tipo e se esiste un metodo semplice di passare
dalla soluzione non intera x̄ di PR a una soluzione “vicina”, intera e ammissibile per PLI, allora
un ragionevole approccio pratico alla soluzione di PLI è quello di risolvere il suo rilassamento
lineare ed arrotondare quindi la soluzione.
Tuttavia, se il valore delle variabili della soluzione ottima del rilassamento lineare è pre-
sumibilmente piccolo, questa tecnica non è molto sensata. Se, per esempio, x1 rappresenta il
179
numero di portaaeri che devono essere costruite dall’esercito italiano, è intuitivo capire che è
molto difficile decidere se si debba arrotondare x̄1 = 2.5 a 2 o a 3, e che le due possibilità por-
tano a risultati completamente diversi. La situazione diventa ancora più drammatica quando
le variabili intere sono, in realtà, variabili binarie. In questi problemi le variabili 0-1 indicano
quale di due possibili scelte alternative deve essere attuata. In questo caso l’arrotondamento è
totalmente privo di senso logico.
Consideriamo l’esempio di figura 12.2. Supponiamo che la soluzione del rilassamento lineare
sia a (x̄ = a). Il punto a ha tutte le componenti non intere e tutti i punti a componenti intere
ottenuti arrotondando le sue componenti all’intero immediatamente superiore o inferiore non
sono ammissibili per PLI. Da questo esempio dovrebbe risultare chiaro, inoltre, che è possibile
costruire problemi PLI in cui la soluzione ottima del relativo rilassamento lineare è lontana
“quanto si vuole” dal più vicino punto ammissibile di PLI.
Anche nel caso in cui possa essere trovato un punto ammissibile “vicino” a x̄, questi può
essere molto lontano dalla soluzione ottima di PLI.
Un esempio al riguardo è dato nella figura 12.3, dove la soluzione ottima del rilassamento
lineare è a, b è la soluzione ottenuta per arrotondamento, mentre c è la vera soluzione di PLI.
min −x1 − x2
−2x1 + 5x2 ≤ 5
2x1 − 2x2 ≤ 1
x ≥ 0, intero
180
c
b
a
direzione di crescita
della funzione obiettivo
si determina la soluzione x∗1 = 52 = 2.5, x∗2 = 2 con valore della funzione obiettivo z ∗ = − 92 .
Arrotondando
µ ¶ µ ¶ questa soluzione sia all’intero superiore che inferiore si ottengono le due soluzioni
2 3
, che NON sono ammissibili. In figura 12.4 è disegnata la regione ammissibile S e
2 1
SI .
Dunque arrotondare una soluzione non intera può non essere una buona strategia. Inoltre è
bene sottolineare che l’arrotondamento può essere computazionalmente oneroso. Infatti data
una soluzione frazionaria x̄ ∈ IRn , possono esistere 2n vettori interi ottenuti arrotondando le
componenti non intere di x̄ al valore intero superiore o inferiore più prossimo, e non si vede
con quale criterio si possa sceglierne uno quale soluzione di PLI. Inoltre molti (se non tutti)
di questi 2n vettori possono non essere ammissibili per PLI, e il problema di determinare un
vettore a componenti intere, ammissibile per PLI, e “vicino” a x̄ può essere, in generale, un
problema di difficoltà paragonabile alla soluzione di PLI.
Osserviamo però che uno stesso problema di PLI può essere descritto in modo equivalente in
diversi modi.
Esempio 12.3.1 (continua) Consideriamo il problema dell’esempio 12.3.1 a cui aggiun-
181
Figura 12.4: Soluzione grafica Esempio 12.6.
giamo il vincolo x1 ≤ 1
min −x1 − x2
−2x1 + 5x2 ≤ 5
2x1 − 2x2 ≤ 1 (12.7)
x1 ≤ 1
x ≥ 0, intero
La regione ammissibile SI è invariata, mentre la regione ammissibile e la soluzione ottima del
suo rilassamento lineare cambia (vedi figura 12.5).
Se consideriamo il problema
min −x1 − x2
−2x1 + 5x2 ≤ 5
2x1 − 2x2 ≤ 2 (12.8)
x2 ≤ 1
x ≥ 0, intero
otteniamo la regione ammissibile in Figura 12.6 e la soluzione del rilassamento lineare coincide
con x∗I . Quest’ultima rappresentazione ha quindi un’interessante proprietà: la soluzione del
problema rilassato coincide con la soluzione ottima intera. S tratta dunque di una formulazione
“ideale”.
182
Figura 12.5: Soluzione grafica Esempio 12.7.
Definizione 12.3.2 Un poliedro si dice interose tutti i suoi vertici sono interi.
Teorema 12.4.1 Se una matrice quadrata B con elementi interi ha determinante ±1, allora
la sua inversa é intera
183
Figura 12.6: Soluzione grafica Esempio 12.8.
La dimostrazione é banale, ricordando la construzione della matrice inversa che é data dalla
matrice aggiunta (intera se B é intera) diviso il determinante.
Introduciamo la seguente definizione
Definizione 12.4.2 [2] Una matrice a componenti intere A (m × n) di rango m si dice uni-
modulare se ogni sottomatrice quadrata m × m non singolare di A ha determinante di valore
−1, 1.
Sia A una matrice (m × n) a componenti intere. Allora condizione sufficiente affinché il poliedro
P = {x ∈ IRn : Ax = b, x ≥ 0}
abbia tutti i vertici interi, per ogni b intero, è che la matrice A sia unimodulare.
Si dice invece che una matrice A é totalmente unimodulare se ogni sottomatrice quadrata di A
ha determinante in {−1, 0, 1}.
Teorema 12.4.3 Sia A una matrice (m×n) a componenti intere. Allora condizione sufficiente
affinché il poliedro
P = {x ∈ IRn : Ax ≥ b, x ≥ 0}
184
abbia tutti i vertici interi, per ogni b intero, è che la matrice A sia totalmente unimodulare.
È quindi interessante poter individuare condizioni che garantiscano l’unimodularità di una ma-
trice a componenti intere A (m × n).
Una ovvia condizione necessaria per la totale unimodularità è che la matrice abbia tutti elementi
aij ∈ {0, 1, −1}. µ
Non è però
¶ una condizione sufficiente, infatti basta scegliere banalmente una
1 1
matrice del tipo con determinante pari a 2.
−1 1
Si può dare una condizione sufficiente di totale unimodularità [2]:
Teorema 12.4.4 Sia A una matrice (m × n) con elementi aij ∈ {0, 1, −1}. Se
1. ogni colonna abbia al più due elementi diversi da zero;
2. è possibile partizionare gli indici di riga in due sottoinsiemi Q1 e Q2 tali che
(i) se la colonna j contiene due elementi aij 6= 0 e akj 6= 0 dello stesso segno allora
i ∈ Q1 e k ∈ Q2 ;
(ii) se la colonna j contiene due elementi aij 6= 0 e akj 6= 0 di segno opposto allora o
i, k ∈ Q1 oppure i, k ∈ Q2 ;
allora A è totalmente unimodulare.
Per matrici che hanno al piú due elementi diversi da zero per ogni colonna, la condizione 2
del teorema precedente diventa una condizione necessaria e sufficiente di totale unimodularità:
Teorema 12.4.6 Sia A una matrice (m × n) con elementi aij ∈ {0, 1, −1} e tale che ogni
colonna abbia al più due elementi diversi da zero. Allora A è totalmente unimodulare se e solo
se è possibile partizionare gli indici di riga in due sottoinsiemi Q1 e Q2 tali che:
(i) se la colonna j contiene due elementi aij 6= 0 e akj 6= 0 dello stesso segno allora i ∈ Q1
e k ∈ Q2 ;
(ii) se la colonna j contiene due elementi aij 6= 0 e akj 6= 0 di segno opposto allora o i, k ∈ Q1
oppure i, k ∈ Q2 .
185
Esempio 12.4.8 Dire se la seguente matrice è totalmente unimodulare (dimostrando l’affer-
mazione):
0 1 0 0 1 1 1 0
0 0 1 0 1 1 0 1
1 1 1 0 0 0 0 0
1 0 0 1 0 0 1 1
Soluzione.
La condizione necessaria è verificata, poiché gli elementi sono tutti 0, 1. Inoltre ogni colonna
di A ha al più due elementi non nulli, quindi sono verificate le ipotesi del Teorema 12.4.4.
Costruiamo la partizione degli indici di riga. Se la riga 1 ∈ Q1 allora la riga 2 ∈ Q2 , ma la riga
3 non può stare né in Q1 per l’elemento a12 né in Q2 per l’elemento a13 . Quindi la matrice non
è totalmente unimodulare.
Soluzione.
Sono verificate le ipotesi del Teorema 12.4.4. Esiste una partizione degli indici di riga, Q1 =
{1, 2, 3}, Q2 = {4, 5, 6}, che soddisfa le condizioni (i) (ii), quindi la matrice è totalmente uni-
modulare.
Esempio 12.4.10 Verificare che la matrice del problema di assegnamento 12.1.2 é totalmente
unimodulare.
Esempio 12.4.11 Verificare che la matrice del problema di trasporto 3.3.2 é totalmente uni-
modulare.
Esempio 12.4.12 Verificare che la matrice del problema di revenue management 3.3.3 é to-
talmente unimodulare.
min cT x
Ax ≤ b
(P LI)
0≤x≤U
x intera
dove U è un vettore a n componenti che limita superiormente il valori che possono essere assunti
dalle variabili. La presenza di questo vincolo implica che la regione ammissibile del problema PLI
186
è limitata. Questa assunzione semplificherà le considerazioni svolte in questo paragrafo. Essa
è, peraltro, non limitativa, in quanto in ogni problema reale il valore assunto dalle componenti
delle soluzioni ammissibili è sempre limitato superiormente da qualche costante.
In questo paragrafo consideriamo alcune tecniche risolutive per problemi di PLI. In partico-
lare, dopo alcune brevi considerazione sulla soluzione per enumerazione totale e sulla soluzione
approssimata per arrotondamento di problemi di PLI, descriveremo una delle più note famiglie
di algoritmi per la soluzione esatta di problemi di PLI: gli algoritmi di Branch and Bound.
Prima di procedere vogliamo introdurre un concetto molto importante, quello di problema
rilassato, che verrà ampiamento ripreso e utilizzato nel seguito. Dato il problema PLI si definisce
suo rilassamento lineare (o problema rilassato associato) il seguente problema.
min cT x
Ax ≤ b (P R)
0 ≤ x ≤ U.
Si tratta cioè di un problema di PL ottenuto eliminando dal problema PLI il vincolo di interezza.
La regione di un Problema di PLI è ovviamente contenuta in quella del suo rilassamento PR
(che è ottenuto, lo ripetiamo, eliminando un vincolo da PLI) e quindi ne segue che il valore
ottimo di PR è sicuramente maggiore o uguale di quello di PLI. In particolare, se la soluzione
ottima di PR è intera allora questa è anche la soluzione ottima di PLI.
e
r
[
S (i) = S (0)
i=1
Evidentemente, la soluzione ottima del problema originario è data dal massimo tra i valori
∗ ∗ ∗ ∗ ∗
z (1) = cT x(1) , . . . , z (r) = cT x(r) dove x(i) è la soluzione ottima del sottoproblema PLIi
definito dal problema di minimizzare la funzione obiettivo del problema PLI sulla regione am-
missibile S (i) (nel seguito, con un piccolo abuso di notazione, indicheremo spesso con S (i) sia
la regione ammissibile sia il sottoproblema PLIi ). Se un certo sottoproblema PLIi risulta, a
sua volta, di difficile soluzione si partiziona ulteriormente l’insieme S (i) producendo nuovi sot-
toproblemi ed iterando la procedura fino a che il problema originario non risulti decomposto in
problemi elementari di facile soluzione.
Cerchiamo di chiarire la procedura con un esempio informale. Supponiamo di dover trovare
la persona più giovane di un Ateneo. Risolvere questo problema confrontando le età di tutti gli
studenti fra loro (enumerazione totale) può risultare in un processo troppo lungo. Si può allora
187
chiedere ai presidi di ogni facoltà qual è lo studente più giovane delle loro facoltà e scegliere il più
giovane tra questi studenti. Abbiamo decomposto il problema originario in più sottoproblemi:
la determinazione dello studente più giovane di ogni facoltà. In alcuni casi la risoluzione di
questi sottoproblemi può essere agevole. In altri casi il preside può non essere in grado di
fornire facilmente il nome dello studente più giovane della sua facoltà. In questo caso si può
scomporre ulteriormente il problema. Per esempio, il preside può chiedere a tutti i direttori di
Corso di Laurea di fornirgli il nome dello studente più giovane che frequenta l’istituto stesso.
Da questi egli potrà cosı̀ risalire al nome dello studente più giovane della facoltà. E cosı̀ via.
È evidente che la procedura appena descritta non compie una totale enumerazione dell’insieme
S ed è computazionalmente efficiente solo se il numero dei sottoproblemi generati si mantiene
estremamente limitato e quindi solo se la strategia di soluzione dei sottoproblemi è sufficiente-
mente efficace.
In generale però, risolvere un sottoproblema può essere altrettanto gravoso che risolvere
il problema originario. È per questo che, in luogo della soluzione esatta del problema S (i)
∗ ∗
si preferisce calcolare un “lower bound” di z (i) e cioè un valore L(i) ≤ z (i) . Tale valore
viene poi confrontato con il miglior valore z̃ (ad un certo passo della procedura) della funzione
obiettivo calcolata in un punto ammissibile (ottimo corrente). Se il valore approssimato
risulta non inferiore a quello dell’ottimo corrente, ovvero se
∗
z̃ ≤ L(i) ≤ z (i)
si deduce che non esiste nell’insieme S (i) un punto in cui la funzione obiettivo abbia un valore
migliore di z̃. Un tale risultato ci permette di sospendere l’esame dell’insieme S (i) e di eliminarlo
dalla lista dei sottoproblemi da risolvere.
Per tornare all’esempio informale precedente, supponiamo che il preside di una facoltà
abbia comunicato che ha uno studente di età 17 anni e 3 mesi (ottimo corrente). Supponiamo
anche che il preside di un’altra facoltà, pur senza sapere esattamente qual è l’età esatta del
suo studente più giovane, sia riuscito ad avere la certezza, con mezzi solo a lui noti, che ogni
studente della sua facoltà non è più giovane di 18 anni (lower bound). È evidente che è inutile
fare lo sforzo di cercare di trovare l’età esatta del più giovane studente della sua facoltà, perché
comunque non sarà lo studente più giovane.
Evidentemente la soluzione del problema originario sarà tanto più efficiente quanto migliori
saranno i valori dei limiti inferiore (“lower bound”) ed a loro volta tali valori approssimeranno
tanto meglio il valore ottimo del sottoproblema quanto più efficace sarà stata la decomposizione
del problema originario. Di conseguenza l’efficienza della tecnica del BB dipende essenzialmente
dalla qualità delle due strategie che ne caratterizzano la struttura:
(a) Strategia di Soluzione, ovvero la strategia per il calcolo di un valore che approssimi per
eccesso (in un problema di massimo) il valore ottimo di un sottoproblema.
(b) Strategia di Separazione, ovvero la strategia per la scelta della partizione dell’insieme
delle soluzioni ammissibili di un sottoproblema.
È anche evidente che a seconda della strategia di soluzione e di quella di separazione adottate,
lo schema generale appena descritto si concretizzerà in un algoritmo differente.
Nel seguito di questo paragrafo descriveremo un possibile schema (semplificato) di BB che
corrisponde a uno degli schemi di BB più utilizzati nella pratica dando al contempo maggiore
sistematicità al metodo presentato.
188
Ricordiamo che vogliamo risolvere un problema di PLI della seguente forma
min cT x
Ax ≤ b
(P LI)
0≤x≤U
x intera
Questo problema, nel seguito sarà indicato anche come problema S (0) . Nel corso del metodo
considereremo dei sottoproblemi che hanno una struttura simile. Più precisamente consider-
eremo sottoproblemi S (i) con la seguente struttura.
min cT x
Ax ≤ b
(Si )
l(i) ≤ x ≤ u(i)
x intera,
dove i vettori n dimensionali l(i) e u(i) sono calcolati dall’algoritmo. Nel seguito indicheremo,
∗ ∗
inoltre, con x(i) e z (i) rispettivamente una soluzione ottima e il valore ottimo di Si .
∗
La strategia che proponiamo per calcolare un limite inferiore L(i) di z (i) è la seguente:
dato il problema S (i) , risolvere il suo rilassamento lineare.
Indichiamo con x̄(i) la soluzione ottima del rilassamento lineare di S (i) e con L(i) il corrispon-
dente valore ottimo. Per quanto visto precedentemente il valore ottimo L(i) cosı̀ ottenuto
∗
costituisce un limite inferiore di z (i) , inoltre il rilassamento lineare è facilmente risolubile con
il metodo del simplesso.
Dobbiamo ora descrivere un metodo per la separazione di un generico S (i) . Supponiamo di
aver risolto il rilassamento lineare di S (i) e sia x̄(i) la sua soluzione ottima e, come già detto, con
∗
U (i) il corrispondente valore ottimo. Se x̄(i) ha tutte componenti intere allora x̄(i) = x(i) e il
problema non va separato. Se U (i) è minore o uguale all’ottimo corrente, cioè al valore massimo
della funzione obiettivo finora trovato, il problema non può dar origine ad una soluzione intera
migliore di quella corrente e non è necessario separarlo per trovare la sua soluzione ottima
intera. Supponiamo quindi che nessuno di questi due casi si sia verificato, e vediamo come
(i)
seperare questo sottoproblema. Sia x̄j una componente non intera del vettore x̄(i) (almeno
una ne deve esistere), αj la sua parte intera inferiore (ossia il più grande intero minore o uguale
∗ (i)
a x(i) j ) e βj la sua parte intera superiore (ossia il più piccolo intero maggiore o uguale a x̄j ).
Ovviamente valgono le seguenti relazioni:
αj < βj
βj − αj = 1.
Separiamo il problema S (i) nei seguenti due problemi
min cT x (i)
lj se i 6= j
Ax ≤ b
(l(i) )1j =
(l(i) )1 ≤ x ≤ u(i)
x intera, βj se i = j
e
min cT x (i)
uj se i 6= j
Ax ≤ b
(u(i) )2j =
l(i) ≤ x ≤ (u(i) )2
x intera, αj se i = j
189
Notiamo che è facile convincersi che l’unione delle regioni ammissibili di questi due problemi dà
la regione ammissibile del problema S (i) , di modo tale che questa è in effetti una separazione
del problema S (i) del tipo prima considerato.
Per concludere vogliamo osservare che dobbiamo considerare un altro caso che finora non
abbiamo menzionato. Nel risolvere il rilassamento del problema S (i) può accadere che la regione
ammissibile del rilassamento risulti vuota. Siccome la regione ammissibile del problema S (i)
è contenuta in quella del suo rilassamento, questo vuol dire che il problema S (i) ha regione
ammissibile vuota, e quindi non c’è bisogno di separarlo.
Abbiamo ora tutti gli elementi per descrivere il metodo di B& B proposto.
1. Inizializzazione
190
(1) Scelta del problema con il massimo “lower bound”. Tale scelta ha lo scopo di esaminare
per primi quei problemi in cui è più probabile trovare una soluzione ottima. Infatti, se
la strategia di soluzione produce buone soluzioni approssimate, a valori alti del “lower
bound” corrisponderanno alti valori delle soluzioni ottime dei sottoproblemi. Pertanto,
esaminando il sottoproblema aperto cui corrisponde il massimo valore del “upper bound”
si avrà una maggiore probabilità di individuare la soluzione ottima.
(2) Scelta con criterio di priorità LIFO (Last In First Out). In questo caso i sottoproblemi ter-
minali sono gestiti dalla procedura secondo lo schema a stack. In particolare, il problema
scelto è l’ultimo problema generato nella fase di separazione.
2.3. Esame di un sottoproblema terminale
Sia S (i) il problema scelto in accordo ad uno dei criteri presentati al punto 2.1 e sia L(i) l’“lower
bound”associato ad S (i) . Inoltre, sia x̄(i) l’ottimo del problema rilassato, cioè il punto che
soddisfa L(i) = cT x̄(i) . Abbiamo le seguenti possibilità:
2.3.1. x̄(i) appartiene ad S (i)
Se l’ottimo del problema rilassato x̄(i) appartiene ad S (i) abbiamo che esso è ottimo anche
per il sottoproblema S (i) . Inoltre poiché il problema S (i) è aperto abbiamo che L(i) > z̃ e
quindi che x̄(i) è una soluzione ammissibile del problema originario con valore della funzione
obiettivo (cT x̄(i) = L(i) ) migliore di z̃. Di conseguenza, possiamo porre x̃ = x̄(i) e z̃ = L(i) .
(aggiornamento dell’ottimo corrente). In ogni caso il problema S (i) viene chiuso e si inizia
il passo successivo.
2.3.2. x̄(i) non appartiene ad S (i)
In tal caso si deve applicare la strategia di separazione precedentemente illustrata, produrre i
due nuovi sottoproblemi ed aggiungerli alla lista dei problemi terminali, calcolare i loro “up-
per bound”, eliminare il problema S (i) dalla lista dei problemi terminali ed iniziare il passo
successivo. 2
max cT x
Ax ≤ b
0≤x≤U x intera
Il valore della soluzione del problema rilassato costituisce un “upper bound” U e risulta zI∗ ≤ U .
Una qualunque soluzione ammissbile intera costituisce invece il “lower bound”.
12.5.2 Esempi
Completiamo con degli esempi di applicazione del metodo appena descritto.
191
7x1 + 2x2 ≤ 22
−2x1 + 2x2 ≤ 1
1 ≤ x1 ≤ 4
0 ≤ x2 ≤ 3
x1 , x2 ∈ Z
3
Ricordiamo che dx̄1 e indica il più piccolo numero intero maggiore o uguale a x̄1
4
Ricordiamo che bx̄1 c indica il più grande numero intero minore o uguale a x̄1
192
Il rilassamento lineare del problema S (1) ha soluzione x̄(1) = (2, 5/2)0 di valore U (1) =
z(x̄ ) = 8.5. La soluzione del rilassamento lineare del problema S (2) è, invece, x̄(2) = (3, 1/2)0
(1)
La soluzione del rilassamento lineare del problema S (3) è x̄(3) = (2, 2)0 ed ha valore U (3) =
z(x̄ ) = 8. Il problema S (4) , invece, non ha soluzioni ammissibili. Di conseguenza, poniamo
(3)
U (4) = −∞.
È possibile chiudere sia il problema S (3) che il problema S (4) . Il primo in quanto la soluzione
del rilassamento lineare è intera, il secondo in quanto non ha soluzione ammissibili (ovvero
poichè U (4) < z̃). Nessuno dei due viene quindi inserito nella lista L.
Si osservi che, pur essendo x̄(3) una soluzione intera, non aggiorniamo l’ottimo corrente in
quanto x̃ = x̄(3) .
Estraiamo dalla lista L = {S (2) } il problema S (2) (unico problema rimasto) ed effettuiamo
la separazione rispetto alla variabile x(2) (infatti la seconda componente di x(2) è frazionaria).
Dobbiamo aggiungere alla formulazione di S (2) i due vincoli x2 ≤ 0 e x2 ≥ 3 . In tal modo,
otteniamo i due problemi seguenti :
193
3 ≤ x1 ≤ 4
0 ≤ x2 ≤ 0
x1 , x2 ∈ Z
La soluzione del rilassamento lineare del problema S (5) è x̄(5) = (3.14 . . . , 0)0 ed ha val-
ore U (5) = z(x̄(5) ) = 9.428 . . .. Il problema S (6) , invece, non ha soluzioni ammissibili. Di
conseguenza, poniamo U (6) = −∞.
Il problema S (6) viene chiuso in quanto non ha soluzione ammissibili, il problema S (5) non
è eliminabile e va quindi inserito nella lista L. Infatti il suo valore ottimo è pari a 9.428 . . .,
poiché tale valore è migliore di quello della soluzione intera trovata (ossia 8), il problema non
è eliminabile (nella sua regione ammissibile potrebbe trovarsi una soluzione intera migliore di
quella corrente).
Nella lista L vi è ora solo il problema S 5 , che viene quindi scelto. Viene effettuata la
separazione rispetto alla variabile x1 . A tale scopo, si aggiungono alla formulazione di S (5) i
due vincoli x1 ≤ 2 e x1 ≥ 4, ottenendo i due problemi:
194
La soluzione del rilassamento lineare del problema S (7) è x̄(7) = (3, 0)0 ed ha valore U (7) =
z(x̄ ) = 9. Il problema S (8) , invece, non ha soluzioni ammissibili. Di conseguenza, poniamo
(7)
U (8) = −∞.
I problemi S (7) e S (8) possono essere chiusi: il primo in quanto la soluzione ottenuta è
intera, il secondo in quanto non ha soluzione. La soluzione intera di S (7) è migliore di quella
corrente e quindi la soluzione corrente viene aggiornata (si pone x̂T = (3, 0)).
La lista L è ora vuota, il procedimento quindi termina. La soluzione ottima è data dalla
soluzione corrente, ossia dalla soluzione del problema S (7) :
I vari passi della procedura di soluzione possono essere schematizzati utilizzando il cosid-
detto Albero di Enumerazione riportato in figura 12.7. In tale albero i nodi indicano i problemi
mentre i rami stabiliscono le relazioni padre-figlio (generatore-generato) nel processo di gener-
azione.
1 2
3 4 5 6
7 8
Esempio 2. Passiamo ora ad esaminare, più sinteticamente il secondo esempio. Sia dato il
seguente problema di programmazione lineare a numeri interi.
max x1 + x2
2x1 + 5x2 ≤ 30
4x1 − 3x2 ≤ 6
(S (0) )
0 ≤ x1
0 ≤ x2
x1 , x2 ∈ Z
Notiamo che in questo problema non sono esplicitamente presenti gli “upper bound” sule vari-
abili. Essendo comunque la regione ammissibile del problema rilassato limitato, non è comunque
necessario inserirli esplicitamente. È facile convincersi che nulla cambia nell’applicazione dell’algoritmo
e nella sua validità.
195
Poniamo inizialmente z̃ = −∞ e risolviamo il rilassamento lineare di S (0) . Si ottiene
114 60 54
U (0) = x(0) = ( , ).
13 13 13
Essendo U (0) > z̃ si separa rispetto alla variabile x1 . Si elimina S (0) dalla lista L, e vi si
aggiungono i due nuovi problemi S 1 e S 2 individuati dai seguenti vincoli aggiuntivi.
S1 : x1 ≤ 4
S2 : x1 ≥ 5.
Si avrà pertanto L = {S 1 , S 2 }.
Si sceglie S 1 da L e si risolve il suo rilassamento. Si ottiene
42 22
U1 = x̄1 = 4 x̄2 =
5 5
Essendo U 1 > z̃ si elimina S 1 da L e vi si aggiungono, invece altri due problemi, S 3 e S 4 ,
individuati dai seguenti vincoli aggiuntivi.
S3 : x1 ≤ 4 x2 ≤ 4
S4 : x1 ≤ 4 x2 ≥ 5.
Risulta pertanto L = {S 2 , S 3 , S 4 }.
Si sceglie S 3 da L e si risolve il suo rilassamento. Si ottiene
U3 = 8 x̄1 = 4 x̄2 = 4
Essendo U 3 > z̃ ed essendo intera la soluzione trovata, si pone
z̃ = U 3 = 8 x̃1 = x̄1 = 4 x̃2 = x̄2 = 4,
e si elimina il problema S 3 . Risulta a questo punto L = {S 2 , S 4 }.
Si sceglie S 4 da L e si risolve il suo rilassamento. Si ottiene
15 5
U4 = x̄1 = x̄2 = 5
2 2
Essendo U 4 < z̃ si chiude S 4 e la lista diventa L = {S 2 }.
Si sceglie S 2 dalla lista e si risolve il suo rilassamento. Si vede che non esistono soluzioni
ammisibili. Si chiude S 2 e la lista L è vuota. La soluzione corrente è la soluzione ottima.
z∗ = 8 x∗1 = 4 x∗2 = 4.
196
dove a e c sono vettori in IRn a componenti non negative e b > 0 è un numero reale. Questo
problema ha l’interessante proprietà che la soluzione del suo rilassamento lineare può essere
ottenuta, senza usare il metodo del simplesso, nel modo seguente:
1. Si ordinano le variabili secondo i rapporti valore/ingombro decrescenti in modo tale che:
c1 c2 cn
≥ ≥ ... ≥
a1 a2 an
3. La soluzione del rilassamento lineare del problema di knapsack sarà il vettore x̄ cosı̀
definito:
x̄1 = . . . = x̄h = 1
x̄h+2 = . . . = x̄n = 0
Ph
(b − i=1 ai )
x̄h+1 =
ah+1
Esempio Nell’esempio, oltre alla strategia di calcolo del “upper bound” descritta nel §12.6,
useremo una tecnica di separazione binaria sulla variabile frazionaria e sceglieremo il problema
da esaminare in base alla strategia LIFO.
Osserviamo innanzitutto che gli indici delle variabili soddisfano le condizioni di ordinamento
dei rapporti valore/ingombro.
1. Inizializzazione La soluzione ottima del rilassamento lineare è:
197
2
x̄0 = [1, 1, , 0]
3
Il valore corrispondente dell “upper bound” è U0 = 10. Una soluzione ammissibile (ma non
ottima) del problema è x̃ = [1, 1, 0, 0], ottenuta arrotondando all’intero inferiore le componenti
di x̄0 . Il suo valore (’lower bound’) è z̃ = 8 Poichè l’ottimo rilassato non è intero (e quindi
non appartiene a S0 = S) dobbiamo separare il problema S0 . Poichè la componente (x̄0 )3 è
frazionaria, scegliamo la variabile x3 e la fissiamo ad 1 e 0 ottenendo, rispettivamente, i problemi
S1 ed S2 , le cui formulazioni sono:
Calcoliamo, utilizzando la strategia sopra descritta, le soluzioni ottime dei problemi rilassati:
2
x̄1 = [1, , 1, 0], x̄2 = [1, 1, 0, 1]
3
I valori dei corrispondenti ’upper bounds’ saranno U1 = 9.6̄ ed U2 = 9. La lista dei problemi
198
(2c) Esame del problema scelto
Poichè x̄1 non appartiene ad S1 (infatti è una soluzione non intera) l’ottimo corrente non viene
aggiornato. Di conseguenza, il problema S1 deve essere decomposto. Poichè la componente
(x̄1 )2 è frazionaria, scegliamo la variabile x2 e fissiamola a 0 ed 1 ottenendo i problemi S3 ed
S4 le cui formulazioni sono:
199
Capitolo 13
13.1 Introduzione
La soluzione grafica di problemi di ottimizzazione che abbiamo visto nel Capitolo 3 può essere
utilizzata solo nel caso in cui il numero di variabili sia due. I problemi applicativi hanno normal-
mente più di due variabili. È necessario utilizzare sistemi di calcolo automatici per trattare sia
grandi quantità di dati che di operazioni logico-aritmetiche. Esistono molti software per risol-
vere problemi di Programmazione Matematica a diversi livelli di complessità. Alcuni prodotti
software integrano anche linguaggio di modellizzazione con il/i solutore/i in un unico pacchetto
commerciale. Si tratta di prodotti di ottimizzazione comprensivi di tutto l’ambiente di calcolo,
cosiddetti sistemi di modellizzazione ”stand-alone” che sono in grado di fornire l’interfaccia
completa tra i differenti livelli di formulazione, soluzione, e analisi della modellizzazione. I
sistemi di tipo stand-alone tendono ad essere i più vantaggiosi a livello di costruzione di pro-
totipo, quando il lavoro è incentrato sulla costruzione di un modello accettabile e nel dimostrare
che l’approccio è sufficientemente promettente per giustificare investimenti maggiori. In questo
modo però si incoraggia fortemente (quando non è obbligato) l’uso di un particolare solutore.
Quindi è una scelta ragionevole in situazioni in cui la velocità e la versatilità non sono le ques-
tioni più importanti. Questo è spesso il caso di sistemi altamente specializzati, in cui la qualità
dell’interfaccia è l’aspetto fondamentale e l’insieme di problemi che il solutore deve trattare
appartengono ad una classe relativamente stretta e ben definita.
Rientrano in questa categoria alcuni dei più elementari linguaggi di modellizzazione cosı̀ come
i prodotti di ottimizzazione inseriti in programmi di foglio elettronico (spreadsheet).
c
In questo capitolo utilizzeremo Microsoft°Office Excel 2003 e gli strumenti Scenario e Solutore
(http://www.solver.com/).
L’utilizzo di fogli elettronici per l’analisi e la soluzione di un problema di ottimizzazione
richiede alcuni passi fondamentali.
1. la creazione di un foglio elettronico che modelli il problema
200
2. identificare le variabili di decisione
3. identificare la funzione obiettivo e la cella che la contiene
4. rappresentare i vincoli e specificare le celle che li contengono
5. utilizzare il modello per analisi quantitativa.
Le celle di una tabella excel sono individuate dalla posizione di colonna (indicata da una
lettera dell’alfabeto) e di riga (un numero).
201
Figura 13.1: Dati relativi al problema di Capital Budgeting.
Celle vincoli. Si tratta di inserire in alcune celle le formule che definiscono il “left hand side”
(l.h.s.) dei vincoli. Il right hand side =r.h.s del vincolo DEVE essere un valore numerico
e deve essere contenuto in un’altra cella.
Nel nostro esempio c’è un unico vincolo di budget. Il valore del l.h.s., cioè la formula
8x1 + 6x2 + 5x3 , è inserito in cella B5.
Il valore del l.h.s deve essere confrontato con il valore del r.h.s. è utile porre questi due
valori “vicini”. La posizione “naturale” del valore di budget è nella cella D5 separata dalla B5
da una cella intermedia C5 che contiene il simbolo ≤. Tale simbolo non ha alcuna funzione di
202
controllo, ma serve solo a rendere più leggibile il file.
. Il valore in B5 è calcolato inserendo una funzione Excel. Si è utilizzata la funzione
=MATR.SOMMA.PRODOTTO($B$3:$D$3;DATI!B3:D3)1 .
Si osservi che la funzione utilizza i valori delle celle nell’intervallo B3:D3 del foglio Modello
e del foglio Dati. L’utilizzo del simbolo $ utilizzando per indirizzare le celle variabili, ha una
funzione utile quando è necessario ”replicare” la funzione e verrà spiegato più avanti.
Al solo scopo di mostrare alcune funzioni di Excel è stata inserita nella cella E5 una funzione
logica che indica se il vincolo è soddisfato o violato. In particolare, si utilizza la funzione logica
“SE”, che restituisce restituisce il valore “ammissibile” (vero) o “non ammissibile” (falso) in
base alla differenza tra il valore delle celle D5 (budget) e B5 (spesa effettiva). La sintassi è:
=SE(D5-B5 >= 0;"AMMISSIBILE";"NON AMMISSIBILE")
Questa opzione può essere utile per una immediata visualizzazione dei risultati in un analisi
di scenario. Prestare attenzione alla precisione con cui viene effettuata (la visualizzazione del
contenuto della cella può avere una rappresentazione diversa da quella utilizzata per effettuare
le operazioni).
Cella obiettivo. La cella obiettivo contiene il valore della funzione obiettivo. Anche in
questo caso è opportuno inserire delle celle di commento che aiutino nella visualizzazione.
Nel nostro esempio si tratta di assegnare la formula 20x1 + 5x2 + 10x3 . Il valore della funzione
obiettivo è assegnato alla cella B7 ed è dato dalla formula
B7= MATR.SOMMA.PRODOTTO($B$3:$D$3;DATI!B4:D4)
Si osservi che, possono essere modificati i valori dei dati, ottenendo immediatamente il
nuovo valore del guadagno e dell’investimento relativi alla scelta attuale delle variabili.
203
Figura 13.2: Tabella Excel relativa al problema di Capital Budgeting.
di input che sono state utilizzate. Supporta anche la generazione automatica di un Riepilogo
Scenari che realizza un confronto affiancando i risultati.[4]
Il tool Scenari presenta alcune limitazioni pratiche. In particolare i valori delle variabili di
input devono essere inserite nel box di dialogo per gli input di scenario (vedi la figura 15.5),
violando una delle buone regole di utilizzo di modelli per cui i dati devono essere SEPARATI dal
modello. Un altro aspetto da sottolineare è l’utilizzo del termine Celle Variabili per definire le
celle per cui l’utente fornisce un valore e che dunque giocano effettivamente il ruolo di parametri.
Vedremo più avanti che lo stesso nome Celle Variabili è utilizzato nel Solutore per indicare le
celle che sono cambiate dal tool stesso.
204
Figura 13.3: Costruzione di uno scenario per il problema di Capital Budgeting.
l’investimento e il profitto.
Volendo utilizzare il tool Scenari per un’analisi della variazione della soluzione al variare
dei dati e utilizzare il Riepilogo Scenari, è necessario prevedere un foglio che contenga dati e
modello contemporaneamente. In queste dispense si preferisce rinunciare a questa possibilità e
mantenere separati Dati e Modello.
205
Figura 13.4: Costruzione di uno scenario per il problema di Capital Budgeting.
Impostazione del modello per il Solutore. Dalla voce Strumenti selezionare Solutore.
A questo punto appare la finestra Parametri del Risolutore illustrata in Figura 15.6. Si
tratta della finestra principale del Risolutore ed è utilizzata per identificare gli elementi che
costituiscono il modello. Nella parte in alto a sinistra della finestra compare l’etichetta Imposta
cella obiettivo e una cella che deve contenere l’indirizzo della cella della funzione obiettivo.
Questa cella può essere “editata” oppure riempita con il corretto valore semplicemente cliccando
sulla cella corrispondente sul foglio elettronico (N.B. La finestra “Parametri del Risolutore” può
essere spostata in modo da rendere visibili le celle del file).
Una volta impostata la cella obiettivo è necessario specificare se si tratta di un problema di
massimizzazione o di minimizzazione, selezionando il tasto Max o Min nella riga successiva.
Le variabili di decisione devono essere specificate indicando nella cella etichettata con Cam-
biando le celle (By Changing Cells) l’indirizzo delle celle variabili. Anche in questo caso è
206
Figura 13.5: Costruzione di uno scenario per il problema di Capital Budgeting.
possibile scrivere direttamente nella cella o riempirla selezionando sul foglio elettronico le celle
variabili. Un intervallo di celle può essere specificato, scrivendo il valore della prima ed ultima
cella separati da ’due punti’. Ulteriori variabili non contigue possono essere aggiunte separate
da ’virgola’.
I vincoli devono essere elencati nella sottofinestra Vincoli: (Subject to the Constraints). Se-
lezionando il tasto Aggiungi(Add) compare la finestra Aggiungi vincolo rappresentata in figura
15.7.
I vincoli possono essere inseriti uno alla volta. Questo procedimento può però essere molto
lungo nel caso di problemi con molti vincoli. in alternativa si possono inserire più vincoli
insieme se sono adiacenti e se hanno lo stesso vincolo relazionale (cioè ≤, ≥ oppure =). Il l.h.s
del vincolo deve essere inserito nella cella con etichetta Riferimento:. Successivamente cliccando
il tasto ≤ si apre una tendina che consente di specificare il tipo di vincolo. Il r.h.s. dei vincoli
deve essere inserito nella finestra con etichetta Vincolo:. Si può inserire il valore della cella
appropriata semplicemente “cliccando” sulla cella corrispondente nel foglio Excel.
N.B. Il r.h.s. del vincolo immesso nel solutore DEVE esser un valore numerico e quindi non
deve contenere funzioni. Tipicamente se erroneamente si inserisce una funzione nel r.h.s., excel
Solver interpreta il modello come Non Lineare e applica procedure di ottimizzazione diverse dal
simplesso non arrivando a convergere al minimo.
Tra le possibili tipologie di vincoli compaiono anche le opzioni int e bin. Servono rispettivamente
a specificare che le variabili possono assumere solo valori interi o binari. In questo caso nel
207
Seleziona la funzione max o min Specifica la cella che
come richiesto dal problema contiene il valore della Clicca qui per
funzione obiettivo risolvere il modello
Clicca qui
per specificare
il tipo di modello
e I parametri del
risolutore
Seleziona un vincolo e
In quest’area sono elencati Indica le celle che
clicca qui per modificarlo
tutti i vincoli del modello contengono le variabili
campo Riferimento: devono essere inserite le variabili interessate, mentre il campo Vincolo:
rimane vuoto. Nel nostro esempio le variabili sono binarie; questo vincolo può essere specificato
in modo diretto indicando che le celle B7,C7,D7 sono binarie, oppure imponendo alle variabili
la coppia di vincoli B7,C7,D7≥ 0, B7,C7,D7≤ 1 e specificando che si tratta di variabili intere.
In Figura 15.8 è illustrata questa procedura. Notiamo che i vincoli di non negatività possono
anche essere omessi in questa fase di specifica del modello; in questo caso devono però essere
specificati tra le Opzioni del Solutore (vedi paragrafo successivo).
Prima della soluzione del modello è necessario selezionare il tasto Opzioni sulla destra della
finestra “Parametri del Risolutore”. Nel caso si stia risolvendo un problema di Programmazione
Lineare (o di Programmazione Lineare Intera) è necessario selezionare l’opzione Presupponi il
modello lineare nella finestra “Opzioni del Risolutore”. È anche possibile specificare qui che
le variabili sono non negative, se non è già stato specificato esplicitamente tra i vincoli del
modello, selezionando l’opzione Presupponi non negativo. Vedi la Figura 15.8 per i dettagli.
A questo punto, uscendo dalla finestra con il tasto OK, l’attuale impostazione delle opzioni del
Solutore è salvata insieme con il foglio Excel e ne diventa parte integrante.
208
Clicca qui per selezionare
l’espressione logica appropriata Specifica la/e cella/e che
contengono il r.h.s. del/dei
Specifica la/e cella/e che vincolo/i
contengono il l.h.s. del/dei
vincolo/i
Microsoft Excel
Clicca qui per definire l’ultimo Help system
vincolo e ritornare alla finestra
“Parametri del Risolutore” Clicca qui per tornare
alla finestra “Parametri
Clicca qui per definire tutti eccetto
del Risolutore” senza
l’ultimo vincolo e ritornare alla
aggiungere vincoli
Finestra “Parametri del Risolutore”
in grado o meno di determinare la soluzione ottima del modello. Qualora non sia stato possibile
determinare la soluzione ottima, è possibile cambiare alcune delle opzioni nella finestra Opzioni
del Solutore per cercare di migliorare le prestazioni dell’algoritmo. In particolare, si possono
cambiare i valori di tempo massimo, iterazioni, approssimazione, tolleranza, convergenza che
stabiliscono i termini per cui l’algoritmo utilizzato dal Solutore si ferma.
Cliccando il tasto OK, si torna al foglio Excel. Si verifica che il valore di alcune celle è stato
modificato. In particolare le celle di decisione contengono il valore della soluzione (ottima)
determinata dal Solutore, e la cella obiettivo contiene il corrispondente valore della funzione
obiettivo. Anche il valore del l.h.s dei vincoli è calcolato utilizzando il valore corrente delle
variabili di decisione.
Cambiando i dati del modello, la soluzione ottima non viene automaticamente aggiornata. È
quindi necessario far risolvere nuovamente il problema.
La tabella Excel per il problema di capital Budgeting risolto è riportata in Figura 15.10.
Osserviamo che abbiamo risolto un problema di PLI. Excel-Solver è in grado di risolvere
problemi di PLI di piccole dimensioni. Quando il numero di variabili è troppo alto, la determi-
nazione della soluzione ottima, può richiedere troppo tempo o non convergere affatto.
209
Parametri
per algoritmo
m
Seleziona questa
opzione se le funzioni
che definiscono vincoli
e obiettivo sono lineari
Seleziona questa opzione se le variabili Parametri per
Sono vincolate ad essere non negative e modelli non lineari
non e` gia` stato specificato nei vincoli
210
Selezionare il rapporto
Questo messaggio specifica se il Solutore che si desidera generare
ha trovato o no la soluzione ottima
Rapporto valori
Il Rapporto valori per il problema di Allocazione ottima (15.1) è riportato in figura 15.11.
Il Rapporto valori è diviso in tre sezioni: funzione obiettivo, celle variabili, vincoli. Per
quanto riguarda le prime sue sezioni, sono riportati i valori iniziali e i valori ottenuti dal Solutore.
Nella sezione dedicata ai vincoli, per ogni vincolo oltre al valore del l.h.s. e alla relativa formula
(in formato excel) fornisce indicazioni sullo stato. In particolare lo stato di un vincolo può
essere Vincolante o Non Vincolante. Si intende che il vincolo è rispettivamente attivo (ovvero
soddisfatto all’uguaglianza) o non attivo (ovvero soddisfatto con la disuguaglianza stretta) nella
soluzione ottima determinata dal Solutore. L’ultima colonna della sezione dedicata ai vincoli
Tolleranza è la differenza (slack) tra il valore del l.h.s e il valore del r.h.s.. Questa informazione
è di interesse quando i vincoli si riferiscono ad una risorsa limitata (come nel caso dell’esempio
di allocazione ottima delle risorse). In questo caso infatti la Tolleranza indica quanta della
risorsa disponibile non è stata utilizzata. Nell’esempio 15.1, all’ottimo sono attivi i vincoli
x1 + x2 ≤ 750, x1 + 2x2 ≤ 1000, mentre il vincolo x2 ≤ 400 relativo alla disponibilità di
preparato 3 è non attivo. Il valore della Tolleranza=150 che è la differenza tra la disponibilità
di preparato 3 (=400) e la quantità utilizzata (=250). È ovvio che la soluzione ottima del
problema (15.1) rimane invariata se la quantità disponibile di preparato 3 viene aumentata o
ridotta fino al valore 250.
211
Figura 13.10: Risultato del Solutore per il problema di Capital budgeting.
del problema sotto studio. Abbiamo affrontato questo problema nel paragrafo 11.3.5. Qui ci
limitiamo a descrivere il foglio prodotto dal Solver di Microsoft Excel.
Il Rapporto sensibilità è generato da Excel su richiesta. Il file generato per il problema di
allocazione ottima di risorse in § 2.4.1 è in figura 15.14.
Il rapporto è diviso in due parti. Nella parte superiore per ogni cella variabile è riportato il
valor e della soluzione ottima. Se una variabile è nulla, significa che non è vantaggioso produrla.
La colonna Costo ridotto di questa attività indica quanto maggiore dovrebbe essere il profitto
per unità relativo a questa variabile affinché sia inserita nella soluzione ottima ad un valore non
nullo. Se il costo ridotto relativo alla variabile xi è negativo pari a −γi , questo significa che il
profitto relativo a quella variabile deve aumentare da ci (valore indicato in tabella nella colonna
Coefficiente oggettivo) a ci + γi perché esista una soluzione ottima con xi > 0. Le colonne
aumento e decremento ammissibile corrispondono alla variazione in aumento o diminuzione per
ci per cui la soluzione rimane ottima.
D’atra parte se una variabile è già positiva all’ottimo, le colonne Incremento/Decremento con-
sentito indicano quanto deve variare in più o in meno, il profitto relativo a quella cella variabile
affinché la soluzione data non sia più ottima.
Ad esempio nel problema di allocazione ottima di risorse in § 2.4.1, la cella variabile $B$9 che
corrisponde alla produzione di Colorante di tipo 1, l’attuale coefficiente della funzione obiettivo
è 7, mentre Incremento e Decremento consentiti sono rispettivamente 3 e 2. Questo significa che
se il coefficiente c1 della funzione obiettivo varia nell’intervallo [5, 10] i cui estremi corrispondono
212
Figura 13.11: Tabella Excel relativa al problema di allocazione di risorse.
213
Microsoft Excel 10.0 Rapporto valori
Foglio di lavoro: [allocazione.xls]Allocazione ottima di risorse
Data di creazione: 28/04/2004 16.59.50
Celle variabili
Cella Nome Valori originali Valore finale
$B$9 variabili di decisione colorante 1 5 500
$C$9 variabili di decisione colorante 2 6 250
Vincoli
Cella Nome Valore della cella Formula Stato Tolleranza
$B$14 preparato 1 utilizzato 750 $B$14<=$D$14 Vincolante 0
$B$15 preparato 2 utilizzato 1000 $B$15<=$D$15 Vincolante 0
$B$16 preparato 3 utilizzato 250 $B$16<=$D$16 Non vincolante 150
Figura 13.12: Rapporto Valori per il problema di allocazione ottima di risorse in § 2.4.1.
250 e 150 rispettivamente. Questo significa che ogni unità aggiunta fino al massimo di 250
produce un incremento del profitto di 4 per unità, e ogni unità sottratta fino ad un massimo
di 150 produce una diminuzione di profitto di 4 per unità. Al di fuori di questo range non è
possibile utilizzare i prezzi ombra per prevedere cosa succede. L’unico modo per verificare come
si modifica la soluzione è di far risolvere nuovamente il modello con i nuovi dati.
L’analisi dei prezzi ombra è identica per ciascun vincolo attivo. Per i vincoli non attivi il
valore del prezzo ombra è ovviamente nullo. Questo è sensato dal punto di vista economico;
difatti poiché la risorsa non è stata utilizzata completamente (è inn eccesso) non è conveniente
acquisire una maggiore quantità. IN questo caso l’Incremento consentito è infinito, perché il
prezzo ombra rimane nullo qualunque sia la quanità aggiuntiva. Il decremento consentito è però
limitato (nel nostro esempio a 150), perché un’eccessiva riduzione della risorsa può portarla ad
essere vincolante. Il decremento massimo consentito è pari esattamente al valore di Tolleranza
relativo al vincolo riportato nel Rapporto Valori.
È importante ricordare che nell’analisi che abbiamo fatto, è stato modificato un solo input alla
volta.Per sapere cosa succede modificando più input alla volta è necessario utilizzare il Solutore.
214
550
aumento di P3 a 550
400 400
x* diminuzione di P3 a 250
x*=(500,250)
250
Figura 13.13: Interpretazione grafica del cambiamento del valore della risorsa “prepapato 3”
del problema in § 2.4.1.
1. Nella sezione relativa alle Celle variabili se una variabile è attualmente nulla, il suo costo
ridotto indica quanto più “vantaggiosa” (ad esempio minor costo o maggior profitto) deve
essere il suo coefficiente nella funzione obiettivo in modo che tale variabile risulti positiva
nella soluzione ottima.
2. Nella sezione relativa alle Celle variabili se sono presenti dei vincoli di limitazione supe-
riore o inferiore su una variabile, il suo costo ridotto indica quanto più “svantaggiosa”
(ad esempio maggior costo o minor profitto) deve essere il suo coefficiente nella funzione
obiettivo in modo che il valore di tale variabile sia diminuito.
3. Nella sezione relativa ai Vincoli, il valore del prezzo ombra indica di quanto aumenterebbe
il valore della funzione obiettivo (per un problema di massimizzazione) per un incremento
unitario del r.h.s. del vincolo corrispondente.
Rapporto limiti
215
Microsoft Excel 10.0 Rapporto sensibilità
Foglio di lavoro: [allocazione.xls]Allocazione ottima di risorse
Data di creazione: 28/04/2004 16.59.50
Celle variabili
Valore ridotto oggettivo consentito consentito
Cella Nome finale Costo Coefficiente Incremento Decremento
$B$9 variabili di decisione colorante 1 500 0 7 3 2
$C$9 variabili di decisione colorante 2 250 0 10 4 3
Vincoli
Valore ombra Vincolo consentito consentito
Cella Nome finale Prezzo a destra Incremento Decremento
$B$14 preparato 1 utilizzato 750 4 750 250 150
$B$15 preparato 2 utilizzato 1000 3 1000 150 250
$B$16 preparato 3 utilizzato 250 0 400 1E+30 150
Figura 13.14: Rapporto Sensibilità per il problema di allocazione ottima di risorse in § 2.4.1.
Il Rapporto limiti produce informazioni poco interessanti già presenti negli altri Rapporti.
Non verranno discusse affatto.
216
Microsoft Excel 10.0 Rapporto limiti
Foglio di lavoro: [allocazione.xls]Rapporto limiti 1
Data di creazione: 28/04/2004 16.59.50
Obiettivo
Cella Nome Valore
$B$19 profitto max 6000
Figura 13.15: Rapporto Limiti per il problema di allocazione ottima di risorse in § 2.4.1.
217
Figura 13.16: Installazione del solutore in Excel.
218
Appendice A
219
Definizione A.1.3 (Gradiente)
Sia f : Rn → R ed x ∈ Rn . Se esistono le derivate parziali prime di f in x definiamo gradiente
di f in x il vettore ∇f (x) ∈ Rn
∂f (x)
∂x1
∇f (x) :=
. . . .
∂f (x)
∂xn
A differenza di quanto avviene sulla retta reale, nel caso di Rn l’ esistenza del gradiente non
consente, in generale, di poter approssimare, con la precisione voluta, il valore di f nell’intorno
di x con una funzione lineare dell’incremento. Una tale possibilità è legata ad una nozione più
forte di differenziabilità, che non riportiamo qui.
È da notare che la sola esistenza di ∇f non implica, in generale, la proprietà di differen-
ziabilità. Si dimostra, tuttavia, che se ∇f (x) esiste ed è continuo rispetto ad x, allora f è
differenziabile in x. (La continuità del gradiente è una condizione sufficiente per la differenzia-
bilità in senso forte.)
Dal teorema precedente segue che se ∇f (x) è continuo si può scrivere, per ogni d ∈ Rn :
f (x + td) − f (x)
lim = ∇f (x)0 d.
t→0+ t
Indicheremo con il nome approssimazione lineare della funzione f (x) nell’intorno di un punto
assegnato x̄, la funzione
fLIN (x) = f (x̄) + ∇f (x̄)T (x − x̄)
ottenuta dalla f (x̄ + td) come in (A.1) trascurando il termine α(x, d) in cui si pone d = x − x̄,
t = 1.
220
Sia g : Rn → Rm e x ∈ Rn . Se esistono le derivate parziali prime ∂gi (x)/∂xj , per i = 1 . . . , m
e j = 1 . . . n in x definiamo matrice Jacobiana di g in x la matrice m × n
∂g1 (x) ∂g1 (x)
∂x1 . . .
∂xn
J(x) :=
. . . . . . . . . .
∂gm (x) ∂gm (x)
...
∂x1 ∂xn
Valgono le stesse considerazioni sulla differenziabilità che abbiamo fatto nel paragrafo prece-
dente, ovvero, la sola esistenza della matrice Jacobiana in x non implica la differenziabilità. Se
però J(x) è continua si può scrivere, per ogni d ∈ Rn :
221
Indicheremo con il nome approssimazione quadratica della funzione f (x) nell’intorno di un punto
assegnato x̄, la funzione
1
fQU AD (x) = f (x̄) + ∇f (x̄)T (x − x̄) + (x − x̄)T ∇2 f (x̄)(x − x̄)
2
ottenuta dalla f (x̄ + td) come in (A.2) trascurando il termine β(x, d) in cui si pone d = x − x̄,
t = 1.
Nelle stesse ipotesi si ha anche, come si è detto, che la matrice Hessiana ∇2 f (x) è una matrice
simmetrica, ossia si ha, per i, j = 1 . . . , n:
∂ 2 f (x) ∂ 2 f (x)
= .
∂xi ∂xj ∂xj ∂xi
Osserviamo anche che se ∇2 f (x) è continua si può scrivere
∇f (x + d) = ∇f (x) + ∇2 f (x)d + γ(x, d),
con
γ(x, d)
lim = 0.
kdk→0 kdk
Nel caso di funzioni vettoriali g : Rn → Rm non è possibile stabilire un teorema della media.
Esempi
Alcuni esempi di interesse di funzioni differenziabili sono:
f (x) = c0 x; si ha: ∇f (x) = c, ∇2 f (x) = 0;
f (x) = 12 x0 Qx + c0 x, (con Q simmetrica); si ha: ∇f (x) = Qx + c; ∇2 f (x) = Q;
f (x) = kAx − bk2 ; si ha: ∇f (x) = 2A0 (Ax − b); ∇2 f (x) = 2A0 A
222
Riferimenti
[1] C. Mannino, L. Palagi e M. Roma. Complementi ed Esercizi di Ricerca Operativa.
Edizione Ingegneria 2000, Roma, 1998.
[2] Antonio Sassano. Modelli e Algortimi della Ricerca Operativa. Franco Angeli Editore,
Roma, 1999.
[3] Fabio Schoen Modelli di Ottimizzazione per le decisioni. Società Editrice Esculapio,
Bologna, 2006.
[4] I. A. Markham e S.W. Palocsay Scenario Analysis in Spreadsheets with Excel’s
Scenario Tool. INFORMS Transactions on education 6:2(23-31)
[5] Risolutore di Excel in Excel 97 http://support.microsoft.com/kb/843304/it
[6] Joern Meissner, Thanh-Ha Nguyen An Introduction to Spreadsheet Optimization
Using Excel Solver. http://www.meiss.com/en/publications/spreadsheet-optimization-
solver.html
223
Indice
1 Introduzione 0
1.1 Breve storia della Ricerca Operativa . . . . . . . . . . . . . . . . . . . . . . . . . 0
1.2 La Ricerca Operativa oggi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3 L’approccio modellistico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Un primo esempio di costruzione di un modello matematico . . . . . . . . . . . . 11
2 Modelli di Ottimizzazione 14
2.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Definizioni preliminari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3 Problemi di Programmazione Matematica . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Esempi di modelli di Programmazione Matematica . . . . . . . . . . . . . . . . . 19
1
5.2 Funzioni convesse e concave . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.3 Problemi di ottimizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.3.1 Problema di ottimizzazione convesso . . . . . . . . . . . . . . . . . . . . . 69
5.3.2 Problema di ottimizzazione concavo . . . . . . . . . . . . . . . . . . . . . 70
5.4 Caratterizzazione funzioni convesse continuamente differenziabili . . . . . . . . . 71
5.4.1 Funzioni e forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . 71
7 Ottimizzazione vincolata 93
7.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.2 Direzione ammissibile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.3 Condizioni di ottimo vincolate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.4 Ottimizzazione su insieme convesso generico . . . . . . . . . . . . . . . . . . . . . 98
7.5 Ottimizzazione su un poliedro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
7.6 Direzioni ammissibili di un poliedro . . . . . . . . . . . . . . . . . . . . . . . . . . 101
7.7 Condizioni di ottimo su un poliedro . . . . . . . . . . . . . . . . . . . . . . . . . 106
7.7.1 Condizioni di ottimo per la Programmazione Lineare . . . . . . . . . . . . 110
7.8 Utilizzo algoritmico delle condizioni di ottimo per problemi con vincoli convessi . 111
2
11.3.3 Interpretazione economica della dualità e prezzi ombra . . . . . . . . . . . 161
11.4 Interpretazione della Dualità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
11.4.1 Il duale del problema di allocazione ottima di risorse . . . . . . . . . . . . 163
11.4.2 Il duale del problema di miscelazione. . . . . . . . . . . . . . . . . . . . . 164
11.4.3 Il duale del problema dei trasporti . . . . . . . . . . . . . . . . . . . . . . 166