Sei sulla pagina 1di 203

APPUNTI DI CALCOLO NUMERICO

Enrico Bertolazzi e Gianmarco Manzini

Dipartimento di Ingegneria Meccanica e Strutturale


Universit` degli Studi di Trento
a
via Mesiano 77, I 38050 Trento, Italia
Enrico.Bertolazzi@ing.unitn.it

Istituto di Analisi Numerica


del C.N.R. di Pavia
via Ferrata 1, I 27100 Pavia, Italia
Gianmarco.Manzini@ian.pv.cnr.it

INDICE

Matrici e vettori
1.1

9
10

1.1.1

Notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10

1.1.2

Matrici e Vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10

1.1.3

Somma, differenza e prodotto per uno scalare . . . . . . . . . . . . . . .

12

1.1.4

Confronto di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13

1.1.5

Norme di vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

15

1.1.6

Prodotti scalari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

19

1.1.7

Ortogonalit` e angolo tra vettori . . . . . . . . . . . . . . . . . . . . . .


a

25

1.1.8

Indipendenza lineare e basi in

. . . . . . . . . . . . . . . . . . . . .

28

1.1.9

Ortonormalizzazione di Gram-Schmidt . . . . . . . . . . . . . . . . . .

30

1.1.10 Operazioni con le matrici . . . . . . . . . . . . . . . . . . . . . . . . . .


1.2

Matrici e Vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

34

Sistemi Lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

41

1.2.1

Determinante: denizione assiomatica . . . . . . . . . . . . . . . . . . .

41

1.2.2

Alcune propriet` dei determinanti . . . . . . . . . . . . . . . . . . . . .


a

43

1.2.3

Esistenza ed unicit` del determinante . . . . . . . . . . . . . . . . . . .


a

47

1.2.4

Determinanti del prodotto . . . . . . . . . . . . . . . . . . . . . . . . .

49

1.2.5

Determinante della matrice inversa . . . . . . . . . . . . . . . . . . . . .

50

1.2.6

Regola di Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

50

INDICE

1.2.7

Rango di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . .

58

1.2.9

Il teorema di Rouch` -Capelli . . . . . . . . . . . . . . . . . . . . . . . .


e

59

1.2.10 Cofattori di una matrice quadrata . . . . . . . . . . . . . . . . . . . . .

61

1.2.11 Rappresentazione della matrice inversa . . . . . . . . . . . . . . . . . .

63

1.2.12 Calcolo dei cofattori . . . . . . . . . . . . . . . . . . . . . . . . . . . .

64

1.2.13 Determinante della trasposta . . . . . . . . . . . . . . . . . . . . . . . .

67

1.2.14 Determinante di matrici diagonali a blocchi . . . . . . . . . . . . . . . .

68

Autovalori ed autovettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

70

1.3.1

Matrici reali simmetriche e hermitiane . . . . . . . . . . . . . . . . . . .

73

1.3.2

Spettro, raggio spettrale e localizzazione degli autovalori sul piano complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

79

1.3.3

Matrici a diagonale dominante . . . . . . . . . . . . . . . . . . . . . . .

81

1.3.4

Matrici denite positive . . . . . . . . . . . . . . . . . . . . . . . . . .

81

Norme di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

86

1.4.1

Alcune propriet` delle norme vettoriali . . . . . . . . . . . . . . . . . .


a

86

1.4.2

Cosa e la norma di una matrice? . . . . . . . . . . . . . . . . . . . . . .


`

88

1.4.3

1.4

52

1.2.8

1.3

Dipendenza e indipendenza lineare . . . . . . . . . . . . . . . . . . . .

Norme compatibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

91

2 Risoluzione di sistemi lineari: metodi diretti


Eliminazione di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

96

2.1.1
2.1.2

Primo passo del metodo di Gauss . . . . . . . . . . . . . . . . . . . . . 106

2.1.3
2.1.4
2.2

Forma matriciale del metodo di Gauss . . . . . . . . . . . . . . . . . . . 102

2.1

95

Algoritmo di Gauss in presenza di pivoting . . . . . . . . . . . . . . . . 110

esimo passo del metodo di Gauss . . . . . . . . . . . . . . . . . . . . 107

Fattorizzazione di Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116


2.2.1

Algoritmo di calcolo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

2.2.2

Connessioni con la fattorizzazione di Gauss . . . . . . . . . . . . . . . . 123

INDICE

Metodi Iterativi per Sistemi Lineari


3.1

125

Metodi Iterativi per Sistemi Lineari . . . . . . . . . . . . . . . . . . . . . . . . . 126


3.1.1
3.1.2

Generalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

3.1.3

Quadro riassuntivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

3.1.4

Convergenza degli schemi iterativi . . . . . . . . . . . . . . . . . . . . . 130

3.1.5
4

Costruzione degli schemi di iterazione mediante splitting . . . . . . . . . 127

Controllo della Convergenza . . . . . . . . . . . . . . . . . . . . . . . . 135

Zeri di funzioni

138

4.1

Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

4.2

Metodo di bisezione (o dicotomico) . . . . . . . . . . . . . . . . . . . . . . . . 139

4.3

Metodo delle false posizioni (regula falsi) . . . . . . . . . . . . . . . . . . . . . 141


4.3.1

Convergenza dalla regula falsi . . . . . . . . . . . . . . . . . . . . . . 142

4.4

Metodo di Newton-Raphson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144

4.5

Metodo delle secanti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

4.6

Iterazioni di punto sso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

4.7

Zeri di polinomi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154


4.7.1
4.7.2

Separazione delle radici . . . . . . . . . . . . . . . . . . . . . . . . . . 159

4.7.3
5

Eliminazione delle radici multiple . . . . . . . . . . . . . . . . . . . . . 154

Limitazione delle radici . . . . . . . . . . . . . . . . . . . . . . . . . . 162

Interpolazione polinomiale
5.1

164

Interpolazione polinomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165


5.1.1

Generalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

5.1.2

Condizione di Haar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169

5.1.3

Interpolazione di Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . 169

5.1.4

Interpolazione di Newton . . . . . . . . . . . . . . . . . . . . . . . . . . 170

5.1.5

Algoritmo di Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173

INDICE

5.1.6
5.1.7

Lalgoritmo di Aitken-Neville . . . . . . . . . . . . . . . . . . . . . . . 176

5.1.8

Osservazioni nali sullalgoritmo di Aitken-Neville . . . . . . . . . . . . 177

5.1.9
5.2

Differenze divise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173

Errore di interpolazione . . . . . . . . . . . . . . . . . . . . . . . . . . 178

Equazioni Normali e Minimi Quadrati . . . . . . . . . . . . . . . . . . . . . . . 181


5.2.1

Equazioni Normali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181

5.2.2

Minimi Quadrati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181

5.2.3

Generalizzazione al caso polinomiale . . . . . . . . . . . . . . . . . . . 185

6 Integrazione numerica

190

6.1

Problema dellintegrazione numerica . . . . . . . . . . . . . . . . . . . . . . . . 191

6.2

Strategia interpolatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192


6.2.1

Classicazione (largamente incompleta) . . . . . . . . . . . . . . . . . . 192

6.2.2

Formule di Newton-Cotes . . . . . . . . . . . . . . . . . . . . . . . . . 193

6.2.3

Accuratezza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194

6.2.4

Metodo dei Coefcienti Indeterminati . . . . . . . . . . . . . . . . . . . 195

6.2.5

Stima dellerrore di integrazione . . . . . . . . . . . . . . . . . . . . . . 197

PREFAZIONE

Questa raccolta di appunti e frutto dellattivit` didattica svolta negli ultimi anni dagli autori presso
`
a
le Universit` di Trento e di Pavia.
a
Gli argomenti trattati riguardano essenzialmente lAlgebra Lineare, che viene presentata sia da
un punto di vista teorico che computazionale, ed alcuni settori classici dellAnalisi Numerica,
come linterpolazione, lapprossimazione ai Minimi Quadrati, lintegrazione numerica, il calcolo
di zeri di funzione.
Gli appunti sono stati raccolti in questa forma per essere proposti sia agli studenti dei corsi di Laurea che di Diploma in Ingegneria. Di fatto, sono stati variamente utilizzati negli anni come materiale didattico di supporto alle lezioni di Analisi Numerica, Calcolo Numerico, e Geo-Calcolo.
Questi appunti sono stati quindi pensati come materiale di lavoro che si rivolge a studenti che non
saranno formati per essere professionisti della matematica, ma piuttosto utenti della matematica. Si e cos` privilegiato nella impostazione laspetto procedurale, cio` di utilizzo nella pratica

e
dei risultati teorici.
Si e comunque cercato di mantenere un minimo di rigore formale nella esposizione, per esempio
`
sviluppando i vari argomenti attraverso lintroduzione di denizioni, osservazioni, proposizioni,
lemmi, e teoremi con relative dimostrazioni.
Ci rendiamo conto, tuttavia, che alcune scelte didattiche potrebbero disturbare i puristi del settore;
per esempio, pur trattando argomenti teorici di algebra lineare con il linguaggio dei vettori, e
quindi pur parlando di combinazioni lineari, dipendenza ed indipendenza lineare, basi, etc etc non
viene mai introdotta una denizione formale di spazi vettoriali.
Inne, si sono esposte nel testo quasi tutte le dimostrazioni dei risultati importanti proposti (evitando soltanto quelle che ci sono sembrate troppo tecniche o comunque non essenziali nelleconomia di questo materiale didattico). Ci rendiamo conto che ci` ha prodotto conseguentemente un
o
7

INDICE

testo con molto piu` materiale di quello che pu` essere ragionevolmente esposto per esempio in
u
o
un corso semestrale di Calcolo Numerico per i Diplomi. Tuttavia, ci e sembrato importante farlo,
`
quanto meno per lasciare agli studenti pi` interessati la possibilita di un approfondimento (quasi)
u
immediato degli argomenti trattati nelle lezioni.
Inne, vogliamo ringraziare tutte le persone che ci hanno consigliato e dato suggerimenti, segnalato errori ed imprecisioni nel testo, aiutandoci a migliorare la qualit` del nostro lavoro.
a
Enrico Bertolazzi,
Gianmarco Manzini.

CAPITOLO

UNO

MATRICI E VETTORI

10

1.1

Matrici e vettori

Matrici e Vettori

1.1.1 Notazioni
In questi appunti i vettori saranno indicati con lettere in grassetto minuscole, ad esempio

sono vettori. Le componenti dei vettori saranno indicate con la stessa lettera del vettore in corsivo,
ad esempio






e . Le matrici saranno indicate con lettere in grassetto maiusco-



sono componenti dei vettori ,


le, ad esempio




sono matrici. Le componenti delle matrici saranno indicate con la stessa lettera in corsivo, ad
esempio

! #

!
"

. Gli scalari saranno normalmente indicati con lettere

))
00)

('

&

 $

sono componenti delle matrici


greche, ad esempio

Con il simbolo indicheremo sia il campo dei numeri reali che il campo dei numeri complessi
. Questo signica che si pu` sostituire a sia che ed evitare duplicazioni nelle denizioni.
o

1.1.2 Matrici e Vettori

B @
CA9

86
7 5

3
4

`
Denizione 1. Una matrice
e un insieme di
organizzati in -righe ed -colonne. Ad esempio

numeri reali o complessi

P
I

R
SQ

G F D
H4E

`
`
e una matrice
cioe una matrice con righe e colonne. Di solito si indica con
`
quando la matrice e a valori reali. Analogamente si indica con

85
7

3
2 T

P @ I

U5
7

3
T

Matrici e Vettori

11

U6
7 5

`
quando la matrice e a valori complessi. Deniremo con
una matrice sia a
valori reali che complessi. Se non diversamente specicato le matrici e i vettori devono
intendersi a valori reali.

Denizione 2. Una matrice con lo stesso numero di righe e di colonne si dice matrice
quadrata.

`
Esempio 1. Le piu semplici matrici sono la matrice nulla, indicata con , cioe la matrice
`
`
`
con tutti gli elementi nulli e la matrice identita indicata con , che e una matrice quadrata
con tutti gli elementi nulli tranne quelli sulla diagonale che valgono :

..

..

.
.
.

.
.
.

..

Q


Q
A
.

..

..

Q
A

.
.
.

.
.
.

..

`
e detta vettore riga di dimensione . In modo analogo
Denizione 3. Una matrice
`
e detta vettore colonna di dimensione . Normalmente saranno conuna matrice
siderati vettori colonna, cos`, quando faremo riferimento ad un vettore senza specicare

se riga o colonna, intenderemo sempre vettore colonna.

B @ G

G @ 9

Esempio 2. Le due seguenti matrici:

P



P

vettore riga di dimensione


D

si possono considerare vettori:


dimensione .

vettore colonna di

Quando si indica una componente di un vettore riga, si usa omettere lindice di riga.
`
Analogamente, si fa con i vettori colonna. Ad esempio,
e la seconda componente
del vettore , ma si scrive . In modo analogo dato un vettore colonna ad esempio
`
volendo indicare la terza componente che sarebbe
si omette lindice di colonna cioe
si scrive .

!

!

12

Matrici e vettori

D 
Q

per ogni

`
`
e lindice di colonna. Si puo visualizzare come segue

..

..

.
.
.

..

.
.
.

`
dove e lindice di riga e

si dice triangolare superiore se

Denizione 4. Una matrice quadrata

D
E

dove sono indicati esplicitamente gli elementi che sono sicuramente zero, detti anche
`
zeri strutturali, mentre indica un qualunque elemento che puo assumere valori diversi
1 . In modo analogo si denisce
da zero, detto per lappunto un non-zero della matrice
una matrice triangolare inferiore.

Esempio 3. Le matrici

Q


G
Q
Q

D 

P
Q

D 

I
Q

G
Q

D
E

sono tutte triangolari superiori, la matrice

`
e anche triangolare inferiore.

essere

1.1.3 Somma, differenza e prodotto per uno scalare

85
7

la matrice in

dove

) )
B 0) 0 I G D

9 ) 0) I G
)
D



3  
e

si denisce con

 HD 


Denizione 5. Date le matrici


risultato della somma di

 (# 

U5
7

D  $

analogamente si denisce la differenza.


1

Si noti bene, tuttavia, che la propriet` di un elemento di essere un non-zero non esclude necessariamente che tale
a
elemento possa essere nullo.

Matrici e Vettori

13

P @ I

R I

Esempio 4. Date le matrici

Q F

D 

R Q

G F

D
E
otteniamo

D  

F
G

si denisce con
dove

 % D 

R I


3 %

R I

U5
7

B ) ) 0 I G
)
D

3
4

U5
7

I G
9 ) 0)
)
D

3 

! 7
I

P
I

R Q

D  

I
G F

G F

% D  (#

Esempio 5. Data la matrice

e lo scalare
con la matrice

Denizione 6. Data la matrice


la matrice
prodotto dello scalare

D 
otteniamo

) I

D
E )
F




R Q

I F


D 
I

1.1.4 Confronto di matrici

con la scrittura

si intende

I G
) B ) 0) D
)

85
7

3  
1

9 ) ) 0 I G
)
D

Denizione 7. Date le matrici

 (#

In questa denizione sono inclusi i vettori riga e colonna come casi particolari di matrici
e
.

B @ G

G @ 9

G
R G

QF
G
Q

D 

non sono confrontabili.

R G

D 

G F

mentre


Q
G F

D
E
e

abbiamo

Esempio 6. Date le matrici

14

Matrici e vettori

con la scrittura

 

si intende

I G
) B ) ) 0 D
)

U5
7

3  
1

Denizione 8. Date le matrici

9 ) 0) I G
)
D

 # 
Esempio 7. Date le matrici

Q F
Q

R G

I
G F

R I

3
T

85
7

D 

D 
.

si denisce con
la matrice2 le cui com`
e a valori complessi) delle componenti della

I G
) B 00) D
))

Denizione 9. Data una matrice


ponenti sono i valori assoluti (o moduli se
`
matrice , cioe3

 

abbiamo

9 ) 00 I G
))
D
S

D  (#

D 

Esempio 8. Date le matrici

P
G


D 

G


I
I

G
I

D
E
abbiamo

P
I

G
I


I
G
I

I
2

Per denire il determinante si usa a volte la stessa notazione. In ogni caso dovrebbe essere chiaro dal contesto se
indica la matrice dei valori assoluti o il suo determinante.
3
e un numero complesso allora
`
Ricordiamo che se

)  $ "  
%($'&% # ! 


 

Matrici e Vettori

15

1.1.5 Norme di vettori

Dato un vettore
le sue tre componenti , , si possono interpretare come coordinate
di un punto in . La distanza di questo punto dallorigine e la lunghezza del segmento che unisce
`
o
lorigine con il punto . Questa lunghezza pu` essere interpretata come la lunghezza del vettore
4 questa lunghezza e:
. Osserviamo che dal teorema di Pitagora
`

) !

Possiamo generalizzare la nozione di lunghezza di un vettore in


o
possiamo denire
vettore

come segue. Per ogni

e chiamare questo numero lunghezza del vettore. Questa funzione gode delle seguenti propriet` :
a

. Inoltre

1. e una funzione non negativa, infatti


`
per
cio`
e
;

solo se

B ) 00 I G
))
D

2. dilatando o contraendo il vettore cio` moltiplicando ogni sua componente per una
e
costante (rispettivamente maggiore o minore di ) otteniamo:

%
D




vale la seguente disuguaglianza:




3. per ogni

(1.1)

detta disuguaglianza triangolare. Il nome disuguaglianza triangolare deriva dalla nota disuguaglianza sui lati dei triangoli. In particolare la lunghezza di un lato e sempre minore o
`
uguale alla somma degli altri due. Questo fatto e schematizzato in gura 1.1.
`
4

Pitagora 580a.c500a.c.

16

Matrici e vettori

Figura 1.1: Disuguaglianza triangolare


Dimostrare la (1.1) e un po laborioso e necessita della conoscenza di alcune disuguaglianze
`
classiche. Iniziamo con la disuguaglianza di Young.
Lemma 1. Dati due numeri reali e tali che

 G

D G G
G

allora per ogni coppia di numeri reali non negativi e si ha

 
 

(1.2)

 D 





Inoltre la disuguaglianza diventa uguaglianza se

Dimostrazione. Consideriamo la funzione

 ' %
#!
& ! ! D $"

allora

G
5
6 ' 2 %
& ! 4 G D ' 2! G D
&

. Quindi
per
. Quindi

G!

per

D !

G
#  Q

`
e

G D

$" ( 
#!

#!
$"
G

per
e
e di conseguenza

& !
' % !

8Q

#  $#"!
Q
#!
$"
Q#
#!
'1 ( 

2
3 ! G D '10)
#! (
&
'

poiche
abbiamo che
in
un punto di minimo per

G 3G
7

da cui
(1.3)


G
!

 !
&
'

Matrici e Vettori

17

`
Osserviamo che se
o
la disuguaglianza e banalmente vera. Consideriamo
quindi
e calcoliamo (1.3) in
ottenendo:

D ! Q

2

 2   G

D

 


  2 
&


moltiplicando la disuguaglianza per ed osservando che


otteniamo il risultato
allora calcoliamo la disuguaglianza (1.3) in
cercato. Osserviamo che se
dove risulta essere una uguaglianza.

D !

 D 


Possiamo ora dimostrare la disuguaglianza di H lder.5


o
, ed

7
7
3G 3G
D

, ...,

&
$

&
'

) 

 

tali che




&
$

 

&
'

) 

Dimostrazione. Siano

Teorema 2. Dati due numeri reali


e , , ...,
, allora

6 . Supponiamo, per esempio,


Sia
. Ne consegue che o si ha
oppure
`
`
che sia
. Cio implica che
e quindi la disuguaglianza e
banalmente vera. Per
si ripete lo stesso ragionamento. Sia quindi
, dalla
disuguaglianza (1.2) del lemma 1 otteniamo per ogni

QD




D G G D 

 

Ludwig Otto H lder 18591937.


o
O entrambe contemporaneamente, ma a noi ne basta una sola per procedere!
7
Hermann Minkowski 18641909.

Q D

Inne, dimostriamo la disuguaglianza di Minkowski.7

cosicche

18

Matrici e vettori

 

, allora

2
3  # 


D #

D
G

&
'

 

&
'

D #G

2
3  # 

&
'

D
I

#


 # #
&
'

D
G

7G

Osserviamo che la disuguaglianza di Minkowski per

&
'

# 

e osservando che

otteniamo la disugua-

e proprio la (1.1).
`

Possiamo generalizzare la nozione di lunghezza di un vettore tramite una generalizzazione della


che conservi le tre propriet` precedenti.
a
funzione

D
Q




`
e una norma se per ogni

Denizione 10. Una funzione


e per ogni
verica

`
Denizione 11. Utilizzando la disuguaglianza di Minkowski e facile dimostrare che per
la seguente funzione

) 

&
'


2 #

Dividendo per
glianza cercata.

denito dalla

Applicando la disuguaglianza di Holder ad ogni somma, usando

7G

2
) 3 # 

&
'

`
e banale. Supponiamo

. Allora

&
'

, ...,

) 

Dimostrazione. Il caso

, ...,

Teorema 3. Sia

&
'

(1.4)

10)('% $#"
& !

Il prodotto scalare tra due vettori e molto usato in sica ed ha la seguente denizione
`

1.1.6 Prodotti scalari

G I
G
G
D
G
P
G
I
I
G
D  
D
G G I
G
G
G
D
I I G

I
I

P
D

GGGI
D

G
G G

D  D


 I I G D  I I G D

otteniamo

G
G


I


Esempio 9. Dati i vettori


`
`
ed e immediato vericare che anche questa funzione e una norma.

`
Con un procedimento di passaggio al limite si puo anche denire

I G
D

`
`
e una norma. Tale norma e chiamata -norma. Due casi di particolare interesse della
norma si hanno per

Matrici e Vettori

19

20

Matrici e vettori

e langolo formato dai due vettori


`

10 &(

dove

e .

a-b

a+b

H
a

Figura 1.2: prodotto scalare e parallelogrammo associato


Dalla gura 1.2 8 . possiamo ricavare una formula che non usa coseni ma solo la norma. Osserviamo innanzitutto che

10)( %
&

(1.5)

(1.6)

D #

D #

10$(& % $#!

e dal teorema di Pitagora

sottraendo la (1.6) dalla (1.5) otteniamo

10$('% $#"
& !

D


D


e quindi con la (1.4)

Osserviamo che

per cui il prodotto scalare prende la forma

e indicato col simbolo


`

e non

 


Nella gura langolo tra i vettori

) 

(1.7)
per ragioni esclusivamente tipograche

Matrici e Vettori

21

Osserviamo che la formula che abbiamo ricavato vale per vettori reali e inoltre

cio` il prodotto scalare di un vettore con se stesso restituisce il quadrato della sua lunghezza. Se
e
e un vettore complesso la formula (1.7) non restituisce il quadrato della sua lunghezza infatti se
`
sono numeri complessi:

Si pu` comunque modicare la denizione (1.7) in modo che applicata a vettori reali sia equivao
lente a (1.4) e nel caso di vettori complessi valga
.

Denizione 12. Consideriamo la funzione che dati due vettori di dimensione


un numero

restituisce

(1.8)

D


dove con intendiamo loperazione di coniugazione nel campo complesso9 La (1.8)


prende il nome di prodotto scalare euclideo.

Ricordiamo che


    
    
    
    

$  $  $       
    

 
   

e la coniugazione gode delle seguenti propriet` : posto


a

)
  

da cui

abbiamo

             
  $!  # 0#'%! $2'1 0 ) $ (   ' 
         
&# & %!  $!'&  $#"!  &&     

inoltre


  $!

22

Matrici e vettori

Osserviamo che la funzione (1.8) ha le seguenti propriet`


a

otteniamo

D



D  


D  

D
Q

D 

D #

% D

% D %

D


otteniamo

)


otteniamo

D
Q

e tenendo conto del fatto che

)
(

B ) ) 0 I G
)
D

e quindi

4 Calcolando

3 Calcolando

con

2 Calcolando

se e solo se

inoltre

1 Calcolando

# %

# %

Le propriet` 1 4 si possono utilizzare per dare la denizione di prodotto scalare in maniera


a
assiomatica.

abbiamo le seguenti funzioni

) 


 


 
 

  
    

 


Per

Matrici e Vettori

23

se e solo se

per ogni

D #

#


Q



3 

D # 

D #

# % D # %


3 %

soddisfa:

`
e un prodotto scalare se per

@ #

Denizione 13. Una funzione


e per ogni
ogni

`
Osservazione 1. Nella denizione assiomatica appena enunciata, si e indicato il prodotto scalare tra due vettori
utilizzando la simbologia
, mentre nella
discussione precedente il prodotto scalare era stato indicato con
. Ovviamente ne
`
la denizione del prodotto scalare ne le sue proprieta dipendono dalla notazione scelta.
`
Esiste una terza notazione di uso abituale e cioe
. Questa notazione assume impli-

#



citamente che tutti i vettori siano vettori colonna ed indica con lapice loperazione di
trasposizione che trasforma un vettore colonna in un vettore riga. La denizione gene`
rale di trasposto di una matrice e di un vettore, di cui abbiamo anticipato lidea, sara
introdotta tra poco.
Esempio 10. E facile vericare che anche la seguente funzione

reale positivo.

`
si puo esprimere tramite il prodotto sca-

Analogamente, dato un prodotto scalare generico


zione

Osservazione 2. Notiamo che la funzione


lare euclideo come segue




denisce un prodotto scalare per ogni

, si puo sempre denire lapplica-

24

Matrici e vettori

`
che ha le proprieta di una norma. Questa applicazione prende il nome di norma indotta
dal prodotto scalare.

Teorema 4 (Disuguaglianza di Cauchy-Schwarz). Per un prodotto scalare generico vale


la disuguaglianza di Cauchy10 -Schwarz11

(1.9)


' D

#


dove
e la norma indotta dal prodotto scalare e la disuguaglianza e stretta a meno che
`
`
per uno scalare , cio` i vettori sono allineati.
e

'

`
Dimostrazione. Se
o
la disuguaglianza e banale. Supponiamo quindi che
`
entrambi i vettori siano non nulli. Applicando la proprieta 1 della denizione 13 al vettore
otteniamo


# % %





da cui segue

#
) #
#


% # 



% % #  % # 







%





%


% #  % # 

Q


in modo da annullare lespressione tra parentesi quadre,

#




#

Scegliendo

(1.10)

D %


otteniamo




Augustin Louis Cauchy 17891857.


Karl Herman Amandus Schwarz 18431921.

11

10

`
che e equivalente alla (1.9). Osserviamo che se
`
(1.10) e stretta e di conseguenza anche la (1.9).

allora la disuguaglianza in

Matrici e Vettori

25

`
1.1.7 Ortogonalita e angolo tra vettori
Tramite il concetto di prodotto scalare e possibile introdurre il concetto di ortogonalit` e angolo
`
a
tra vettori. Dal prodotto scalare euclideo (1.8) nella forma (1.4) otteniamo che langolo formato
tra due vettori e e dato dalla seguente formula
`

% $#$!! D 10 &(

deniti come segue

G
Q


G
I
0G

implica che il loro prodotto scalare e nullo.


`

sono ortogonali e scriveremo


.

I
D

Q P

10$(& % $#!

Q
D
Q

% $#!

Denizione 14. Dati due vettori e diremo che


`
`
quando il loro prodotto scalare e nullo, cioe

G


P I ) Q

radianti, infatti

Se langolo tra i vettori e


`
allora
Questo suggerisce la seguente denizione.

o circa

formano un angolo di circa

Esempio 11. I vettori

`
Osservazione 3. Mentre la denizione di angolo tra vettori e valida solo per vettori rea` `
li, la denizione di ortogonalita e valida anche per vettori complessi e prodotti scalare
`
qualunque. Infatti la denizione e puramente algebrica.
Esempio 12. I vettori

I


G
I

P
) infatti

D
G

#
I

G G

`
sono ortogonali (cioe

26

Matrici e vettori

analogamente i vettori

G


G


G
sono ortogonali infatti

)
Q

D #

#
G

# 3#

D


Prodotto vettoriale

3
1

ortogonale ad

tale che

D
Q

trovare

Dati due vettori e in


ci poniamo il problema di trovare un terzo vettore
entrambi. Algebricamente il problema diventa:

che scritto usando le componenti dei vettori si esprime come

)
D ! !

D ! !

Una possibile soluzione, che si pu` vericare per sostituzione diretta, e data da
o
`

)   D !
!  ! D
 ! ! D

Questa soluzione prende il nome di prodotto vettoriale e si indica normalmente con lespressione

Si pu` anche vericare che


o

(1.11)

D #

Matrici e Vettori

27

e dalla (1.4) tramite (1.11) ottenere

10$( %
&

Per mezzo del prodotto vettoriale e facile risolvere alcuni problemi di geometria nello spazio,
`
come ad esempio il calcolo del piano passante per punti. Siano infatti , e tre punti distinti,
allora i vettori

D
diventa semplicemente

e lequazione del piano

sono vettori complanari al piano, il vettore normale al piano

Figura 1.3: piano per punti

Esempio 13. Dati i punti

G
I


Q
I


G
Q


28

Matrici e vettori

e . Calcoliamo innanzitutto

Q
I


G
Q


G
I

D D

I


trovare il piano passante per ,

G
Q


I


D D

G
da cui

I


I


Q
e inne

I
!

D


 D

otteniamo lequazione del piano

D
G

1.1.8 Indipendenza lineare e basi in

ponendo

Il concetto di dipendenza ed indipendenza lineare e estremamente importante nellalgebra lineare.


`

scalari

% ) 0 % %
))

se esistono

D
Q

Denizione 15. Dati vettori non nulli , ,. . . ,


con almeno uno scalare non nullo, per cui vale

allora diremo che , ,. . . ,


sono vettori linearmente dipendenti, viceversa se tali
sono vettori linearmente indipendenti.
scalari non esistono diremo che , ,. . . ,

Consideriamo vettori linearmente indipendenti di


, che indicheremo con , ,. . . , . Dato
un vettore
, pu` succedere che questi sia combinazione lineare dei precedenti, per cui dalla
o
denizione si pu` scrivere
o

% D

con una opportuna scelta degli scalari

Matrici e Vettori

29

` `
Denizione 16. Se questa proprieta e vera per ogni vettore di
, allora diremo che i
vettori , ,. . . ,
formano una base. Necessariamente, si deve avere
. Questa

`
, purche
condizione e anche sufciente, nel senso che scelti vettori qualunque di
.
linearmente indipendenti, essi formano sempre una base di

Q


.
.
.

G


Q
.
.
.

in

.
.
.

,. . . ,

vettori

Esempio 14. Gli

sono ovviamente linearmente indipendenti. Infatti,

B 0) 0 I G
) )
D

per

D %
Q

Esempio 15. I vettori , ,. . . ,


deniti nellesempio 14 formano una base in
Dato un vettore qualsiasi di componenti , , . . . , , possiamo scrivere

,. . . ,

La base

`
e detta base canonica.

Esempio 16. I vettori

G


G
I

G
I


non sono linearmente indipendenti, infatti si verica immediatamente che

`
e la combinazione lineare e nulla se e solo se

.
.
.

D
I

30

Matrici e vettori

a due a due ortogonali,

,. . . ,

vettori

Teorema 5. I

sono necessariamente linearmente indipendenti.

, tali che

D
Q

I G
))
) 00

e tenendo conto delle

S %


S %

per

Facendo il prodotto scalare con ogni vettore


`
relazioni di ortogonalita si ottiene

scalari

S%

Dimostrazione. Supponiamo che esista una scelta di

% D


 % D

D %

segue che

e quindi poiche

1.1.9 Ortonormalizzazione di Gram-Schmidt

Denizione 17. Dati vettori , ,. . . , , diremo che gli stessi formano un sistema
`
ortogonale se sono a due a due ortogonali, cioe

) D

Denizione 18. Dati vettori , ,. . . , , diremo che gli stessi formano un sistema
`
ortonormale se sono a due a due ortogonali e di norma , cioe

) D

D
G

% ) 0) % %
)

 D  0)0))

span

 0)) 0)

Denizione 19. Dati vettori , ,. . . , , deniremo con span


zio vettoriale generato dalle loro combinazioni lineari

lo spa-

Matrici e Vettori

31

,. . . ,

 0)0))

 0)0))
D

span

span

vettori

Dati vettori , ,. . . , , linearmente indipendenti e possibile costruire


`
a due a due ortogonali e di norma unitaria tali che

Teorema 6 (Ortonormalizzazione di Gram-Schmidt). 12 Dati vettori , ,. . . , , lia


nearmente indipendenti possiamo costruire vettori , ,. . . , , con le seguenti propriet` :

span

D 

  ) 0)0)
e

D 

span

dove


D

D 


per

I G
) )
0) 0 D
I G
))
D
) 00 S

per

  0)) 0)

per ogni

4.

3.

2.

1.

Dimostrazione. Osserviamo innanzitutto che dallindipendenza lineare dei vettori ,


`
,. . . ,
segue che
per ogni
. Quindi e sempre possibile
scegliere
. La dimostrazione procede per induzione.

I G
)
) ) 0

D
G

I G
))
00) D

come segue

D 

 & 2

(1.12a)

&

% D

(1.12b)

I G
) )
D
0) 0

ed il vettore

Deniamo quindi un vettore ausiliario

vettori

`
Se
, assumiamo come ipotesi induttiva di avere gia determinato
ortonormali , ,. . . ,
tali che

`
il teorema e ovviamente vero con

Se

dove dovremo determinare i coefcienti e in modo che


per
`
e
. Facendo il prodotto scalare di (1.12a) con
ed utilizzando la proprieta di
`
ortogonalita tra i vettori, che vale per ipotesi induttiva, abbiamo lespressione

G
I G
)
) 0) D

 & 

D 

& 2

D 

Jorgen Pedersen Gram 18501916.


Erhard Schmidt 18761959.

12

32

Matrici e vettori

si ottiene

come segue

% D

% D

. Ragionando per assurdo

,. . . ,

'

'

' 2

`
, cioe un generico vettore

,. . . ,

7
3G

2
D

D %


scalari

tali

. Per lipotesi induttiva esistono

(1.13)

Consideriamo una qualsiasi combinazione lineare dei vettori


, che scriveremo quindi come

Per concludere la dimostrazione, bisogna ancora vericare che

D & 2

, assunta nellenunciato del teorema.

 & 2
,

'

contraddicendo lindipendenza lineare dei vettori

e mostriamo che
che

scalari

esisterebbero

`
e poiche per lipotesi induttiva
per cui

D
G

D  &

; ovviamente deve essere


, allora si avrebbe

da cui risulta
se fosse

I G
)
) 0) D

imponiamo che

Per determinare

D 
Q

ed imponendo

(1.14)

Dalla (1.12a) possiamo scrivere

(1.15)

 & 2

Matrici e Vettori

33

e con la (1.14) e (1.13) abbiamo

%
2 D

& 2

`
e arbitrario segue che

allora

& 2

,. . . ,

&
D # S%

Questo teorema suggerisce il seguente algoritmo:

Algorithm Ortonormalizzazione di Gram-Schmidt


Input: vettori , , . . . ,
linearmente indipendenti.
1.
2. for
to
3.
do
4.
5. ( I vettori , ,. . . ,
sono ortonormali. )

tali che

`
`
. Poiche e arbitrario,
, permette di concludere che

scalari

)
 # S%
&

Per lipotesi induttiva esistono

e quindi

Viceversa sia

`
e poiche

)
" # &

Quindi

, che con la precedente inclusione

7

2 I
7

34

Matrici e vettori

Osservazione 4. Se indichiamo con




0)
)

)
0

D


7
85

la matrice rettangolare in
le cui colonne sono i vettori colonna
prodotti dal
`
`
procedimento di Gram-Schmidt, lortonormalita tra i vettori si puo esprimere con

3
1

`
`
Tuttavia si osservi che se
, non si ha lortogonalita tra le righe, cioe non vale
`
`
. In realta si puo osservare che per la matrice prodotto
`
valgono le proprieta seguenti:

`
e un proiettore ortogonale.

5 U5
7

Quindi, possiamo concludere che la matrice prodotto

Osservazione 5. Dato un insieme di vettori linearmente indipendenti


, ,. . . ,
`
in
a due a due ortonormali, e sempre possibile trovare altri
vettori
,
,. . . ,
in modo che
, ,. . . ,
sia una base ortonormale. Infatti data una
qualunque base basta togliere ad essa i vettori linearmente dipendenti da , ,. . . , .
I rimanenti, uniti ai vettori di partenza, formano una base. Utilizzando il procedimento di
ortonormalizzazione otteniamo una base ortonormale. E facile vericare che da questo
processo i vettori , ,. . . ,
non vengono modicati.

1.1.10 Operazioni con le matrici


si denisce con

I G
) ) ) 0 D
)


I G
9 ) 0) D
)

 86
7 5

 #

  D 

D  $

`
e il prodotto scalare della -esima riga di

85
7

 $

Osserviamo che
di .

 7 3 

Denizione 20 (Prodotto). Date le matrici


e
la matrice
prodotto di e nella quale

con la -esima colonna

Matrici e Vettori

35

P @ I

Q


G @ P

Esempio 17. Date le matrici

D 

R Q

G F

I
I

D
E
otteniamo

G F

R I




Q
G

R Q

G F

D  

`
Osservazione 6. Data una coppia di matrici e qualsiasi, non e detto che si possano
`
`
sempre moltiplicare tra loro. Infatti, esse devono essere compatibili, cioe il prodotto
e
`
denito solo se ha tante colonne quante sono le righe di . Analogamente e richiesto
per il prodotto
. Si noti che potrebbe essere denito il prodotto
ma non
o
viceversa, ed inoltre le matrici prodotto
e
se denite entrambe possono tuttavia
avere dimensioni differenti, quindi un diverso numero di righe e colonne. Nel seguito,
ogni volta che si parla di prodotto di matrici, anche se non esplicitamente dichiarato, si
`
intendera sempre che si tratta di matrici compatibili.

 

 

 

 

 

 

`
Esempio 18. Esemplichiamo il fatto che la moltiplicazione di matrici non e commutativa,
considerando le due seguenti matrici

I @ I

 

I
G F

R G

D 

R G

D
H 

G F

 
P

R Q

D
E

I F

D  

Esempio 19. Dati i vettori riga e colonna

 

R G

, ma si vede che

  D

Q F
G

che il prodotto

Possiamo denire sia il prodotto


Infatti,

G
Q



D

36

Matrici e vettori

identicabile con un numero o scalare;

D


D
G

G
Q


`
e una matrice

G @ G
I

abbiamo che




Q
P

G
Q

G
Q


`
e una matrice

P @ P

mentre

Osservazione 7. Non vale per le matrici la regola di annullamento, nel senso che se
`
e sono due matrici e
non e detto che
o
. Infatti basta considerare
il seguente esempio

D 

D
E

Q F

R G

D 

D  

G F

R Q

D 

G
per il quale abbiamo

QF
Q
I

R Q

D
H 

Q F
Q

R Q

D  

  D  

Osserviamo che in
caso piu generale.

`
conferma la non commutativita del prodotto di matrici nel

`
Esempio 20. Nellinsieme delle matrici la matrice identita rappresenta lelemento neu`
tro della moltiplicazione. Infatti sia
e
la matrice identita allora

Q


.
.
.

G
Q

5
2 5

3
A


D
D

se

..

..

se

85
7

2 5
2 2 5

G
Q

D 

dove

..
.
.
.

.
.
.

..

5 U5
7

..

.
.
.

D 

osserviamo che

..

Matrici e Vettori

37

`
e il simbolo di Kroneker13 , e quindi

D   

5 85
7

D 

D 

 E
D

dove questa volta

D  #

in modo del tutto analogo si prova che

Denizione 21 (Inversa). Si denisce matrice inversa di una matrice quadrata la ma. La matrice inversa se esiste si
trice quadrata (se esiste) che soddisfa
denota con
. La matrice di dice invertibile.

D
H  D  

&

%
'

3 

2 

Esempio 21. Data la matrice

D
E
'
& D

`
con
, allora si puo vericare direttamente che sia linversa destra che linversa
sinistra sono date dalla matrice

)
R

%
&

'

'
&
G

2 
'
S& D

Che cosa succede se

La situazione dellesempio precedente, in cui linversa destra e quella sinistra coincidono, e del
`
tutto generale. Infatti, vale il seguente teorema.
Teorema 7. Linversa di una matrice invertibile e unica.
`
Dimostrazione. Dimostriamo prima di tutto che linversa destra e sinistra di una matrice
invertibile coincidono. Sia
una matrice quadrata,
e
le sue due inverse destra e
sinistra. In tal caso abbiamo

D  

 D   
Leopold Kronecker 18231891.

13

otteniamo

Moltiplicando a sinistra per

38

e quindi

`
, cioe assumiamo che valgano le relazioni

`
e anche inversa

 D

 

  E
D

Ma siccome linversa destra e sinistra coincidono, ne segue che

invertibili. Allora il prodotto delle due matrici e invertibile e


`
.

2  2  D 2#  

3 

Teorema 8. Siano
vale la formula

  D

Dato che linversa destra e sinistra coincidono, possiamo dire che


sinistra,

sono due inverse destre di

 D 

Siano ora

)
 D 

D
E 

ma

Matrici e vettori

Dimostrazione. Si verica con un calcolo diretto che la formula fornisce lespressione


dellinversa destra e sinistra:

2  2  D 5   25  
D  
4
4
2  2    D 25   5  
4
4

`
`
Lunicita dellinversa e garantita dal teorema precedente.

U5
7

3 

Denizione 22 (Trasposta). Data la matrice


si denisce matrice trasposta e
la matrice
denita come segue
la si indica con

I G
) B 0) 0 D
) )

86
7 5

I G
9 ) 0)
)
D


P @ I

P
R

I


I
G F
I

Q


I
P

 5

4

D
E

I @ P

`
la sua trasposta e la seguente matrice

Esempio 22. Data la matrice

Matrici e Vettori

39

U5
7

2 3

Denizione 23 (Coniugata). Data la matrice


si denisce matrice coniugata
e la si denota con la matrice
denita come segue

9 ) ) 0 I G
)
D

a valori complessi


R

85 3
7
85 T
3
7


)

I @ I

I
D

Denizione 24 (Trasposta coniugata). Data la matrice


trasposta coniugata e la si denota con
la matrice

I G
) B ) 0) D
)



9 0) 0 I G
) )
D

I @ I

a valori complessi

 5

Q
I @ I

)
3

G F D
4E
I

I
I

G F
D

Denizione 25 (Matrice simmetrica). La matrice quadrata


`
trica se coincide con la sua trasposta, cioe

`
la sua trasposta coniugata e la seguente matrice

I
I

Esempio 24. Data la matrice

 D

4
Ovviamente si ha

si denisce matrice
denita come segue

5 U5
7

4

 5

G F D
4E

I G F

I @ I

`
la sua coniugata e la seguente matrice

sono tutte reali, si ha

 E
D

Esempio 23. Data la matrice

B ) 0) I G
)
D

U5
7

Ovviamente se le componenti di

si dice simme-

 E
D

40

Matrici e vettori

5 86 3 
7 5

Denizione 26 (Matrice hermitiana). La matrice quadrata


`
na se coincide con la sua trasposta coniugata, cioe

si dice hermitia-

 D

 H
D

Sistemi Lineari

1.2

41

Sistemi Lineari

1.2.1 Determinante: denizione assiomatica


In questi appunti introdurremo i determinanti in maniera assiomatica. Deniremo come determinante una particolare funzione

cio` una legge che ad ogni matrice quadrata


e
associa uno scalare, indicato nel testo col
simbolo
. Il determinante sar` denito in modo che alcune propriet` che enunceremo come
a
a
assiomi siano sempre vericate.

Per semplicare lesposizione introduciamo una notazione matriciale per colonne. Indicheremo
con
la colonna -esima della matrice ,




.
.
.

D 

..

..

.
.
.

.
.
.

..

D
E

in modo che la si possa pensare partizionata per colonne, cio` scritta come segue
e

)
 ) 0)

D
E


Ogni colonna
della matrice e un vettore colonna e quindi si pu` esprimere come combina`
o
zione lineare dei vettori della base canonica di
,

D 

dove i coefcienti sono le stesse componenti della matrice sulla colonna considerata. La dipendenza della funzione determinante dalle colonne della matrice si scrive con la notazione

)
 ) 0)

D 

Enunciamo ora le tre propriet` fondamentali che deniscono assiomaticamente la funzione detera
minante.

42

Matrici e vettori

Denizione 27 (Determinante). .
`
1. Il determinante e una funzione multi-lineare nelle colonne

) 0) ) 0)
) )

) ) )
))
0) 0 0) ) D 00)

) ) ) 0 0) )
)
)

)) )
D ) 00 0) )

)
) 0)

`
2. Il determinante e nullo se due colonne consecutive sono uguali

)) )
D ) 00 ) 0)
Q

`
3. Il determinante della matrice identita vale :

00)
))

sono i vettori della base canonica in

dove

Queste tre propriet` sono sufcienti per determinare lesistenza e lunicit` della funzione determia
a
nante. Esse inoltre implicano un gran numero di conseguenze importanti, che verranno man mano
discusse. Molte tra queste propriet` conseguenti dipendono tuttavia solo dalle prime due condia
zioni enunciate e sono indipendenti dalla terza. Per meglio evidenziare questo fatto introdurremo
, che rappresenta una funzione determinante pi generale. La
u
un simbolo alternativo, e cio`
e
funzione
soddisfa le propriet` 1 e 2, ma non necessariamente la 3, potendo assumere un
a
qualsiasi valore non nullo invece che lunit` . Useremo il simbolo
a
al posto di
ogni volta
che non sar` necessaria la propriet` 3.
a
a

`
Osservazione 8. Mostriamo che in alcuni casi particolari e possibile denire facilmente
`
una formula che esprime una funzione con le proprieta di un determinante.

D
I

D
B

Sistemi Lineari

43

P
!
!
D !
!
"

!
"

!
) ! 

!
! 

!
!

!
!

!
"

1. Matrici triangolari superiori

)0) )
)
0) )

) 0)
)

.
.
.

)
0) )

`
Il determinante e il prodotto degli elementi sulla diagonale. Lo stesso vale per le
matrici triangolari inferiori e per le matrici diagonali.
`
Si lascia per esercizio al lettore la verica che tutte e tre le proprieta assiomatiche dei
determinanti sono vericate dalle tre formule appena esposte.

`
1.2.2 Alcune proprieta dei determinanti
Lemma 9 (Prodotto per uno scalare). Dalla propriet` 1 segue immediatamente che per ogni
a
e per ogni scalare vale
matrice

# 

D # 

3 

Dimostrazione. Si osservi che valgono le seguenti uguaglianze

) )
#  0) 0 ! 
))
#  00) ! 

) )
#  0) 0

D #

))
 00) !

) 0) D
)

D
da cui il lemma segue immediatamente.

44

Matrici e vettori

`
Osservazione 9 (Somma di matrici). Sempre dalla multilinearita espressa nella pro`
prieta 1 si ricava un risultato negativo ma assai importante a proposito del determinante
`
di una somma di matrici, e cioe

# 

# 

D #  

Infatti, se la somma di due matrici si esprime mediante una matrice partizionata per
colonne come segue

))
 00)

 D  


`
`
dalla proprieta 1 di multilinearita si ha che

))
#   ) 00 !  ! 

) )
#   0) 0 !  !
) )
#   0) 0 !  !
))
#   ) 00 ! 
) )
 0) 0 !  ! 

) )
 0) 0 !  !







D #  

)
0) ) D

`
`
ed e evidente che la relazione che ne risulta e in generale assai piu complicata di quella

che esprime la somma dei due determinanti

) )
 0) 0

D # 

# 

, il vettore nullo, allora avremo

 ) 0)
)

# ) 00
))

# 0) )0 )0) )
)
Q
)
0) )

) ) )
D # 0) 0 ) 0)

)
Q

Dimostrazione. Se

Lemma 10. Se una colonna e nulla, il determinante e nullo.


`
`

Sempre dalla propriet` segue immediatamente il seguente lemma.


a

)#

Invitiamo il lettore a costruirsi un suo controesempio.

Sistemi Lineari

45

Dalla propriet` e combinando insieme le propriet` e si hanno una serie di conseguenze sul
a
a
comportamento del determinante per scambio di colonne.

Lemma 11. Se due colonne consecutive sono scambiate, il determinante cambia segno.
`
Dimostrazione. Basta osservare che per la proprieta 2

) )
D # 0) 0
Q

) 0)
)

`
ed usando la multilinearita

) 0)
)
)
)
# )0) )0 ) 0)
# ) ) 0
# ) )00 )00)
)
)
)
# ) 0)
# 0) 0
) )

# 0) 0 00)
) )
))

)
# ) ) 0

) ))
D # ) ) 0 00)

)
D # ) ) 0
Q

) 0)
)

) 0)
)
) 0)
)

Q
D

`
osserviamo che per la proprieta

(1.16)

) 0)
)

e quindi la (1.16) diventa

# ) 0)
)

) 0)
)

)
)
# ) ) 0 0) )

D
Q

`
cioe

) # ) ) 0
)

) 0)
)

)
D # ) ) 0

0) )
)

Questa propriet` pu` essere estesa anche allo scambio di due colonne in qualunque posizione e non
a o
necessariamente adiacenti. Osserviamo prima di tutto che vale il seguente, utilissimo, risultato.
Lemma 12. Se due colonne sono uguali, il determinante e nullo.
`

Dimostrazione. Supponiamo che


per le due colonne di indice
. Possiamo
scambiare il vettore colonna con i vettori vicini, no a portarlo adiacente al vettore .

# ) 0)  ) 00
)
))

# ) 0) 
)

) 0)0 S 0) ) # G
)

)
"S 00) # G

))

) )
))
)
# 0) 0  00) 0) )

)) )
D # 00) 0 ) 0)

))
00) D

" 0) )

Matrici e vettori

. Ma allora se sostituiamo

, per la

2 G

) 0)
)

Lemma 13. Se due colonne qualunque, ad esempio la colonna -esima e -esima (con
sono scambiate, il determinante cambia segno.

) ) ))
D # 0) 0 ) 00
Q

#

`
`
dove
, cioe puo essere solo
`
proprieta 2 dei determinanti, si ha che

D 

46

),

Dimostrazione. Si ripete lo stesso argomento utilizzato nel caso delle colonne consecutive.

) # ) 00 0) 0
)) ) )
)
) 0) ) 0)
)
)
) )
)
)
# 0) )0 ) ) 0 ) 0)
# ) 0) ) 0)
# 0) 0 )0) 0 ) 0)
) )
)
)
))
)
# 00) ) 0)
# 0) 0 00)
) )
))

)
# ) 0)

0) )
)

Q
D

0) )
)

0) )
)

0) )
)

Il primo e lultimo termine sono nulli per il lemma 12, per cui si ritrova lespressione

0) 0
) )

0) )
)

)) )
)
# ) 00 ) 0) 0) )

# ) 0)
)

`
dove pero ora

sono in qualsiasi posizione e non necessariamente adiacenti.

Combinando il lemma 12 con la multi-linearit` propriet` 1 si ottiene un risultato molto


a
a
interessante, di cui si far` uso nel seguito.
a
Lemma 14. Se ad una colonna si somma una qualunque combinazione lineare delle altre (esclusa la colonna in esame) il valore del determinante non cambia.
Dimostrazione. Sia 14

D
scalari qualsiasi. Allora

) 0)
)

0 2 0) )

)

$
%

#


)))


))
D # 00)

))
00)

2

&
) 00 "S 0) )
) )
)
#
2
 & 

escluso

!
"

)
) 0)

signica che si sommano tutti i termini per

) # ) 00
))

& 00) &


))

 



Il simbolo

14

  &

con

Sistemi Lineari

47

Dato che per il lemma 13

per

))
D # ) 00
Q

0 2 00)

))

si ottiene

) # ) 0)
)

2 S ) 0)

)

))
D # 00)

)
S 0) )

`
1.2.3 Esistenza ed unicita del determinante
Teorema 15. Esiste una unica funzione determinante che soddisfa le propriet` , ,
a
indica col simbolo
.

e che si

P I G

` `
`
Dimostrazione. Poiche, come si e gia osservato nellintroduzione, si puo scrivere

D 

`
dalla multi-linearita del determinante segue che

(1.17)

) # 0) 0
) )

)
) 0)

$ $

$ $

)
) 0)

D #

)
 ) 0)

`
Non e difcile rendersi conto che la sommatoria nale ottenuta in (1.17) coinvolge
ter`
mini, di cui pero soltanto sono non nulli. Infatti tutti i termini del tipo
con e tali che
sono determinanti di matrici con almeno due colonne uguali e
quindi nulli per il lemma 13. Gli unici termini non nulli sono quindi quelli per cui gli indici
`
sono compresi tra ed ma sono tutti distinti, cioe formano una permutazione
`
dei primi numeri interi. Dato che ogni permutazione puo essere ottenuta tramite una
serie di scambi, si ha dal lemma 12 che

)) ) ) )
# 00)  0) 0 ) 0)

) )
0) 0

))
# ) 00

))
D # ) 00

00)
))

48

Matrici e vettori

))
# 00)

`
`
dove
puo assumere solo i valori
o
ed e chiamata segno della per`
mutazione
. Osserviamo che il segno della permutazione e semplicemente
elevato al numero (minimo) di scambi necessari per trasformare la sequenza , ,
`
che si sta
. . . , in , ,. . . , ed e dunque indipendente dalla particolare funzione
considerando. Indichiamo con
linsieme di tutte le possibili permutazioni degli interi
`
. La (1.17) puo essere riscritta come

I G

)#

) )
0) 0

00)
))

# B

# 0) 0
) )

# 

# ) 00
))

D #

) )
 0) 0

, possiamo introdurre il simbolo

) #

B ) 00 G
))

D #
Q

Essendo

`
`
Si puo vericare immediatamente che le tre proprieta assiomatiche dei determinanti sono
automaticamente vericate dalla funzione
. Le prime due seguono dal fatto che
`
coincide con
a meno di una costante moltiplicativa, mentre la terza e conseguenza
della normalizzazione per
.

# 

Si noti che la dimostrazione e in effetti costruttiva, in quanto suggerisce una formula, che, sebbene
`
non praticissima, permette il calcolo del determinante di una matrice. Riprendiamo questo fatto
enunciandolo come un corollario separato.
si ha

# 0) 0
) )

3 


) )
# 0) 0

dove
ma.

Corollario 16. Per ogni

e il segno della permutazione, denito come nella dimostrazione del teore`

Inne, dalla dimostrazione segue anche unaltra propriet` interessante che sar` utilizzata in seguia
a
to.
allora

)#

soddisfa le propriet` e
a

D # 

# 

Corollario 17. Se

) 00 ) 00
))
))

))
 ) 00

) )
 0) 0 #

00) 00)
))
))

00) 00)
))
))

))
 ) 00
))
 ) 00

))
 ) 00

) )
 0) 0

))
 00)

D
D
D #

0) 0
) )

) )
 0) 0

  0) 0
) )

D
D #

 

D #

0) 0
) )




) )
 0) 0

Jacques Philippe Marie Binet 17861856

0) 0
) )

)
) 0)

. Osserviamo ora che valgono le seguenti relazioni

0) 0
) )

# 

 

ssata, possiamo introdurre una funzione

15

tale che

 

 

Se consideriamo la matrice

D 

`
Il determinante della matrice prodotto e dunque

 #


, sono

 #

 #

D    D  

 

  ) 0)
)

  D

 0) 0
) )

 

. Si noti che, partizionando

  D

  D   D 


 


.
.
.

, -esima colonna della matrice prodotto

la matrice prodotto
Siano

15

per colonne,

dato che le componenti di


Dimostrazione. Sia
si ha

Teorema 18 (di Binet).

due matrici quadrate dello stesso ordine allora

1.2.4 Determinanti del prodotto


Sistemi Lineari

49

50

Matrici e vettori

ed ancora

) )
 ) 0)   0) 0

D #

) 00 ) 0)
)) )

`
e . Per il corollario del teorema 15 e vero che

D #

 0) 0
) )

`
soddisfa le proprieta

Quindi

e dato che si ha anche

) )
 0) 0

)
 ) 0)

D #

) )
 0) 0

D
D
si ottiene inne

  D  #

D # 

 

1.2.5 Determinante della matrice inversa


La formula del prodotto di determinanti permette di correlare immediatamente il determinante di
una matrice con il determinante della matrice inversa. Infatti si ha che

 D

2 

2   D

G
da cui si deduce che

G D

2 

1.2.6 Regola di Cramer

I determinanti hanno la loro applicazione principe nella regola di Cramer16 , che permette di formulare in maniera teorica la soluzione di un sistema lineare ad equazioni in incognite e matrice
dei coefcienti non singolare.

Gabriel Cramer 17041752.

16

Sistemi Lineari

51

Dato un sistema lineare, che scriveremo in forma matriciale compatta come


, si osservi
innanzitutto che il termine noto si esprime come combinazione lineare dei vettori che formano le
colonne della matrice

)
 

 D

 D

utilizzando le componenti del vettore incognito

come coefcienti.

Calcoliamo ora

) )
 0) 0

))
 ) 00

  



) )
 0) 0

))
 ) 00

) )
 0) 0

)
 ) 0)

)
 ) 0)

)
#  ) 0) 2 
))
) )
#  00)   0) 0

))
 00)

D #

da cui possiamo ricavare

perch per
e
ogni termine della sommatoria coinvolge il determinante di una matrice con due
colonne della ripetute ed e quindi nullo. La regola di Cramer ha senso, cio` e possibile calcolare
`
e`
gli , solo se la matrice
dei coefcienti e non singolare (cio` le colonne sono linearmente
`
e
indipendenti). Quindi si richiede che sia

)
Q

D # 

D #

) )
 0) 0

Osservazione 10. La regola di Cramer richiede il calcolo di


determinanti 17 ognuno dei quali a sua volta richiede
somme e prodotti e quindi sono in tutto
`
operazioni aritmetiche. Nel capitolo successivo si mostrera che esistono tecniche di risoluzione dei sistemi lineari che forniscono con un costo computazionale
operazioni18

#!B

&
'%$#
! #

!
"#

  1

#

   
#

costante reale non negativa indipendente da

per

e
`




 


 #



 


con

, con

Perch se abbiamo solo incognite?


e
Ricordiamo che la denizione corretta del simbolo




 





1

18

17

52

Matrici e vettori

`
di somma e prodotto la soluzione desiderata. Il costo della regola di Cramer e tale che
`
`
gia per
ne e sconsigliabile luso, mentre per piu grandi la crescita del fattoriale

rende questa tecnica di risoluzione di fatto impraticabile. La regola di Cramer ha dunque


un signicato essenzialmente teorico.

1.2.7 Dipendenza e indipendenza lineare


I determinanti possono essere usati per vedere se un insieme di vettori e o non e linearmente
`
`
in
. In tal caso possiamo
dipendente. Consideriamo prima il caso di vettori , , . . . ,
calcolare il determinante della matrice costituita dalle colonne , , . . . ,
e vale il teorema

sono linearmente indipendenti se e solo se

D #
Q

) 0)
)

&

&

&

, , ...,
siano linearmente dipendenti, per cui
,. . . ,
non tutti simultaneamente nulli tale che

Dimostrazione. Supponiamo che


esiste una scelta di coefcienti ,

in

, ...,

vettori

Teorema 19. Gli

&

&

& D

`
Senza perdere in generalita possiamo supporre che almeno li-esimo coefciente sia non
`
nullo, cioe
, e quindi ottenere

)  &


&
G D

&
&

& &

2
2 & &

&

D &

& D

Poiche possiamo aggiungere alla colonna -esima della matrice


una qualsiasi combinazione lineare delle altre colonne senza modicare il valore del determinante vedi
`
lemma 14 si puo scrivere

0) 0  &
) )


 &
)
G ) 0)

)
0) )

) 00 ) 0)
)) )

, che si legge e dellordine di e un abuso notazionale per


`
`

 1


0) 0
) )

D #

 
$1

e che lespressione duso abituale

Sistemi Lineari

53

Viceversa se gli vettori ,. . . , sono linearmente indipendenti, allora formano una


base in
e quindi gli vettori della base canonica si possono esprimere come loro
si ha
combinazione lineare. Quindi per ogni

B 0) 0 G
) )
D

Vale la sequenza di relazioni

#
) )
# 0) 0

) )
0) 0

) 0)
)

0) 0
) )

$ $

#
#

$

$

) )
# 0) 0

G
D

0) 0
) )


`
dove si e dapprima utilizzato lo stesso argomento del teorema 15 per ridurre la somma`
`
toria alle permutazioni degli interi
e quindi si e introdotta la quantita

B ) 00 G
))

) )
# 0) 0

`
`
che e ovviamente nita essendo somma di un numero nito di prodotti di quantita nite.
Risulta evidentemente che
e che
.

D #

0) 0
) )

`
E possibile generalizzare il risultato appena visto nel caso i vettori siano meno di ? La risposta e
`
positiva, ma richiede lintroduzione di qualche strumento ulteriore.

Denizione 28 (Sottomatrice). Data una matrice


(non necessariamente quadrata)
possiamo costruire una sottomatrice selezionando solo gli elementi che appartengono
allintersezione di una scelta ssata di righe e colonne di . Possiamo indicare una
sottomatrice con la notazione esplicita

$
$  

54

Matrici e vettori

si riferiscono alle righe e gli apici

,. . . ,

,. . . ,

dove gli indici


.

alle colonne della

Ad esempio dalla matrice

Q
G

D
E

P
possiamo estrarre la sottomatrice

P
G F

Ovviamente una sottomatrice e ancora una matrice e quindi pu` essere indicata al solito da una
`
o
qualsiasi lettera maiuscola.

3
T

Denizione 29 (Minore). Data una matrice


, il determinante di una sua qual`
siasi sottomatrice
e detto minore di ordine di .

3 

$ $ 




Ci proponiamo ora di dimostrare il seguente teorema.


sono linearmente dipendenti, tutti i minori di ordine

19

,. . . ,

vettori ,
con

Teorema 20. Se i
della matrice

3 

0) 0 H
) )
 D

sono nulli.

ha la forma seguente

Dimostrazione. Un generico minore di ordine

0) 0 D
) )


$ S
# D

`
dove
e il vettore composto solo dalle componenti con indice di riga , ,

. . . , di . Poiche questi vettori sono linearmente dipendenti, esiste una combinazione


lineare non nulla che genera il vettore nullo

&


#

&

& D

? Cosa succederebbe se fosse invece

!
#

Perch si suppone
e

19

Sistemi Lineari

55

Se leggiamo questa combinazione lineare componente per componente sulle righe di


indici , , . . . , , si ha che vale anche la relazione seguente

&

&

sono linearmente dipendenti e quindi che il

, ...

& D

da cui si conclude che i vettori


,
`
minore e nullo per il teorema 19.

Possiamo capovolgere lenunciato di questo teorema20: se esiste almeno un minore di ordine


non nullo, allora necessariamente i vettori , ,. . . ,
sono linearmente indipendenti. Si
ottiene cos` in un criterio che permette di vericare lindipendenza lineare di un insieme di

vettori in
.

Vogliamo mostrare ora che la relazione che lega lesistenza di un qualche minore di ordine per
vettori colonna di
con la loro indipendenza lineare e di fatto una equivalenza, perch vale
`
e
anche il seguente teorema.

linearmente indipendenti,
con

3A
B

con sono
della matrice

)


00)
))

Teorema 21. Se i vettori


allora esiste almeno un minore non nullo di ordine

) 0) H
)
 D

La dimostrazione di questo teorema e un pochino pi laboriosa e richiede qualche risultato inter`


u
medio che enunciamo come lemma.
sono linearmente indipendenti ed all -esimo vettore

, ,

,. . . ,

,. . . ,

, si ha che i vettori

& ))
) 00 &

Dimostrazione. Sia

'

, allora la negazione di

2 2
' ' '

implica

'

' D

Ricordiamo che dalla logica elementare se la proposizione


negazione di .

20

implica la

per una qualsiasi scelta degli scalari


sono ancora linearmente indipendenti.

  &

,. . . ,

Lemma 22. Se i vettori


sostituiamo il vettore

56

Matrici e vettori

`
che puo essere riscritto come

'

'

 &


& '

'

'

& '

'

& '

'

sono linearmente indipendenti segue che

D '

'

'

'

' D

& ' '

, ...,

poiche

D
& ' '
Q

e quindi

,. . . ,

sono linearmente indipendenti.

D
Q

'

, ,

, ...,

I G
) )
0) 0 D

o in altre parole

Lemma 23. Sia una matrice le cui colonne sono costituite dei vettori , ,. . . ,
allora i
minori di ordine restano invariati se all -esimo vettore si aggiunge una combinazione lineare
degli altri vettori cio` se si sostituisce al vettore il vettore
e

)  &


della matrice tra-

0) 0
) )

0) 0 D
) )


osserviamo anche che

&



ed

$ S
#


dove

Dimostrazione. Basta osservare che un generico minore di ordine


`
sformata si puo scrivere come

`
e quindi per il lemma 14 il determinante non e cambiato.
I lemmi 22 e 23 ci danno la possibilit` di semplicare la dimostrazione dellinverso del teorema 20,
a
infatti potremmo cambiare le colonne della matrice con opportune combinazioni lineari che non
cambiano il valore dei determinanti dei minori ne la dipendenza o indipendenza lineare dei vettori
colonna e portano la matrice in una forma opportuna che semplica la dimostrazione.

Sistemi Lineari

57

Lemma 24. Sia una matrice le cui colonne sono costituite dai vettori , ,. . . ,
linearmente indipendenti allora tramite opportune combinazioni lineari dei vettori colonna che non
cambiano il valore dei minori di ordine pu` essere messa nella forma
o

..

.
.
.

D
E

I G
Q
) )
D
0) 0
D
,

con

.
.
.

a meno di opportune permutazioni delle righe.

`
Dimostrazione. La dimostrazione e fatta per costruzione. Supponiamo infatti che sia

Q D
#

con la prima riga per cui

osserviamo che un tale esiste altrimenti il vettore


sarebbe nullo ed i vettori ,
...,
sarebbero linearmente dipendenti. Adesso ai vettori sostituiamo i vettori

Q
))

# 00) ! # # D


della forma

Q Q

# S

D


.
.
.

si trasforma nella matrice

e quindi la matrice

D #
Q

se cos non fosse basta scambiare la riga

D 

possiamo ora ripetere il ragionamento per la sottomatrice


perche una combinazione
lineare di zeri da sempre zero e quindi la prima riga non viene piu modicata.

A questo punto la dimostrazione del teorema 21 e immediata.


`

Dimostrazione. Si consideri il minore

del lemma 24.

58

Matrici e vettori

`
Osservazione 11. Il lettore smaliziato21 notera che stiamo utilizzando senza dirlo esplicitamente un processo di eliminazione di Gauss sulla matrice
. La triangolarizzazione

`
con scambio di righe puo essere effettuata per i passi necessari proprio perche la ma`
trice e supposta di rango massimo, il che garantisce lesistenza dellelemento pivotale
non nullo. Questo procedimento fornisce anche una tecnica operativa per determinare il
rango di una matrice in alternativa a quella ingenua di cercare a occhio la sottomatrice
quadrata non singolare piu grande possibile.

Questi risultati si riassumono nel teorema nale.

Teorema 25. I vettori , , . . . ,


sono linearmente indipendenti se e solo se la matrice
le cui colonne sono formate dalle componenti degli stessi vettori rispetto alla base canonica ha
almeno un minore di ordine non nullo.

1.2.8 Rango di una matrice

Denizione 30 (Rango). Data una matrice rettangolare


il massimo numero di vettori
`
colonna di linearmente indipendenti e detto rango della matrice in simboli
.

 

I teoremi n qui dimostrati forniscono un procedimento per determinare il rango di una matrice.

Teorema 26. Data una matrice


minore non nullo.

qualunque, il suo rango coincide lordine del pi grande


u

Dimostrazione. Sia

5 0) 0 
) )

 D
E

e siano

 00)
))


vettori linearmente indipendenti, allora per teorema 25 tra tutti i minori di ordine che
sono formati dalle colonne
,
,. . . ,
ne esiste almeno uno con determinante non
`
nullo. Viceversa se e un minore con determinante non nullo costruito dalle colonne
,
,. . . ,
sempre per il teorema 25 segue che i vettori
,
,. . . ,
sono linearmente
indipendenti.

21

Un lettore smaliziato e per esempio uno studente brillante che ha letto e capito gli argomenti presentati nel capitolo
`
successivo.

Sistemi Lineari

59

`
1.2.9 Il teorema di Rouche-Capelli
Utilizzando i teoremi che sono stati n qui introdotti e dimostrati e possibile denire dei criteri per
`
sapere se un dato sistema di equazioni lineari ammette o meno soluzioni. Consideriamo il sistema
lineare

(1.18)

U5
7

dove
,
e
. Supponiamo che sia una possibile soluzione, senza
preoccuparci in questo momento della sua unicit` . Allora sappiamo che si pu` scrivere
a
o

cio` il vettore e combinazione lineare delle colonne della matrice


e
`
con coefcienti le componenti del vettore soluzione. Quindi il numero di vettori linearmente indipendenti dell insieme
,
, ...,
e lo stesso dell insieme
`
,
, ...,
, . Questo in simboli si pu`
o
scrivere come

 0
D

) )
 0) 0

pi il vettore colonna .
u

 

cio` la matrice costituita dalle colonne di


e

si intende il rango della matrice

dove con

`
Viceversa se il sistema (1.18) non ammette soluzioni, allora il vettore non e una combinazione
lineare dei vettori colonna della matrice . Quindi il vettore e linearmente indipendente dai
`
vettori colonna di e quindi il numero di vettori colonna linearmente indipendenti dellinsieme
,
, ...,
e pi piccolo del numero di vettori linearmente indipendenti dellinsieme
` u
,
, ...,
, . Questo in simboli si pu` scrivere come
o

) 

 0

. Allora il sistema ammette soluzioni se e solo se

) 

 0

85
7

3 

dove

Teorema 27. Sia dato il sistema

Questi risultati si sintetizzano nel seguente teorema

60

Matrici e vettori

I risultati sui determinanti permettono di dare una forma operativa del teorema 27, infatti
Teorema 28. Sia dato il sistema

85
7

dove
,
e
. Allora il sistema ha soluzione se e solo se il massimo
ordine dei minori non nulli della matrice e lo stesso della matrice
`
.




Dimostrazione. Basta applicare il teorema 26 per il calcolo del rango di una matrice.

U5
7

3 

e
, con
`
. E interessante notare che

,e
e
`

) D

una soluzione del sistema lineare


, con
una soluzione del sistema lineare omogeneo
ancora soluzione del sistema lineare non omogeneo:

 D #

Sia

Quindi, data una soluzione particolare del sistema lineare non omogeneo
per
ogni soluzione del sistema lineare omogeneo si ottiene una diversa soluzione del problema non
`
omogeneo della forma
. E intuitivo che la soluzione di un sistema lineare non omogeneo
una volta che ne sia ammessa lesistenza e unica solo nei casi in cui possiamo garantire che sia
`
sempre
, cio` che lunica soluzione possibile del sistema lineare omogeneo
e
sia il
vettore nullo.

Formalizziamo questa considerazione nel seguente teorema per matrici quadrate.

 

, tale che
. Allora la soluzione
vettore assegnato, esiste ed e unica.
`

3
4

Teorema 29. Sia


, con

del problema

`
Dimostrazione. Dimostriamo separatamente prima lesistenza e poi lunicita.

Esistenza. Poiche in
possiamo avere al massimo vettori linearmente indipendenti,
implica che
, e lesistenza segue dal teorema 27.

`
Unicita. Essendo la matrice quadrata di ordine uguale al suo rango, si deduce
immediatamente che le sue colonne
, sono vettori linearmente
indipendenti. Supponiamo ora di avere due soluzioni possibili del sistema lineare
e , per cui possiamo scrivere
non omogeneo, che indichiamo con
. Per differenza si ottiene
, da cui segue che
,
`
cioe
.

)
 )0) 0
B

D #

 0

 0

Sistemi Lineari

61

Che cosa succede se la matrice e rettangolare?


`
`
Osservazione 12. Se la matrice e rettangolare con piu colonne che righe

lu`
`
`
nicita non e sicuramente possibile. Infatti il massimo rango possibile e almeno
colonne sono linearmente dipendenti dalle altre, per cui esistono almeno
vettori linearmente indipendenti di
, corrispondenti alle combinazioni lineari dei vettori colonna
della matrice , che sono soluzione del problema omogeneo.

B
B

Osservazione 13. Nel caso di matrici rettangolari con piu righe che colonne

il
`
massimo rango possibile e ovviamente . Tuttavia, il sistema lineare ammette soluzione
soltanto nel caso si abbia
. Viceversa il sistema lineare sarebbe infatti
sovradeterminato. Questo signica che possiamo eliminare un certo numero di equazioni
e ridurre la matrice nale a quadrata o rettangolare con piu colonne che righe. Nel caso

sia
eliminando opportunamente
equazioni siamo nella situazione del
teorema 29. Altrimenti dovremo eliminare un numero maggiore di equazioni e saremo
proprio nel caso dellosservazione precedente.

 B 0

 0

 0

1.2.10 Cofattori di una matrice quadrata


che scriveremo come segue

))
 ) 00

 D
E

si pu` scrivere come


o

 

))
 00)

 

D 

))
 ) 00

qualsiasi

))
 00)

) )
 0) 0

 

D S%

ed ovviamente per un elemento di posizione

 

Denizione 31. Chiameremo cofattori i determinanti della forma


indicheremo col simbolo

))
 ) 00

))
 ) 00

osserviamo che il determinante di

una matrice quadrata di ordine

Sia

e li

))
 ) 00

D  %

62

Matrici e vettori

Denizione 32 (Cofattore). Sia una matrice quadrata deniremo matrice cofattore di


in simboli cft
la seguente matrice

%
2%

sostituiamo il cofattore

 %

 
D

` `
cioe e la matrice in cui al posto dell elemento

..

..

.
.
.

 

cft

..

Introduciamo una notazione molto comoda per indicare i cofattori:

))
 ) 00

 "

))
 00)

D  %

dove con
si indica la matrice uguale ad tranne per la -esima colonna che e sostituita
`
con il vettore . Con questa notazione la regola di Cramer si pu` scrivere come segue
o




La multi-linearit` del determinante diventa


a

Con questa notazione tramite la linearit` il determinante si pu` calcolare con lo sviluppo sulla
a
o
prima colonna

S%


D

oppure, in maniera del tutto analoga, con lo sviluppo sulla -esima colonna

) %

Enunciamo ora una propriet` che sar` utilizzata nel seguito.


a
a

Sistemi Lineari

63

i suoi cofattori allora vale

)  %

 
D

una matrice quadrata e

 %

Lemma 30. Sia

D
C

Dimostrazione. Per
il lemma fornisce esattamente la formula dello sviluppo del
, si ha
determinante sulla colonna . Invece, se

D 

D
Q

  

D  %

  

Infatti la matrice
si ottiene sostituendo nella matrice la colonna -esima con
la colonna -esima. Se
riotteniamo la matrice , altrimenti otteniamo una matrice
`
con due colonne uguali, il cui determinante e nullo per il lemma 12.

1.2.11 Rappresentazione della matrice inversa


Il risultato precedente permette di denire una formula per la rappresentazione formale22 dellinversa di una matrice quadrata. Consideriamo, per iniziare, il seguente teorema.
e cft

la sua matrice cofattore; allora

D
H

 

cft

una matrice quadrata di ordine

 

Lemma 31. Sia


vale

Dimostrazione. Scriviamo esplicitamente il prodotto della trasposta della matrice cofattore di per la matrice . Si ottiene

 S%

D  #

 

cft

  D

D  #

 

cft

dove lultima uguaglianza si ricava applicando il lemma 30.

22

con

Il teorema seguente lespressione dellinversa di una matrice

Si noti bene che si sta parlando di rappresentazione formale e non di calcolo della matrice inversa.

Matrici e vettori

con determinante non nullo. Allora

Teorema 32. Sia una matrice quadrata di ordine


invertibile e la sua inversa verica la relazione

64

e
`

   G

cft

2 

Dimostrazione. Dal lemma 31 si ottiene subito lespressione dellinversa sinistra

D
E

 

cft

`
Lunicita dellinversa destra e sinistra conclude la dimostrazione del teorema.

Osservazione 14. Questa relazione fornisce una rappresentazione esplicita della matri`
ce inversa; in particolare si osservi che linversa si puo costruire solo se il determinante
`
`
`
della matrice e non nullo, cioe la matrice e di rango massimo.
`
Vale anche in questo caso la stessa osservazione fatta per la regola di Cramer, e cioe

che questa formula ha un signicato essenzialmente teorico, ma, dipendendo dal calcolo
di cofattori, che, come vedremo nella prossima sezione, comporta il calcolo di minori di
`
`
, e troppo costosa per essere di qualche utilita computazionale. Anticipiamo,
ordine
`
come si e fatto per la regola di Cramer, che esistono tecniche numeriche che calcolano il
determinante di una matrice con un costo computazionale assai inferiore.

1.2.12 Calcolo dei cofattori


una matrice quadrata allora

2 2

  #

2 G

D 

2 2

  #

Teorema 33. Sia

D  %


dove con
si intende la sottomatrice ottenuta sopprimendo la riga -esima e la colonna
-esima della matrice .

2 2

. Possia-

,. . . ,

 2

) 0)  2  00)  
)
))

D  S%
 %


 2

 Q

2 2
Q

2
Q

2
Q

2


 Q

Q
2

.
.
.


 2

.
.
.

2


2  2

, ...,

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

`
e funzione dei vettori
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

si verica facilmente che


mo quindi scrivere
.
.
.
.
.
.

.
.
.
.
.
.

Quindi, denendo i vettori

.
.
.

D  S%

.
.
.

e che tramite opportune combinazioni lineari delle colonne possiamo scrivere

D  S%

2
Q

2
2  2

2
Q



 2

.
.
.

.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.

.
.
.

Dimostrazione. Osserviamo che


Sistemi Lineari

65

I G
) B ) 0) D
)

) )
0) 0 

) )
0) 0

))
 00)

2 2

   #

G
) 2
 #
G
2 #

2 
) )
0) 0

) )
0) 0

D
D

D #

2
) )
0) 0

 

2
2
 ) 0)0
)
7

)
) 0)

) 00
))

D #

2
 

) )
0) 0

) )
0) 0 

 ) 0)
)

2  2

2 2

2


00)  "
))

) )
0) 00 




 2

.
.
.

.
.
.

scambi si ottiene
.
.
.
.
.
.

; con

.
.
.
.
.
.

Pierre-Simon Laplace 17491827

base canonica di

abbiamo

.
.
.
.
.
.

23

Corollario 34. Il determinante ha quindi il seguente sviluppo (detto di Laplace23)


e quindi
con

Supponendo ad esempio

 0) 0
) )

osserviamo che

2
2
#   00)   ) 00
))
))
00)  2  ) 00  
))
))
D

D  S%

B @ B

e la funzione
soddisfa i primi due assiomi sui determinanti. Introduciamo per sempli`
care le notazioni il simbolo
che rappresenta la matrice identita di dimensioni
. Quindi per il corollario del teorema 15

 

66

Matrici e vettori

Sistemi Lineari

67

1.2.13 Determinante della trasposta


Ci chiediamo ora che valore assume il determinante della matrice trasposta. Abbiamo gi` visto lo
a
sviluppo del determinante lungo le colonne, cerchiamo ora una formula analoga per lo sviluppo
per righe.
Teorema 35. Il determinante si sviluppa come

I G
) B ) 0)
)
D

(1.19)

  # G

2 2

Dimostrazione. Basta osservare

))
 ) 00

) )
 0) 0

D 


dove

.
.
.

`
ed usando la multilinearita del determinante

) )
 0) 0

) )
 0) 0

))
 ) 00

)
 ) 0)

))
 ) 00

D 

in maniera analoga possiamo continuare

) )
 0) 0

))
 00)

)
 ) 0)

%
%

ed utilizzando il teorema 33 otteniamo proprio l espressione (1.19).

.
.
.

68

Matrici e vettori

Siamo in grado ora di dimostrare il seguente teorema

Teorema 36. Sia

una matrice quadrata di ordine , allora vale


D

`
Dimostrazione. Si puo dimostrare per induzione sullordine della matrice.

`
ovviamente non ce nulla da dimostrare;

assumiamo come ipotesi induttiva che lenunciato del teorema sia vero per
e verichiamo che segue . Consideriamo lo sviluppo del determinante di
sulla
prima colonna e lo sviluppo del determinante di
sulla prima riga. In entrambi i
`
casi abbiamo una somma di termini ognuno dei quali e il prodotto di un elemento
della colonna di o della riga di
che quindi coincidono per i corrispondenti
si elimina
cofattori. Ma questi sono determinanti di sottomatrici di ordine
sempre una riga ed una colonna e di
a due a due una trasposta dellaltra,
per cui dallipotesi induttiva sono uguali. Il teorema segue immediatamente.

G
G

una matrice quadrata partizionata a blocchi come segue


F

R 

D
E

7 3 

, allora

)


7 3 

Dimostrazione. Osserviamo che ssata la matrice


il determinante di
delle colonne della matrice e quindi possiamo scrivere

  D 

dove

Teorema 37. Sia

`
e funzione

)#

 0) 0
) )


D

`
soddisfa i primi due assiomi dei deterE immediato vericare che
minanti e quindi per il corollario del teorema 15 si ha

)
) 0)

 0) 0
) )



D

D #

 ) 00
))

1.2.14 Determinante di matrici diagonali a blocchi

 

 D 

da cui segue subito

)
) 0)

 0) 0
) )

In maniera analoga otteniamo


Sistemi Lineari

69

70

Matrici e vettori

Autovalori ed autovettori

sono singolari?

non siano di

di ordine .

D #

e un polinomio in
`

e quindi anche

Lemma 38. Il determinante della matrice

Denizione 33. I valori che rendono singolare la matrice


sono gli autovalori di .

per ogni scalare , e evidente che gli scalari che cerchiamo


`
.

ed

 D

e la sua trasposta

La condizione di singolarit` si impone richiedendo che le matrici


a
rango massimo, cio` che il loro determinante sia nullo.
e
Dato che si ha
sono gli stessi per

dalla

la matrice

Per quali valori dello scalare

denita al variare dello scalare

e consideriamo la matrice

Sia
relazione

1.3

Dimostrazione. Dalla formula dello sviluppo del determinante:

#


3# ) 00
))

di grado al piu .

tutti i termini della sommatoria sono polinomi in

Dato che una matrice e singolare quando il determinante e nullo, la condizione di singolarit` per
`
`
a
ci porta alla seguente denizione.

Denizione 34 (Polinomio caratteristico). Il polinomio

D #

Osservazione 15. Gli zeri del polinomio caratteristico di


trice .

`
e detto polinomio caratteristico della matrice

sono gli autovalori della ma-

Autovalori ed autovettori

71

Per il teorema fondamentale dellalgebra il polinomio caratteristico si fattorizza come prodotto di


binomi elevati ad opportuni esponenti

$ #

.
zeri distinti che sono
`
compete una molteplicita


D #

G
D
B

Denizione 35. Se il polinomio caratteristico di


ammette
gli autovalori, e si fattorizza come sopra, ad ogni autovalore
.
algebrica

se

dove

Se la matrice
e singolare per un dato valore dello scalare , allora deve esistere almeno un
`
vettore
tale che

cio` , trasponendo,
e

D #


D


`
e un autovettore destro

)
(

`
e un autovettore sinistro

D 

`
e autovettore di

Denizione 37 (Autovettore sinistro). Un vettore riga


della matrice rispetto ad uno scalare se vale la relazione

`
cioe

Denizione 36 (Autovettore destro). Un vettore colonna


della matrice rispetto ad uno scalare se vale la relazione

che rende singolari

#


, anche se si riferiscono allo stesso scalare

D #

e singolare per un dato valore dello scalare , allora deve


`
tale che

In generale si ha che
e
.

Analogamente se la matrice
esistere almeno un vettore

Osservazione 16. Ricordando la denizione di kernel di una matrice, possiamo dire che
gli autovettori destri risp. sinistri di
rispetto ad un autovalore
sono tutti e
risp. del ker
.
soli gli elementi del ker

Matrici e vettori

72

Lemma 39. Se , , . . . ,
sono autovettori dello stesso autovalore , allora ogni loro
combinazione lineare e ancora un autovettore rispetto allo stesso autovalore.
`

si ha che

 &


& 0) 0  &


) ) &


D  &

D 

 &

scalari qualsiasi

  &

Dimostrazione. Scelti

`
`
Denizione 38 (Molteplicita geometrica). Deniamo come molteplicita geometrica delil massimo numero di autovettori linearmente indipenlautovalore , indicata con
denti che possiamo scegliere nello spazio di vettori ker
associato allautovalore
.

e sempre maggiore o uguale


`

)


Teorema 40. La molteplicit` algebrica


a
di un autovalore
della corrispondente molteplicit` geometrica
a
, cio`
e

Dimostrazione. Siano , , . . . ,
gli autovettori corrispondenti a , che possiamo
sempre considerare ortonormali (altrimenti si applica Gram-Schmidt).
Se
aggiungiamo altri
vettori per completare una base ortonormale. Sia
la matrice le cui colonne sono questi vettori.

)
) ) ) 0

2
) 00 !
))

da cui

che verica

))
) 00

D
D

..

Possiamo quindi scrivere

Autovalori ed autovettori

73

da cui segue che

`
ma puo

`
`
e una radice del polinomio caretteristico di molteplicita almeno
quindi
essere superiore se
. Concludendo
.

..

`
Osservazione 17. Se un autovalore, per esempio l -esimo, ha molteplicita
,

allora, poiche
, non ci sono abbastanza autovettori linearmente
indipendenti per formare una base.

`
`
e a valori reali e e un numero reale allora possiamo trovare
i cui vettori hanno componenti reali.

Osservazione 19. Se
una base di ker

`
e non singolare se e solo se non ammette lo zero

Osservazione 18. Una matrice


come autovalore.

1.3.1 Matrici reali simmetriche e hermitiane


Ricordiamo le denizioni gi` introdotte nel capitolo riguardante vettori e matrici. Una matrice
a
quadrata si dice simmetrica se
mentre si dice hermitiana se
.

 H
D

 H
D

Osservazione 20. Per matrici reali (tutte le componenti sono reali), i concetti di simme`
tria e hermitianeita coincidono, mentre differiscono per matrici complesse (almeno una
`
componente e complessa).
Esempio 25.

G
Q

I
G

G
P

D 

G


G
Q

`
non lo e.

D
H

`
e una matrice simmetrica, mentre

74

Matrici e vettori

Esempio 26.

G


G
Q


G

sono matrici simmetriche,

G
Q

D 

G


G
Q

G


I
G

D
E

D 

P


`
non lo e.

sono matrici hermitiane,

`
non lo e.

Completiamo queste due denizioni, introducendo una nuova denizione.

 D

 

si dice normale se

Denizione 39. Una matrice quadrata

Esempio 27.

G


D
E

Q
`
`
e una matrice normale (e anche hermitiana).

Le propriet` di simmetria per matrici reali o di hermitianeit` per matrici complesse, inducono
a
a
propriet` molto forti su autovalori ed autovettori. Vale infatti il seguente teorema.
a
Teorema 41. Una matrice reale simmetrica o hermitiana ha solo autovalori reali.

reale e simmetrica
hermitiana. Supponiamo che
sia hermie
un autovalore ed il suo autovettore. Moltiplicando a sinistra

da cui si ricava un espressione per lautovalore

Dimostrazione.
tiana e che siano
per
si ottiene

Autovalori ed autovettori

75

`
Dalla denizione di norma e di autovettore segue che il denominatore e sicuramente un
`
numero reale strettamente positivo. Anche il numeratore e un numero reale, come si
vede dalla sequenza di uguaglianze
e un numero]
`

#
#

 D 

`
un rapporto tra numeri reali, e a sua volta un numero

[trasposizione del prodotto]

. Essendo

quindi
reale.

Teorema 42. Per ogni autovalore di una matrice reale simmetrica esiste un autovettore che ha
solo componenti reali.

Dimostrazione. Sia reale e simmetrica, un autovalore e


tore in cui abbiamo separato le componenti reali e complesse:

un suo autovet-

D #

da cui segue uguagliando le parti immaginarie e reali

D 

D 

Poiche si suppone sempre


, almeno uno dei vettori reali
autovettore di rispetto allautovalore .

`
`
e non nullo ed e

)
Q


Dimostrazione. Osserviamo che

Teorema 43. Sia matrice reale simmetrica o hermitiana, e due autovalori distinti e
due corrispondenti autovettori. Allora e sono ortogonali, cio`
e

)
(

D
D

76

Matrici e vettori

Sottraendo membro a membro le due relazioni cos` ottenute

segue che

perche

Inne vale la seguente osservazione.

`
Osservazione 21. Se e una matrice simmetrica o hermitiana, allora segue immedia`
tamente dalle denizioni che ogni autovettore destro e anche autovettore sinistro. Per
esempio, per simmetrica

[trasposizione]

 H
D

D
E

Inne, una propriet` fondamentale delle matrici reali simmetriche o hermitiane consiste nella posa
sibilit` di diagonalizzarle mediante opportune trasformazioni dette trasformazioni di similitudine
a
che coinvolgono (ma solo in questo caso particolare) matrici ortogonali o unitarie, di cui diamo
di seguito la denizione.
`
e ortogonale se la sua trasposta

) 2  D

Denizione 41 (matrice unitaria). Una matrice


`
gata coincide con la sua inversa. Cioe

`
e unitaria se la sua trasposta coniu-

) 2  D

Osservazione 22. Nel caso la matrice


`
e ortogonalita coincidono.

Denizione 40 (matrice ortogonale). Una matrice


`
coincide con la sua inversa. Cioe

`
sia a valori reali allora il concetto di unitarieta

Autovalori ed autovettori

una matrice reale simmetrica, allora esiste una matrice

,. . . ,

D
E

..

ortogonale tale

con

Teorema 44. Sia


che:

77

gli autovalori della matrice

`
`
Dimostrazione. La dimostrazione e per induzione. Il teorema e vero per matrici
.
un autovalore di (reale per il teorema 41) ed
un corrispondente autovettore
Sia
di norma (che possiamo assumere a valori reali per la osservazione 19). Possiamo
completare
ad una base ortonormale
,
,. . . ,
per la osservazione 5. Sia la
matrice le cui colonne sono i vettori
,
,. . . ,
. Allora avremo
, infatti

G @ G

) 

D


D 

D  #

avremo

Inoltre dal fatto che




dove e
sono rispettivamente un vettore riga e una matrice quadrata non ancora
specicate. Moltiplicando a sinistra per
otteniamo

`
e simmetrica. Quindi la matrice a
`
e simmetrica. Applicando
e

`
e simmetrica segue che
e dal fatto che
`
blocchi a destra in (1.20) e simmetrica e quindi

(1.20)

D
H

`
e la matrice ortogonale cercata.
.

abbiamo che

Quindi ponendo
..

..




per cui avremo

..

ortogonale tale che

`
linduzione esistera una matrice
78

Matrici e vettori

Autovalori ed autovettori

una matrice hermitiana, allora esiste una matrice unitaria

gli autovalori della matrice

,. . . ,

D
E

..

tale che:

con

Teorema 45. Sia

79

`
Dimostrazione. La dimostrazione e praticamente identica a quella del teorema prece
dente, purche si sostituiscano i termini simmetrico e ortogonale con hermitiano e
unitario e tutte le trasposizioni di matrici reali che coinvolgono la notazione

siano reinterpretate come trasposizioni con coniugazione notazione


.

1.3.2 Spettro, raggio spettrale e localizzazione degli autovalori sul piano


complesso

I G
B ) 0)
)
D


 D

# 

Esempio 28. Determinare il raggio spettrale della seguente matrice

G
Q

G
I

D
E

Calcoliamo gli autovalori come zeri del polinomio caratteristico

con autovalori

`
e detto raggio spettrale della matrice

si chiama spettro

# 

Denizione 43 (Raggio spettrale). Data una matrice quadrata


il numero

Denizione 42 (Spettro). Linsieme degli autovalori di una matrice


della matrice e si indica usualmente col simbolo
.

,. . . ,

)
0) ) D
#

3#

3#

D #

80

Matrici e vettori

Determiniamo il raggio spettrale dalla denizione


 G G G  D #
D

e linsieme dei numeri complessi

3 

sta in .




esima componente

D
Q



Prendiamo il modulo da entrambe le parti e dividiamo per

alla

lindice della

Calcoliamo la relazione

, e



Dimostrazione. Sia ,
una coppia autovalore, autovettore di
componente di modulo massimo di

allora ogni autovalore di

Teorema 46 (dei cerchi di Gerschgorin). Sia

Esempio 29.




Q
)
D

) )
G Q
I I
 ) )
G
Q G

I Q

D
x

D # 

D
E

Autovalori ed autovettori

81

Esempio 30. Possiamo avere anche situazioni insolite. Per esempio,




D


#
G I
#
G I

D # 

Q
I


D
E

1.3.3 Matrici a diagonale dominante

Denizione 44 (Dominanza diagonale). Una matrice quadrata


dominante se

si dice a diagonale

B ) 00 I G
))
D
S

e la disuguaglianza stretta vale per almeno un indice . Se la disuguaglianza stretta vale


per ogni indice allora la matrice si dice a diagonale strettamente dominante.

Teorema 47. Se una matrice

e a diagonale strettamente dominante allora e non singolare.


`
`

`
Dimostrazione. Basta osservare che lo zero non puo appartenere allunione dei cerchi
di Gerschgorin, e quindi la matrice non ha lautovalore nullo.

1.3.4 Matrici denite positive

Denizione 45 (matrice denita positiva). Sia


valga
ogni vettore

una matrice quadrata tale che per

82

Matrici e vettori

D
Q


D
Q

`
allora diremo che e denita positiva. Se la condizione 2 viene a mancare allora diremo
`
che e semidenita positiva.

Denizione 46 (matrice simmetrica e denita positiva). Se la matrice


denita po`
`
e simmetrica e denita positiva, che
sitiva e anche simmetrica allora diremo che
24
indicheremo con labbreviazione SPD .

Teorema 48. Se

e denita positiva allora ha solo autovalori positivi.


`

`
allora esistera un autovettore

abbiamo

moltiplicando per

tale che

un autovalore di

Dimostrazione. Sia

da cui

 D




D
H

autovalori di

esiste una matrice ortogonale reale

SPD. Ricordiamo che


[Binet]

)
# ) 0)

D
2 D
2 D 


 D

Dallinglese Symmetric Positive Denite

24

[Binet]

,e

con

reale simmetrica

Dimostrazione.

e SPD allora
`

Teorema 49. Se

tale che

Autovalori ed autovettori

SPD della forma




allora le matrici




5 U6 3 
7 5

7 5

3 

con

Teorema 50. Sia

83

sono SPD.

Dimostrazione. Consideriamo tutti i vettori della forma

Dalla sequenza di relazioni

)
( 

e consideriamo la seguente partizione della




2 7 2 1 3 

James Joseph Sylvester 18141897

25

e SPD,
`

dove

Sia

25

Teorema 51 (di Sylvester).


matrice

,e
`
e SPD. In
.

segue che
per ogni
. Quando
si ha anche
`

e SPD. Ma questo implica che


quindi
perche
, di conseguenza
modo analogo si procede per la matrice , prendendo vettori della forma

. Allora sono equivalenti

# 2




2 

2
2
D

2 D

 2 

2# 2

si ha che

Tenendo conto che

Osserviamo che

G


2# 2

e deniamo

nel seguente modo

Supponiamo il teorema vero per matrici di dimensione

la matrice

Partizioniamo la matrice

(ipotesi induttiva).

`
`
e uno scalare ed il teorema e banalmente vericato.

B
B

1 Si dimostra per induzione come segue.

per

`
e SPD e quindi

2 Per il teorema precedente ogni blocco

B ) 00 I G
))
D

Dimostrazione. 1

84

Matrici e vettori

Autovalori ed autovettori

per ipotesi induttiva, allora segue che

Q
2

come

F
D
%

`
e uno scalare. Allora avremo che

)# 2

quindi

ed

D %

2 

D
D

allora questo implica che


`
e SPD.

`
e SPD, quindi

2 

Per ipotesi induttiva la matrice

Sia ora
conseguenza

componenti ed

`
e un vettore di

dove

e partizionando

2 

Consideriamo ora un vettore qualunque , ponendo


segue

e poiche

85

. Di

86

Matrici e vettori

1.4

Norme di matrici

Vogliamo mostrare che la nozione di norma introdotta per i vettori si pu` estendere al caso delle
o
matrici. Dato che lidea di lunghezza di una matrice non e intuitiva, svilupperemo largomento
`
in maniera formale. Iniziamo introducendo alcune propriet` interessanti delle norme vettoriali.
a

`
1.4.1 Alcune proprieta delle norme vettoriali
`
Teorema 52 (Continuita delle norme). La norma vettoriale e una applicazione (uniforme`
mente) continua dallo spazio dei vettori
in .

`
Dimostrazione. Luniforme continuita delle norme segue immediatamente dalla relazione

, allora

sono due norme in

&
%

Teorema 53 (Equivalenza delle norme). Se


esistono due costanti
tali che,

&

%
D

`
Dimostrazione. Se
il teorema e banalmente vericato. Se
si proce`
de dimostrando che lenunciato e vero per
ed il caso generale segue
immediatamente per confronto.

G

`
Consideriamo linsieme
. Si osservi che e chiuso e livericano la condizione
mitato (per esempio tutte le componenti di ogni vettore
`
`
), quindi e un compatto in
. La funzione norma
e continua e quindi assume in il suo minimo (nito) strettamente positivo ed il suo massimo che indicheremo
rispettivamente con e . Per ogni vettore
si ha che

&

e quindi vale

& D

D

&


da cui si ottiene

Norme di matrici

87

valgono le diseguaglianze

Osservazione 23. Per ogni vettore

Dimostrazione. Le disuguaglianze del punto


si ottengono di fatto ripetendo largomento utilizzato nella dimostrazione del teorema precedente; le disuguaglianze del punto
`
si ottengono o per maggiorazione diretta o sfruttando alcune proprieta fondamentasi
li delle norme vettoriali e dei prodotti scalari; inne, le disuguaglianze del punto
ottengono combinando le diseguaglianze dei primi due punti.

Si prenda
e si osservi che ogni vettore
deve avere almeno una
componente di modulo uno, diciamo quella corrispondente allindice con
, e tutte le altre per
di modulo
. Si ha che


D
G

D 

D &

D %

si ottiene notando che per

mentre la seconda si ottiene applicando la diseguaglianza di Cauchy-Schwarz

Q
D

se

se

denito da


#


ed al vettore ausiliario

al generico vettore

La prima diseguaglianza del punto

da cui segue che

88

Matrici e vettori

e considerando che vale




$ #

D 

D # 

le diseguaglianze del punto

si ottengono combinando facilmente le prime due.

`
1.4.2 Cosa e la norma di una matrice?

U5
7

Sia data una matrice


e un vettore colonna
. Il prodotto
e un vettore
`
colonna di dimensione . Consideriamo inoltre due norme vettoriali, che indicheremo con
e
, denite rispettivamente in
e
. Cerchiamo la pi piccola costante , ammesso che
u
esista, che soddisfa la diseguaglianza

Per
la diseguaglianza precedente e vericata banalmente per qualsiasi costante . Per
`
questa ragione possiamo considerare solo vettori
, per i quali vale sicuramente lespressione

che ci permette di identicare con lestremo superiore tra parentesi quadre. Nel seguito dimostreremo che nelle condizioni in cui ci siamo posti questo estremo superiore esiste sempre nito.
Per ora osserviamo che questa quantit` dipende soltanto dalla matrice e dalla scelta delle norme
a
vettoriali fatta allinizio, come del resto e ragionevole aspettarsi. Questa quantit` e quindi una
`
a`
caratteristica della matrice
e che si comporta come una norma, nel senso che soddisfa le tre
propriet` fondamentali che intervengono nella denizione assiomatica delle norme.
a

85
7

3 

vale

`
Teorema 54 (di esistenza ed unicita). Per ogni matrice







D


Dimostrazione. Dato che vale

con




Norme di matrici

89

allora deve valere anche


 

Ragionando come nella dimostrazione del teorema di equivalenze delle norme, introdu, che abbiamo detto essere un compatciamo ancora linsieme
`
`
e ovviamente
to in
. La funzione che associa ad ogni vettore
la quantita
continua (composizione di funzioni continue) e quindi assume in il suo massimo. Sia
il vettore tale che

G D

  

Essendo lestremo superiore un maggiorante e non potendo essere strettamente maggiore di altri maggioranti (per esempio il max appena trovato) ne consegue che


 


 


 

Teorema 55 (Norma di matrice). La quantit` di cui si e appena dimostrata lesistenza e lua


`
nicit`
a

soddisfa le tre propriet` assiomatiche delle norme. Questo ci giustica nellusare il simbolo
a
che indicher` la norma della matrice .
a

3 

Dimostrazione. Proveremo che la funzione che associa ad ogni matrice


il valore
`
reale non negativo indicato con
soddisfa le tre proprieta assiomatiche introdotte nella
denizione delle norme.

`
`
ovviamente non puo essere negativa. Dobbiamo vericare dunque che e nulla
se e solo se
. Se consideriamo la matrice nulla
allora si ha che
per ogni
e quindi

D
E

ragionando per
. Sia infatti


D
H

ma ovviamente
. Dimostriamo che
implica
`
e verichiamo che
negazione, cioe supponiamo che

D
E

D 

1.

90

Matrici e vettori

D 

per almeno

)
Q

85
7

allora possiamo scrivere

3  

 

 

5 U5
7




 

Osservazione 24. Consideriamo ora


e
denita come segue
considerare la norma del prodotto

 

uno scalare arbitrario,

poiche questa diseguaglianza vale per ogni

3. Sia

2. Siano

allora,

li-esimo vettore della base canonica. Quindi se


un indice e quindi

, allora possiamo

 

(1.21)

 

 

da (1.21) possiamo dedurre




, ricaviamo che

 


poiche questa diseguaglianza vale per ogni




 

Lultima osservazione suggerisce di introdurre la seguente denizione per le norme di matrice.

3  

scalare e

U6
7 5

Denizione 47 (Denizione assiomatica di norma). Per ogni


valgono

Norme di matrici

 

 
D

 %

`
`
verra imposta lulteriore proprieta

4. Se

e solo se

3.

D
E

2.

1.

91

1.4.3 Norme compatibili

sono dello stesso tipo, ed in


. Le corrispondenti norme delle

85
7

 

vale

(1.22)

denita da




5 D

85
7

3 

Dimostrazione. Osserviamo che se

vale

Casi importanti seguito) si hanno quando le norme


e
,
e
particolare quando ci riferiamo alle norme
matrici vengono indicate con gli stessi simboli e valgono:
Teorema 56. La norma matriciale

`
e compatibile con le norme vettoriali
Denizione 48. Una norma matriciale
se per ogni vettore e matrice
vale la relazione

 

5 D

85
7

5

`
e denita come segue


Denizione 49. La norma

vale

Teorema 57.
In modo analogo si dimostra il seguente teorema:
e questo implica la (1.22).

5 D 

D  

D #

se

se




D 


G

D 

il vettore denito da
la riga per cui

e sia

allora avremo
sia ora

quindi
92

Matrici e vettori

Norme di matrici

93

Teorema 58. Vale la seguente uguaglianza

)# 

Dimostrazione. Osserviamo che

(1.23)

`
La matrice
e una matrice hermitiana e quindi per il teorema 45 esiste una matrice
unitaria che la diagonalizza

. Dalla (1.23) segue

sono gli autovalori della matrice

,. . . ,

D
E

dove

(1.24)

..

dalla (1.24)


e

 

00)
))

  D

'

# 

le matrici

D
D

Osservazione 25. E da notare che nel caso


infatti

sono simili,

# 

2 

94

Matrici e vettori

e quindi

)#

 

 

D # 




 

le matrici
e
non possono essere simili in quanto
`
. Si puo comunque provare che la (1.25) vale anche in questo

5 85
7

D


Nel caso
e
caso.

(1.25)

CAPITOLO

DUE

RISOLUZIONE DI SISTEMI LINEARI: METODI DIRETTI

95

96

Risoluzione di sistemi lineari: metodi diretti

2.1

Eliminazione di Gauss

In metodo di eliminazione di Gauss1 applicato ad un sistema lineare della forma

 D

 D

 D

.
.
.

lo trasforma in un sistema equivalente (cio` con la stessa soluzione) della forma


e

.
.
.

detta forma triangolare. Un sistema in forma triangolare si pu` risolvere immediatamente tramite
o
sostituzioni allindietro, cio` partendo dallultima incognita, il cui valore, si osservi, e gi` noto.
e
` a

2
2$
2
2
2 2$ 2
2 $ 2
$
2$ 2

2 $2

D
G

D
I

Johann Carl Friedrich Gauss 17771855

D
$

Esempio 31. La soluzione del sistema in forma triangolare:

.
.
.

(2.1)

Eliminazione di Gauss

97

), si ottiene immediatamente sostituendo

)
Q

D I G

D I

I

(nel quale abbiamo posto


,
e
allindietro le variabili come mostrato in (2.1),

G D

Q D I

D
D
Q

G
D I

D
G

Lalgoritmo di eliminazione di Gauss procede formalmente esprimendo la variabile che si vuole


eliminare come combinazione lineare delle variabili non ancora eliminate. A tal scopo, si utilizza
una equazione del sistema, che successivamente non sar` pi presa in considerazione. Leliminaa u
zione ha luogo per sostituzione della variabile da eliminare nelle rimanenti equazioni. Lalgoritmo
pu` essere espresso efcacemente, come vedremo, in termini matriciali poich , nella pratica, si
o
e
procede costruendo opportune combinazioni lineari delle equazioni del sistema, quindi di righe
della matrice dei coefcienti.
Per ssare le idee, illustriamo il procedimento con un esempio dettagliato.
Esempio 32. Sia dato il seguente sistema lineare


G


D

I
D

Q
D 

D

G



I



P



`
in cui abbiamo numerato le equazioni a destra in parentesi quadra per facilita di riferimento. Trasformeremo questo sistema in forma triangolare eliminando di volta in volta le
incognite , , 2 per mezzo di opportune combinazioni lineari delle equazioni.

;
;

G



I



P




( 
( I


(



lequazione

operiamo le seguenti trasformazio-





P



I

lequazione

Perch non si elimina lincognita


e


I

sostituiamo allequazione

sostituiamo allequazione

lequazione


P

sostituiamo allequazione



dalle equazioni

Per eliminare lincognita


ni:

98

Risoluzione di sistemi lineari: metodi diretti

Si ottiene

G



P





D
G

D
G

I
I

( 
( P
( I



I

G


G


Osserviamo che lequazione


non contiene la variabile mentre la equazione
la contiene; conviene quindi scambiare lequazione
con la
, prima di procedere
alleliminazione successiva


(
(


(


G
G



D  ((



(
P

 ((









 I

(  G ((

(


(((




((












((


D
G

P
I

G
G

GG D

I
I

D
G

(


D
G

D  (((




lequazione

I

(  G ((

, operiamo la seguente trasformazione:

I
I

G







(


G


sostituiamo allequazione

lequazione

dallequazione

Per eliminare lincognita

sostituiamo allequazione

operiamo la seguente trasformazione:

dallequazione

Per eliminare lincognita

I
I

Eliminazione di Gauss

99

`
Il sistema e ora in forma triangolare e tramite il procedimento allindietro (2.1) possiamo
calcolare la soluzione:

GG

G G D


D I

G G D G

G G
G

G G

G G

D
D

G
D

Osservazione 26. Per trasformare un sistema lineare di forma qualsiasi in forma triangolare sono sufcienti solo due tipi di operazioni:
sommare ad una equazione unaltra equazione moltiplicata per un opportuno scalare;
scambiare due equazioni.
Si noti che la soluzione di un sistema non cambia se scambiamo due equazioni oppure
se sostituiamo ad una equazione la stessa equazione sommata ad unaltra equazione 3 .
L algoritmo di Gauss si pu` quindi descrivere come segue:
o
Algorithm Metodo di eliminazione di Gauss
Input: Dato il sistema lineare

.
.
.


Perch succede questo? Il lettore verichi che e una conseguenza della linearit` .
e
`
a

.
.
.

..

..

.
.
.

.
.
.

..

100

B 0) 0 G
) )
D

)  &
 7

dove

2
2 


2 2

2
2 2

!


&

!
"


G

.
.
.

& 

.
.
.

.
.
.

..

.
.
.

..

6.
7.
8.
9.
for
to n
10.
do
11. ( Alla ne di queste operazioni otterr` il sistema equivalente
o

come
esima

to n-1
do ( Sia il primo intero con
per cui
. )
if
then ( scambio la esima equazione con la
esima )
( Costruisco il sistema
equivalente al sistema
esima con
sottraggo lequazione
segue: Alla equazione
moltiplicata per
che porta alla seguenti formule: )
to n
for
do

Q D

for

1.
2.
3.
4.
5.

Risoluzione di sistemi lineari: metodi diretti

A questo punto il sistema e in forma triangolare ed e facile risolverlo con le seguenti formu`
`
le: )

7 

12.
13. for
downto 1
14.
do
15.
for
to
16.
do
17.
18. return

  C & &
B G

7 &

&

Osservazione 27. Loperazione di scambio di equazioni al ne di trovare


nella
`
linea dellalgoritmo precedente puo essere modicato considerando il seguente criterio
alternativo

Eliminazione di Gauss

tale che

)




Se
allora scambio la riga esima con la riga
esima della matrice
componente esima con la componente
esima del vettore
.

Sia

101

e la

`
Questo procedimento di scambio si chiama pivoting. Lo scopo del pivoting e di migliorare
`
laccuratezza della soluzione calcolata. Infatti si puo mostrare che la divisione per un
`
numero molto piccolo (in modulo) puo essere estremamente inaccurata.
L algoritmo di Gauss si pu` quindi descrivere anche come segue:
o
Algorithm Metodo di eliminazione di Gauss (in loco)
Input: La matrice dei coefcienti e il vettore dei termini noti
1. ( Eliminazione )
2. for
to n-1
3.
do ( Pivoting: determinare tale che
con
. )
4.
5.
for
to n
6.
do if
then
7.
( e scambiare la riga esima equazione con la
esima. )
8.
if
9.
then
10.
for
to n
11.
do
12.
( Eliminazione )
13.
for
to n
14.
do
15.
16.
for
to n
17.
do
18. ( Sostituzione allindietro )
19.
20. for
downto 1
21.
do
22.
for
to



G 

 &
7 

& 



&


B

7 

&

102

do

  C & &

7 &

return

23.
24.
25.

Risoluzione di sistemi lineari: metodi diretti

2.1.1 Forma matriciale del metodo di Gauss


Il metodo di Gauss per la risoluzione di sistemi lineari pu` essere interpretato utilizzando il formao
si trasforma
lismo delle matrici. Il sistema originario espresso in forma matriciale come
in un sistema della forma
con la stessa soluzione , in cui e una matrice triangolare
`
superiore.

La trasformazione dal sistema


nel sistema
si ottiene tramite passaggi successivi che richiedono la moltiplicazione a sinistra per opportune matrici elementari dette matrici di
Frobenius e per matrici di scambio di righe.

! D
D
D

! 

2 2

0) 0
) )

))
) 00
Q


D

! !

2  2

 H
D

Denizione 50. Dato un vettore della forma

! !

dove

.
.
.

`
cioe tale che

I G
)
D
) 0)

D
Q

chiameremo matrice di Frobenius (Ferdinand Georg Frobenius 18491917) una matrice


della forma

Q


..

.
.
.

Q
G

.
.
.

G
Q
Q

.
.
.

Q
Q

.
.
.

.
.
.

.
.
.

..

Eliminazione di Gauss

103

D
E

.
.
.

.
.
.

.
.
.

.
.
.

.
.
.

.
.
.

`
e

.
.
.

.
.
.

.
.
.

.
.
.

.
.
.

.
.
.

il prodotto

Osservazione 28. Data la matrice

D 

Leffetto della moltiplicazione consiste quindi nel sostituire alla riga -esima, della matrice
, con
, la riga -esima sommata alla riga -esima moltiplicata per lo scalare
. Con la stessa simbologia utilizzata nella presentazione dellesempio della sezione
precedente, stiamo quindi modicando la matrice come segue:

;


#


(#
( # G





G



I






B ( B

`
e la matrice

Osservazione 29. Linversa della matrice di Frobenius

lequazione

sostituiamo allequazione

...

lequazione

sostituiamo allequazione

lequazione

sostituiamo allequazione

I G
)
D
) 0)



2
4 5

2
)

Cosa succederebbe se considerassimo anche indici

`
, cioe

D #

4 D

2
D

3#

del ragionamento induttivo si ottiene

Q
Q
)

) )
# ) 0)   0) 0

matrici di Frobenius, con


si ha che

poiche tutti i termini misti sono nulli, essendo


Allora possiamo scrivere

Supponiamo ora che il lemma sia vero per un indice generico

poiche

Al primo passo

Dimostrazione. La dimostrazione procede per induzione sullindice .

Lemma 59. Siano


Allora per ogni

Le matrici di Frobenius hanno la seguente notevole propriet` .


a

5
D

5
4

4
Q

ne consegue che

5
D

ed osservando che

4
Infatti
104

Risoluzione di sistemi lineari: metodi diretti

Eliminazione di Gauss

105

Denizione 51. Chiameremo matrice di scambio una matrice

della forma:

..

# #

D 

G
Q

G
Q

..

..

.
.
.

 

.
.
.

D 
E

.
.
.

 

 

D
E

esima con la riga


.
.
.

, leffetto

`
cioe scambia la riga

esima della matrice

`
e la riga

.
.
.

.
.
.

dove

Osservazione 30. Data la matrice


`
di
e il seguente:

esima.

Osservazione 31. Scambiando due volte le stesse righe di una matrice riotteniamo la
`
`
e una matrice di scambio allora
matrice iniziale. Quindi, se
cioe
coincide
con la sua inversa.

D 

`
Osservazione 32. Il prodotto di due matrici di scambio e una matrice di permutazione,
che modica lordinamento delle righe di una matrice. Le matrici di permutazione sono
matrici ortogonali, per cui la loro inversa coincide con la trasposta.
Le due operazioni fondamentali richieste dal procedimento di eliminazione di Gauss somma ad
una equazione di unaltra equazione moltiplicata per uno scalare e scambio di due equazioni si
possono esprimere tramite applicazioni successive di opportune matrici di Frobenius e matrici di
scambio elementari.

!

P I
) B ) ) 0 D
)
B ) 0) P I
)
D

D 

.
.
.

B ) ) 0 P I
)

Q
Q

G
Q


 D

!
!

!

!
"

otteniamo il

.
.
.

.
.
.

..

..

.
.
.

.
.
.

..

..

.
.
.

a sinistra per la matrice di Frobenius


.
.
.

.
.
.

 D

.
.
.

dove,
se
se

deniamo

poniamo

ed inoltre si ha
Moltiplicando il sistema
sistema trasformato
Supponendo

Dato il sistema

2.1.2 Primo passo del metodo di Gauss


106

Risoluzione di sistemi lineari: metodi diretti

G


Q
Q


G
Q
Q

G
B 0) 0 I
) )
D

I G
)
) ) 0 D

22

2
2 

..

.
.
.

.
.
.

.
.
.

.
.
.

.
.
.

.
.
.
.
.
.

.
.
.

.
.
.
.
.
.
.

.
.
.

..

2 2

.
.
.

.
.
.

se
se

.
.
.

e ponendo
.
.
.
.
.
.

passi dellalgoritmo di Gauss (senza permutazione di righe).


e
dove

Supponendo

.
.
.

..

Supponiamo di aver effettuato


Siamo quindi nella situazione

2.1.3

esimo passo del metodo di Gauss

Eliminazione di Gauss

107

sono ancora matrici di Frobenius.

2 Le matrici

sono matrici di Frobenius.

1 Le matrici

Inoltre

D
E
allora

2 2


2! 2 2 D

chiamando

D
E

Osservazione 33. Consideriamo ora una matrice di dimensione


`
che ogni passo dellalgoritmo di Gauss sia applicabile, cioe
passi dellalgoritmo di Gauss otteniamo:

Q
D
B @ B

e supponiamo
per ogni . Dopo

Come si vede lalgoritmo di Gauss ripete lo stesso procedimento ad ogni passo a matrici sempre
pi` piccole no ad arrivare alla triangolarizzazione della matrice originale.
u

I
G
) B 0) 0
) )
D
G
B ) 0) I
)
D

dove


2 2

2 2

2 2

.
.
.

.
.
.

.
.
.

.
.
.

.
.
.

.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.

..

otteniamo
108

Risoluzione di sistemi lineari: metodi diretti

Eliminazione di Gauss

109

3 Applicando il lemma 59

2 2

2 2
2 2

#

3#

2 2


2 2 D

`
e una matrice triangolare inferiore.

Si vede che

`
`
La matrice e una matrice triangolare inferiore, quindi la matrice e stata decomposta
nel prodotto di una matrice triangolare inferiore e una matrice triangolare superiore .
Tale decomposizione prende il nome di decomposizione o fattorizzazione LU.

Osservazione 34. Dalla precedente osservazione vediamo che la decomposizione


`
della matrice puo essere scritta come segue

Q
G

!
"


2 2

2
2 2

!


.
.
.

..

.
.
.

D
4

.
.
.

D 

..

"



.
.
.

.
.
.

..

Q
.

.
.
.

..

`
e quindi chiaro che si possono memorizzare sia la matrice che la matrice
in una
unica matrice (la diagonale di non viene memorizzata). Analizzando il metodo di Gauss
si vede che le matrici e
possono essere memorizzate nella matrice originale .
Questo permette di scrivere il seguente algoritmo che calcola la decomposizione
di
una matrice e salva il risultato nella matrice stessa.

Algorithm Decomposizione

110

Risoluzione di sistemi lineari: metodi diretti

Input: La matrice
Output: La matrice contenente i fattori della decomposizione
1. for
to n-1
to n
2.
do for
3.
do
4.
for
to n
5.
do
6.

& 

G
7
&

&

2.1.4 Algoritmo di Gauss in presenza di pivoting

una matrice di Frobenius e


una matrice di scambio, se
si pu` scrivere come
o
dove
e ancora una matrice di Frobenius e
`

) 

( 

D (

Lemma 60. Sia


allora la matrice
vale

`
Dimostrazione. Il risultato e conseguenza immediata dei seguenti passaggi

# #
5 #  3# 
D

4 D 

`
e ortogonale al vettore

D ( 

4 

`
dove si e anche sfruttato il fatto che il vettore

Lalgoritmo di Gauss con pivoting pu` quindi essere messo in questa forma:
o

(2.2)

D
E

2 2

2 2

dove
e una matrice di scambio o la matrice identit` a seconda che sia necessario o meno
`
a
scambiare delle righe al esimo passo dellalgoritmo di Gauss. Osserviamo che
per
e quindi applicando il lemma 60 otteniamo
. Possiamo quindi
spostare i prodotti per le matrici di scambio a destra nella (2.2) ottenendo

2 (

D  #


2 2 ( (

Eliminazione di Gauss

matrici di Frobenius per

e triangolare superiore ed abbiamo introdotto le


`

D (

dove la matrice

111

B ) ) 0 I G
)
D

Ponendo dunque


2 2

2#

2
(

D
E

2 # ! 2 # (
(

2 #
(

otteniamo

cio` lalgoritmo di eliminazione consiste nella decomposizione


e
della matrice
, che risulta
applicando alla matrice
la sequenza di scambi di righe della permutazione specicata dalla
matrice .

`
Osservazione 35. Si e illustrato il funzionamento dellalgoritmo di fattorizzazione con pi`
voting considerando la possibilita di scambi di righe, detto pivot parziale, che corrisponde
`
sul sistema lineare a scambiare tra loro le equazioni, cioe a numerarle in ordine diverso.
`
Si puo introdurre un pivoting piu generale, detto pivot totale, che ammetta sia scambi di

righe che di colonne. Lo scambio di colonne corrisponde a numerare diversamente le


variabili del sistema lineare.
Largomento sviluppato a proposito della fattorizzazione LU con pivot parziale si generalizza facilmente al caso del pivot totale. e si ottiene una decomposizione che formalmente
si scrive cos`:

(2.3)


D

`
In (2.3) e la matrice di permutazione delle righe, ottenuta come prodotto delle matrici di
`
scambio elementari delle righe e
e la matrice di permutazione delle colonne ottenuta
come prodotto delle matrici elementari di scambio delle colonne.

e il vettore

Algorithm Decomposizione
con pivoting
Input: La matrice
Output: La matrice contenente la decomposizione
ne
1. ( Inizializza il vettore della permutazione )

contenente la permutazio-

112

Risoluzione di sistemi lineari: metodi diretti

2. for
to n
3.
do
4. for
to n-1
5.
do
6.
( Pivoting: trovo tale che
con
. )
7.
8.
for
to n
9.
do
10.
if
11.
then
12.
13.
( scambio la riga esima equazione con la
esima. )
14.
15.
( Eliminazione )
16.
for
to n
17.
do
18.
19.
for
to n
20.
do
21.
22. return ,



 



G

 

& 

& 


G
7
  &

`
Osservazione 36 (Pivot numerico). Se lelemento pivotale e non nullo, in teoria non sa`
rebbe necessario operare uno scambio di righe. Tuttavia, se lelemento pivotale e molto
`
piccolo in valore assoluto, lalgoritmo di fattorizzazione tendera a produrre dei comple`
menti di Schur molto grandi, e questo potrebbe originare problemi di stabilita numerica.
Nella pratica si controlla questo effetto scegliendo comunque lelemento pivotale in valore
assoluto maggiore nella colonna pivot parziale o nella sottomatrice pivot totale
formate dagli elementi che devono ancora essere fattorizzati, quando lelemento pivotale
corrente ha un valore inferiore ad una soglia pressata. E possibile dimostrare che con
`
questa tecnica, detta pivot numerico, si garantisce la stabilita numerica dellalgoritmo di
fattorizzazione nel senso sopra esposto.

Osservazione 37 (Pivot simbolico). Esiste unaltra ragione molto importante per operare una scelta di pivot diversa da quella legata al valore dellelemento pivotale, che
accenniamo brevemente per completezza. Nella pratica si ha spesso a che fare con

Eliminazione di Gauss

113

`
matrici sparse, cioe con matrici che hanno un numero di elementi non nulli dellordine
della dimensione della matrice, e non del suo quadrato. E importante mantenere la
`
sparsita della matrice durante il processo di fattorizzazione. Infatti, il meccanismo del
complemento di Schur tende a produrre non-zeri, e se il numero di non-zeri che vengono
prodotti diventa enorme la memoria del calcolatore potrebbe non essere sufciente per
memorizzare i fattori ed . Un semplice scambio di righe, che equivale a scambiare
le equazioni del sistema, permette di controllare la formazione dei non-zeri. Mostriamo
questo effetto con il seguente esempio.

Q
Q

Q
Q

Q
1

Q
Q

Q
Q

Q
Q

Q
Q

D
E

1 1

3 

1 1

della matrice

Esempio 33. Consideriamo la fattorizzazione

`
e della matrice che si ottiene prendendo righe e colonne nellordine inverso, cioe

Q
Q

Q
Q

1 1

1 1

Q
Q
Q

Q
Q

Q
Q

Q
Q

1 1

Q
1

1 1

114

Risoluzione di sistemi lineari: metodi diretti

Abbiamo ssato per gli elementi di


diversi da zero il valore , ma largomento che
desideriamo illustrare riguarda solo il processo di formazione dei non-zeri durante la fattorizzazione, noto col termine inglese di ll-in, e non il valore assunto da essi assunto nei
fattori di Gauss e .

Nella pagina successiva mostriamo la struttura dei non-zeri della matrice e della matrice permutata simmetricamente,
, e la struttura dei non-zeri dei loro rispettivi fattori
triangolare superiore ed inferiore prodotti dallalgoritmo di Gauss, dove supponiamo che
non sia necessario fare un pivot numerico.




Si noti che nel caso della matrice


presa nella forma originale i fattori di Gauss sono
pieni, quindi abbiamo un riempimento totale.
Nella forma permutata invece, non si producono non-zeri, e ricordando che la diagonale
`
`
di e formata tutta da , e quindi puo non essere memorizzata, non si richiede ulteriore
memoria al calcolatore oltre a quella necessaria per memorizzare gli elementi non-zero
della matrice.

Eliminazione di Gauss

115

10
11

10

5
6
nz = 28

10

11

11

10

11

5
6
nz = 55

10

11

5
6
nz = 19

10

11

5
6
nz = 28

10

10

11

5
6
nz = 55

10

11

11

8
9
10

11

5
6
nz = 19

10

11

11

Figura 2.1: In alto mostriamo la struttura dei non zeri di


di ed in basso quella dei fattori di
.

10

e di

, in mezzo quella dei fattori

116

Risoluzione di sistemi lineari: metodi diretti

tale che

) D

e vogliamo determinare

non-singolare e

3 

Sia

Fattorizzazione di Cholesky

2.2

D
H

Sappiamo che si pu` procedere per mezzo della fattorizzazione di Gauss


o
dove supponiamo per semplicit` di esposizione che non sia necessario fare pivoting risolvendo i due sistemi
a
lineari con matrici triangolare inferiore e superiore

D
)

D


Il costo computazionale di questo procedimento e non solo il costo della soluzione dei due sistemi,
`
ma anche e soprattutto il costo necessario per determinare e . Inoltre il calcolatore deve
avere una capacit` di memoria sufciente per memorizzare entrambi i fattori. Ci` non produce
a
o
normalmente problemi se la matrice e piena, dato che si sfrutta lo stesso spazio di memoria
`
gi` occupato per la matrice. Se la matrice e sparsa, a causa del processo di formazione di nona
`
zeri di cui si e discusso nella sezione precedente, la memoria del calcolatore potrebbe non essere
`
sufciente per memorizzare entrambi i fattori.

Per queste ragioni e interessante capire quando e possibile una fattorizzazione del tipo
`
`

con

matrice triangolare superiore, che chiameremo fattorizzazione di Cholesky.

Poich` si richiede di calcolare un solo fattore invece che due, e sensato aspettarsi sia un costo
e
`
computazionale che unoccupazione di memoria forse non dimezzati ma sicuramente inferiori5.
Il seguente teorema caratterizza le matrici per cui esiste la fattorizzazione di Cholesky.

Teorema 61. Le matrici quadrate non-singolari per cui e possibile una fattorizzazione della
`
forma
con matrice triangolare superiore sono tutte e sole le matrici simmetriche e
denite positive, (SPD).

H
D

`
`
Dimostrazione. Mostriamo innanzitutto la necessita, cioe che la fattorizzazione di Cho`
lesky e possibile solo per matrici simmetriche e denite positive. Mostreremo in seguito la
`
` `
sufcienza, cioe che data una matrice che ha tali proprieta e sempre possibile calcolare
il suo fattore di Cholesky .
Il gioco vale la candela!

Fattorizzazione di Cholesky

con

`
Necessita
Sia
decomposizione

117

non singolare ed
.

triangolare superiore tale che valga la

H
D

Simmetria

e non-singolare perche dal teorema di Binet


.

. Quindi,

per ogni vettore

D 

`
e non-singolare, si ha

Inoltre, se

)  E
D

`
Positivita
`
Se e non-singolare, allora anche
segue

Sufcienza
`
La dimostrazione procede per induzione sullordine della matrice, ma e anche in parte
costruttiva. Illustreremo un algorimo di riduzione, che permette di ricondurre il problema
della fattorizzazione di una matrice SPD di ordine a quello di una matrice SPD di ordine
`
. Per induzione, si trovera che tutte le matrici SPD sono fattorizzabili.

Per facilitare la costruzione dellalgoritmo di riduzione, riscriviamo la matrice simmetrica


in una forma equivalente a blocchi

3 %

e lo scalare

2 1 3

D %

D
E

2 7 2 1 3 

a blocchi in modo simile ad

, il vettore
.
.
.

.
.
.

..

.
.
.


% F

..

3 

D
E

Scriviamo la matrice

.
.
.

introducendo la sottomatrice

.
.
.

.
.
.

118

Risoluzione di sistemi lineari: metodi diretti



D 
(
D
F E

e sviluppiamo il prodotto

)
R

D
R

`
si puo esprimere uguagliando i blocchi nelle posizioni

ed

(
(


R

La fattorizzazione
corrispondenti di

% F

per cui si ottengono immediatamente le relazioni seguenti

( D 

%
%

sia un numero reale strettamente positivo.

G  D (

dove supponiamo per il momento6 che


Lultima relazione in (2.4), riscritta come

`
ed , cioe

D %

Le prime due relazioni forniscono una espressione diretta per determinare

(2.4)

o equivalentemente

suggerisce che la matrice


sia a sua volta il fattore triangolare superiore ammesso
ovviamente che esista della fattorizzazione di Cholesky della matrice ridotta

3 ( 

2 7 2 1

G  D ( 
6

Se fosse strettamente negativo, il ragionamento che segue avrebbe ancora senso ammettendo di calcolare la
radice quadrata in campo complesso. Questo tuttavia non produrrebbe una algoritmo numerico efciente. Se fosse
nullo, il ragionamento che segue non sarebbe possibile. Il problema, in realt` , non si pone, perch dimostreremo tra un
a
e
a
attimo che lipotesi SPD assicura la positivit` stretta di questo scalare.

Fattorizzazione di Cholesky

119

Procedendo in questo modo potremmo scrivere il fattore triangolare superiore


lesky come

di Cho-

in cui la prima riga sarebbe completamente determinata e resterebbe da calcolare il fatdella matrice
di ordine
. Di fatto, avremmo ridotto
tore triangolare superiore
`
di uno la dimensione del problema ed e evidente che se si potesse ripetere questo procedimento volte, arriveremmo alla ne ad una matrice di ordine la cui fattorizzazione
sarebbe banalmente

( 

 


D 

`
Mostreremo che lipotesi che sia SPD garantisce che tutto il procedimento ipotizzato e
`
`
in realta ben denito. Innanzitutto, osserviamo che valgono le seguenti proprieta.

#

`
Se e SPD, allora
.
Il risultato si ottiene applicando la denizione di matrice denita positiva ad
vettore della base canonica:

#

`
`
Se e SPD, allora
e SPD.
`
La simmetria di
e evidente dalla sua denizione. Vogliamo mostrare inoltre che
non nullo si ha
per ogni vettore

, primo

D %

( 

2 1 3

5 2 % 
4

( 
2 1 3

( 


cio`
e


nellipotesi che sia denita positiva. Dato un vettore generico


, introdu`
ciamo un vettore ausiliario
, dove e a sua volta un qualsiasi
`
`
numero reale non nullo. La positivita di implica che
, cioe


Q


)
Q

implica che il discriminante

% D
R

F
R

( 


% F

`
La positivita di questo trinomio di secondo grado in
del trinomio sia negativo, per cui sicuramente vale

4 D

120

Risoluzione di sistemi lineari: metodi diretti

`
e questa e proprio la condizione che dobbiamo vericare!

`
Sfruttando le due proprieta (a) e (b) possiamo concludere la dimostrazione procedendo
per induzione sullordine della matrice. Assumiamo che
sia SPD, e che si
abbia

`
`
una matrice SPD si fattorizza come gia riportato prima, e cioe

 


D

( 

per ogni matrice


SPD di ordine
esiste una matrice triangolare superiore
che la fattorizza nella forma di Cholesky
.

D
G

per

( (

D (

`
`
`
Allora, le proprieta (a) e (b) implicano che se e SPD e possibile operare la riduzione, e
`
dalle ipotesi induttive segue subito che la matrice e fattorizabile in forma di Cholesky.

2.2.1 Algoritmo di calcolo


Nel presente paragrafo mostreremo come procede logicamente la fattorizzazione con il metodo
di Cholesky. Esaminiamo in dettaglio il primo ed il secondo step, lo step generico ed il passo
nale.

Step 1
Il teorema appena dimostrato ci informa che possiamo scrivere anche una decomposizione del tipo

( 
R

G F

e ovvia ed inoltre abbiamo introdotto la matrice ridotta


`

R


% F

D
E

G  D ( 

che sappiamo essere SPD, perch la matrice originale e SPD. La matrice


e
`
di Schur della matrice rispetto allelemento pivotale .

( 

%
e

dove la denizione delle matrici


di ordine

e il complemento
`

Fattorizzazione di Cholesky

121

Step 2
Poich la matrice ridotta
e
e ancora SPD, possiamo ripetere su di essa lo step precedente.
`
Iniziamo riscrivendo la matrice a blocchi

( 

R
(  (
F D ( 
( ( %

ed operiamo la riduzione come nel primo step decomponendola come segue,

)


( %

"

(( 
R

( %

2
(

G F

"

F
( ( %

( 
R

2 7 2 1 3 (( 

La matrice ridotta

%
( ( ( G (  D (( 

( 

( %

che si calcola come complemento di Schur della matrice


rispetto allelemento pivotale , sar`
a
ancora SPD, perch lo era la matrice . Di fatto, abbiamo cos` decomposto la matrice
e

ottenuta
al primo step

( %
( G

"

( %

( 

((  G

"
2
( ( %G

( %

( (
( ( %

dove le matrici
e
sono introdotte in maniera ovvia. Dopo due step di fattorizzazione, la
matrice e stata cos` decomposta
`


Step k generico

nel prodotto dei fattori

)
0) )

step abbiamo decomposto la matrice

)
0) ) H
D

Dopo

122

Risoluzione di sistemi lineari: metodi diretti

dove

R
3

2 F D

Dal teorema generale segue che il blocco di matrice

2
2 %

e una matrice SPD, e quindi si pu` ancora procedere nella decomposizione.


`
o

Decomponiamo a blocchi la matrice

 G

2
2

2
%

%
G

2 %

2 %

)
) 0)


passi otterremo la seguente decomposizione

))
00) E
D

2
)
)
0) ) ) 0) E
D

B 0) ) I G
)
D
(

Le matrici
non solo sono triangolari inferiori ma sono anche matrici di Frobee matrice di Frobenius di indice e dato che il prodotto di
`
nius. Pi precisamente, la matrice
u

nella forma seguente,

Step n
Procedendo in questo modo e evidente che dopo
`
della matrice originale,

step abbiamo decomposto la matrice

Dopo

introducendo le matrici
,
, dove il blocco interno
e il complemento di Schur della
`
matrice
rispetto allelemento pivotale
, ed e ancora una matrice SPD.
`

Fattorizzazione di Cholesky

123

queste matrici (e delle trasposte) appare nellordine giusto, esso e una matrice triangolare inferiore
`
che ha nella colonna -esima l -esima colonna di
. Possiamo introdurre la
e quindi la
come

)
) 0) D

e concludere che ad ogni passo dellalgoritmo stiamo effettivamente calcolando una colonna (o
una riga) del fattore di Cholesky (o del suo trasposto).

Osservazione 38. Si noti che la simmetria della matrice permette di risparmiare nel

calcolo degli elementi dei vari complementi di Schur, perche anche questi risulteranno
simmetrici come conseguenza del teorema generale. Nel metodo di fattorizzazione di
`
Cholesky si opera quindi sempre sulla diagonale e sulla meta superiore (o inferiore) della
matrice, essendo il resto degli elementi noto per trasposizione.

2.2.2 Connessioni con la fattorizzazione di Gauss


`
Osservazione 39. La fattorizzazione di Cholesky e una variante furba per matrici SPD
della fattorizzazione di Gauss. Infatti, decomponiamo la matrice a blocchi come segue

&
%

%
G

&

D
R

( 

&
(% F

&
(%

`
dove ora
a
e lelemento pivotale e e rappresentano la prima riga e colonna di
partire dal secondo elemento, e supponiamo che esistano due matrici triangolari inferiore
e superiore
e
tali che

( (

D #(

( D(

D %
G

E
D
& D %

Nel secondo caso la matrice deve essere obbligatoriamente simmetrica.

D
E

D ( 

allora abbiamo la fattorizzazione di Cholesky

, allora abbiamo la fattorizzazione di Gauss (senza pivot)

&
(%
G ( (

,e

se

e diag

se
;

con

124

Risoluzione di sistemi lineari: metodi diretti

(( 

In entrambi i casi la matrice


che esce durante il procedimento e il complemento di Schur del
`
blocco di elementi corrispondenti alle righe e colonne
di rispetto allelemento
pivotale.

B ) 00 I
))
D
6

`
Osservazione 40. Dato che il teorema generale garantisce che lelemento pivotale e
`
sempre strettamente positivo, si potrebbe pensare che non e necessario operare alcun
pivoting. Valgono tuttavia le stesse considerazioni fatte a proposito del pivot numeri`
co e del pivot simbolico per lalgoritmo di Gauss. Nel caso di matrici sparse e sempre
consigliabile operare un pivot simbolico per controllare la formazione dei non-zeri.

CAPITOLO

TREE

METODI ITERATIVI PER SISTEMI LINEARI

125

126

Metodi Iterativi per Sistemi Lineari

Metodi Iterativi per Sistemi Lineari


.

 D #

tale che

 D #

7
1

3 

#
D #

D #

come determiniamo laccuratezza della soluzione approssimata;

come arrestiamo le iterazioni, non potendo fare inniti passi;


come valutiamo lefcienza di uno schema iterativo.

3
1

Questioni da denire

)
`
che annulla il residuo, cioe tale che
.

chiedendo che sotto opportune ipotesi si abbia convergenza, cio`


e

come scegliamo la soluzione iniziale

, determinare

Strategia Iterativa: costruiamo, partendo da una soluzione tentativa


soluzioni
attraverso uno schema di iterazione tipo

come costruiamo gli schemi di iterazione

Osservazione 41. Evidentemente, il vettore


`
, e anche soluzione del sistema lineare

non-singolare e

3 
1

Problema: dati

Denizione 52. Indichiamo con il termine residuo la funzione vettoriale


denita come

non-singolare e

Sia

3.1

una successione di

Metodi Iterativi per Sistemi Lineari

127

3.1.1 Costruzione degli schemi di iterazione mediante splitting

come

..

..

.
.
.

.
.
.

..

3
A
1

Scriviamo

D
E

ed introduciamo le seguenti matrici

D
H

Q
Q

Q
Q

pu` essere riscritto nei


o

#
#
#

Si noti che in (i) la matrice a sinistra e diagonale, in (ii) la


`
(iii) la
e triangolare superiore.
`

H
D

il sistema

D
E

decomponiamo la matrice

Utilizzando questa decomposizione o splitting di


diversi modi

..

..

.
.
.

.
.
.

..

ed

..

.
.
.

..

..

.
.
.

..

.
.
.

..

Con le matrici

.
.
.

..

e triangolare inferiore ed in
`

128

Metodi Iterativi per Sistemi Lineari

Metodo di Jacobi

in (i)

La formulazione del sistema

suggerisce uno schema di iterazione della forma

noto come metodo iterativo di Jacobi1 .


Metodo di Gauss-Seidel
Analogamente la riformulazione in (ii)

suggerisce un secondo schema di iterazione della forma

noto come metodo iterativo di Gauss-Seidel2 .


Osservazione 42. A questo punto con un poco di immaginazione si potrebbe anche
pensare di utilizzare la riformulazione (iii)

per denire un terzo schema iterativo come

`
Tuttavia si noti che questultimo essere riscritto come lo schema di Gauss-Seidel, cioe
lo schema ottenuto da (ii), sul problema lineare in cui equazioni ed incognite sono state
prese in ordine inverso. Si tratta quindi uno schema di Gauss-Seidel allindietro.
1
2

Carl Gustav Jacob Jacobi 18041851


Johann Carl Friedrich Gauss 17771855, Philipp Ludwig von Seidel 18211896

Metodi Iterativi per Sistemi Lineari

129

Metodo SOR

, in due termini pesati con un coefciente

nella decomposizione utilizzata per il

D
H

Introduciamo questi due termini al posto della matrice


metodo di Gauss-Seidel

reale e

, cio`
e

Separiamo la parte diagonale di


non negativo, da determinare,

Si ottiene quindi un nuovo schema iterativo

noto come Successive Over Relaxation method, da cui lacronimo SOR. Si noti che il metodo SOR dipende da un parametro
che deve essere individuato correttamente per garantire
convergenza ed efcienza.

Da questa decomposizione si ricava in maniera naturale lo schema di iterazione

2 D 2
4
2

, che possiamo anche scrivere come segue

D 5 

prende il nome di matrice di iterazione.

Denizione 53. La matrice

Scriviamo , matrice quadrata non singolare di ordine , come differenza di due matrici
in cui e non singolare e facile da invertire.
`

3.1.2 Generalizzazione

130

Metodi Iterativi per Sistemi Lineari

Ovviamente, e indifferente scrivere lo schema di iterazione come segue


`

#  2

Osservazione 43. Tutti i metodi precedenti introdotti nora, Jacobi, Gauss-Seidel, SOR,
sono casi particolari del metodo generale.

3.1.3 Quadro riassuntivo


Gauss-Seidel

SOR

G 2

Jacobi

2#

3.1.4 Convergenza degli schemi iterativi


Denizione 54. Uno schema iterativo della forma

si dice convergente se esiste un vettore


ed un norma vettoriale
tali che la successione delle iterate costruita a partire da un qualsiasi vettore iniziale
converge a
nella norma considerata

deve soddisfare la condizione

Osservazione 44. Si noti che

Osservazione 45. Uno schema convergente nel senso della denizione precedente ha
`
convergenza globale. Per problemi non-lineari uno schema iterativo puo essere convergente solo per un sottoinsieme di vettori di
. In tal caso si parla di convergenza locale.
Per problemi lineari, si assume sempre che la convergenza sia globale.

Metodi Iterativi per Sistemi Lineari

la differenza tra la soluzione esatta

Denizione 55. Deniamo errore


`
approssimata ; cioe

converge alla soluzione

sotto quali condizioni

e la soluzione

Questione:

131

quindi la condizione che lo schema iterativo sia convergente si pu` esprimere anche chiedendo
o
che lerrore sia innitesimo in norma

Come si trasforma lerrore secondo lo schema iterativo generale?

4 D

si ottiene per differenza

Osserviamo che dalle due espressioni che deniscono

da cui segue iterando

5 2

)
D ) 0) D

5 2 D
4

5 2 D

Osservazione 46. La convergenza si caratterizza chiedendo che lerrore sia innitesimo


in una qualche norma vettoriale.

. Invece si

D
Q

 D

 D

da cui segue immediatamente che

Tuttavia, lerrore cos` denito implica la conoscenza della soluzione esatta

noti che

`
Quindi studiare la convergenza di un metodo iterativo e equivalente a studiare quando il
residuo tende a zero.

132

Metodi Iterativi per Sistemi Lineari

Come si trasforma il residuo secondo lo schema iterativo generale?


Osserviamo che si pu` scrivere
o

5 2

D
4 D E

da cui segue con ovvi passaggi che

# 2
2 2
2
2 5 2 4

2
D

)  2

D


segue subito che

2 #

2 D 2 

 D

 D

 2

Inne, dalla relazione

) 2 D
2 D

2 D


per ogni vettore .

per almeno una norma matriciale.

D
E

ed una decomposizione

G
G

# 

Teorema 63. Dato un sistema lineare


singolare, allora il metodo iterativo

con

una qualsiasi matrice quadrata. Allora le seguenti condizioni sono equiva-

Teorema 62. Sia


lenti:

non

Metodi Iterativi per Sistemi Lineari

converge alla soluzione

133

se e solo se

#
# 2

# 2

oppure equivalentemente se e solo se

Dimostrazione. Dimostriamo separatamente le due tesi del teorema.


`
esimo puo essere scritto come

# 2
D

Il residuo

per cui dal teorema 1 segue che

# 2

Viceversa, se il metodo converge, si ha sempre dal teorema 62 che


# 2 D

# 2

per ogni

Si dimostra analogamente sfruttando il modo in cui si trasforma lerrore durante il

procedimento iterativo. Poiche

# 2 D

dal teorema 62 segue che

# 2

134

Metodi Iterativi per Sistemi Lineari

Viceversa, se il metodo converge, si ha sempre dal teorema 1 che

# 2

# 2

per ogni

Corollario 64. Il metodo di Jacobi converge alla soluzione se e solo se

G 5

Corollario 65. Il metodo di Gauss-Seidel converge se e solo se

G 5
2#

Corollario 66. Il metodo SOR converge se e solo se

Teorema 67. Il raggio spettrale della matrice di iterazione del metodo SOR soddisfa

G
)

I Q
# 3

`
e condizione necessaria
Osservazione 47. Questo risultato dice che scegliere
per la convergenza del metodo SOR, indipendentemente dalla matrice
,
dato che

D
H

I Q
# 3
.

Dimostrazione. Calcoliamo il determinante della matrice di iterazione del metodo SOR.

2
G

G
) #
D

Metodi Iterativi per Sistemi Lineari

`
e una qualsiasi matrice con autovalori

e raggio spettrale

) #

uguale alla matrice di iterazione del metodo SOR si ha

G
)

Prendendo

Osserviamo ora che se


, allora

135

3.1.5 Controllo della Convergenza

Se
, la quantit`
a
esprime la riduzione dellerrore al -esimo passo. La
media geometrica delle riduzioni dellerrore sui primi passi

))
00)

esprime la riduzione media per passo dellerrore.


Dalle propriet` delle norme naturali segue che
a

# 2

# 2

e quindi si ottiene la relazione

# 2

4


Quindi stima la velocit` di convergenza sulle prime iterazioni ed e controllato da una quantit`
a
`
a
che dipende dalla matrice di iterazione dello schema. Come possiamo stimare questa quantit` ?
a

136

Metodi Iterativi per Sistemi Lineari

Stima della velocit` di convergenza


a
una qualunque norma indotta. Allora

)#

U6
7 5

Teorema 68. Sia

`
Osservazione 48. La quantita
non dipende dalla norma matriciale utilizzata e
`
nemmeno dallindice di iterazione . Possiamo assumerla come una stima della velocita
`
, cioe uguale alla matrice
di convergenza sui nostri metodi iterativi ponendo
di iterazione.

Denizione 56 (Tasso asintotico di convergenza). Si denisce tasso asintotico di convergenza di uno schema iterativo la costante

)#

La costante e allincirca il numero di iterazioni richieste per ridurre lerrore di un fattore


`
grossomodo per avere ottenere una cifra decimale in pi` . Infatti
u

, cio`
e

) #

Q0G
G

5# 2
4

Criteri di Arresto
Sia ssata una tolleranza sullerrore. I criteri pi` comunemente usati sfruttano un controllo sulla
u
variazione assoluta e relativa delle iterate al generico passo

THEN STOP

IF

THEN STOP

IF

Tuttavia e importante rendersi conto che queste condizioni non garantiscono che la soluzione sia
`
stata approssimata con accuratezza

Metodi Iterativi per Sistemi Lineari

137

Infatti, si ha che

2 5 2

4
2

2
D

in funzione della variazione assoluta delle iterate

) 5 2

per cui possiamo esprimere lerrore al passo


al passo

5 2 D 2
4 2
4

Dalla relazione

5 2 D 2
4 2
4

si ha

2# 2

lerrore in norma

per cui se

5 2

passando alle norme se

(ripetiamo)

pu` essere ancora grande.


o

CAPITOLO

QUATTRO

ZERI DI FUNZIONI

4.1

Introduzione

Un problema che si incontra spesso nelle applicazioni e il seguente


`
(4.1)

e una funzione continua a valori reali di variabile reale. Un numero reale


`
e detto radice. Se la funzione
`
e lineare, cio` si scrive come
`
e

# 

che

 D #

. Se la

D # % 

sono due costanti assegnate, esiste un unica radice che vale


e della forma seguente
`

7 D %

D # 

# 
Q

dove
funzione

dove
soddis

tale che

trovare

 D # 

nel caso in cui


abbiano lo stesso segno o sia dispari, una radice reale si trova immediatamente
e vale
. Nei problemi che si incontrano in pratica la funzione
e spesso non lineare e
`
non e possibile trovare una formula che permetta di calcolare immediatamente almeno una radice.
`
Di conseguenza e necessario sviluppare schemi numerici per l approssimazione di queste radici.
`
Gli schemi che approssimano le soluzioni di un problema del tipo (4.1) rientrano in gran parte
nelle seguenti due categorie:

# 

7



"

D %

1. gli schemi iterativi a due punti;


138

Metodo di bisezione (o dicotomico)

139

2. gli schemi iterativi ad un punto.


Gli schemi a due punti calcolano ad ogni passo gli estremi di un intervallo che contiene una
radice, come per esempio nel caso dei metodi di bisezione (o dicotomico) e delle corde (o false
posizioni). La lunghezza di questi intervalli in genere decresce e permette di stimare la radice con
laccuratezza desiderata.
Gli schemi ad un punto, invece, generano una successione di numeri che generalmente convergono
alla radice. Esempi di questi schemi sono il metodo delle secanti, di Newton-Raphson 1 ed il
metodo delle iterazioni a punto sso.

# 

4.2

In alcuni casi particolari, dipendenti dalla forma della funzione


, ad esempio se
polinomio, esistono tecniche speciali che non rientrano nelle precedenti due categorie.

e un
`

Metodo di bisezione (o dicotomico)

Il metodo dicotomico e una diretta applicazione del seguente teorema che ricordiamo senza dimo`
strazione.

# 

 

D # % 

 

#  3 %

Q
#   # 

# 

Se
e continua ed e sono due punti tali che
`
, allora
ed
segno discorde. Il teorema 69 implica lesistenza di almeno una radice nellintervallo
Consideriamo ora il punto medio del suddetto intervallo,

; allora

hanno
.

#

#  

e tale che

#  #  

una funzione continua in


tale che
.

Q 

Teorema 69. Sia


esiste almeno un punto

)
 D

Si pu` realizzare solo una delle seguenti tre situazioni:


o

; in tal caso esiste almeno una radice nell intervallo


; in tal caso esiste almeno una radice nell intervallo

#

# 0

D # 

Q
#  6# 

Q
# 6# 


3.

2.

; in tal caso e una radice.


`

1.

.
.

Escludendo il primo caso, si pu` sempre dimezzare lintervallo di ricerca nel quale esiste una
o
radice. Lo schema dicotomico permette, data una tolleranza , di trovare un intervallo di lunghezza
che contiene una radice. Lalgoritmo si pu` scrivere come segue:
o

Isaac Newton 16431727, Joseph Raphson 16481715

140

Zeri di funzioni

Algorithm Metodo dicotomico


Input: ,
1.
;
;
2. while

Q
# Q 6# 

I
D # 




Q
  
 

3.
do
4.
if
then return
5.
if
6.
then ( esiste almeno una radice nellintervallo
;
7.
8.
else ( esiste almeno una radice nellintervallo
;
9.
10.
11. ( contiene lapprossimazione della radice cercata. )
12. return

. )




#

. )





Si pu` calcolare il numero minimo di passi necessari per approssimare una radice con laccuratezo
za richiesta. Infatti,

2 

2 

2I D  
.
.
.

I
#   2 D

I
#  2 D
si ottenie

 

 

quindi posto

  2I
#

e di conseguenza

# 

 

per cui la parte intera del membro di destra fornisce il numero minimo di iterazioni necessarie per
stimare una radice a meno di un errore minore o uguale ad .

Metodo delle false posizioni (regula falsi)

Metodo delle false posizioni (regula falsi)

 

Sia data
supposta funzione continua sullintervallo di denizione, e con
, per cui l intervallo
contiene almeno uno zero di
.

 
#  # 

4.3

141

 

Per stimare la posizione della radice costruiamo la retta interpolante i punti

R
#  
 F

R
#  
 F

cio`
e

 

#  #   #

(4.2)

#   D

f(a)
f(x)

y=f(a)+(x-a)[f(b)-f(a)]/(b-a)

b
a

f(b)

Figura 4.1: Costruzione della regula falsi

Lo zero della retta in (4.2) fornisce la seguente stima dello zero della funzione

) #    #    D
#  # 

 

#  #   #

Q
#   D

A questo punto potremmo utilizzare un procedimento simile a quello per il metodo dicotomico
e ripetere il procedimento per lintervallo
o
. Se usassimo lo stesso algoritmo dello
schema dicotomico avremo che in generale la regula falsi non costruisce intervalli convergenti a
zero come si vede dalla gura 4.2




142

Zeri di funzioni

f(b)

a0

a1

a2

a3
b=b1=b 2=...
0

f(a)
0

Figura 4.2: Andamento della regula falsi

dove

#  # 

Il procedimento e riassunto nel seguente algoritmo:


`

perci` descriveremo landamento della regula falsi come la successione di due punti
o
e una approssimazione della radice e e tale che
`
`
.

Algorithm Regula falsi


Input: ,
1.
;
;
2. while


Q
# 6# 

#  # 
#  # 
# 
Q
 
 

do

if

return

;
;

then
else

4.
5.
6.
7.
8.

3.

4.3.1 Convergenza dalla regula falsi

# 

Per discutere la convergenza della regula falsi ammettiamo che


abbia derivata seconda regolare in ogni punto dellintervallo di denizione della funzione. Assumiamo, inoltre, che

;
;


# 

per ogni

#

# 

#

((  #

Metodo delle false posizioni (regula falsi)

143

Con queste ipotesi, vale il seguente teorema.


Teorema 70. La regula falsi con le ipotesi converge e vale inoltre

I G
)) )
0) 0 D

(( 

implica che la


)


# '!

G

. Sia


# 

. Calcoliamo ora

Q

# 

 #  #
) #

D #
Q

3


# 
Q

# 

"
!
G

Q
# 

#  # 
#  #  D
D

# '%
#!


 %

segue che

#  '!
#

segue che

3


, almeno una radice si trova nellintervallo

# 

# 
Q

`
. Inoltre dalla convessita segue

 #  G

Q
D #  #
#  #  # 

# 
# 

#  #  G
#  # 
 D #

# 
# 

Q
# 

Poiche
che

`
Ovviamente dalla continuita di

Inoltre poiche

in

Dimostrazione. Innanzitutto osserviamo che lipotesi


`
sia convessa in
, cioe
funzione

per

. In modo analogo si vede che

) D

D D

))
00)


e di conseguenza

G Q
) 0) D
)

`
Quindi
per
e una successione monotona crescente e quindi convergente.
Indichiamo il suo limite col simbolo ; allora avremo che

#  #  D
#  # 

`
Inoltre varra

144

Zeri di funzioni

e di conseguenza

Q D
#  #
D # 

`
`
cioe il metodo e convergente.

segue che

Metodo di Newton-Raphson

 

4.4

poiche

Sia data una funzione


continua e differenziabile. Se
non e uno zero della
`
con la retta
funzione possiamo stimare la posizione dello zero approssimando la funzione
passante per
e tangente alla funzione,

# 

) # ( 6#


(4.3)

#  D

# 

f(x0)
y=f(x0)+(x-x )f(x )
0
0
f(x 2)
x1

x0

x2

f(x 1)

Figura 4.3: Costruzione del metodo di Newton-Raphson

) # ( 
# 
# 

della retta (4.3) fornisce una approssimazione della radice di

# 1) #
(

Lo zero

Q
#  D

Ripetendo il procedimento a partire da


fornisce un punto , che possiamo sperare essere
una approssimazione ancora migliore della radice cercata. Questo suggerisce un procedimento
iterativo della forma:

(4.4)

I G
) 00 D
))

( 
# 

Metodo di Newton-Raphson

145

Lo schema prende il nome di metodo di Newton-Raphson. Vale il seguente teorema:

D # % ( 

# 


#  

3 

con

ed una radice semplice di


cio`
e
. Allora se
sufcientemente piccolo avremo che la successione generate dallo

Teorema 71. Sia

schema (4.4) soddis:


per

2.

P I G
) 0) D
)
%
P I G
))) D
#

1.

per

Dimostrazione. Sviluppando con la serie di Taylor e utilizzando (4.4):

# %

%
I #

(( 

) #

# (
%
#  # (  D
Q
(  #  D # %  D

% #
((  #

( D

# 

%
((  D

% 3#

((  #

da cui

Prendendo in valore assoluto entrambi i membri e ponendo

# ( )
(

# % ( 

% Q %

(4.5)

, cosicche dalla (4.5) segue il

)#

#
3

% ( 

# (  I

%
) # ( 

# ( 

% ( 

punto ,

# % % 3

( 

Eventualmente riducendo possiamo supporre

`
. Inoltre, per la continuita di
. Se

(

Poiche e supposto zero semplice si ha che


`
esistera tale che
per ogni
allora avremo

) #

otteniamo

146

Zeri di funzioni

% ( 

4.5

si trova vericato il punto .

Inoltre ponendo

Metodo delle secanti

# 6# 


Se invece di controllare ogni volta il segno del prodotto


utilizziamo i valori delle ultime
due iterate per calcolare una approssimazione della radice, otteniamo il metodo delle secanti che
prende la forma seguente:

I G
) ))
) 00 S
D

(4.6)

2
# 

2
2 #  #  2
#  # 

# 

, per cui ci
Nel metodo delle secanti quando si arriva a convergenza si ha che
possono essere problemi di cancellazione. Osseviamo che ci` non si verica nella regula falsi,
o
dato che per quel procedimento vale
. Inoltre, se non e sufcientemente vicino
`
alla radice, non e detto che lo schema converga. Studiamo quindi la convergenza locale dello
`
schema. Sia una radice di
, sottraendo a entrambi i membri della (4.6) otteniamo

#  # 

2
2
2  # 
% # % 3# %
2
 #
2 
#  # 
2
2
#  # %  2 #  # %
#  %
#  #  2
2
# 
#  # 
2
2 #  #  2
#  # 
%

# 2 
# 

2
2
2
2
% 2
#  # 
# %  # 2
#2

% 2
# %  #

) %#

D %





D
D # % 

# %  # 

Inoltre poich
e

(4.7)

# %  # 
2
# 
# 2  # 
D %
%
%
2
#  # 

Metodo delle secanti

147

osserviamo che vale il teorema di Lagrange 2 , per cui si ha

(4.9)

)


2
2
#  # 

# 0) D
(

% % 3

# %  # %  # %  # % 

((  G D

3 
) ) 0   
)

vale la seguente uguaglianza

3


si intende il pi` piccolo intervallo chiuso contenente


u

) 0)  
)

Lemma 72. Se

dove con

(4.8)

Dimostrazione. Data la funzione

# %  # % %  # %  # ! % 
!

`
e proprio (4.9). La funzione

$#
!

#!
$"

D '"
#!

D $"
#!

G Q

G Q #
D !

, quindi per il teorema di Rolle (Michel Rolle 16521719) esiste un


per cui
. Osserviamo che

D # (


#!
# % % (  # ! % (  D $" (
!

!#

I
G

(4.10)

otteniamo

I
) # 1( ) G D
(

( #

( G
% (  D # 1

D #

#!
'" (

D '" (
#!

% D

nel lemma 72 otteniamo

# (

2
I
2
# ( ) G D
(
% 2
%
# %  #  # %  # 

e calcolando la (4.10) in

D
6

D
Q

Ponendo

si annulla per
punto

`
e immediato vericare che

(4.11)

sostituendo (4.7) ed (4.8) in (4.11) otteniamo


 


# (  # %
# (( 

3# %

D %

Joseph-Louis Lagrange 17361813

questa equazione e utile per dimostrare il seguente teorema:


`

(4.12)

) 0)
)


) 0)
)

P Q

G Q
)

P Q G


## 2

otteniamo

) G

D


$D #

abbiamo

per

G D

$ # $D #

2


per

#
Q

per

) 0)
)


P Q

%
D # ( 

% ( 

$D

(( 

(

G Q

I G
) ) 0 D
)

G D

# % (
# ( G
# (( 
# (( 

# D

I
# % (  G #

# (
I

G G
)


avremo
per cui vale
`
`
e continua esistera un

D # % ( 

I G Q
) 0) D
)

% D
%

dalla (4.13) otteniamo


(4.13)

(altrimenti basta ridurre ), allora avremo che


e

`
`
e continua esistera una costante

`
e uno zero semplice e

) allora esiste un
il metodo delle secanti e
`

otteniamo

ed

e prendendo il logaritmo da entrambe le parti e dividendo per


Ponendo

osserviamo che posto


ed
Infatti se vale no a , allora
ponendo

possiamo supporre che


infatti dalla (4.12)
e quindi posto

(( 

inoltre poiche

Dimostrazione. Poiche
cui vale

Teorema 73. Se e uno zero semplice di


`
(cio`
e
intervallo
per il quale presi comunque
convergente e inoltre


#  

3 

148

Zeri di funzioni

149

$D

$D

)  D #

$ %


$D

$D

$D

avremo che

$D

Osserviamo inne che


e
.

$D

4.6

e ponendo

e scegliendo la costante tale che

scegliendo
una soluzione particolare della relazione di ricorrenza
`
e la seguente:

Iterazioni di punto sso

di conseguenza possiamo scegliere

Iterazioni di punto sso

Vogliamo ora dare una formulazione pi` generale alle iterazioni del tipo Newton-Raphson.
u

`
e un punto sso se vale:

)# %

D %

# 

e equivalente a cercare i punti ssi della funzione


`

) # 

D #

Cercare gli zeri di una funzione

diremo che

Denizione 57. Data una funzione

Un modo molto naturale per cercare i punti ssi e quello di usare delle iterazioni. Ad esempio
`
dato un punto iniziale costruendo la successione

I G
) 00 D
))

(4.14)

 

possiamo chiederci quando la successione


e convergente e se converge a . Ad esempio
`
lo schema di Newton (4.4) pu` essere messo nella forma (4.14) ponendo
o

( 
# 

D #

150

Zeri di funzioni

fondamentale per lo studio di schemi iterativi della forma (4.14) e il seguente teorema:
`

# %

D %

(4.15)

, dove la costante

(#

soddisfa:

%

in un intervallo chiuso

. Sia

per ogni ,

un suo punto sso, cio`


e

Teorema 74. Sia


funzione continua e
soddisfacente la seguente condizione

Q
allora

denite da (4.14) stanno in , cio`


e

I G
) ) 0 D
)

allora tutte le iterate

Posto

#!

(4.16)

# %

# %

2
D

) & %

& %

segue che

# %

# &

& D %

%

due punti ssi allora dalla (4.15) abbiamo

# %

& %

&

Questa contraddizione implica che

`
e nellintervallo

sempre dalla (4.16) e dal fatto che

(iii) siano

basta osservare che

.
.
.

e quindi

in

Dimostrazione.

e lunico punto sso di


`

(unicit` )
a

) % D

(esistenza) le iterate convergono ad ,

Iterazioni di punto sso

151

`
e differenziabile possiamo scrivere

(# S 3

(#

(#
# (
3# 1( D (#

% 3

# (

`
e un punto sso di
dove
convergono ad .

e quindi se abbiamo

Osservazione 49. Se la funzione

allora per il teorema precedente le iterazioni (4.14)

Esempio 34. Considerando il metodo di Newton-Raphson come uno schema a punto


sso abbiamo

## ( 

(( 6#  D # (


allora

D # % 
Q

# 

# (

D #

# 

`
`
e una funzione
e continua nellintorno di
se
allora
sufcientemente piccolo di avremo

## % ( 0

%
# % ((  # %  D # (
D

( 
# 

`
cioe

`
e una radice semplice di

Se

e scegliendo un intorno

% 3

# (

`
e quindi per il teorema precedente lo schema di Newton-Raphson e convergente per
lomeno purche si parti da una approssimazione sufcientemente vicina alla radice e la
radice sia semplice.

D # % (

`
`
Osservazione 50. Se e un punto sso di
e inoltre
e chiaro che nella
`
`
`
iterazione (4.14) piu ci avviciniamo alla radice piu piccola e la costante e quindi piu ra`
pidamente ci avviciniamo al punto sso. Supponiamo ora che
esista e sia continua,
otteniamo:
allora sviluppando con Taylor attorno al punto sso la funzione

# ((

((

# %
I

# %

D #

152

Zeri di funzioni

e da questa

(4.17)

((

# %

((

D # %

`
Da questa equazione segue che lerrore alla iterata successiva e proporzionale al quadra`
to dellerrore precedente. In tal caso diremo che il metodo e del secondo ordine. Quindi in
`
particolare il metodo di Newton-Raphson e del secondo ordine nel caso di radici semplici.
`
un intervallo in cui lo schema e convergente e

# ((

%

Sia ora

allora dalla (4.17)

% !

%
G

2 I

in modo che

D
I

# %


5 % !2

e quindi

) %

5 % 2

sufcientemente vicino ad

2 4

Scegliamo

osserviamo che

.
.
.

allora possiamo calcolare il numero di iterazioni necessarie per ridurre lerrore iniziale
di ad esempio
ponendo

Q
0G
5 2
# %



(4.18)

Q
2 0G

e prendendo il logaritmo da entrambe le parti

# %

Iterazioni di punto sso

153

osserviamo che sempre dalla (4.18) otteniamo

## %

(4.19)

# I

73G

`
e proporzionale al numero di cifre esatte nella approssimazione di . quindi la (4.19)
signica che ad ogni iterazione un metodo al secondo ordine circa raddoppia le cifre
esatte.
e inoltre

D # %

con

2
3

 
# %

D # % ((

# %

D # % (

D #

per il teorema di Taylor

un punto sso di

Osservazione 51. Supponiamo che sia

anche qui avremo

# %

# 

esima

`
cioe

B
G

D #

segue che

(( # %

# (

2 # % B I #
# ( # %

2 #

2 # % 3# G B B D # ( )
(
(
)
%

D #

D # %
Q

dove

`
e una radice multipla di

Esempio 35. Nel metodo di Newton-Raphson se

`
Da questa equazionesegue che lerrore alla iterata successiva e proporzionale alla
`
potenza dellerrore precedente. In tal caso diremo che il metodo e di ordine .

e di conseguenza

# ((

# %

# ( # %

## ( # %

#
B I

#G

B B

B G
G D

#
D

## ( 

((  #  D # (

# %G B
%
# % # B B D # (

154

Zeri di funzioni

quindi

G B G
G D # % (

`
e lo schema iterativo converge localmente anche se ora la convergenza e solo al primo
ordine.

4.7

Zeri di polinomi

4.7.1 Eliminazione delle radici multiple


Il metodo di Newton-Raphson e un metodo generalmente del secondo ordine, ma se vogliamo
`
approssimare una radice multipla di un polinomio la convergenza degrada al primo ordine. Un
modo per evitare questo degrado delle prestazioni e quello di sostituire al polinomio che contiene
`
radici multiple un polinomio con le stesse radici ma semplici. Questo problema apparentemente
complicato ha una soluzione molto semplice: Sia
un polinomio monico fattorizzato come
3
segue

D #

allora il polinomio derivata prima si scriver` come


a

2 #

# D # (

D #

non ha radici in comune con il polinomio

infatti

I G
)
) ) 0 D

D #

D #

osserviamo che il polinomio

# ( #

D #

Quindi il polinomio
e
hanno in comune solo le radici di
con molteplicit` maggiore
a
di . Se e una radice comune con molteplicit`
`
a
allora la sua molteplicit` in
a
sar`
a
.

 
   

escluso

# (

signica che vengono fatti tutti i prodotti con indice che va da a

nella formula

Zeri di polinomi

155

, cio`
e

D #

D #

(4.20)

allora

divide

cio`
e

D #

D # %

#
e

# %

D #

massimo comun divisore tra i polinomi


cio` :
e

che non divide

divide sia

D # %

D # %
Q

# %

D #

# % 3#

Teorema 76. Se e una radice di


`
allora e una radice comune a
`
e

e una
`

Dimostrazione. Se cos` non fosse dalla (4.20) avremo che il polinomio

`
che
cioe

sarebbe un divisore comune a

e se

e anche una radice di


`

allora necessariamente

e il massimo comun divisore tra due polinomi


`
e
cio` :
e

opportuno polinomio.

Teorema 75. Se
radice comune a

e un altro polinomio che divide


`

sono a loro volta polinomi (anche di grado )

per

2. Se

dove

divide

1.

e il massimo comun divisore tra due polinomi


`

Ricordiamo che un polinomio


se vale

D # %

Dimostrazione. dalla (4.20) segue immediatamente

# %

D # %

# %

D # %

D # %

D # %

Conseguenza di questi due teoremi e che il massimo comun divisore tra due polinomi e costituito
`
`
dal prodotto delle radici in comune con molteplicit` il minimo tra le due.
a

156

Zeri di funzioni

Esempio 36. Siano

!#

!#

D #
P

D #
I

`
il loro massimo comun divisore e

# ( #
e

allora per i discorsi precedenti

2 #

D #

il massimo comun divisore tra i polinomi

)#

D #

Sia
vale

Allora il polinomio

#
#

conterr` tutte le radici di


a
e solo radici semplici. Il problema e come trovare questo massimo
`
comun divisore. Per fare questo ci viene in aiuto un algoritmo classico, lalgoritmo di Euclide
(Euclide di Alessandria circa 365300 a.C.) per il calcolo del massimo comun divisore.

Algorithm Algoritmo di Euclide per il M.C.D. di


e
Input:
,
1. if
2.
then
;
3.
else
;
4.
5. repeat
6.
(
e il resto della divisione di
`
con . )
7.
(
)
8.
9. until
10. (
e il massimo comun divisore. )
`

2 #

# #

D #

G
2

G
5

! 4

G
5

! 4

`
il massimo comun divisore e

I0G
G

G
) 5

IG

# ! D #

! 4

I G I

! #

I
I

I
D

D #

D #

P
D

5P

#
P

:
:

5. Poiche

4. Calcolo
3. Calcolo

D #

D #

2. Calcolo

1. Inizializzazione:

con lalgoritmo di Euclide:

3#

calcoliamo il massimo comun divisore

D # 1(

!#

D #

Esempio 37. Sia dato


Zeri di polinomi

157

158

Zeri di funzioni

`
e poiche e unico a meno di una costante moltiplicativa scegliamo

! D #

9
otteniamo

per

dividendo

Per questioni computazionali (ad esempio nella costruzione di successioni di Sturm) a volte e pi`
` u
conveniente usare una versione modicata dellalgoritmo tenendo cento del fatto che se
e il
`
massimo comun divisore tra due polinomi anche
lo e dove e un qualunque scalare non
`
`
nullo. La versione e la seguente
`

e
Algorithm Algoritmo di Euclide per il M.C.D. di
Input:
,
1. if
2.
then
;
3.
else
;
4.
5. repeat
6.
(
e il resto della divisione di
`
con . )
7.
(
)
8.
9. until
10. (
e il massimo comun divisore )
`

(versione modicata)

2# # #

D #

2

Q

G

produce effettiva-

#
e

Osserviamo che lalgoritmo Algoritmo di Euclide per il M.C.D. di


mente il massimo comun divisore. Vale infatti il seguente teorema:

Teorema 77. Lalgoritmo Algoritmo di Euclide per il M.C.D. di


e
termina in un
numero nito di passi e lultimo resto non nullo e il massimo comun divisore dei polinomi.
`

Dimostrazione. Innanzitutto osserviamo che lalgoritmo termina in un numero nito di


passi. Infatti il resto della divisione ha grado strettamente minore del divisore e quindi ad
`
`
ogni divisione si riduce il grado dei polinomi coinvolti. Quando il grado e il polinomio e
uno scalare. La divisione di un polinomio per uno scalare ha resto nullo e quindi anche

Zeri di polinomi

159

`
in questo caso estremo l algoritmo termina. Lalgoritmo puo essere quindi scritto come
segue

(4.20.0)

(4.20.1)

D #

D #

.
.
.

#
#

(4.20.m-1)

# !
5

# 5
#
2 # 2 5

,. . . ,
e
e
, allora dalla
divide
e cos`

`
e il
e quindi

D #

5 #

5 # 5 D #
2
5 D #

2 5

# 5
2 5

e segue subito che


lultimo resto non nullo divide
`
quindi e un divisore comune. Viceversa sia
un divisore di
(4.20.0) segue se
divide
e dalla (4.20.1) segue che
via no ad arrivare alla (4.20.m) da cui segue che
divide
massimo comun divisore.

(4.20.m)

.
.
.

(4.20.k)

4.7.2 Separazione delle radici


E desiderabile avere il modo per conoscere il numero di radici reali in un dato intervallo. Se questo e possibile e possibile tramite un metodo di bisezione separare tutte le radici reali e approssi`
`
marle no alla approssimazione voluta. Questo problema pu` essere risolto grazie alle successioni
o
che prendono il nome dal suo scopritore Jacques Charles Francois Sturm 18031855:

5 ) 00 #
))

se vale:


;


D #

 
 

, allora

# % # %

D # %

 

tale che

  3 %

3. per ogni

non ha zeri su

2.

ha al piu zero semplici in


`

1.

 

forma una successione di Sturm su

Denizione 58. La successione di funzioni continue denite su

160

Zeri di funzioni

#

5 ) 0) #
)

D #
# % (

, allora

# %

D # %
Q

tale che

  3 %


4. per ogni

Denizione 59. Data una successione di Sturm


per ogni
numeri reali. A questo vettore possiamo associare
punti associamo un vettore di
un numero intero detto variazione di segno. Questo numero rappresenta il numero di
`
volte che scorrendo la successione di numeri ce un cambio di segno. Ad esempio la
successione

G Q P

G Q P

Q G

ha variazioni di segno (marcate con ). Osserviamo che


ha variazione di segno
nulla. Infatti lo va considerato come elemento neutro e va rimosso dal computo.

Per ogni successione di Sturm vale il seguente teorema:

#

5 ) 0) #
)

D #

Teorema 78 (Sturm). Data una successione di Sturm


su
il numero di zeri di
in
e dato dalla differenza tra il numero di variazioni di
`
e
.
segno in

# 

#

#

 

Dimostrazione. Il numero di variazioni di segno cambia man mano che passa da


a solo a causa del cambio di segno di qualche funzione della successione di Sturm.
valga
per
. In un intorno di
Assumiamo che per un qualche
`
dalla condizione sara

8Q

#  3

D #

oppure

in ogni caso il passaggio da non cambia il numero di variazioni di segno. Sia ora
uno zero di
e vediamo la variazione di segno nellintorno di , osserviamo che dalla
condizione della denizione 58 avremo

#
Q

in ogni caso in numero delle variazioni di segno cresce al passare di


. Combinando queste osservazioni otteniamo il teorema.

oppure

per uno zero di

Zeri di polinomi

161

Costruzione della successione di Sturm per un polinomio

E relativamente facile costruire una successione di Sturm per un polinomio. Sia


un
. Dividiamo
per
e chiamiamo il resto
polinomio di grado , deniamo
. Poi dividiamo
per
e chiamiamo il resto
. Continuiamo cos` nch il

e
procedimento termina. Abbiamo cos` la successione:

# !

D #

D #

.
.
.

#
#

5#

)#

D #

.
.
.

(4.21)

5 #

D #

D #

2 5

Questa successione a parte il segno di e esattamente la successione per il calcolo del massimo
`
comun divisore di un polinomio, e
e il massimo comun divisore tra e . La successione di
`
polinomi

9 ) 00 G Q
))
D
S


# D #

e una successione di Sturm, infatti


`

 

; infatti dalla (4.21)

)# %

# % ( D # %

# % (

D # %
Q

# %

D # %
Q

allora dalla (4.21) seguirebbe

D # %

, allora

  3 %

D # %

D # %

tale che

  3 %

4. per ogni

Osserviamo che se

, allora

tale che

# % # %

3. per ogni
abbiamo

; infatti e una costante.


`

 

non ha zeri su

2.

ha al pi` zero semplici in


u
; essendo il rapporto tra il polinomio originario ed il
massimo comun divisore tra il polinomio originario e la sua derivata prima.


1.

162

Zeri di funzioni

4.7.3 Limitazione delle radici


Per poter usare il metodo di bisezione e separare le radici con Sturm e necessario conoscere una
`
prima stima anche se grossolana dell intervallo in cui stanno tutte le radici di un polinomio. Per
fare questo occorre osservare che la seguente matrice in forma di Frobenius (Ferdinand Georg
Frobenius 18491917)

Q


Q
Q

Q
Q

Q
Q

D 

2 # G
G

..

..

.
.
.

.
.
.

2 2 # G
Q

ha come polinomio caratteristico

(4.22)

D #

(basta sviluppare lungo l ultima riga). Applicando il teorema di Gershgorin alla matrice otteniamo
che le radici del polinomio (4.22) soddisfano

Applicando il teorema di Gershgorin alla matrice trasposta otteniamo che le radici del polinomio
(4.22) soddisfano

Possiamo applicare le disegualianze appena viste (indebolendole un poco) ad un polinomio qualunque,

G
2

D #

ottenendo le seguenti limitazioni




2

oppure
Zeri di polinomi

163

CAPITOLO

CINQUE

INTERPOLAZIONE POLINOMIALE

164

Interpolazione polinomiale

Interpolazione polinomiale

punti distinti ed
per cui vale

B 1 3

) )
0) 0

Teorema 79. Siano


,
esiste un unico polinomio di grado al pi` ,
u

una funzione, allora

5.1

165

#G

#  D #
B

B ) 0) G Q
)
D

Dimostrazione. Consideriamo un generico polinomio di grado al piu ,


`

#
6#  

per

D #

condizioni della forma

B ) 00 G Q
))
D

B
G

ed imponiamo che soddis le


ottiene il sistema lineare

. Si


#  D


#  D

.
.
.

.
.
.

.
.
.


#  D

# 
#

# 

quindi il problema ha una unica soluzione se e solo se il determinante della matrice


non nullo.

.
.
.

.
.
.

.
.
.

con

.
.
.

Il sistema si scrive in forma compatta matriciale

`
e

`
e nota col nome di matrice di Vandermonde1 ed il suo determinante ha la
La matrice
forma seguente:

#

(5.1)

Alexandre Th ophile Vandermonde 17351796, lattribuzione e dovuta a Henri L on Lebesgue 18751941,


e
`
e
tuttavia questa matrice non compare nei lavori di Vandermonde.

Interpolazione polinomiale

Dallipotesi che
per
(punti distinti) segue che il determinante di
nullo ed il problema ha una unica soluzione.

166

`
e non

Per completare la dimostrazione calcoliamo il determinante (5.1). Sia

.
.
.

.
.
.

(5.2)

D #

2
))
) 00

Sviluppando il determinante in (5.2) per cofattori sullultima riga si ottiene un polinomio


nella variabile di grado al piu . Osserviamo che sostituendo al posto di successiva`
`
mente i valori , ,. . . no a
il determinante si annulla, cioe

)
G

B 0) 0 G Q
) )
D

D #
Q

2
) )
0) 0

Cio accade perche si sta calcolando il determinante di una matrice con due righe uguali,
. Le ascisse , , . . . ,
sono radici del polinomio
lultima e di volta in volta la
`
, che puo essere quindi fattorizzato nella forma

 9

3#

2
) )
0) 0

dove lo scalare

(5.3)

`
e il coefciente del termine di grado massimo.

Infatti, moltiplicando i binomi in (5.3)

D #

2
) )
0) 0

`
e il coefciente che moltiplica

si vede subito che

Il determinante della matrice di Vandermonde coincide con il valore del polinomio in


(5.3) calcolato nellascissa , per cui si rende necessario determinare esplicitamente
per minori rispetto alla ultima riga
il coefciente . Sviluppando

)
) 0)

(5.4)

D #

) )
0) 0

2
) )
0) 0

2#

D #

3# 2

) )
0) 0

)#

D #

2
00)
))

2
)
) 0)

00)
))

3#

in (5.3) abbiamo
.
.
.

.
.
.

2
) )
0) 0

2 #

G
# 

La ricorsione allindietro si arresta sullindice


.
.
.

`
in cui e facile riconoscere una relazione di ricorrenza
Sostituendo questa espressione per
.
.
.

da cui segue immediatamente che

.
.
.

2
))
) 00

D #

.
.
.

.
.
.

otteniamo
Interpolazione polinomiale

167

168

Interpolazione polinomiale

che in (5.4) produce proprio la formula (5.1).


# 1

Denizione 60 (Nodi di interpolazione). Le coppie ordinate della forma


con gli
`
assunti distinti, cioe
per
, si indicano normalmente col termine di nodi di
interpolazione.

#  D

Se necessario, si pu` anche supporre che


o
, cio` che i valori assunti nei nodi di interpoe
.
lazione siano tabulati a partire da una funzione nota

#  D

B ) 00 G Q
))

`
Denizione 61 (Gradi di liberta). Gli
coefcienti
per
che deter`
minano il polinomio di grado si indicano normalmente col termine di gradi di liberta. Il
`
numero
si chiama coefciente del termine di grado massimo, ed e ovviamente assunto
`
non nullo quando il polinomio e di grado .

Osservazione 52. Il teorema 79 afferma che dati


nodi di interpolazione (distinti)
`
`
il polinomio interpolante di grado al piu esiste ed e unico. Nel teorema e stato scritto

`
come combinazione lineare dei polinomi , , ,. . . , . Tuttavia puo essere scritto

anche come combinazione lineare di funzioni polinomiali generali, che indicheremo con i
,
,. . . ,
.
simboli

5.1.1 Generalizzazione
Esaminiamo cosa succede se consideriamo una funzione della forma:

per cui valga

B ) ) 0 G Q
)
D

D #

Imponendo esplicitamente il passaggio per i nodi di interpolazione si ha un sistema lineare

.
.
.

.
.
.

D #

D #
D #

#
#
#

#
#

.
.
.

Interpolazione polinomiale

169

#
#

#
#

.
.
.

.
.
.

.
.
.

con

che scriviamo in forma matriciale compatta

) )
# 0)

nelle incognite
ha determinante non nullo.

. Quindi la soluzione esiste ed e unica se e solo se la matrice


`

5.1.2 Condizione di Haar

Denizione 62. Date


funzioni polinomiali generali
,
,. . . ,
ed
nodi di interpolazione con ascisse
supposte distinte, sia
la matrice di componenti
. La condizione
si chiama condizione di Haar2 .

# 

D 

Osservazione 53. La condizione di Haar esprime lindipendenza lineare delle funzioni


`
polinomiali
per
sui nodi di interpolazione ed e necessaria e sufciente
`
per la risolubilita del problema di interpolazione.

B ) ) 0 G Q
)
D

5.1.3 Interpolazione di Lagrange


come

( #

D #

di grado

3#

D #

dove si e introdotto il polinomio


`

Scegliamo le funzioni generali di interpolazione


la cui derivata prima e 3
`

D #

(
Lapice

Alfr d Haar 18851933


e

) #

signica che si esclude dalla produttoria il termine con indice

 #

nellespressione

170

Interpolazione polinomiale

Si noti che
, cio` la derivata prima di
e
calcolata nellascissa del -esimo nodo di
interpolazione assume una forma particolarmente semplice,

) #
`
e un polinomio di gra-

Ogni

D #

Denizione 63 (Polinomi elementari di Lagrange).


do della forma

( #

D #

Questi polinomi sono noti come polinomi elementari di Lagrange.


`
sono completamente caratterizza dalla proprieta che

)
#

Si ha quindi che
ed il problema della interpolazione si riduce a
. Il polinomio interpolante di grado si scrive immediatamente come

Osservazione 54. I polinomi

B 0) ) G Q
)

( #

D #

D #

5.1.4 Interpolazione di Newton


per

. Il polinomio interpolatore si scrive quindi

)#

3#

D
Q

per lindice

D #

B ) 00 I G
))
D

# D #

Joseph-Louis Lagrange 17361813


Sir Isaac Newton 16431727

e poniamo per coerenza


come

Nel caso dellalgoritmo di Newton5 scegliamo le funzioni generali di interpolazione


come segue:

Interpolazione polinomiale

#
#

.
.
.

D #

.
.
.

D #

#
#

con

#
Q

) )
# 0) 0 0
G

in questo caso e una matrice triangolare inferiore, il cui determinante


`

#

dove

)#

# D

e uguale al prodotto degli elementi diagonali


`

D #

La matrice

nelle incognite

D #

D #
Q

o equivalentemente in forma matriciale compatta

.
.
.

.
.
.

D #

il problema di interpolazione si pu` esprimere come sistema


o

per

Osservando che
lineare

171

Se assumiamo come sempre che i nodi di interpolazione hanno ascisse distinte, cio`
e
per
, allora il determinante e non nullo ed il problema di interpolazione ammette una unica
`
soluzione.

D #

##
##

# # D #

ritroviamo il polinomio di interpolazione, cio`


e

##

,. . . ,

interpolano i nodi

una soluzione del

D
B 0) ) I G Q
)
D

Ovviamente, per

))
# 0) 00

per

-upla di coefcienti
polinomi

Relazioni di ricorrenza Sia la


problema di interpolazione. Allora gli

172

si ha

)
D ) 0) D #

D #

Infatti, se per esempio esaminiamo il primo di questi polinomi, quello con indice
che

D #
Q

Per

Interpolazione polinomiale

, notiamo

)
0) )

3#

D #

per cui, essendo


, uno dei binomi e sicuramente nullo. Lo stesso ragionamento si pu` ripetere
`
o
,
, ... .
anche per gli altri polinomi con indici

si scrive formalmente come

# D #

I G
) ) ) 0
)
D

Possiamo esprimere questa propriet` per mezzo delle seguenti relazioni di ricorrenza per
a

Il polinomio interpolatore calcolato nel nodo

#
)#

D #

D #

D #

La condizione di interpolazione
permette di ricavare immediatamente
unespressione per
, cio` per il coefciente del termine di grado massimo del polinomio
e

che sostituita nelle relazioni di ricorrenza permette di scrivere un algoritmo di calcolo per il
polinomio di interpolazione.

Interpolazione polinomiale

173

5.1.5 Algoritmo di Newton

D #

si calcoli

)#


#
#
#

D #

B ) 0) G Q
)
D

D #

D #
G

2. e per

1. Si inizializzi

5.1.6 Differenze divise


Il sistema lineare che denisce il problema di interpolazione secondo il metodo di Newton

D #
D #

D #

#
#

D #

.
.
.

e triangolare inferiore e pu` essere risolto esplicitamente con la tecnica delle sostituzioni in avanti.
`
o
La soluzione del sistema lineare pu` essere scritta come
o

per

G Q
))
) 00 D

##

dipende dai nodi di interpolazione

#
#

Si noti che ogni


successivi.

.
.
.

e non dai

`
Osservazione 55. Questo tipo di dipendenza non deve stupire, perche e ancora un
` `
modo per descrivere le relazioni di ricorrenza di cui si e gia parlato.

174

Interpolazione polinomiale

Indichiamo questa dipendenza con il simbolo speciale (notare le parentesi quadre)

 ) 0)
)

 D 


che si chiama differenza divisa di ordine .


Tramite le differenze divise possiamo scrivere il polinomio interpolante come segue

))
) 00

D #

Le differenze divise godono di una serie notevole di propriet` interessanti.


a

del

)
) 0)

non dipende dallordine con cui si prendono i nodi di

0) 0 #
) )


 D


) )
0) 0

))
) 00







))
) 00

e una qualunque permutazione dei numeri


`

G Q
)
) 0)

dove

) )0)0 


Propriet` 2
a
La differenza divisa
interpolazione, cio`
e

Propriet` 1
a
La differenza divisa
e il coefciente del termine di grado massimo
`
polinomio interpolatore che interpola i
nodi di ascisse
.

Come conseguenza della propriet` 2 si ha che permutando la sequenza dei nodi di interpolazione
a
il polinomio non cambia. Il problema di interpolazione sui nodi di ascissa
ha

) )
0) 0

come soluzione il polinomio che si esprime con le differenze divise come

#
#
#

3#

)
) 0)




)
) 0)


  D #

In maniera analoga possiamo costruire lo stesso polinomio interpolatore per i nodi di ascissa
,. . . , , con un ordine di interpolazione diverso, ad esempio , ,. . . , ,
.





)
 " 0) )  
)
))
)
 00)   ) 0)   D


 D  

Propriet` 3
a
Ripetendo il ragionamento con un ordinamento qualsiasi dei nodi di interpolazione si ottiene
una denizione ricorsiva delle differenze divise di ogni ordine

) )
0) 0

2
#

) )
0) 0

00)
))

 D


 D


) )
0) 0

00)
))

2
2
2


)0) 0
0) 0
)
) )
 
 
2
 2
Q
) )
 0) 0   D
2




si ottiene

Usando il fatto che

) )
0) 0

Confrontando le due espressioni (si sottragga membro a membro e si divida per


) si ottiene la relazione

3#

2


) )
0) 0

) )
0) 0





  D #

In questo caso la formula di interpolazione di Newton e


`
Interpolazione polinomiale

175

e
`
, che e dato dalla

$


# #

# #

Alexander Craig Aitken 18951967

D #

G Q
) ) 0) D
)

#


di grado

che interpola i punti

#  D #


# # 

associamo il polinomio

I G Q
) ) 0 D
)

#


 D $

B ) 0) G Q
)
D

Osservazione 56. Conoscendo i due polinomi interpolatori


possiamo facilmente costruire il polinomio interpolatore
formula
Ad ogni sottoinsieme
dellinsieme
con

e tutti i suoi sottoinsiemi


G

B ) I G Q

D
D ) ) 0 # #  


D

1 @ 1

Per presentare lalgoritmo di Aitken-Neville 6 introduciamo linsieme formato da

punti di

5.1.7 Lalgoritmo di Aitken-Neville

))
) 00

2 2

 




2 








.
.
.



2
 

.
.
.

.
.
.













Tabella 5.1: Schema graco del procedimento ricorsivo per il calcolo delle differenze divise del
polinomio interpolatore di ordine n
176

Interpolazione polinomiale

B ) 00 G Q
))
D
S

#  D #
B ) 0) G Q
)
D

sono semplicemente le costanti

con

))
#  ) 00 #  # 

I polinomi

; cio` :
e

5.1.8 Osservazioni nali sullalgoritmo di Aitken-Neville

) #  D

$ #

# #

$ #

#
#

) # #

#  #

#
#

# #

D
D #

D #

 D # 6#


# #


#  #

# #

# #


# # #

#
D #

D #

# #

# #

# #

#  D

#  #

abbiamo
abbiamo

D #

D #

I G
)
) 0) D
#

vale ovviamente

Nel caso
Nel caso

Per

Interpolazione polinomiale

177

178

Interpolazione polinomiale

Analogamente

# #

D #

B ) 00 G Q
))
D
S

per

La formula di interpolazione dellalgoritmo di Aitken-Neville pu` essere utilizzata in modo efo


ciente per calcolare il valore del polinomio interpolatore in un punto generico come segue:

#  D #

G Q
B
D
) ) )0
B ) ) 0 I G
)
D
B ) ) 0 G Q
)
D

2. Per

si pone

1. Per

si calcola

(a) Per

D #

restituisce il valore del polinomio interpolatore calcolato in .

3.

Tabella 5.2: Schema graco del procedimento di Aitken-Neville

!


.
.
.

2 2

5.1.9 Errore di interpolazione

Denizione 64. Data la funzione


ed il polinomio
interpolante gli
nodi
per
, deniamo come errore di interpolazione nel punto la differenza
(in valore assoluto) tra il valore calcolato con la funzione ed il valore calcolato con il
polinomio

B ) 0) G Q
)
D

) #

D #

# 

Interpolazione polinomiale

179

Osservazione 57. Laccuratezza di ogni procedimento di interpolazione segue da una


stima dellerrore di interpolazione.

 

3 

Teorema 80 (dellerrore di interpolazione). Sia


e
il suo polinomio interpolatore negli
punti distinti , , . . . , . Allora per ogni esiste un
tale che:

#
#

,. . . ,

D #

G
B

#  D #

)#
))
) 00

 

3#
))
) 00

D #

D #

e il minimo intervallo contenente i punti ,


`

)
# ) 0)

))
# ) 00

) )
0) 0

dove

(5.5)

Dimostrazione. Osserviamo che

B ) ) 0 G Q
)
D

D #
Q

 D #

Quindi potremmo scrivere

)#

D #

Consideriamo la seguente funzione

che dipende da un parametro . Ovvia

B ) 0) G Q
)
D

D #
Q

D #
Q

 D #

dove con
intendiamo una funzione in
mente per questa funzione abbiamo

(5.6)

per costruzione

 D #

#  D #

si annulla in
punti. Grazie al teorema di Rolle7 la sua derivata priquindi
`

ma (si calcola in perche e solo un parametro) si annulla in


punti. Ripetendo il ragionamento per le derivate successive otteniamo che esiste almeno un punto
per cui vale

))
# 00)

D #

Michel Rolle 16521719

Interpolazione polinomiale

, essendo un polinomio di grado , e che vale

#
G

B 3#

 D #

Ricordiamo che
, per cui si ottiene

D #

180

Q
e quindi

G
B

D #

che sostituito nella (5.6) produce lespressione (5.5).


Con il teorema precedente si pu` dare immediatamente una stima dellerrore se si conosce una
o
stima della derivata
esima come segue

B
#
# 

) #

# 

Equazioni Normali e Minimi Quadrati

5.2

181

Equazioni Normali e Minimi Quadrati

5.2.1 Equazioni Normali

 

85
7

3 

Sia data la matrice


con
e supponiamo che
, cio` che sia di rango
e
massimo. Dalle considerazioni sul teorema di Rouch -Capelli, segue che il problema
e
e
`
sovra-determinato, quindi non ammette soluzione. Se moltiplichiamo a sinistra per
, si ottiene

 D

)


Che cosa sappiamo dire su questo nuovo problema? Osserviamo che la matrice prodotto

e
`

simmetrica (ovvio) e denita positiva:

ha rango massimo]




ammette una ed una sola soluzione .

4 D







D
Q

e SPD, e non-singolare, quindi


`
`

Poich
e

Questa buona propriet` ci porta ad introdurre la seguente denizione.


a

U5
7

3 

Denizione 65. Data una matrice rettangolare


di rango massimo con
,
indicheremo il sistema lineare di equazioni della forma
col termine di
equazioni normali.

Osservazione 58. Le equazioni normali si presentano in modo naturale nel problema di


approssimazione ai Minimi Quadrati.

5.2.2 Minimi Quadrati


Consideriamo il seguente problema di approssimazione:

punti del piano che supponiamo distinti8

F
D

F
D

Si noti che in questa sezione consideriamo punti numerati partendo da


punti numerati partendo da .
allinterpolazione polinomiale,
!

Problema
Trovare la retta che passa al meglio per gli

e non, come nella sezione dedicata

&

182

Interpolazione polinomiale

Osservazione 59. Dalla geometria analitica nel piano sappiamo che

`
per
, si ha un solo punto assegnato sul piano cartesiano, che e il centro di un
fascio formato da innite rette;

per
due punti assegnati, esiste una ed una sola retta che passa esattamente
per i due punti dati;

per
piu di due punti, non esiste alcuna retta che passa esattamente per gli

punti dati.

Dato che non esiste una retta che passa esattamente per tutti i punti assegnati, cercheremo una
retta che, come enunciato nel problema, passi al meglio, qualcosa tipo ci` che e mostrato in
o
`
gura 5.2.2
y
(xn ,axn + b)
y=ax + b
yn
axn + b - y n

y4
y3
y2
y1

x1

x2

x3

x4

xn

Figura 5.1: Retta ai minimi quadrati.

Che cosa signica matematicamente trovare la retta che passa al meglio?


coefcienti parametrici da
il valore assunto dalla
commettiamo lerrore

# "

  D #

)


  D #

 
D #

  D #

Formiamo il vettore degli errori

Prendiamo una retta generica della forma


, con e
determinare. Se consideriamo per il generico punto assegnato
retta
come approssimazione del valore nodale

)
) 0)

 
D #

Equazioni Normali e Minimi Quadrati

del vettore degli errori sia minima

&
#  %

# 

che minimizzano gli errori. A

 

# 

# 

Rimane ora solo da specicare come si calcolano i parametri


tale scopo, introduciamo la funzione

# & %

in modo che la norma

e scegliamo

183

# 
D

# 

# 

 
D #

e sono un punto di minimo della funzione


e sappiamo che in un punto di minimo il
gradiente si annulla, cio` imponiamo la condizione di annullamento delle derivate parziali
e


Q
D  
# 
Q
# 

 
D #

# 

 

Ricordando la denizione di

calcoliamo esplicitamente le derivate parziali ed imponiamo lannullamento

D 
Q

 BI


I
#  
D # 

I
# 


 I D #  

I

I D

In forma matriciale compatta si ottiene il sistema

  D #

che ha per soluzione i coefcienti e richiesti. Si dice che la retta


punti assegnati nel senso dei minimi quadrati.

passa per gli

184

Interpolazione polinomiale

Osservazione 60. Il procedimento dei minimi quadrati di fatto risolve un sistema lineare

di equazioni normali. Perche?

  D #

Imponiamo che tutti i punti assegnati soddisno la generica retta

D 

D 

) 0)
)

D #

D #

D 

 D #

In forma matriciale compatta

G





R 

D
E

F

#
G

partizionata per colonne

D R 

F

.
.
.

`
e la colonna di tutti , e le altre colonne sono ovvie.

dove

oppure introducendo la matrice

.
.
.

`
Il sistema e sovra-determinato, quindi scriviamo le equazioni normali

R 

F

R 

F 


da cui si ricava

, si riottiene il sistema




 F


R

Calcolando esplicitamente i termini


dei minimi quadrati:

Equazioni Normali e Minimi Quadrati

185

Conclusione: il procedimento di minimizzazione dellerrore quadratico (minimi quadrati)


per le rette ed il procedimento di risoluzione delle equazioni normali sul sistema ottenuto
imponendo il passaggio di una retta generica per tutti i punti assegnati coincidono.

Esempio 38. Trovare la retta che approssima nel senso dei minimi quadrati i seguenti
,
,
,
.
punti:

I G
G
I P
# # # # 

D R &

G
G

&

G
G

D
D

%
&

&

&
&
D

D
&

da cui segue sistema delle equazioni normali con soluzioni

%
D

&
R

F
R

I
F

5.2.3 Generalizzazione al caso polinomiale


Il procedimento algebrico che porta alla risoluzione di un problema di approssimazione ai minimi
quadrati attraverso le equazioni normali si generalizza facilmente al caso in cui le funzioni non
siano rette e dipendano da un numero di parametri eventualmente superiore a due. Praticamente
si procede come nel caso delle rette, imponendo il passaggio per i punti assegnati, ed ottenendo
un sistema sovra-determinato nei parametri che si risolve con la tecnica delle equazioni normali.
Nella presente sezione approfondiremo questo argomento discutendo il caso polinomiale.
punti assegnati nel piano con un polinomio di grado

D #

Supponiamo di voler approssimare

invece che con una retta come nel caso precedente. Dato che un polinomio di grado ha
gradi di libert` , deve ovviamente essere
a
, afnch il problema sia sovradeterminato 9 .
e
Ripetendo le argomentazioni della sezione precedente, dobbiamo determinare i coefcienti con

B G

Altrimenti?

I
5

5 I

I
5

I D

))

# 5 0 00) 0

.
.
.

5 I

I
5


5 I

I D

I B I

D

))

# 5 0 00) 0

))

# 5 0 00) 0

Dato che

D 5 0) 0)
# )

.
.
.

) Q

(5.7)

5 0) )0)

D
#
Q
D

)
# 5 0) 0)

Quindi , ,. . . ,
sono un punto di minimo della funzione errore quadratico
. Poich
e
in un punto di minimo il gradiente si annulla, imponiamo la condizione di annullamento delle
derivate parziali

)
# ) 0)

) # 5 % 0) 0 % %
) )

# 5 % 0) 0 % %
) )

))

# 5 00) 0


9 ) 00 G Q
))
D
S

approssima al meglio i dati assegnati, o che il


passa per i punti dati nel piano nel senso dei minimi quadrati se i coefcienti
minimizzano la funzione errore, cio` si ha
e

# 5 ) 0) 0

) )
D # 5 0) 0 0

D #

Diremo che
polinomio
per

in modo tale che gli errori siano minimizzati. Introduciamo la funzione errore
quadratico, che indicheremo col simbolo
, attraverso la seguente relazione

9 ) 00 G Q
))
D

186

Interpolazione polinomiale

 

. Per la propriet` dei ranghi


a

 

D
H

9 ) 0) G Q
)
D

9 ) ) 0 G Q
)
D

.
.
.

.
.
.

 

.
.
.

.
.
.

.
.
.

denita

come segue




.
.
.

..

.
.
.

. Se introduciamo la matrice

e il vettore

..

la matrice
del sistema (5.8) si scrive semplicemente come
delle matrici
il sistema (5.8) si pu` scrivere come
o
come

Osserviamo che denendo la matrice

.
.
.

(5.8)

si ottiene per sostituzione in (5.7) il seguente sistema lineare


Equazioni Normali e Minimi Quadrati

187

Interpolazione polinomiale

9 D

188

 

La matrice
e invertibile se e solo se ha rango massimo cio`
`
e
, dato che abbiamo
supposto
. La matrice ha rango
se e solo se esistono almeno
colonne
tra i punti assegnati abbiano ascisse
linearmente indipendenti. Se assumiamo che almeno
distinte, le rispettive colonne formano una matrice un po speciale, per lappunto la matrice
di Vandermonde. Nella sezione dedicata allinterpolazione polinomiale e stato mostrato che la
`
matrice di Vandermonde e non singolare e quindi ha rango massimo se e costruita partendo da
`
`
nodi di interpolazione le cui ascisse sono distinte. Possiamo concludere che lapprossimazione ai
minimi quadrati nel caso polinomiale ammette una ed una sola soluzione.

B G

Tabella 5.3:
2.0

3.0

4.0

5.0

6.0

7.0

8.0

9.0

10.0

1.5

1.8

3.0

4.1

5.6

6.1

6.0

8.1

10.0

5.0

lapprossimazione ai minimi quadrati produce il seguente polinomio di grado

Q) Q

P P Q G
) D #

vedi gura 5.2.

1.0

Esempio 39. Con i dati riportati nella tabella 5.3

Equazioni Normali e Minimi Quadrati

189

11

11

10

10

0
0

10

11

Figura 5.2: Approssimazione ai minimi quadrati dei dati nella tabella 5.3 con un polinomio di
secondo grado.

CAPITOLO

SEI

INTEGRAZIONE NUMERICA

190

Problema dellintegrazione numerica

Problema dellintegrazione numerica

 

e lintervallo chiuso e limitato

si vuole stimare numerica-

Data una funzione


mente lintegrale

6.1

191

D #   

Si parla di stima numerica perch in realt` non si sta chiedendo di calcolare il valore esatto dele
a
lintegrale che e denito come differenza dei valori assunti negli estremi di integrazione dalla
`
primitiva della funzione integranda . Siamo infatti interessati a determinare un valore, ovviamente approssimato, dellintegrale che coinvolga soltanto la conoscenza della funzione integranda
e non della sua primitiva.

Il problema e di particolare interessa perch , pur esistendo nito lintegrale, la funzione integran`
e
da potrebbe non ammettere una primitiva esprimibile in maniera analitica, oppure la primitiva
potrebbe essere molto complessa da determinare e molto costosa da calcolare. Addirittura, la stessa funzione integranda potrebbe non essere nota in forma analitica, ma solo tabulata in certi
punti dellintervallo
, rendendo quindi di fatto impossibile il cercarne una primitiva.

 

Riprendendo una vecchia idea dellintegrale come di una sorta di somma generalizzata, cercheremo di stimare il valore dellintegrale di per mezzo di espressioni del tipo:

# 

  3

in cui la funzione da integrare e valutata in un certo insieme di punti


`
una somma pesata con coefcienti
opportuni.

e lintegrale con

Denizione 66. Lespressione della forma

# 

$  

D #

)  

$   

denita da
si chiama formula di quadratura. I punti
nodi della formula di quadratura ed i coefcienti
sono i pesi.

sono i

$  

Ripetiamo ancora che la formula di quadratura fornisce giusto una stima e non il valore dellintegrale, il che implica un errore di approssimazione, che potr` in certe situazioni essere signicativo.
a
Ci porremo dunque la questione di quanto una data formula di quadratura sia precisa nella stima

192

Integrazione numerica

dellintegrale di una funzione generica e da quali fattori sia inuenzata laccuratezza del risultato
numerico.
Per denire una formula di quadratura e necessario
`

$  

$  

della formula di quadratura;


della formula di quadratura.

scegliere i pesi

scegliere i nodi

Quindi e ovvio che il criterio con cui si scelgono nodi e pesi e fondamentale nel caratterizzare
`
`
laccuratezza di una formula di quadratura.
Inoltre, e ragionevole aspettarsi che la precisione del valore stimato dipenda anche dalla funzione
`
che stiamo cercando di integrare. In altre parole, la stessa formula di quadratura potrebbe produrre
un risultato molto accurato o addirittura il valore esatto dellintegrale per alcune famiglie di
funzioni e fornire un cattivo risultato in altri casi.
Questi argomenti saranno oggetto di discussione nel presente capitolo.

Strategia interpolatoria
con un polinomio interpolatore di grado scegliendo con
nodi di interpolazione con ascisse distinte
per


  3

calcolando lintegrale del polinomio interpolante:

)
S #

B ) 0) G Q
)
D

stimiamo lintegrale di

approssimiamo la funzione
un criterio da stabilire
;

6.2

Denizione 67. Le formule di quadratura costruite con la strategia interpolatoria prendono il nome di formule di quadratura interpolatorie

6.2.1 Classicazione (largamente incompleta)


Formule di Newton-Cotes : i nodi di integrazione sono scelti equidistanti nellintervallo
; distinguiamo tra


 

Strategia interpolatoria

193

 D

 D

formule chiuse :

e non sono compresi;

formule aperte : gli estremi

Formule Gaussiane : i nodi di integrazione sono eventualmente gli estremi dellintervallo di


integrazione pi gli zeri di polinomi appartenenti a famiglie speciali. Citiamo, per esempio,
u
i polinomi ortogonali che producono le formule di Gauss-Legendre, di Gauss-Lobatto, di
Gauss-Radau, . . .

Nella nostra esposizione tratteremo solo il caso delle formule di Newton-Cotes.

6.2.2 Formule di Newton-Cotes


I pesi si determinano immediatamente calcolando lintegrale del polinomio interpolatore. Esaminiamo il caso delle formule chiuse:

 6
D

!  D
 D
B


Q
B  3 !
G Q
B 0) 0
) )
D

generico punto


)   3

nodo

il polinomio interpolatore di Lagrange

D #

#  # #  D #

2
)
)
# 0) ) # 3# 2 ) 0)
)
)
# ) 0) # 3# 0) )

#
#

D #

Dato che possiamo scrivere per ogni indice e

)
) 0) #

dove gli
sono i polinomi elementari di Lagrange, deniti dalla relazione
Ricordiamo la denizione data nel capitolo sullinterpolazione,

# 

Sia

passo di integrazione

# D #   # 
# " D #   # ! 
!

D 

D 


) # $   #   0

 
D # 

Denizione 68. Si chiama errore di integrazione la differenza tra il valore esatto dellintegrale ed il suo valore stimato con la formula di quadratura

6.2.3 Accuratezza

)!
B ) ) 0 G
)


!
Q

D
 D

denita dai nodi e dai pesi

)!


# 

# 

D #

$  " 

Si ottiene quindi la formula di quadratura

)!


#

 #  


#


# 

S #

S #

si ha dalla denizione dei polinomi di Lagrange unespressione particolare per nodi di interpolazione equidistanti
194

Integrazione numerica

Strategia interpolatoria

# 

`
puo dipendere dalla funzione

e dallintervallo di integrazione

#  

Ovviamente
.

195

 

`
Denizione 69. Lordine di accuratezza o di precisione della formula di quadratura e
dato dal massimo grado dei polinomi che sono integrati esattamente dal metodo. Piu

correttamente diremo che una formula di quadratura

se integra esattamente tutti i polinomi di grado no a ;


ed esiste almeno un polinomio di grado

ha ordine se ha ordine almeno


`
che non e integrato esattamente.

ha ordine almeno

6.2.4 Metodo dei Coefcienti Indeterminati


Il metodo dei Coefcienti Indeterminati permette di ricondurre il calcolo dei pesi delle formule di
quadratura, una volta stabiliti i nodi, alla risoluzione di un problema algebrico. Osserviamo che
lintegrale di un polinomio
della forma

)
0) )

2
D #

si scrive come

0) 00
))

00)
))

2
2

)
0) )

se sono esatti tutti gli

G Q
) B 0) 0
) )
D

per

Quindi lintegrale e esatto indipendentemente dai coefcienti


`
integrali della forma

Losservazione precedente suggerisce il seguente procedimento per la determinazione dei pesi di


una formula di quadratura, una volta scelti i nodi (non necessariamente equidistanti).

B ) 0) G Q
)
D

Si applica la formula di quadratura a tutti i monomi , per


il risultato sia uguale al risultato dellintegrazione esatta.

e si impone che

Integrazione numerica

B ) ) 0 G Q
)
D

equazioni per

nelle

B
G

In questo modo si ricava un sistema nelle


.

196

incognite

) 0)
)

Praticamente, si deve imporre la condizione

  D

  D
  D


 D

!2

$ 2 $
 

D
Q

)
0) )

.
.
.

)
0) )

)
0) )

)
) 0)

G
B

dove

I !

D  

D
B

) )
0) 0

e una matrice di Vandermonde, il cui determinante


`

#

D #

00)
))

La matrice

nelle incognite

.
.
.

Il sistema lineare si pu` riscrivere in forma matriciale compatta


o

.
.
.

G Q
B ) ) 0 D
)

per cui si ottiene un sistema lineare nelle

per

e sicuramente diverso da zero se i nodi sono scelti a due a due distinti, cio` vale
`
e
per
.
La non singolarit` della matrice garantisce lesistenza di una ed una sola soluzione formata da
a
una
-upla di pesi
.

) )
0) 0

`
Osservazione 61. La formula di quadratura cos` costruita ha ordine almeno . Quale il

`
massimo ordine che puo avere?

Strategia interpolatoria

197

Se lasciamo liberta di scegliere sia gli


nodi (purche distinti) che gli
pesi,
`
abbiamo in totale
gradi di liberta, per cui possiamo chiedere che il metodo dei
`
coefcienti indeterminati soddis un ugual numero di condizioni, il che ci da la possibilita
1
.
di integrare esattamente tutti i monomi no allordine

I
B

I
B

6.2.5 Stima dellerrore di integrazione


In questo paragrafo riportiamo per completezza lenunciato di un teorema assai importante, che
permette di stimare lordine di accuratezza per le formule di Newton2 -Cotes3 .
Il teorema si riassume usualmente con laffermazione che le formule di Newton-Cotes di grado
pari guadagnano un ordine di accuratezza. Per esempio, la formula di Simpson, pur essendo
costruibile come un formula interpolatoria che integra esattamente tutti i polinomi di grado no a
due, ha in realt` ordine quattro, e non tre come si potrebbe erroneamente pensare.
a

Questa propriet` dipende essenzialmente dal fatto che lintegrale di


a
, che compare nelledello sviluppo di Taylor, si annulla sullintervallo
spressione dellerrore di fronte al termine
per ragioni di simmetria. Lerrore e dominato dal termine successivo dello sviluppo di Taylor
`
che coinvolge la derivata
-esima.

 

Lenunciato del teorema mostra la forma generale dellerrore di integrazione per formule interpolatorie alla Newton-Cotes che interpolano esattamente polinomi di ordine no ad sia pari che
dispari. Ricordiamo tuttavia che nella pratica non si usano formule di Newton-Cotes con grandi,
maggiori di 7-8, per ragioni di stabilit` numerica.
a

La dimostrazione si pu` trovare per esempio in [1].


o

)  

# 

#  

 
D # 

D #

 

)  

# 

D #   

Attenzione: la numerazione degli esponenti parte da zero, essendo


qualsiasi ordine.
2
Sir Isaac Newton 16431727
3
Roger Cotes 16821716

su

per il calcolo dellintegrale della funzione

lerrore di integrazione che si


nodi

Teorema 81. Sia


ha applicando una formula di quadratura di Newton-Cotes con

il primo monomio di ogni polinomio di

tale che

#  3

#


# 

 
D # 

I
# G B

3#

D #

dispari; allora esiste un

# 

# 

, con

 
D # 
B

pari; allora esiste un

sia

, con

#  3

dove
sia

tale che

Allora valgono i seguenti risultati:


198

Integrazione numerica

BIBLIOGRAFIA

[1] Roberto Bevilacqua, Dario Bini, Milvio Capovani, and Ornella Menchi. Metodi Numerici.
Zanichelli, 1992.

199

200

BIBLIOGRAFIA

INDICE ANALITICO

Cauchy-Schwarz, 24
Holder, 17
Minkowski, 18
Young, 16

accuratezza
ordine di, 195
Aitken-Neville
algoritmo di, 176
autovalore, 70
molteplicit` algebrica, 72
a
molteplicit` geometrica, 72
a
autovettore, 70
destro, 71
sinistro, 71

equazioni normali, 181, 184


formula di quadratura, 191
Gauss
fattorizzazione di, 96
metodo di, 96
Gauss-Legendre
formule di, 192
Gauss-Lobatto
formule di, 192
Gauss-Radau
formule di, 192
Gauss-Siedel
schema iterativo di, 128
gradi di libert` , 168
a
Gram-Schmidt
procedimento di ortonormalizzazione, 31

Cholesky
fattorizzazione di, 116
coefcienti indeterminati
metodo dei, 195
cofattore, 61
Cramer
regola di, 50
criteri di arresto, 136
decomposizione LU, 109
determinante, 41
della matrice trasposta, 67
di matrici diagonali a blocchi, 68
di Vandermonde, 165
matrice inversa, 50
prodotto, 49
differenze divise, 173
disuguaglianza di

Haar
condizione di, 169
integrazione
errore di, 194
integrazione gaussiana
201

202

INDICE ANALITICO

unitaria, 76
matrici

triangolare inferiore, 12
triangolare superiore, 12

trasposta, 38
trasposta coniugata, 39

SPD, 82
spettro di una, 79

residuo, 126
sistema triangolare, 96
SOR
schema iterativo, 129
span, 30
Sturm
successione di, 159
teorema di, 160
teorema

rango di, 58
simmetrica, 39

quadrata, 11
raggio spetrale di una, 79

pivot
numerico, 112
simbolico, 112
pivoting, 101
polinomio caratteristico, 70
prodotto scalare, 19, 23
euclideo, 21
notazione, 23
prodotto vettoriale, 26

normale, 74
nulla, 11
ortogonale, 76

indentit` , 11
a
inversa, 37

di Vandermonde, 188
hermitiana, 40

denita positiva, 81
di iterazione, 129

confronto, 13
coniugata, 39

a diagonale dominante, 81
cofattore, 62

matrice

polinomi elementari, 170

Lagrange
interpolazione di, 169

Newton, 170

Newton
interpolazione di, 170
Newton-Cotes
formule di, 192
nodi di interpolazione, 168
norma
indotta, 23
matriciale
,
,
, 91
norme classiche, 87
vettoriale, 15, 18
,
,
,
norme
compatibili, 91

interpolazione di
Lagrange, 169

interpolazione
errore di, 179

prodotto di, 34
minimi quadrati, 181

formule, 192

, 18

INDICE ANALITICO

dei cerchi di Gerschgorin, 80


di continuit` delle norme, 86
a
di equivalenza delle norme, 86
di Rouch` -Capelli, 59
e
di Sylvester, 83
fondamentale dellinterpolazione, 165
vettore
colonna, 11
riga, 11
vettori
angolo, 25
base canonica, 29
base di, 29
linearmente indipendenti, 28
ortogonali, 30
ortogonalit` , 25
a
ortonormali, 30

203