Sei sulla pagina 1di 194

Appunti di Geometria e Algebra

(per la facolta di Ingegneria)

Francesco DAndrea

Dipartimento di Matematica e Applicazioni R. Caccioppoli


Universita di Napoli Federico II, P.le Tecchio 80 80125 Napoli

v1: 12 giugno 2011.

Note

Appunti del corso di Geometria e Algebra (6 CFU) per i corsi di laurea in


Ingegneria Elettrica e Ingegneria Gestionale della Logistica e della Produzione
(canale A-COP) dellUniversita di Napoli Federico II, a.a. 2010-2011.

(Attenzione: questo materiale e destinato esclusivamente agli studenti del


corso, con preghiera di non divulgazione.)

Testi consigliati

[Lom] L.A. Lomonaco, Unintroduzione allalgebra lineare, Ed. Aracne (Roma).


[Pel1] S. Pellegrini, A. Benini e F. Morini, Algebra Lineare 1, Ed. F. Apollonio (Brescia).
[Pel2] S. Pellegrini, A. Benini e F. Morini, Algebra Lineare 2, Ed. F. Apollonio (Brescia).
[BruLan] M. Brundu e G. Landi, Note di Algebra Lineare e Geometria (2011), on-line.
[Par] G. Parigi e A. Palestini, Manuale di Geometria: esercizi e temi desame svolti,
Ed. Pitagora (Bologna).
Indice
1 Elementi di teoria degli insiemi (16/03/2011) 1
1.1 Notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Insiemi privi di struttura . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Applicazioni tra insiemi . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Strutture algebriche: gruppi, anelli, campi (18/03/2011) 7


2.1 Operazioni di un insieme . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Gruppi, anelli, campi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3 Sistemi lineari: definizioni e prime proprieta (23/03/2011) 12


3.1 Premesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2 Generalita sui sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . 13
3.3 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.4 Operazioni elementari su un sistema lineare . . . . . . . . . . . . . . . . 15
3.5 Esame dei casi piu semplici di equazioni e sistemi lineari . . . . . . . . . 16
3.6 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

4 Spazi vettoriali e sottospazi (25/03/2011) 21


4.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2 Proprieta elementari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.3 Sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.4 Operazioni su sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

5 Esercitazione su vettori e matrici (30/03/2011) 30


5.1 Esercizi su spazi e sottospazi . . . . . . . . . . . . . . . . . . . . . . . . 30
5.2 Esercizi su matrici 2 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.3 Determinante di una matrice 3 3 . . . . . . . . . . . . . . . . . . . . . 33
5.4 Determinante di una matrice n n . . . . . . . . . . . . . . . . . . . . . 35

6 Dipendenza e indipendenza lineare (06/04/2011) 38


6.1 Dipendenza e indipendenza lineare . . . . . . . . . . . . . . . . . . . . . 38
6.2 Basi e componenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

7 Esercitazione su basi e dimensione (08/04/2011) 45


7.1 Proprieta delle basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
7.2 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

8 Spazi metrici (13/04/2011) 51


2
8.1 Lunghezze, angoli e proiezioni in R . . . . . . . . . . . . . . . . . . . . 51
8.2 Aree di triangoli e determinante . . . . . . . . . . . . . . . . . . . . . . 53

i
8.3 Definizione astratta di prodotto scalare e sue proprieta . . . . . . . . . . 54
8.4 Proiezioni ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
8.5 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

9 Basi ortonormali e metodo di Gram-Schmidt (15/04/2011) 61


9.1 Basi ortonormali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
9.2 Metodo di Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . 62
9.3 Sottospazi ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
9.4 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

10 Matrici (20/04/2011) 68
10.1 Prodotto righe per colonne . . . . . . . . . . . . . . . . . . . . . . . . . 68
10.2 Proprieta del prodotto . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
10.3 Inversa ed aggiunta di una matrice . . . . . . . . . . . . . . . . . . . . 74

11 Il metodo di eliminazione di Gauss (29/04/2011) 77


11.1 Matrici triangolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
11.2 Il metodo di eliminazione di Gauss . . . . . . . . . . . . . . . . . . . . 78
11.3 Sistemi ridotti e a scala . . . . . . . . . . . . . . . . . . . . . . . . . . 82

12 Riduzione di sistemi lineari (04/05/2011) 87


12.1 Riduzione di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . 87
12.2 Soluzione di sistemi lineari generali . . . . . . . . . . . . . . . . . . . . 88
12.3 Calcolo dellinversa di una matrice per riduzione . . . . . . . . . . . . . 90
12.4 Determinare una base per riduzione . . . . . . . . . . . . . . . . . . . . 91
12.5 Inversa di una matrice con il metodo di Gauss . . . . . . . . . . . . . . 94

13 Applicazioni lineari (06/05/2011 e 11/05/2011) 95


13.1 Definizione e prime proprieta . . . . . . . . . . . . . . . . . . . . . . . 95
13.2 Proprieta delle applicazioni lineari . . . . . . . . . . . . . . . . . . . . 99

14 Rango e sistemi lineari (11/05/2011) 102


14.1 Applicazioni e sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . 102
14.2 Rango di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
14.3 Proprieta del rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
14.4 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

15 Esercitazione (13/05/2011) 108


15.1 Applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
15.2 Basi e dimensione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
15.3 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

ii
16 Endomorfismi semplici (18/05/2011) 113
16.1 Matrice del cambiamento di base . . . . . . . . . . . . . . . . . . . . . 113
16.2 Matrici simili e coniugate . . . . . . . . . . . . . . . . . . . . . . . . . 116
16.3 Esercizio: rotazioni nel piano . . . . . . . . . . . . . . . . . . . . . . . 118

17 Autovalori e autovettori (20/05/2011) 120


17.1 Autovalori e autovettori . . . . . . . . . . . . . . . . . . . . . . . . . . 120
17.2 Polinomio caratteristico . . . . . . . . . . . . . . . . . . . . . . . . . . 124

18 Diagonalizzazione di matrici (25/05/2011 e 27/05/2011) 129


18.1 Diagonalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
18.2 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

19 Geometria di R2 (01/06/2011 e 03/06/2011) 141


19.1 Equazioni di una retta . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
19.2 Intersezione fra due rette . . . . . . . . . . . . . . . . . . . . . . . . . . 144
19.3 Circonferenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
19.4 Distanze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
19.5 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

20 Esercitazione (06/06/2011) 152


20.1 Tema desame #1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
20.2 Tema desame #2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
20.3 Soluzioni tema desame #1 . . . . . . . . . . . . . . . . . . . . . . . . 154
20.4 Soluzioni tema desame #2 . . . . . . . . . . . . . . . . . . . . . . . . 158

21 Geometria di R3 : rette, piani e intersezioni (08/06/2011) 163


3
21.1 Rette e piani in R : equazioni parametriche . . . . . . . . . . . . . . . 163
21.2 Equazioni cartesiane di una retta . . . . . . . . . . . . . . . . . . . . . 165
21.3 Equazioni cartesiane di un piano . . . . . . . . . . . . . . . . . . . . . 167
21.4 Intersezioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

22 Geometria di R3 : lunghezze, aree e volumi (10/06/2011) 171


22.1 Distanze, equazione di una sfera . . . . . . . . . . . . . . . . . . . . . . 171
22.2 Angolo fra due vettori di R3 . . . . . . . . . . . . . . . . . . . . . . . . 173
22.3 Prodotto vettoriale e prodotto misto . . . . . . . . . . . . . . . . . . . 175
22.4 Retta per due punti, piano individuato da tre punti . . . . . . . . . . . 179

A Equazioni polinomiali 182

iii
Lezione I

Elementi di teoria degli insiemi


Sommario: notazioni; richiami di teoria degli insiemi; prodotto cartesiano; applica-
zioni (funzioni) e loro proprieta; applicazioni iniettive, suriettive, biettive; applicazione
identica e applicazione inversa; esempi.

1.1 Notazioni
In matematica, per semplificare la scrittura di equazioni e teoremi, su fa uso di simboli
specifici. Nella tabella seguente sono riportati i simboli piu comuni. Altri verranno
introdotti durante il corso.

Tavola dei simboli piu usati


Simbolo Significato
per ogni (detto quantificatore universale)
esiste (detto quantificatore esistenziale)
! esiste ed e unico
= implicazione logica
se e solo se
:= definizione (a := b si legge a per definizione e uguale a b)
: tale che
e (detta congiunzione logica)
o (detta disgiunzione logica)

Assumeremo come primitivo il concetto di insieme (adotteremo quindi il punto di Insiemi

vista della teoria ingenua degli insiemi, senza addentrarci nei problemi della teoria
assiomatica). In maniera intuitiva, un insieme e una collezione di oggetti di natura
arbitraria. Un insieme puo essere definito elencando i suoi elementi, oppure specificando
le proprieta soddisfatte dai suoi elementi. Ad esempio linsieme dei numeri interi
compresi fra 2 e 3 si puo scrivere come

A = 0, 1, 2, 3, 1, 2 ,

oppure

A = n Z : 2 n 3 . (1.1)
Lespressione (1.1) si legge  A e linsieme degli n contenuti in Z (quindi, interi) tale
che n e maggiore o uguale a 2 e minore o uguale a 3 . Una proposizione viene
usualmente racchiusa fra parentesi graffe.

1
In un insieme, lordine degli elementi e irrilevante. Ad esempio {3, 14} = {14, 3}.
Gli insiemi verranno indicati con lettere maiuscole (A, B, C, . . .), i loro elementi con
lettere minuscole (a, b, c, . . .). Lespressione a A si legge a appartiene ad A (o
e elemento di, o e contenuto in). Si puo scrivere al rovescio: A 3 a vuol dire A
contiene a. Lespressione a / A vuol dire a non e elemento di A.
Gli elementi di un insieme non devono necessariamente essere numeri: possono
essere oggetti di natura arbitraria. Si pensi allinsieme dei punti di una retta, linsieme
dei giocatori di una squadra di calcio, linsieme dei caratteri di un alfabeto, etc.
Gli elementi di un insieme possono essere a loro volta insiemi. Ad esempio, siano
A := {1, 2} e B := {1, 4}. Possiamo formare linsieme C i cui elementi sono linsieme
A e linsieme B:

C := {A, B} = {1, 2}, {1, 4}

Esiste una notazione specifica per gli insiemi numerici piu importanti. Fra questi
ricordiamo:

N := {0, 1, 2, 3, 4, . . .} numeri naturali (incluso lo 0)


Z := numeri interi (relativi, ossia positivi e negativi, incluso lo zero)
Q := numeri razionali (quozienti di due interi)
R := numeri reali
C := numeri complessi
Z+ := {1, 2, 3, . . .} interi positivi
Z := {1, 2, 3, . . .} interi negativi
R+ := reali positivi
etc.

1.2 Insiemi privi di struttura


Definizione 1.2.1. Un insieme A si dice sottoinsieme di un insieme B, e scriveremo Sottoinsieme

A B, se ogni elemento di A e anche elemento di B. Quindi:

AB x A, x B .

Se esiste almeno un elemento di B che non appartiene ad A, diremo che A e un


sottoinsieme proprio di B, e scriveremo A B. Quindi:
 
AB x A, x B b B : b
/A .

E facile mostrare che


 
A B B A = A = B .

2
Definizione 1.2.2. Dati due insiemi A e B, la loro intersezione A B e linsieme Intersezione,
unione,
degli elementi che appartengono sia ad A che a B, la loro unione A B e linsieme differenza
degli elementi che che appartengono ad almeno uno dei due insiemi A e B, la loro
differenza ArB e linsieme di elementi che appartengono ad A ma non a B. Quindi:

A B := x : x A x B ,

A B := x : x A x B ,

A r B := x : x A x
/B .

Si indica con linsieme vuoto, ovvero privo di elementi. Unione, intersezione e Insieme
vuoto
differenza godono di una serie di proprieta elementari, la cui verifica e lasciata come
esercizio. Ad esempio

AA=AA=A
A=
A=A
AB =BA (proprieta commutativa di )
AB =BA (proprieta commutativa di )
(A B) C = A (B C) (proprieta associativa di )
(A B) C = A (B C) (proprieta associativa di )

Un elenco piu completo si puo trovare nella Sezione 1.2 di [Pel1].

Definizione 1.2.3. Dati due insiemi A e B, si dice prodotto cartesiano di A e B, Prodotto


cartesiano
e si indica con A B, linsieme delle coppie ordinate aventi il primo elemento in A ed
il secondo in B. Quindi:

A B := (a, b) : a A b B .

Piu ingenerale dati n insiemi A1 , . . . , An :



A1 A2 . . . An := (a1 , a2 , . . . , an ) : ai Ai i = 1, . . . , n .

Esercizio 1.2.4. Determinare il prodotto cartesiano di A = {, } e B = {7, 12}.

Esercizio 1.2.5. Determinare il prodotto cartesiano di A = {0, 1, 5} e B = {0, 1, 2}


(notare che (0, 1) 6= (1, 0) in A B).

1.3 Applicazioni tra insiemi


Definizione 1.3.1. Dati due insiemi A e B si dice corrispondenza da A in B un Corrispondenza

3
qualunque sottoinsieme C del prodotto cartesiano AB. Linsieme A e detto dominio,
linsieme B e detto codominio. Una corrispondenza C da A in B e indicata con la
scrittura
C:AB.
La corrispondenza opposta C op : B A e definita come C op = {(y, x) : (x, y) AB}.

Esempio 1.3.2. se A = {1, 2, 7} e B = {0, 2, 3, 4, 14}, allora C = {(1, 2), (2, 4), (7, 14)}
e la corrispondenza che associa ad ogni elemento di A il suo doppio.

Sia C : A B una corrispondenza.


Limmagine di A0 A e linsieme C(A0 ) := {b B : a A0 , (a, b) C}.
La controimmagine di B 0 B e linsieme C op (B 0 ) := {a A : b B 0 , (a, b) C}.
Una corrispondenza si dice:

1. ovunque definita se per ogni a A esiste almeno un b B tale che (a, b) C;


2. funzionale o univoca o a un solo valore se per ogni a A esiste al piu un
b B tale che (a, b) C;
3. suriettiva se per ogni b B esiste almeno un a A tale che (a, b) C;
4. iniettiva se per ogni b B esiste al piu un a A tale che (a, b) C.

Si verifica facilmente che: C e ovunque definita se e solo se C op e suriettiva; C e funzionale


se e solo se C op e iniettiva.

Definizione 1.3.3. Una corrispondenza C : A B si dice applicazione (o funzio- Applicazione


o funzione
ne) se e ovunque definita e funzionale.

Una definizione equivalente, che non fa ricorso alla nozione di corrispondenza, e la


seguente.

Definizione 1.3.4. Una applicazione (o funzione) f da A in B e una legge che


associa ad ogni elemento x di A un elemento y = f (x) in B, detto immagine di x
tramite f .

Per le applicazioni useremo la scrittura:

f :AB
x 7 y = f (x)

Se f e una applicazione nel senso della definizione 1.3.4, allora linsieme



C = (x, y) A B : y = f (x)

e una corrispondenza (ovunque definita e funzionale).

4
Come per le corrispondenze, una applicazione f : A B si dice

1. suriettiva se per ogni y B esiste almeno un x A tale che y = f (x); Suriettivita

2. iniettiva se Iniettivita

f (x) = f (y) = x = y ,
ovvero due elementi hanno la stessa immagine se e solo se sono uguali.

Definizione 1.3.5. Una applicazione si dice biunivoca (o biettiva) se e iniettiva e Biunivocita

suriettiva.

Esempio 1.3.6. Si considerino le seguenti applicazioni

a) f : N N , f (x) := x + 1 ,
b) g : R R , g(x) := x + 1 .

La prima e iniettiva ma non suriettiva; la seconda e sia iniettiva che suriettiva, quindi
biunivoca.
Per verificare liniettivita bisogna dimostrare che due elementi distinti hanno sempre
immagini distinte. Nel caso a), per definizione se f (x) = f (y) allora x + 1 = y + 1, e
questo implica x = y. Questo dimostra che f e iniettiva. La stessa dimostrazione si
applica a g.
Per verificare la suriettivita bisogna dimostrare che ogni elemento del codominio
e immagine di almeno un elemento del dominio. Nel caso b), dato y R, possiamo
trovare un numero reale x := y 1 che soddisfa g(x) = g(y 1) = (y 1) + 1 = y;
quindi g e suriettiva. Nel caso a) questo non e vero, poiche se y = 0 N, x = y1 = 1
non e un numero naturale, quindi 0 non e limmagine tramite f di alcun elemento del
dominio.

Esercizio 1.3.7. Si considerino le tre applicazioni seguenti:

f :NN, f (x) := x2 ,
g : R r {0} R+ , g(x) := x2 ,
h : R+ R+ , h(x) := x2 .

Verificare che: la prima e iniettiva e non suriettiva, la seconda e suriettiva e non


iniettiva, la terza e biunivoca (per la soluzione, vedere lesempio 1.3.12 di [Pel1]).

Esercizio 1.3.8. Sia A = {, , F} e B = {4, }. Dire se lapplicazione f : A B,


definita da

f () = , f () = 4 , f (F) = ,

e iniettiva, suriettiva o biunivoca.

5
Sia A un insieme qualsiasi. Chiamiamo applicazione identica su A, indicata con Applicazione
identica
idA , lapplicazione che associa ad ogni x A lelemento x stesso. Quindi:
idA : A A
x 7 idA (x) = x
Lapplicazione identica e biunivoca1 .
Definizione 1.3.9. Date due applicazioni f : A B e g : B C la loro composi-
zione, indicata con g f : A C, e lapplicazione definita da Composizione

(g f )(a) := g f (a) a A.
Due applicazioni f e g si dicono uguali se hanno lo stesso dominio, lo stesso codominio,
e f (x) = g(x) per ogni x nel dominio.
Notiamo che le applicazioni f e g dellesempio 1.3.6 non sono uguali, poiche hanno
diverso dominio e diverso codominio. Anche le funzioni g e h dellesercizio 1.3.7 non
sono uguali, poiche hanno lo stesso codominio ma diverso dominio.
Si puo verificare facilmente che, per ogni f : A B, vale luguaglianza fra
applicazioni
idB f = f = f idA . (1.2)
Proposizione 1.3.10 (Proprieta associativa della composizione di applicazioni). Date
tre applicazioni f : A B, g : B C e h : C D, si ha sempre
h (g f ) = (h g) f .
Dimostrazione. Le due applicazioni anno lo stesso dominio A e lo stesso codominio C,

inoltre [h (g f )](a) = h g f (a) = [(h g) f ](a) per ogni a A. 

Una applicazione f : A B si dice invertibile se esiste g : B A (detta inversa Applicazione


inversa
di f ) tale che
g f = idA , f g = idB .
Si dimostra che f e invertibile se e solo se e biunivoca, e che lapplicazione inversa se
esiste e anche unica. Linversa di f si indica con f 1 .
Esempio 1.3.11. Linversa dellapplicazione h : R+ R+ , h(x) = x2 , e lapplicazione

h1 : R+ R+ , h1 (y) = y.
Esempio 1.3.12. Lapplicazione idA e inversa di se stessa. Dallequazione (1.2) segue
infatti
idA idA = idA ,
come caso particolare quando A = B ed f = idA .
1
Ogni x A e immagine di se stesso, questo prova la suriettivita, e idA (x) = idA (y) se e solo se
x = y, questo prova liniettivita.

6
Lezione II

Strutture algebriche: gruppi, anelli, campi


Sommario: operazione di un insieme (interna e esterna); proprieta associativa e
commutativa; elemento neutro e inverso; gruppo; anello; campo. Esempi.

2.1 Operazioni di un insieme


Definizione 2.1.1. Sia S un insieme. Si dice operazione interna (binaria) di S Operazione
interna
una applicazione
f :SS S .
Il risultato f ((a, b)) delloperazioni tra due elementi a, b S si indica con a b.

Le operazioni elementari di somma e prodotto fra numeri sono operazioni degli in-
siemi N, Z, Q, R nel senso della definizione 2.1.1. La sottrazione e una operazione di
Z, Q, R, ma non e una operazione di N, poiche la sottrazione fra due numeri naturali
non e necessariamente un numero naturale (ad esempio, 2 7 = 5 e un intero ne-
gativo). La divisione non e una operazione di N o di Z (il rapporto fra due numeri
naturali/interi non e sempre un numero naturale/intero) e non e una operazione nep-
pure di Q o R poiche non si puo dividere per 0. La divisione e una operazione, ad
esempio, di Q r {0} ed R r {0}.

Esempio 2.1.2. Sia A un insieme e indichiamo con P(A) la collezione dei sottoinsiemi
di A; P(A) e detto insieme delle parti di A. Allora unione, intersezione e differenza Insieme
delle parti
fra insiemi sono operazioni interne di P(A), dette operazioni insiemistiche (vedere
def. 1.2.2).

Definizione 2.1.3. Una operazione di un insieme S si dice commutativa se per Proprieta


commutativa
ogni a, b S si ha
ab=ba,
2
e si dice associativa se per ogni a, b, c S si ha Proprieta
associativa

a (b c) = (a b) c .

In tal caso scriveremo semplicemente a b c per indicare il risultato delloperazione.


2
Unespressione del tipo a (b c) indica che bisogna svolgere prima loperazione fra le parentesi
tonde.

7
Somma e prodotto di due numeri godono della proprieta commutativa e associativa.
La divisione non e commutativa ne associativa. Infatti, ad esempio,

2 : 4 6= 4 : 2 e (16 : 4) : 2 6= 16 : (4 : 2)

Come esercizio, si dica se la sottrazione e commutativa e/o associativa.

Esercizio 2.1.4. Si studi loperazione di N definita da

a b = a + 7b .

Si dica se e commutativa e/o associativa.

Definizione 2.1.5. Siano K e S due insiemi. Una operazione esterna di S ad Operazione


esterna
operatori in K e una applicazione

K S S .

Limmagine della coppia (, a) K S si indica con a.

Vedremo esempi di operazioni esterne nelle lezioni successive.


Un insieme S dotato di operazioni (interne o esterne) 1 , . . . , n e detto struttura Struttura
algebrica
algebrica (ad n operazioni). Tale struttura algebrica si indichera con (S; 1 , . . . , n ).

Definizione 2.1.6. Sia (G, ) un insieme con una operazione interna. Un elemento
e G e detto elemento neutro rispetto a se per ogni a G si ha Elemento
neutro
ae=ea=a.

Scriveremo (G, , e) per indicare un insieme con una operazione interna ed un elemento
neutro rispetto a tale operazione.

Esempio 2.1.7. Il numero 0 e elemento neutro rispetto alla somma di due numeri, il
numero 1 e elemento neutro rispetto al prodotto di due numeri.

Proposizione 2.1.8. Sia (G, ) come sopra. Se esiste un elemento neutro rispetto a
, questo e unico.

Dimostrazione. Supponiamo che e ed e0 siano due elementi neutri di (G, ). Allora


e e0 = e0 poiche e e neutro; inoltre e e0 = e poiche anche e0 e neutro. Ne segue che
e = e0 . 

Definizione 2.1.9. Sia (G, , e) come sopra. Un elemento a G si dice sim-


metrizzabile (o invertibile) in G rispetto a se esiste un elemento b G tale Elementi
invertibili
che
ab=ba=e.
In tal caso b si dice simmetrico (o inverso) di a.

8
Esempio 2.1.10. Ogni elemento x di (Z, +, 0) e simmetrizzabile, ed il simmetrico e
il suo opposto x. Ogni elemento non nullo y di (Q, , 1) e simmetrizzabile, ed il suo
simmetrico e linverso y 1 .

Esercizio 2.1.11. Sia S := {0, 1}. Si definisca una operazione interna + di S


attraverso la seguente tavola di Cayley:

+ 0 1
0 0 1
1 1 1

dove la somma fra due elementi x e y si ottiene selezionando x sulla prima colonna,
y sulla prima riga, ed andando a leggere nella tabella lelemento nellintersezione fra
la riga di x e la colonna di y. In maniera simile si definisca una seconda operazione
interna di S attraverso la tavola:
0 1
0 0 0
1 0 1

Si dica se le operazioni sono associative, commutative e se possiedono un elemento


neutro. Si dica quali elementi sono simmetrizzabili (rispetto a + e ) e chi e il loro
simmetrico. Si noti che in questo esempio + non e lusuale somma fra numeri interi. 3

Dato un insieme con una operazione interna, qualunque sia la natura di questo
insieme, quando loperazione e denotata con il simbolo + viene detta somma o ad-
dizione (e diremo che stiamo usando una notazione additiva); se esiste lelemento
neutro, esso viene indicato con 0; il simmetrico di un elemento a viene indicato con a
e si dice opposto. Analogamente quando una operazione e denotata con il simbolo
viene detta moltiplicazione o prodotto (e diremo che stiamo usando una notazione
moltiplicativa); se esiste lelemento neutro, esso viene indicato con 1; il simmetrico di
un elemento a viene indicato con a1 o anche a1 e si dice inverso.

2.2 Gruppi, anelli, campi


Definizione 2.2.1. Sia G un insieme dotato di una operazione e di un elemento
neutro e G rispetto a . La struttura (G, , e) si dice gruppo se Gruppo

i) loperazione e associativa;
3
In questo esempio gli elementi di S si possono interpretare come stati di un interruttore (1 =
acceso / 0 = spento) o i due valori di una proposizione (1 = vera / 0 = falsa). Le due operazioni +
e vengono dette, rispettivamente, OR e AND e la loro implementazione tramite circuiti integrati e
alla base del funzionamento dei computer.

9
ii) ogni elemento di G e invertibile.

Se loperazione e commutativa, diremo che (G, , e) e un gruppo commutativo (o


abeliano 4 ).

Esempi di gruppi commutativi sono (Z, +, 0) e (Q r {0}, , 1).


Se A e un insieme, si puo considerare la collezione SA delle applicazioni biunivoche
f : A A con loperazione di composizione . Lequazione (1.2) (con B = A) ci
dice che idA e elemento neutro di (SA , ). Per la proposizione 1.3.10 la composizione
e associativa, ed ogni applicazione biunivoca e invertibile. Quindi (SA , , idA ) e un
gruppo. Tale gruppo e detto gruppo delle permutazioni di A 5 .

Proposizione 2.2.2. Sia (G, , e) un gruppo. Allora linverso di ogni elemento e unico.

Dimostrazione. Sia a un elemento di G. Supponiamo che b, b0 G siano due inversi di


a. Allora per definizione a b = e e b0 a = e. Per definizione di elemento neutro si ha

b0 (a b) = b0 e = b0 , (b0 a) b = e b = b ,

e dallassociativita del prodotto si evince che

b0 = b0 (a b) = (b0 a) b = b ,

ovvero i due inversi b e b0 sono uguali. 

Definizione 2.2.3. Sia (A, +, 0A , , 1A ) un insieme dotato di due operazioni interne,


che chiameremo somma (indicata con +) e prodotto (indicato con ), e di due
elementi 0A e 1A . Tale insieme si dice anello (con unita) se le seguenti proprieta sono Anello con
unita
soddisfatte:

1. (A, +, 0A ) e un gruppo commutativo;

2. il prodotto e associativo;

3. 1A e elemento neutro rispetto al prodotto;

4. per ogni a, b, c A si ha:

a (b + c) = a b + a c , (a + b) c = a c + b c .

La proprieta 4 e detta proprieta distributiva del prodotto rispetto alla somma.


Un anello si dice commutativo se il prodotto e commutativo.
4
In onore del matematico Niels Abel (18021829).
5
Si puo dimostrare che se A ha almeno 3 elementi, il gruppo (SA , , idA ) e non commutativo.

10
Un esempio di anello commutativo e (Z, +, 0, , 1).
I due elementi 0A e 1A dellanello A sono spesso indicati semplicemente con 0 e
1, quando questo non generi confusione; 0A e detto zero dellanello, e 1A e detto
unita dellanello. Si puo facilmente dimostrare, usando la proprieta distributiva, che
a 0A = 0A a = 0A per ogni a A. Con abuso di notazioni un anello (A, +, 0A , , 1A )
si puo anche indicare semplicemente con A, omettendo di scrivere le operazioni, lo zero
e lunita.
Anche (Q, +, 0, , 1) e un anello commutativo. Pero Q rispetto a Z ha una struttura
piu ricca: ogni elemento non nullo e invertibile rispetto al prodotto.

Definizione 2.2.4. Un anello commutativo K si dice campo se ogni elemento a 6= 0 Campo

e invertibile rispetto al prodotto.

Quindi Q e un campo. Altri esempi di campi sono linsieme R dei numeri reali e
linsieme C dei numeri complessi.
Vedremo un esempio di anello non commutativo piu avanti nel corso (esercizio
5.2.3).

11
Lezione III

Sistemi lineari: definizioni e prime proprieta


Sommario: generalita su equazioni lineari e sistemi (di equazioni) lineari; matrice dei
coefficienti, dei termini noti e completa; esame dei casi piu semplici; determinante di
una matrice 2 2. Esempi ed esercizi.

3.1 Premesse
Gia nel corso degli studi preuniversitari si sono incontrate equazioni di primo grado
(equazioni lineari) in una o piu incognite, quali ad esempio

3x = 6 ,

oppure
2x + y = 13 ,
e ci si e trovati a risolvere sistemi di equazioni lineari quali

x+y =0
xy =5

Le equazioni lineari sono tra le piu semplici equazioni (si confrontino, ad esempio, con
le equazioni di secondo grado, studiate al liceo) e costituiscono uno degli oggetti di
studio dellalgebra lineare.
Osserviamo subito che il numero delle equazioni e delle incognite sara da considerarsi
a priori arbitrario. I coefficienti delle incognite potranno assumere qualsiasi valore reale;
in particolare non escluderemo equazioni con coefficienti nulli, quali ad esempio 0x = 2
o 3x + 0y = 7.
Sebbene si possano considerare equazioni lineari a coefficienti (e soluzioni) in un
qualsiasi campo K (vedere ad es. [Pel1]), per semplificare la trattazione ci limiteremo
al caso K = R.
Notazione: chiameremo n-upla di elementi di S un elemento dellinsieme n-uple

Sn = S
| S
{z. . . S} .
n

Una n-upla (1 , . . . , n ) S n e quindi un insieme ordinato di n elementi di S.

12
3.2 Generalita sui sistemi lineari
Una equazione in n incognite x1 , . . . , xn a coefficienti in R si dice lineare se e della Equazioni
lineari
forma:
a1 x 1 + a2 x 2 + . . . + an x n = b , (3.1)
con ai R e b R. Una sua soluzione e una n-upla (1 , . . . , n ) Rn tale che,
sostituendo ciascun i ad xi in (3.1), lequazione si riduce ad una identita fra numeri
reali.

Esempio 3.2.1. Si verifica facilmente che (4, 1, 6) R3 e una soluzione dellequazione


3x1 + x2 2x3 = 1.

Un sistema di m equazioni lineari in n incognite e un insieme di equazioni Sistemi


lineari

a11 x1 + a12 x2


+ . . . + a1n xn = b1
a21 x1 + a22 x2

+ . . . + a2n xn = b2
: .. .. .. .. .. (3.2)


. . . . .

a x + a x
m1 1 m2 2 + . . . + amn xn = bm

con aij R e bi R.
Una soluzione del sistema e una n-upla (1 , . . . , n ) Rn che risolve simultanea-
mente tutte le m equazioni.

Esercizio 3.2.2. Si verifichi che le triple

(1, 0, 0) (3, 1, 0) (1, 1, 0) (5, 2, 0)

sono soluzioni del sistema 


x1 2x2 + x3 = 1
2x1 4x2 =2
Si determini almeno unaltra soluzione diversa dalle quattro elencate.

Chiamiamo soluzione generale del sistema linsieme di tutte le sue soluzioni. La Soluzione
generale
soluzione generale di un sistema e quindi un sottoinsieme S Rn .
Un sistema si dice compatibile (o risolubile) se ammette soluzioni; se invece non Sistemi
risolubili
ha soluzioni, il sistema si dira incompatibile (in questo caso S = ).

Esempio 3.2.3. Si considerino i tre sistemi


  
x1 + 3x2 = 0 x1 x2 = 0 x1 + x2 = 0
x1 + 3x2 = 1 x1 + x2 = 2 2x1 + 2x2 = 0

Il primo e incompatibile (se ammettesse soluzione, si avrebbe lassurdo 0 = 1); il


secondo ammette (1, 1) come unica soluzione; qualunque coppia (t, t) e soluzione del
terzo sistema, per ogni valore del parametro reale t R.

13
Vedremo che per un sistema compatibile si possono verificare solamente due casi:

i) la soluzione e unica;

ii) esistono infinite soluzioni.

In un tipico esercizio sui sistemi lineari si puo chiedere, dato un sistema, se e compatibile
e, in tal caso, determinare tutte le sue soluzioni. Vedremo in questa lezione come si
risolvono i casi piu semplici, e piu avanti nel corso come si risolve un sistema generale.
Il sistema in (3.2) si dice omogeneo se b1 = b2 = . . . = bm = 0. Un sistema Sistemi
omogenei
omogeneo di m equazioni (lineari) in n incognite ha quindi la forma


a11 x1 + a12 x2 + . . . + a1n xn = 0

a21 x1 + a22 x2 + . . . + a2n xn

= 0
: .. .. .. .. ..


. . . . .

a x + a x + ... + a x
m1 1 m2 2 mn n = 0

con aij R.
Un sistema omogeneo e sempre compatibile: infatti ammette almeno la soluzione Soluzione
banale
nulla (0, 0, . . . , 0) Rn (detta anche soluzione banale).

3.3 Matrici
I coefficienti del sistema (3.2) si possono scrivere in una tabella

a11 a12 . . . a1n
a21 a22 . . . a2n
Matrice dei
A := .
.. .. coefficienti
. . . .

am1 am2 . . . amn

detta matrice dei coefficienti del sistema (indichiamo con ai,j lelemento nellin-
tersezione della riga i con la colonna j).
Piu in generale, si chiama matrice (reale) di tipo m n una tabella di m righe e
n colonne i cui elementi sono numeri reali.
La matrice m 1
b1
b2

Matrice dei
B :=
..
termini noti
.
bm

14
si chiama matrice colonna dei termini noti, e la matrice m (n + 1)

a11 a12 . . . a1n b1
a21 a22 . . . a2n b2

Matrice
(A|B) = .. .. .. .. completa
. . . .

am1 am2 . . . amn bm

si dice matrice completa del sistema.


Un sistema e determinato univocamente dalla sua matrice completa.

Esercizio 3.3.1. Scrivere la matrice completa del sistema dellesercizio 3.2.2.

Soluzione. !
1 2 1 1
(A|B) =
2 4 0 2
X

Esercizio 3.3.2. Scrivere il sistema di equazioni la cui matrice completa e



1 1 2 4
(A|B) = 0 1 2 3

0 0 1 2

Soluzione.
x1 + x2 + 2x3 = 4

x2 2x3 = 3

x3 = 2

X

3.4 Operazioni elementari su un sistema lineare


Definizione 3.4.1. Due sistemi e 0 si dicono equivalenti, e si indica con 0 , Sistemi
equivalenti
se hanno le stesse soluzioni. Quindi:

0 S = S0 .

Ad esempio i due sistemi seguenti sono chiaramente equivalenti:


 
x+y =0 xy =1
xy =1 x+y =0

Le seguenti operazioni elementari trasformano qualsiasi sistema in uno equivalente: Operazioni


elementari
1. scambiare fra di loro due equazioni;

15
2. moltiplicare una equazione per un numero reale diverso da zero;

3. sostituire unequazione con quella ottenuta sommando ad essa un multiplo (non


nullo) di unaltra equazione del sistema.

Effettuare una qualsiasi successione di operazioni elementari su un sistema non cambia


le soluzioni del sistema stesso.
Moltiplicare ambo i membri di una equazione per 0 non diminuisce il numero delle
soluzioni del sistema, in quanto qualunque soluzione di un sistema lineare e anche
soluzione dellequazione 0 = 0.

3.5 Esame dei casi piu semplici di equazioni e sistemi lineari


Esaminiamo i casi piu semplici di equazioni e sistemi. La loro comprensione aiutera
nello studio di sistemi piu generali.
Nel caso di una equazione in una incognita la situazione e riassunta nel seguente
schema:




(1) se a 6= 0 la soluzione esite, e unica ed e data da a1 b.








(20 ) se b 6= 0 il sistema e incompatibile (per nessun






ax = b =


R si ha lidentita 0 = b se b 6= 0)


(2) se a = 0 allora





(200 ) se b = 0 lequazione e 0x = 0 ed ammette co-








me soluzione qualsiasi numero reale. La soluzione


generale (linsieme di tutte le soluzioni) e quindi R.

Il caso di una equazione in n incognite (con n 2) e simile. Sia

a1 x 1 + a2 x 2 + . . . + an x n = b .

Se tutti i coefficienti sono nulli lequazione diventa 0 = b: se anche b = 0, qualunque


n-upla (1 , . . . , n ) Rn e soluzione; se b 6= 0, allora lequazione e incompatibile. Se
almeno un coefficiente e non nullo, sia esso ad esempio a1 , possiamo assegnare valori
arbitrari (2 , . . . , n ) Rn1 alle incognite x2 , . . . , xn e ridurre lequazione ad una ad
una sola incognita
a1 x1 = b (a2 2 + . . . + an n ) ,
la quale ammette ununica soluzione data da
b (a2 2 + . . . + an n )
1 = .
a1

16
Le soluzioni sono quindi in corrispondenza biunivoca con linsieme Rn1 . Riassumendo:

Sia a1 x1 + a2 x2 + . . . + an xn = b. Allora:



(1) se (a1 , . . . , an ) 6= (0, . . . , 0) le soluzioni in corrispondenza biunivoca con i punti
Rn1 .




dellinsieme


0
(2 ) se b 6= 0 il sistema e incompatibile.




(2) se (a1 , . . . , an ) = (0, . . . , 0) allora

00
n
(2 ) se b = 0 ogni n-upla (1 , . . . , n ) R e






una soluzione.

Concludiamo questo studio preliminare considerando un sistema di 2 equazioni in


2 incognite: (
a11 x1 + a12 x2 = b1
:
a21 x1 + a22 x2 = b2
Effettuiamo le seguenti operazioni sul sistema:

1. moltiplichiamo la prima equazione per a22 , la seconda per a12 e sommiamo


membro a membro;

2. moltiplichiamo la prima equazione per a21 , la seconda per a11 e sommiamo


membro a membro.

Il risultato di queste operazioni e il sistema:


(
(a11 a22 a12 a21 )x1 = a22 b1 a12 b2
0 :
(a11 a22 a12 a21 )x2 = a11 b2 a21 b1

I sistemi e 0 non sono necessariamente equivalenti, poiche non abbiamo fatto ancora
ipotesi sui coefficienti, e nelle operazioni ai punti 1 e 2 potremmo aver moltiplicato per
zero. Quello che possiamo dire per certo e che tutte le soluzioni di sono anche
soluzioni di 0 , ovvero S S0 .
Ciascuna equazione di 0 e una equazione in una incognita: per ciascuna di esse
vale quindi la discussione nel primo schema di questa sezione. In aggiunta, le incognite
x1 e x2 in queste due equazioni moltiplicano lo stesso coefficiente,

a11 a22 a12 a21 .

Per le due equazioni si verificheranno quindi simultaneamente i casi (1) o (2) dello
schema citato. Studiamo ora il primo caso, mentre daremo il risultato nel secondo caso
senza dimostrazione.

17
Se a11 a22 a12 a21 6= 0 la soluzione della prima equazione in 0 e unica e data da
a22 b1 a12 b2
1 = ,
a11 a22 a12 a21
e la soluzione della seconda equazione e unica e data da
a11 b2 a21 b1
2 = .
a11 a22 a12 a21
Il sistema 0 ammette quindi come unica soluzione la coppia (1 , 2 ) definita qui sopra.
Siccome S S0 , il sistema o non ammette soluzioni, oppure ammette come unica
soluzione la stessa di 0 . Si verifica per sostituzione che vale il secondo caso: il sistema
da cui siamo partiti ammette come unica soluzione la coppia (1 , 2 ) definita qui
sopra.
Unanalisi di tutti i casi possibili e riassunta nel seguente schema.

(
a11 x1 + a12 x2 = b1
Si consideri il sistema . Allora:
a21 x1 + a22 x2 = b2


(1) se a11 a22 a12 a21 6= 0: la soluzione esiste, e unica ed e data dalla coppia:

 
a22 b1 a12 b2 a11 b2 a21 b1




(1 , 2 ) = ,
a11 a22 a12 a21 a11 a22 a12 a21










(20 ) se (a22 b1 a12 b2 , a11 b2 a21 b1 ) 6= (0, 0)






il sistema e incompatibile.








(200 ) se a22 b1 a12 b2 = a11 b2 a21 b1 = 0 il







sistema e equivalente al sistema di una sola

(2) se a11 a22 a12 a21 = 0 allora



equazione in due incognite:









a11 x1 + a12 x2 = b1









e la sua soluzione e ricondotta a quella di un






sistema di una sola equazione.

Data una matrice 2 2:  


a b
A=
c d
lespressione

a b
= ad bc
c d

e detta determinante della matrice A. Il determinante della matrice A si puo anche Determinante

indicare con la notazione |A| oppure con det A .

18
Esempio 3.5.1. Si verifica facilmente che

1 7 0 4 2 3

2 = 5 (14) = 19 , = 4 , =63=3.
5 1 3 1 3

Utilizzando la definizione di determinante, lo schema relativo alla risoluzione di


sistemi di due equazioni in due incognite si puo scrivere in maniera compatta, notando
ad esempio che il termine a11 a22 a12 a21 e il determinante della matrice dei coefficienti.
Nel linguaggio delle matrici, abbiamo:

Si consideri il sistema lineare la cui matrice completa e


!
a11 a12 b1
(A|B ) =
a21 a22 b2

Allora:
6 0 esiste ed e unica la soluzione (1 , 2 ) R2 , ed e data da:
(1) se |A| =

b a a
11 b1

1 12

b2 a22 a21 b2
1 = 2 =
|A| |A|

(2) se |A| = 0 allora:



b a a b1
1 12 11
(20 ) se 6= 0 o 6= 0 il sistema e incompatibile.

b2 a22 a21 b2

b a a
11 b1

1 12
(200 ) se = = 0 il sistema e equivalente al sistema di una sola


b2 a22 a21 b2

equazione in due incognite: a11 x1 + a12 x2 = b1 .

3.6 Esercizi
Esercizio 3.6.1. Si consideri lequazione in una incognita 1 x = 3x + x . Si scriva
nella forma normale ax = b .

Soluzione. Raccogliendo i coefficienti si ottiene 5x = 1 . X

Esercizio 3.6.2. Si scriva in forma normale lequazione x + 2x = 3x.

Soluzione. La forma normale e 0x = 0 . X

19
Esercizio 3.6.3. Si consideri la matrice completa:

1 3 7 5 5
6 4 0 3 2
(A|B) =


0 0 0 0 2
1 0 1 2 11

Dire se il sistema associato e compatibile.

Soluzione. Il sistema e incompatibile, poiche la terza equazione e 0 = 2. X

Esercizio 3.6.4. Scrivere la soluzione generale del sistema



3x1 + x2 + 2x3 = 7

x2 x3 = 1

x3 = 5

Soluzione. Sia (1 , 2 , 3 ) R3 una soluzione.


Dalla terza equazione si vede che deve essere 3 = 5.
Sostituendo questo valore (al posto di x3 ) nelle prime due equazioni si ottiene
(
3x1 + x2 + 10 = 7
x2 5 = 1

ovvero, in forma normale, (


3x1 + x2 = 3
x2 = 6
Ora dalla seconda equazione si vede che deve essere 2 = 6.
Sostituendo questo valore nella prima equazione si ottiene

3x1 + 6 = 3

ovvero in forma normale 3x1 = 9, da cui si ricava la soluzione 1 = 93 = 3.


Il sistema ammette quindi ununica soluzione, data dalla terna (3, 6, 5). X

La tecnica di risoluzione del precedente esercizio e detta per sostituzione, e ve-


dremo piu avanti nel corso come si applica ad un sistema generale di m equazioni in n
incognite.

20
Lezione IV

Spazi vettoriali e sottospazi


Sommario: spazi vettoriali: definizione e proprieta elementari; spazi delle n-uple e
delle matrici (reali); sottospazi: intersezione, somma e somma diretta. Esempi.

4.1 Introduzione
Abbiamo visto nella lezione precedente che un sistema di equazioni lineari in n incognite
e determinato dalla sua matrice completa, e che una soluzione e una n-upla di numeri
reali. Per proseguire con lo studio di sistemi di equazioni lineari, e fondamentale
approfondire le proprieta di n-uple e matrici. Ricordiamo che

Rn = X = (x1 , x2 , . . . , xn ) : x1 , x2 , . . . , xn R .


Lelemento xi e detto componente i-esima di X (x1 e la prima componente, x2 la Componente


i-esima
seconda, etc.). In questo contesto, un numero k R e detto uno scalare.
Le n-uple possono essere sommate fra di loro e moltiplicate per uno scalare. Sia
Y = (y1 , y2 , . . . , yn ) Rn . Definiamo somma e moltiplicazione per uno scalare come
segue:

X + Y := (x1 + y1 , x2 + y2 , . . . , xn + yn ) , Operazioni
di Rn
kX := (kx1 , kx2 , . . . , kxn ) .

Sia
n-upla
0Rn := (0, 0, . . . , 0)
nulla

ln-upla nulla. Si puo verificare che

Proposizione 4.1.1. Valgono le seguenti proprieta:

i) (Rn , +, 0Rn ) e un gruppo commutativo, con elemento neutro 0Rn e opposto

X := (x1 , x2 , . . . , xn )

ii) k, k 0 R e X, Y Rn si ha

1. (k + k 0 )X = kX + k 0 X
2. k(X + Y ) = kX + kY
3. k(k 0 X) = (kk 0 )X
4. 1X = X

21
Dimostrazione. La dimostrazione e una semplice verifica. Siano X, Y, Z tre n-uple.
Allora:

(X + Y ) + Z = (x1 + y1 , x2 + y2 , . . . , xn + yn ) + (z1 , z2 , . . . , zn )

= (x1 + y1 ) + z1 , (x2 + y2 ) + z2 , . . . , (xn + yn ) + zn

= x1 + (y1 + z1 ), x2 + (y2 + z2 ), . . . , xn + (yn + zn )
= (x1 , x2 , . . . , xn ) + (y1 + z1 , y2 + z2 , . . . , yn + zn )
= X + (Y + Z)

dove la terza uguaglianza segue dallassociativita della somma di numeri reali. Abbiamo
dimostrato che + e una operazione associativa di Rn . Si verifica facilmente che e
commutativa:

X + Y = (x1 + y1 , x2 + y2 , . . . , xn + yn )
= (y1 + x1 , y2 + x2 , . . . , yn + xn ) = Y + X

poiche e commutativa la somma di numeri reali. Chiaramente 0Rn e elemento neutro:

X + 0Rn = (x1 + 0, x2 + 0, . . . , xn + 0)
= (x1 , x2 , . . . , xn ) = X ,

e per la proprieta commutativa si ha anche 0Rn + X = X + 0Rn = X. Per finire notiamo


che

X + (X) = (x1 x1 , x2 x2 , . . . , xn xn ) = (0, 0, . . . , 0) = 0Rn

e per la proprieta commutativa (X) + X = X + (X) = 0Rn . Quindi ogni X e


simmetrizzabile e il simmetrico (lopposto in notazione additiva) e proprio la n-upla
X. Questo completa la prova del punto i).
Per ogni k, k 0 R si ha

(k + k 0 )X = (k + k 0 )x1 , (k + k 0 )x2 , . . . , (k + k 0 )xn




= (kx1 + k 0 x1 , kx2 + k 0 x2 , . . . , kxn + k 0 xn )


= (kx1 , kx2 , . . . , kxn ) + (k 0 x1 , k 0 x2 , . . . , k 0 xn )
= kX + k 0 X ,

k(X + Y ) = k(x1 + y1 ), k(x2 + y2 ), . . . , k(xn + yn )
= (kx1 + ky1 , kx2 + ky2 , . . . , kxn + kyn )
= (kx1 , kx2 , . . . , kxn ) + (ky1 , ky2 , . . . , kyn )
= kX + kY ,
k(k 0 X) = k(k 0 x1 ), k(k 0 x2 ), . . . , k(k 0 xn )


22
= (kk 0 )x1 , (kk 0 )x2 , . . . , (kk 0 )xn


= (kk 0 )X ,
1X = (1 x1 , 1 x2 , . . . , 1 xn )
= (x1 , x2 , . . . , xn ) = X .

Questo completa la prova del punto ii). 

Un insieme con due operazioni che soddisfano proprieta analoghe a quelle della
proposizione 4.1.1 si dice spazio vettoriale (reale). La definizione di spazio vettoriale
si puo dare sostituendo ad R un qualsiasi campo K. Per semplicita di trattazione ci
limitiamo al caso K = R, sebbene non ci sia alcuna sostanziale differenza con il caso
generale.

Definizione 4.1.2. Un insieme non vuoto V e detto spazio vettoriale (reale) se in Spazio
vettoriale
V sono definite una operazione interna di somma

s:V V V ,

denotata con s(v, v0 ) = v + v0 , ed una operazione esterna p di prodotto per uno


scalare:
p:RV V ,
denotate con la semplice giustapposizione p(k, v) = kv, soddisfacenti le proprieta
seguenti:

i) (V, +, 0V ) e un gruppo commutativo, il cui elemento neutro indichiamo con 0V ;

ii) k, k 0 R e v, v0 V si ha

1. (k + k 0 )v = kv + k 0 v
2. k(v + v0 ) = kv + kv0
3. k(k 0 v) = (kk 0 )v
4. 1v = v

Lelemento 0V sara indicato semplicemente con 0, quando questo non generi confusione.
Le proprieta 1 e 2 si dicono proprieta distributive (del prodotto rispetto alla somma).
Gli elementi di V si dicono vettori e saranno indicati in grassetto. Lelemento 0 si Vettori

dira vettore nullo, e lopposto di un vettore v sara indicato con v. Scriveremo

v v0 = v + (v0 ) Differenza
di vettori

per indicare la somma di un vettore v con lopposto del vettore v0 .

23
Osservazione 4.1.3. Segue dalla proposizione 4.1.1 che Rn e uno spazio vettoriale.
Notiamo che un elemento (x1 , x2 ) R2 si puo identificare con un punto P del piano Vettori
geometrici
cartesiano, di cui x1 e x2 sono le coordinate (in particolare 0R2 = O e lorigine del
sistema di riferimento cartesiano); la stessa coppia (x1 , x2 ) si puo anche identificare
#
con il segmento orientato OP (vettore geometrico applicato nellorigine), e la somma
per componenti (x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 ) corrisponde alla ben nota regola
del parallelogramma, studiata alle scuole superiori (e ripetuta nel corso di Fisica Gene-
rale 1). Un discorso simile vale per R3 , i cui elementi si possono identificare con punti
dello spazio tridimensionale.

Esempio 4.1.4. Sia S un insieme. Le funzioni f, g : S R con operazioni Spazi di


funzioni

(f + g)(x) = f (x) + g(x) , (kf )(x) = k f (x) ,

formano uno spazio vettoriale, indicato con Fun(S, R). Si lascia la verifica come
esercizio.

Esempio 4.1.5. Indichiamo con Rm,n linsieme delle matrici m n. Siano A = (aij ) Matrici
mn
e B = (bij ) due matrici di elementi aij e, rispettivamente, bij (con i = 1, . . . , m e
j = 1, . . . , n). Rm,n e uno spazio vettoriale con operazioni

A + B := (aij + bij ) , kA := (kaij ) .

Lelemento neutro rispetto alla somma e la matrice



0 0 ... 0
0 0 . . . 0

. .. ..
.
. . .

0 0 ... 0

con tutti gli elementi nulli. Lopposto di A e la matrice A := (aij ) con tutti gli
elementi cambiati di segno. La verifica che si tratta di uno spazio vettoriale procede in
maniera completamente analoga a quella per Rn (con lunica differenza che gli elementi
invece di essere disposti in una riga sono disposti per righe e per colonne), ed e lasciata
agli studenti come esercizio.

4.2 Proprieta elementari


Proposizione 4.2.1 (Legge di semplificazione della somma). Legge di
semplificazione
della somma
v + v0 = v + v00 v0 = v00 .

24
Dimostrazione. Limplicazione e ovvia, proviamo limplicazione . Per defini-
zione di spazio vettoriale ogni elemento possiede un opposto. Aggiungendo v ambo
i membri delluguaglianza di sinistra, dallassociativita del prodotto e dalla definizione
di opposto segue che 0 + v0 = 0 + v00 , ovvero v0 = v00 (per definizione di elemento
neutro). 

Proposizione 4.2.2 (Legge di annullamento del prodotto). Legge di


annullamento
kv = 0 k=0 o v=0. del prodotto

Dimostrazione. Dobbiamo dimostrare le tre seguenti affermazioni:


1. 0v = 0 v V ,
2. k0 = 0 k R,
3. se k 6= 0 e v 6= 0 allora kv 6= 0.
Dalla proprieta distributiva segue che:
0v = (0 + 0)v = 0v + 0v ,
che si puo scrivere nella forma 0v + 0 = 0v + 0v (0 e elemento neutro). Dalla legge di
semplificazione della somma segue che 0 = 0v. Questo prova il punto 1.
Analogamente da k0 = k(0 + 0) = k0 + k0 segue il punto 2.
Per ogni k 6= 0, abbiamo
v = 1v = (k 1 k)v = k 1 (kv) .
Se kv = 0, dalla precedente uguaglianza si ricava v = k 1 (kv) = k 1 0 = 0. Questo
prova il punto 3 (se k e v sono diversi da zero, kv non si puo annullare). 

Usando lunicita dellopposto, si puo facilmente dimostrare che per ogni k, v si ha:
(k)v = k(v) = (kv) .
Proposizione 4.2.3. Se V e V 0 sono spazi vettoriali, allora V V 0 e uno spazio
vettoriale con operazioni Prodotto
cartesiano
(v, v0 ) + (w, w0 ) := (v + w, v0 + w0 ) , k(v, v0 ) := (kv, kv0 ) . di spazi
vettoriali
Lelemento neutro e (0V , 0V 0 ) e lopposto di (v, v0 ) e (v, v0 ) = (v, v0 ).
Dimostrazione. La dimostrazione e analoga a quella per Rn . Ad esempio, dalla com-
mutativita della somma di V e V 0 segue la commutativita della somma di V V 0 :
(v, v0 ) + (w, w0 ) = (v + w, v0 + w0 ) = (w + v, w0 + v0 ) = (w, w0 ) + (v, v0 ) .
Dallassociativita della somma di V e V 0 segue lassociativita della somma di V V 0 ,
e cos per tutte le altre proprieta che definiscono uno spazio vettoriale. 

Osserviamo che come spazio vettoriale Rn e il prodotto cartesiano di n copie di R.

25
4.3 Sottospazi
Definizione 4.3.1. Sia (G, ) un insieme con una operazione. Un sottoinsieme non Chiusura
rispetto a
vuoto G0 G si dice chiuso rispetto alloperazione se unoperazione

a b G0 a, b G0 .

Ad esempio Z R e chiuso rispetto alloperazione di somma, ma Zr{0} Qr{0}


non e chiuso rispetto alloperazione di divisione.

Definizione 4.3.2. Sia V uno spazio vettoriale, con operazioni s e p, e W V un


sottoinsieme non vuoto. Diremo che W e un sottospazio vettoriale di V se, rispetto Sottospazi
vettoriali
alle stesse operazioni p, s di V , e uno spazio vettoriale.

In queste note, un sottospazio vettoriale verra chiamato semplicemente sottospazio.


Esistono due criteri elementari, descritti nei punti b) e c) della proposizione seguente,
per stabilire quando un sottoinsieme e un sottospazio.

Proposizione 4.3.3. Sia V uno spazio vettoriale e W V un sottoinsieme non vuoto.


Le seguenti condizioni sono equivalenti:

a) W e un sottospazio di V ;

b) k R e w, w0 W si ha

b1) kw W ,
b2) w + w W ;

c) k, k 0 R e w, w0 W si ha kw + k 0 w0 W .

La condizione ii) ci dice che W e chiuso rispetto alle operazioni di V .

Dimostrazione. a) b) per definizione di spazio vettoriale. Proviamo che b) a).


Assumiamo per ipotesi che a) sia soddisfatta. La proprieta associativa e commutativa
valgono in V , quindi valgono anche in W . Similmente, le proprieta ii) della definizione
4.1.2 valgono in V , quindi valgono anche in W . Per provare che W e uno spazio
vettoriale rimane da dimostrare che contiene il vettore nullo e linverso di ogni elemento.
Per ipotesi kw W per ogni k R e w W : prendendo k = 0 si prova che
0 = 0w W ; prendendo k = 1 si prova che w = (1)w W . Quindi a) b).
Daltronde dalla c) prendendo k 0 = 0 si ottiene b1) e prendendo k = k 0 = 1 si
ottiene b2). Quindi c) b). Limplicazione opposta e ovvia: dalla b1) kw W e
k 0 w0 W per ogni k, k 0 , w, w0 ; dalla b2) v+v0 W per ogni v, v0 W , e in particolare
prendendo v = kw e v0 = k 0 w0 si giunge alla tesi kw + k 0 w0 W . 

26
Se V e uno spazio vettoriale, due sottospazi banali sono dati da {0} e da V stesso. Sottospazi
banali
Che V sia un sottospazio e ovvio. Che lo sia {0} e una semplice verifica: per ogni
k R e w, w0 {0} (quindi w = w0 = 0) si ha kw = 0 (legge di annullamento del
prodotto) e w + w0 = 0 (per la proprieta dellelemento neutro). Quindi il criterio b)
della proposizione 4.3.3 {0} e sottospazio di V .

Esempio 4.3.4. Molti esempi interessanti si incontrano nei corsi di analisi. Sia Sottospazi
di funzioni
Fun(R, R) lo spazio vettoriale delle funzioni R R (cf. esempio 4.1.4 nel caso S = R).
Numerose classi di funzioni sono chiuse rispetto alla somma e moltiplicazione per uno
scalare, e formano quindi sottospazi di Fun(R, R). Fra queste ricordiamo: le funzioni
continue, derivabili, le funzioni di classe C n (con n 0), le funzioni di classe C .

Esempio 4.3.5. Un esempio importante e dato dalle funzioni polinomiali (da non Funzioni
polinomiali
confondere con i polinomi). Una funzione p : R R si dice polinomiale (di ordine
n) se e della forma

p(x) = a0 + a1 x + a2 x2 + . . . + an xn

con a0 , a1 , . . . , an R. Si verifica facilmente (raccogliendo i coefficienti) che rispetto


alle operazioni definite nellesempio 4.1.4 si ha

(p + p0 )(x) = (a0 + a00 ) + (a1 + a01 )x + (a2 + a02 )x2 + . . .


(kp)(x) = ka0 + (ka1 )x + (ka2 )x2 + . . .

per ogni p(x) = a0 + a1 x + a2 x2 + . . . + an xn e p0 (x) = a00 + a01 x + a02 x2 + . . . + a0m xm .


Poiche il risultato delle due operazioni e ancora una funzione polinomiale, per il criterio
b) della proposizione 4.3.3 tali funzioni formano un sottospazio di Fun(R, R).

Un esempio importante di sottospazio si incontra nello studio dei sistemi lineari.

Proposizione 4.3.6. Sia S linsieme delle soluzioni di un sistema di m equazioni Soluzioni di


un sistema
lineari in n incognite: lineare

ai1 x1 + ai2 x2 + . . . + ain xn = bi i = 1, . . . , m . (4.1)

S Rn e un sottospazio se e solo se il sistema e omogeneo.

Dimostrazione. Un sottospazio contiene sempre il vettore nullo. Ln-upla nulla e solu-


zione di solo se bi = 0 i = 1, . . . , m, ovvero e omogeneo. Questo prova che la
condizione e necessaria.
Assumiamo ora che sia omogeneo, e mostriamo che per S vale il criterio b) della
proposizione 4.3.3. Sia k R, e siano Y = (y1 , . . . , yn ) e Z = (z1 , . . . , zn ) due soluzioni

27
del sistema. Dimostriamo che kY e Y + Z sono ancora soluzioni. Sostituendo kyj ad
xj nellequazione (4.1) (per ogni j = 1, . . . , m) si trova

ai1 (ky1 ) + ai2 (ky2 ) + . . . + ain (kyn ) =


= kai1 y1 + kai2 y2 + . . . + kain yn =
= k(ai1 y1 + ai2 y2 + . . . + ain yn ) = 0

per ogni i = 1, . . . , m. Lultima uguaglianza segue dal fatto che per ipotesi Y e soluzione
di . Questo prova che kY e ancora soluzione di .
In maniera analoga sostituendo yj + zj ad xj nellequazione (4.1) si trova

ai1 (y1 + z1 ) + ai2 (y2 + z2 ) + . . . + ain (yn + zn ) =


= (ai1 y1 + ai2 y2 + . . . + ain yn ) + (ai1 z1 + ai2 z2 + . . . + ain zn ) = 0 + 0 = 0

dove si e usata lipotesi che Y e Z risolvono . Questo prova che anche Y + Z e


soluzione di . 

4.4 Operazioni su sottospazi


Le proprieta che seguono sono elementari e si dimostrano, come al solito, usando uno dei
criteri della proposizione 4.3.3. Per la dimostrazione si veda il capitolo III di [BruLan]
(prop. 2.3 e 2.5). Siano W1 e W2 sottospazi di V . Allora Intersezione
e somma di
sottospazi
1. W1 W2 e un sottospazio di V .

2. W1 + W2 := v = w1 + w2 : w1 W1 , w2 W2 e un sottospazio di V .

W1 + W2 e detto somma di W1 e W2 . Lunione W1 W2 in generale non e uno spazio


vettoriale. Il piu piccolo sottospazio di V che contiene W1 W2 e W1 + W2 .
Osserviamo che linsieme S delle soluzioni di un sistema lineare omogeneo in n
incognite e lintersezione dei sottospazi di Rn dati dalle soluzioni di ciascuna equazione
del sistema.

Definizione 4.4.1. La somma W1 + W2 si dice diretta, e si indica con W1 W2 , se Somma


diretta
ogni v W1 + W2 puo essere decomposto in un solo modo come somma v = w1 + w2
di w1 W1 e w2 W2 .

Proposizione 4.4.2. W1 + W2 e una somma diretta se e solo se W1 W2 = {0}.

Dimostrazione. Sia v = w1 + w2 = w10 + w20 , con w1 , w10 W1 e w2 , w20 W2 . Allora

u := w1 w10 = w20 w2 .

28
Poiche per definizione di sottospazio w1 w10 W1 e w2 w20 W2 , il vettore u e
elemento sia di W1 che di W2 , ovvero u W1 W2 .
Se W1 W2 = {0}, abbiamo u = w1 w10 = w20 w2 = 0, ovvero w1 = w10 ,
w2 = w20 e la decomposizione di v e unica. Quindi la somma e diretta.
Viceversa sia W1 W2 6= {0} e sia u un elemento non nullo di W1 W2 . Allora
0 = u u = 0 + 0 sono due decomposizioni differenti dello stesso elemento 0 V e la
somma non e diretta. 

Esempio 4.4.3. Sia U = {(x, y) R2 : x = 0} lasse verticale del piano cartesiano


e W = {(x, y) R2 : y = 0} lasse orizzontale. Allora U W = {(0, 0)} e la somma
U + W e diretta. Ogni vettore di R2 si puo scrivere come somma (x, y) = (x, 0) + (0, y),
dove (x, 0) W e (0, y) U ; quindi U + W = R2 . Notiamo che U W non e
uno spazio vettoriale, in quanto (1, 0) W U W , (0, 1) U U W , ma
(1, 0) + (0, 1) = (1, 1)
/ U W.

29
Lezione V

Esercitazione su vettori e matrici


Sommario: esercizi su spazi vettoriali e calcolo di determinanti; determinante matrici
3 3 (regola di Sarrus); sviluppo di Laplace del determinante di una matrice n n.

5.1 Esercizi su spazi e sottospazi


Esercizio 5.1.1 (2.8.1 di [Pel1]). Dire quali dei seguenti insiemi sono sottospazi di R2 :

1. E1 = {(x, y) R2 | x + y = 0}
2. E2 = {(x, y) R2 | y = 4}
3. E3 = {(x, y) R2 | y = x2 }
4. E4 = {(x, y) R2 | x y = 0}

Soluzione. E1 ed E4 sono insiemi di soluzioni di sistemi lineari omogenei: per la


Prop. 4.3.6 sono quindi un sottospazio di R2 . E2 sono le soluzioni di un sistema lineare
non omogeneo: quindi per la Prop. 4.3.6 E2 non e sottospazio di R2 . Infine, presi due
vettori (1, 1) e (1, 1) di E3 , la loro somma (0, 2) non e in E3 : dal criterio b2) della
Prop. 4.3.3 segue che E3 non e sottospazio di R2 . X

Si puo verificare facilmente che un insieme E = {(x, y) R2 : y = f (x)} e un sottospa-


zio di R2 se e solo se: E = {0, 0}, E = R2 oppure E e una retta passante per lorigine.
Il grafico degli insiemi dellesercizio 5.1.1 e in figura 1. Dal grafico si vede che E2 non
e un sottospazio perche non passa per lorigine ((0, 0) / E2 ), E3 non e un sottospazio
perche non e una retta (e una parabola).

Figura 1: E1 e in verde, E2 in arancione, E3 in rosso, E4 in blu.

30
Esistono numerosi siti internet che permettono di disegnare il grafico di una funzione.
Ad esempio: http://fooplot.com e http://graph-plotter.cours-de-math.eu.

Esercizio 5.1.2 (2.8.3 di [Pel1]). Sia


( )
f :RR
V := : a, b R .
x 7 a cos x + b sin x

Si verifichi che V e un sottospazio di Fun(R, R).

Soluzione. Dati due qualsiasi elementi f (x) = a cos x+b sin x e f 0 (x) = a0 cos x+b0 sin x
di V , e due scalari k, k 0 R raccoglientdo i coefficienti troviamo

(kf + k 0 f 0 )(x) = kf (x) + k 0 f 0 (x) = k(a cos x + b sin x) + k 0 (a0 cos x + b0 sin x)
= (ka + k 0 a0 ) cos x + (kb + k 0 a0 ) sin x .

Essendo una combinazione di cos x e sin x, kf + k 0 f 0 V e dal criterio c) della


Prop. 4.3.3 segue che V e un sottospazio di Fun(R, R). X

Esercizio 5.1.3 (2.8.4 di [Pel1]). Dire se le funzioni biunivoche R R formano un


sottospazio di Fun(R, R).

Soluzione. Condizione necessaria affinche un sottoinsieme di uno spazio vettoriale sia


un sottospazio e che contenga il vettore nullo. Nel caso di Fun(R, R), il vettore nullo e
la funzione identicamente nulla, ovvero la funzione
Funzione
f :RR, f (x) = 0 x . identicamente
nulla

Tale funzione non e iniettiva ne suriettiva, quindi non e biunivoca. Pertanto le funzioni
biunivoche non formano un sottospazio di Fun(R, R). X

Esercizio 5.1.4 (2.8.6 di [Pel1]). In R3 si considerino i sottospazi vettoriali

U = {(x, y, z) R3 : x + y = 4z} , W = {(a, 2b, 0) R3 : a, b R} .

Si verifichi che U W non e un sottospazio di R3 .

Soluzione. Usiamo il criterio b2) della Prop. 4.3.3. Dobbiamo trovare due vettori di
U W la cui somma non e contenuta in U W . Si prenda ad esempio (2, 2, 1) U
U W e (1, 0, 0) W U W . La loro somma (3, 2, 1) non e elemento di W (la terza
componente non e zero) ne di U , in quanto x + y = 3 + 2 = 5 6= 4z = 4. X

31
5.2 Esercizi su matrici 2 2
Il determinante di una matrice 22 e stato definito a pagina 18. Una regola mnemonica
per ricordare la definizione e illustrata nella figura qui sotto:

Il determinante della matrice si ottiene prendendo, con il segno +, il prodotto degli


elementi sulla diagonale principale (in rosso) e sottraendo ad esso il prodotto degli
elementi sulla diagonale opposta (in blu).

Esercizio 5.2.1. Calcolare il determinante delle matrici:


   
2 1 5 5
A= , B= .
4 7 2 4

Soluzione. |A| = 2 7 1 4 = 10, |B| = 5 4 5 2 = 10. Notiamo che matrici differenti


possono avere lo stesso determinante. X

Esercizio 5.2.2 (simile a 3.6.4 di [Pel1]). Dire se per ogni A, B R2,2 vale al proprieta
|A + B| = |A| + |B| (linearita del determinante).

Soluzione. Evidentemente tale proprieta non e valida. Un controesempio elementare e


dato da    
1 0 1 0
A= , B= .
0 1 0 1
In questo caso A + B = 0, quindi |A + B| = 0. Ma |A| = |B| = 1 e |A| + |B| = 2. X

Esercizio 5.2.3 (simile a 1.8.49 di [Pel1]). Nellinsieme delle matrici 2 2 e definita


una operazione interna di prodotto come segue:
 0 0   0 Prodotto
aa + bc0 ab0 + bd0
 
a b a b
= . di matrici
c d c0 d 0 ca0 + dc0 cb0 + dd0 22

Provare che tale operazione: possiede un elemento neutro, che indicheremo con I2 ; non
e commutativa; e associativa. Dire se la struttura algebrica (R2,2 , , I2 ) e un gruppo.
Dire se (R2,2 , +, 0R2,2 , , I2 ) e un anello; dire se esiste linversa di ogni matrice non nulla.

Soluzione. Lelemento neutro esiste ed e dato dalla matrice


 
1 0 Matrice
I2 = , identica
0 1

32
detta matrice identica di ordine 2, come si puo verificare con una semplice sostitu-
zione. Anche lassociativita del prodotto e una semplice verifica. Il prodotto non e
commutativo, infatti prese ad esempio
   
0 1 0 0
A= , B= ,
0 0 1 0
si ha    
1 0 0 0
AB = 6= BA = .
0 0 0 1
(R2,2 , , I2 ) non e un gruppo, in quanto la matrice nulla non e invertibile. Infatti
C 0R2,2 = 0R2,2 per ogni C R2,2 : quindi non esiste matrice C tale che C 0R2,2 = I2 .
(R2,2 , +, 0R2,2 , , I2 ) e un anello: guardando la definizione 2.2.3, vediamo che la
proprieta 1 e soddisfatta poiche R2,2 e uno spazio vettoriale; la 2 e soddisfatta; esiste
un elemento neutro rispetto al prodotto, che qui abbiamo indicato con I2 ; rimangono
le due proprieta distributive al punto 4, che si possono facilmente verificare usando la
definizione di prodotto fra matrici.
Per finire, esistono matrici diverse da zero che non sono invertibili. Sia ad esempio
0
A la matrice  
0 1 0
A = (5.1)
0 0
e sia B 0 una matrice generica:
 
0 a b
B = .
c d
Evidentemente    
0 0 a 0 1 0
BA = 6= I2 =
c 0 0 1
qualunque siano i valori di a, b, c, d. Non esiste dunque nessuna matrice B 0 che sia
inversa della matrice A0 definita in (5.1). X

Le matrici 2 2 sono il primo esempio di anello non commutativo incontrato in questo


corso. Notiamo che la matrice A0 in (5.1) ha determinante nullo; vedremo che questa
e una proprieta generale delle matrici n n: una matrice n n e invertibile se e solo
se il suo determinante e diverso da zero.

5.3 Determinante di una matrice 3 3


In questa sezione vedremo come si calcola il determinante di una matrice 3 3, e nella
successiva di una matrice n n per n arbitrario. Non daremo la definizione formale
di determinante (chi fosse interessato la puo trovare nella sezione 3.1 di [Pel1]), ma dei
metodi concreti per il suo calcolo.

33
Sia
a11 a12 a13
A = a21 a22 a23 .

a31 a32 a33


Un metodo mnemonico per il calcolo di |A| e la regola di Sarrus6 , che consiste nello Regola di
Sarrus
scrivere la matrice 3 5 ottenuta da A ripetendo le prime due colonne, come illustrato
nella seguente figura

Quindi si prendono i prodotti degli elementi nelle diagonali rosse con segno +, i prodotti
degli elementi nelle diagonali blu con segno , e si fa la somma.
Una regola mnemonica alternativa consiste nel disegnare le due diagonali e i quattro
triangoli nella figura seguente:

Quindi si prendono i prodotti degli elementi nelle figure rosse con segno +, i prodotti
degli elementi nelle figure blu con segno , e si fa la somma.

Esercizio 5.3.1 (3.6.2 punti 1-4, di [Pel1]). Si calcoli il determinante delle seguenti
matrici:

  1 2 1 1 2 3 3 0 0
1 3
A1 = , A2 = 3 1 4 , A3 = 3 1 3 , A4 = 0 2 0 .

2 1
3 5 1 1 2 3 0 0 7

Soluzione. Si ha

|A1 | = 1 1 3 2 = 5
|A2 | = +(1) + (24) + 15 (3) 20 (6) = 21
|A3 | = 3 + 6 + 18 3 6 18 = 0

ed evidentemente |A4 | = 3 2 (7) = 42. X

6
Pierre Frederic Sarrus (17981861).

34
Esercizio 5.3.2 (3.6.5 di [Pel1]). Dire per quali valori di a, b, c R e nullo il determi-
nante della matrice
1 a a2
A = 1 b b2 .

1 c c2
Soluzione. Si ha

|A| = bc2 + ab2 + a2 c a2 b b2 c ac2

da cui sommando e sottraendo abc si ottiene

= bc2 + ab2 + a2 c + abc abc a2 b b2 c ac2


= (a b)(b c)(c a) .

Il determinante e zero se almeno due dei tre parametri sono uguali, ovvero se (e solo
se) la matrice ha almeno due righe uguali. X

5.4 Determinante di una matrice n n


Ricordiamo che indichiamo con Rm,n linsieme delle matrici m n. Una matrice che
ha lo stesso numero di righe e di colonne si dice quadrata; useremo il simbolo Mn (R) Matrici
quadrate
per indicare linsieme delle matrice quadrate n n.
Sia A = (aij ) Mn (R) e indichiamo con Ahk Mn1 (R) la matrice che si ottiene da
A eliminando la riga h e la colonna k. La matrice Ahk si dice minore complementare Minori

dellelemento ahk , e lo scalare hk = (1)h+k |Ahk | e detto complemento algebrico Complemento


algebrico
di ahk .
Il determinante di A si puo calcolare scegliendo una riga i a piacere (1 i n) ed
usando la formula n
X Sviluppo di
|A| = aij ij Laplace
j=1 per righe

detta sviluppo di Laplace per righe7 . Oppure si sceglie una colonna j a piacere
(1 j n) e si usa la formula
Xn Sviluppo di
|A| = aij ij Laplace
per colonne
i=1
detta sviluppo di Laplace per colonne.
Lo sviluppo di Laplace permette di calcolare il determinante di una matrice nn in
modo ricorsivo, riducendolo prima al calcolo di determinanti di matrici (n1)(n1),
poi (n 2) (n 2), fino ad arrivare al determinante di matrici 3 3 o 2 2, discusso
nelle sezioni precedenti.
7
Pierre-Simon Laplace (17491827)

35
Esercizio 5.4.1. Scrivere lo sviluppo di Laplace di una generica matrice 3 3 rispetto
allultima colonna.

Soluzione.

a11 a12 a13
a21 a22 a11 a12 a11 a12
a21 a22 a23 = a13 a23 a + a33 a
.

a31 a32 a33 a 31 a 32 31 a 32 21 a 22

X

Esercizio 5.4.2 (3.6.6 punto 1, di [Pel1]). Dire per quale valore di k R la seguente
matrice ha determinante nullo:

1 1 0
A = 0 1 k .

1 0 k

Soluzione. Usando lo sviluppo di Laplace rispetto alla terza colonna si trova:



1 1 1 1
|A| = 0 (k) + (k)
=kk =0.
1 0 0 1

Il determinante e nullo per ogni valore di k. X

Esercizio 5.4.3. Calcolare il determinante della matrice



0 1 2 0
4 0 1 2
A=


3 1 1 0
0 2 1 4

Soluzione. Usando lo sviluppo di Laplace rispetto alla prima colonna si trova:



0 1 2 1 2 0 1 2 0 1 2 0

|A| = 0 1 1 0 4 1 1 0 + 3 0 1 2 0 0 1 2


2 1 4 2 1 4 2 1 4 1 1 0

quindi sviluppando il determinante della seconda e terza matrice rispetto alla terza
colonna

1 2 1 2
+ 3 4 1 2

= 4 4 + 3 (2)
1 1 2 1 0 1
= 4 4 (1 2) + 3 (2) (1 4) + 3 4 1
= 16 + 18 + 12 = 46 .

36
Si noti che, quando si usa lo sviluppo di Laplace, conviene sempre scegliere la riga o la
colonna contenente piu zeri. X

Enunciamo alcune proprieta del determinante, senza dimostrazione.

Proposizione 5.4.4. Sia A Mn (R). Allora:

1. se una riga (o una colonna) di A e nulla, |A| = 0;


2. se B e ottenuta da A scambiando fra di loro due righe (o due colonne), allora
|B| = |A|;
3. se A ha due righe (o due colonne) uguali, allora |A| = 0;
4. se B e ottenuta da A moltiplicando per k R gli elementi di una sua riga (o
colonna), allora |B| = k|A|;
5. se A ha due righe (o due colonne) proporzionali, allora |A| = 0;
6. se una riga Ci di A e la somma di due n-uple Xi e Yi , allora |A| = |A0 |+|A00 |, dove
A0 si ottiene da A sostituendo a Ci la n-upla Xi e A00 si ottiene da A sostituendo
a Ci la n-upla Yi ; la stessa cosa vale per le colonne;
7. se una riga (o una colonna) di A e combinazione lineare delle altre, allora |A| = 0;
8. se B e ottenuta da A sommando a una sua riga (o colonna) una combinazione
lineare delle altre righe (o colonne), allora |B| = |A|.

Notiamo che dalla 2 e dallo sviluppo di Laplace si possono derivare tutte le altre
proprieta. Per provare 1 basta usare lo sviluppo di Laplace rispetto alla riga (o colonna)
nulla. Per provare 4 si fa lo sviluppo di Laplace rispetto alla riga (o colonna) che viene
moltiplicata per k. La 3 segue dalla 2: se A ha due righe uguali, scambiandole si ottiene
una matrice B = A e per 2 si ha |A| = |B| = |A|, da cui |A| = 0. La 5 segue da 4 e
3. Per la 6 basta fare lo sviluppo di Laplace rispetto alla riga (o colonna) i e usare la
proprieta distributiva del prodotto. La 7 segue da 3, 4 e 6. La 8 segue da 7 e 6.

37
Lezione VI

Dipendenza e indipendenza lineare


Sommario: dipendenza e indipendenza lineare, generatori, insiemi liberi, spazi fini-
tamente generati, basi, basi canoniche di Rn e Rm,n , n-upla delle componenti. Esempi
ed esercizi.

6.1 Dipendenza e indipendenza lineare


Iniziamo con losservare che ogni vettore (x1 , x2 ) R2 si puo scrivere nella forma

(x1 , x2 ) = x1 (1, 0) + x2 (0, 1) (6.1)

ed ogni matrice 2 2 si puo scrivere nella forma


         
a11 a12 1 0 0 1 0 0 0 0
= a11 + a12 + a21 + a22 . (6.2)
a21 a22 0 0 0 0 1 0 0 1

In generale dato un qualsiasi spazio vettoriale V , se un vettore v V che si puo scrivere Combinazioni
lineari
come
v = a1 v 1 + a2 v 2 + . . . + an v n , ai R, vi V,
allora diremo che e combinazione lineare dei vettori v1 , . . . , vn .

Proposizione 6.1.1. Linsieme di tutte le combinazioni lineari



L(v1 , . . . , vn ) := v = a1 v1 + a2 v2 + . . . + an vn : a1 , . . . , an R

e un sottospazio di V detto spazio generato dai vettori v1 , . . . , vn (o anche inviluppo


lineare, copertura lineare o in inglese span). I vettori v1 , . . . , vn si diranno suoi
generatori. Generatori

Dimostrazione. Usiamo il criterio c) della Prop. 4.3.3. Siano v = a1 v1 +a2 v2 +. . .+an vn


e v0 = a01 v1 + a02 v2 + . . . + a0n vn due generici vettori di L(v1 , . . . , vn ), e siano k, k 0 R.
Raccogliendo i coefficienti si trova:

kv + k 0 v0 = (ka1 + k 0 a01 )v1 + (ka2 + k 0 a02 )v2 + . . . + (kan + k 0 a0n )vn .

Quindi kv + k 0 v0 L(v1 , . . . , vn ), essendo combinazione lineare dei vettori v1 , . . . , vn ,


e questo conclude la dimostrazione. 

38
Osserviamo che (6.1) e (6.2) implicano che

R2 = L (1, 0), (0, 1)


 

e generato da 2 vettori e
"       #
1 0 0 1 0 0 0 0
M2 (R) = L , , ,
0 0 0 0 1 0 0 1

e generato da 4 matrici.

Esercizio 6.1.2. Mostrare che

L (1, 0, 1), (2, 0, 0) ( R3 .


 

Dimostrazione. Basta trovare X R3 che non e combinazione lineare dei due vettori
dati. Qualunque combinazione lineare di tali vettori avra 0 come seconda componente,
quindi ad esempio X = (0, 1, 0) non si puo scrivere come loro combinazione lineare. 

V si dice finitamente generato se ammette un numero finito di generatori, ossia se Spazi


finitamente
esistono v1 , . . . , vn V tali che V = L(v1 , . . . , vn ). Evidentemente R2 e M2 (R) sono generati
finitamente generati.

Esempio 6.1.3. Lo spazio R[x] delle funzioni polinomiali R R non e finitamente


generato. Siano per assurdo f1 , . . . , fn i suoi generatori, e sia d il grado del polinomio
di grado piu alto fra i generatori. Allora xd+1 non si puo scrivere come combinazione
lineare di f1 , . . . , fn , e questo prova che R[x] non e finitamente generato.

Tutti gli spazi che incontreremo nel resto del corso sono finitamente generati.

Osservazione 6.1.4. Osserviamo che aggiungendo ad un insieme I di vettori una loro


combinazione lineare non si cambia lo spazio da essi generato:

L({v} I) = L(I) v I .

E naturale cercare un insieme minimo di generatori. A questo scopo e introdotta la


nozione di dipendenza/indipendenza lineare.

Definizione 6.1.5. Sia I = {v1 , . . . , vn }. I vettori di I si dicono linearmente Dipendenza e


indipendenza
indipendenti, e I si dice libero, se lineare

a1 v 1 + a2 v 2 + . . . + an v n = 0 = a1 = a2 = . . . = an = 0 ,

ovvero se lunica loro combinazione lineare che da il vettore nullo e quella con coeffi-
cienti tutti nulli. Viceversa se i vettori non sono linearmente indipendenti, diremo che
I e legato.

39
Osservazione 6.1.6. Notiamo che

1. linsieme {0} e legato, infatti a1 0 = 0 non implica a1 = 0;


2. se 0 I, allora I e legato (infatti a1 0+0v1 +0v2 +. . .+0vn = 0 anche se a1 6= 0);
3. se I e libero e I 0 I, allora I 0 e libero;
4. se I e legato e I 0 I, allora I 0 e legato.

Proposizione 6.1.7. I = {v1 , . . . , vn } e libero se e solo se nessun vi I si puo


scrivere come combinazione lineare dei rimanenti vettori di I.

Dimostrazione. Se I non e libero, allora esistono a1 , . . . , an non tutti nulli tali che
a1 v1 + a2 v2 + . . . + an vn = 0. Sia ai 6= 0, allora
X
vi = (ai )1 ak v k
k6=i
P
e combinazione lineare degli altri vettori di I. Viceversa se un vettore vi = k6=i bk vk
e combinazione lineare degli altri, allora
X
vi bk v k = 0
k6=i

ed almeno il coefficiente di vi e non nullo. Quindi i vettori non sono linearmente


indipendenti. 

Teorema 6.1.8. I e libero se e solo se v1 6= 0 e vi


/ L(v1 , v2 , . . . , vi1 ).

Dimostrazione. Limplicazione e un corollario della Prop. 6.1.7. Dimostriamo


limplicazione opposta. Sia a1 v1 + a2 v2 + . . . + an vn = 0. Per ipotesi vn non e
combinazione lineare dei rimanenti, quindi deve essere an = 0 e lequazione si riduce
a a1 v1 + a2 v2 + . . . + an1 vn1 = 0. Per ipotesi vn1 non e combinazione lineare dei
rimanenti, quindi deve essere an1 = 0 e lequazione si riduce a a1 v1 + a2 v2 + . . . +
an2 vn2 = 0. Iterando il ragionamento, dopo n 1 passi si giunge ad a1 v1 = 0, e
siccome per ipotesi v1 6= 0, deve essere a1 = 0. Quindi lunica combinazione lineare
nulla e quella con a1 = a2 = . . . = an = 0, ed I e libero. 

6.2 Basi e componenti


Definizione 6.2.1. Una base B = (v1 , . . . , vn ) di V e un insieme libero ordinato di Basi

generatori.

Notiamo che in una base lordine dei vettori e rilevante. Cambiando lordine dei vettori
di una base si ottiene una nuova base, da considerarsi diversa da quella di partenza.

40
Esempio 6.2.2. Per ogni 1 i n, sia
i1 volte ni volte
z }| { z }| {
ei = ( 0, . . . , 0 , 1, 0, . . . , 0 )

la n-upla con i-esima componente uguale a 1 e tutte le altre uguali a zero. Per ogni
(x1 , . . . , xn ) Rn vale lidentita
Xn
(x1 , . . . , xn ) = xi e i . (6.3)
i=1

Questo prova che i vettori ei sono generatori di Rn . Inoltre la combinazione lineare


(6.3) e nulla solo se x1 = x2 = . . . = xn = 0, quindi i vettori formano una base
Base
B = (e1 , e2 , . . . , en ) canonica
di Rn
detta base canonica di Rn .
Esempio 6.2.3. Per ogni 1 i m e 1 j m, sia Eij Rm,n la matrice che ha
1 in posizione (i, j) e tutti gli altri elementi uguali a zero. Per ogni A = (aij ) Rm,n
vale lidentita X
A= aij Eij . (6.4)
i=1,...,m
j=1,...,n

Questo prova che le matrici Eij sono generatori di Rm,n . Inoltre la combinazione lineare
(6.4) e nulla solo se aij = 0 per ogni i, j: quindi le matrici Eij formano una base
Base
B = (E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn ) canonica
di Rm,n
detta base canonica di Rm,n .
Esempio 6.2.4. B = (1, x, x2 , . . . , xn ) e una base per lo spazio delle funzioni polino-
miali di grado non superiore ad n.
Esempio 6.2.5. Per definizione, un insieme libero I = (v1 , . . . , vn ) e una base di L(I).
Esempio 6.2.6. Linsieme di vettori (1, 1), (1, 0) e (0, 1) genera R2 (contiene la base
canonica), ma non e una base in quanto (1, 1) = (1, 0) + (0, 1) e i vettori non sono
linearmente indipendenti.
Teorema 6.2.7. B = (v1 , . . . , vn ) e una base di V se e solo se ogni v V si puo
scrivere in un unico modo come combinazione lineare

v = a1 v 1 + a2 v 2 + . . . + an v n .

Il coefficiente ai e detto componente i-esima di v nella base B, e scelta una base ogni Componenti

vettore e univocamente determinato dalle sue componenti. Scriveremo

v = (a1 , a2 , . . . , an )B

per indicare le componenti di v nella base B.

41
Dimostrazione. Sia B una base di V e

v = a1 v1 + a2 v2 + . . . + an vn = a01 v1 + a02 v2 + . . . + a0n vn .

Allora
(a1 a01 )v1 + (a2 a02 )v2 + . . . + (an a0n )vn = 0 .
Per definizione di base, v1 , . . . , vn sono linearmente indipendenti, e quindi deve essere
a1 = a01 , a2 = a02 , . . . , an = a0n . Se ne deduce che v si puo scrivere in un unico modo
come combinazione lineare dei vettori v1 , . . . , vn .
Viceversa supponiamo ogni v V si possa scrivere in un unico modo come combi-
nazione lineare dei vettori v1 , . . . , vn . Allora B genera V . Inoltre

b1 v 1 + b 2 v 2 + . . . + b n v n = 0

implica b1 = b2 = . . . = bn = 0, altrimenti si avrebbero due modi differenti di scrivere 0


come combinazione lineare dei vettori v1 , . . . , vn . Se ne deduce che B e libero, ovvero
una base. 

Esempio 6.2.8. xi e la i-esima componente di (x1 , . . . , xn ) Rn rispetto alla base


canonica; aij e una componente di A = (aij ) Rm,n rispetto alla base canonica.

Notiamo che se v = (a1 , a2 , . . . , an )B e v0 = (a01 , a02 , . . . , a0n )B , allora

v + v0 = (a1 + a01 , a2 + a02 , . . . , an + a0n )B

e
kv = (ka1 , ka2 , . . . , kan )B
per ogni k R. Scelta una base, le operazioni di V si traducono nelle operazioni fra
n-uple. Come conseguenza immediata, dati m vettori

wi = (ai1 , ai2 , . . . , ain )B , i = 1, . . . , m ,

questi sono linearmente indipendenti se e solo se le corrispondenti n-uple di componenti


sono linearmente indipendenti in Rn , e sono generatori di V se e solo se le n-uple delle
componenti generano Rn .

Esercizio 6.2.9. In R3 si individui, se esiste, un vettore dellinsieme


n o
I = v1 = (1, 3, 2), v2 = (2, 0, 3), v3 = (4, 5, 0), v4 = (0, 1, 4), v5 = (1, 0, 0)

esprimibile come combinazione lineare degli altri elementi di I.

42
Soluzione. Per la Prop. 6.1.7, come prima cosa occorre stabilire se i vettori sono
linearmente indipendenti. La condizione

a1 v 1 + a2 v 2 + . . . + a5 v 5 =
= a1 (1, 3, 2) + a2 (2, 0, 3) + a3 (4, 5, 0) + a4 (0, 1, 4) + a5 (1, 0, 0) = 0

e equivalente al sistema di tre equazioni in cinque incognite:



a1 2a2 + 4a3 + 0a4 + a5 = 0

3a1 + 0a2 + 5a3 + a4 + 0a5 = 0

2a1 + 3a2 + 0a3 + 4a4 + 0a5 = 0

Dalla prima equazione ricaviamo a5 = a1 + 2a2 4a3 . Le rimanenti danno il sistema


di due equazioni in quattro incognite:

3a1 + 5a3 + a4 = 0
2a1 + 3a2 + 4a4 = 0

ovvero a3 = 53 a1 15 a4 e a2 = 32 a1 34 a4 . Sostituendo queste due nellequazione per


a5 si ottiene

a5 = a1 + 2 23 a1 34 a4 4 53 a1 15 a4 = 1 28
 
a
15 1
a
15 4
.

Linsieme delle soluzioni e dato quindi da

a1 , 23 a1 34 a4 , 35 a1 15 a4 , a4 , 1 28

a
15 1
a
15 4
(6.5)

al variare di a1 , a4 R. Poiche esistono soluzioni non nulle, linsieme I e legato.


Scegliendo a1 = 1 e a4 = 0 si trova

v1 23 v2 35 v3 + 0v4 + 1
v
15 5
=0

ovvero v1 = 23 v2 + 53 v3 1
v
15 5
e combinazione lineare degli altri vettori di I. X

Esercizio 6.2.10 (2.8.7 di [Pel1]). In R4 si individui, se esiste, un vettore dellinsieme


n o
I = w1 = (1, 3, 2, 1), w2 = (2, 0, 3, 1), w3 = (4, 5, 0, 1), w4 = (0, 1, 4, 1), w5 = (1, 0, 0, 1)

esprimibile come combinazione lineare degli altri elementi di I.

Soluzione. Si procede come nellesercizio 6.2.9 e si ricava un sistema di quattro equa-


zioni in cinque incognite a1 , . . . , a5 . Le prime tre equazioni sono le stesse dellesercizio
6.2.9, la quarta e
a1 + a2 + a3 + a4 + a5 = 0 . (6.6)

43
Le soluzioni del sistema sono date da quelle soluzioni (6.5) del sistema allesercizio 6.2.9
che risolvono anche lequazione
Scrivendo a2 , a3 , a5 come funzioni di a1 , a4 come in (6.5) e sostituendo a (6.6) si
trova

a1 + 23 a1 34 a4 + 35 a1 51 a4 +a4 + 1 28
= 11 12
  
a
15 1
a
15 4 5 1
a 5 4
a =0.

11
Quindi a4 = 12 a1 . Sostituendo in (6.5) si trova linsieme delle soluzioni:

5 5
, 11 16

a1 1 , 9
, 12 12
, 9
(6.7)

per ogni a1 R. Per a1 = 1 si ricava

w1 = 95 w2 + 5
w
12 3
+ 11
w
12 4
16
9
w5 ,

ovvero il primo vettore e esprimibile come combinazione lineare degli altri. X

Esercizio 6.2.11. In R5 si dica per quali valori di k R e possibile esprimere un


vettore dellinsieme
n
I = u1 = (1, 3, 2, 1, 0), u2 = (2, 0, 3, 1, k), u3 = (4, 5, 0, 1, 1),
o
u4 = (0, 1, 4, 1, 0), u5 = (1, 0, 0, 1, 0)

come combinazione lineare degli altri vettori.

Soluzione. Procedendo come negli esercizi precedenti si ottiene un sistema di cinque


equazioni in cinque incognite, le prime quattro sono le stesse equazioni dellesercizio
6.2.10, la quinta e:
ka2 + a3 = 0 .
Sostituendo a questa equazione la soluzione generale (6.7) delle prime quattro equazioni
si trova:
5 5 5 1 1

9
ka1 12
a 1 = 3 3
k 4
a1 = 0 ,
ovvero deve essere a1 = 0 (soluzione nulla) oppure k = 34 . I vettori sono linearmente
indipendententi se k 6= 34 , mentre per k = 43 tutte le 5-uple in (6.7) sono soluzioni,
e in particolare per a1 = 1 si trova che il primo vettore e combinazione lineare dei
rimanenti: u1 = 59 u2 + 12
5
u3 + 11 u 16
12 4 9 5
u. X

44
Lezione VII

Esercitazione su basi e dimensione


Sommario: lemma di Steinitz (senza dimostrazione), equipotenza delle basi, metodo
degli scarti successivi, completamento ad una base, dimensione. Esercizi.

7.1 Proprieta delle basi


Uno spazio vettoriale non sempre ammette una base. Esiste sempre una base se lo
spazio e finitamente generato, come illustrato dal teorema che segue.

Lemma 7.1.1 (Lemma di Steinitz). Sia {v1 , . . . , vn } un insieme di generatori di V e Lemma di


Steinitz
siano u1 , . . . , um dei vettori linearmente indipendenti. Allora m n.

Dimostrazione. Per la prova si veda il teorema 2.6.3 di [Pel1]. 

Teorema 7.1.2. Sia V uno spazio vettoriale finitamente generato, B = (v1 , . . . , vn )


una base e I = (u1 , . . . , um ) un insieme di vettori di V . Allora:

i) se I e una base, m = n;
ii) se I e un insieme di generatori, si puo sempre trovare una base B 0 formata da
vettori di I; in particolare questo implica che m n;
iii) se I e un insieme libero, si puo sempre trovare una base B 0 contenente i vettori
di I; in particolare questo implica che m n.

Dimostrazione. Se B ed I sono basi, siccome I e libero e B genera V dal lemma di


Steinitz segue che m n. Ma anche B e libero ed I genera V , quindi per il lemma di
Steinitz n m. Da questo si ricava m = n, ovvero il punto i).
La dimostrazione dei punti ii) e iii) e costruttiva. Nel primo caso e detta metodo degli
scarti successivi e serve ad estrarre una base a partire da un insieme sovrabbondante
di generatori. Nel secondo caso e detta metodo del completamento ad una base e serve
a determinare una base contenente dei vettori assegnati in partenza.
Metodo degli scarti successivi Metodo
degli scarti
Sia I un insieme di generatori. Sia I1 linsieme di generatori ottenuto da I rimuovendo successivi. . .
eventuali vettori nulli. Se u2 = L(u1 ) chiamiamo I2 = I1 r {u2 }, altrimenti I2 = I1 . Se
u3 = L(u1 , u2 ) chiamiamo I3 = I2 r {u3 }, altrimenti I3 = I2 . Iterando il procedimento
(controllando tutti i vettori di I fino allultimo) si costruisce una sequenza di insiemi

I I1 I2 . . . Ik

45
dove k e il numero di vettori non nulli di I, Ii = Ii1 r {ui } se ui L(u1 , . . . , ui1 ) e
Ii = Ii1 in caso contrario. Per losservazione 6.1.4, si ha

V = L(I) = L(I1 ) L(I2 ) . . . L(Ik ) .

Quindi Ik generano V e sono linearmente indipendenti per il teorema 6.1.8. Ordinando


a piacere i vettori di Ik si ottiene la base B 0 cercata. Notiamo che B 0 per costruzione
ha meno elementi di I, quindi n m (per il punto i).
Metodo del completamento ad una base . . . e del
completamento
Sia I libero. Applicando il metodo degli scarti successivi allinsieme di generatori ad una base

I 0 = (u1 , . . . , um , v1 , . . . , vn )

i primi m vettori non vengono eliminati perche per ipotesi sono linearmente indipen-
denti. Si ricava quindi una base B 0 (u1 , . . . , um ) = I. Per il punto i) B 0 ha n elementi,
quindi deve essere m n. 

Esempio 7.1.3. Sia I = {v1 = (1, 1), v2 = (1, 0), v3 = (0, 1)}. Abbiamo visto nel-
lesempio 6.2.6 che I genera R2 ma non e libero. Applicando il metodo degli scarti
successivi si vede che v1 6= 0 e v2 / L(v1 ), quindi I2 = I1 = I. Poiche v3 = v1 v2 ,
I3 = I r{v3 } ed una base estratta da I e B = (v1 , v2 ). Notiamo che la base estratta di-
pende da come si ordinano i vettori dellinsieme I di partenza. Ad esempio ordinandoli
come (v2 , v3 , v1 ) la base estratta e quella canonica B 0 = (v2 , v3 ).

Come conseguenza del teorema precedente, tutte le basi di V hanno lo stesso numero
n di elementi; tale numero e detto dimensione di V ed indicato con dim(V ). Per Dimensione

convenzione dim({0}) = 0.

Osservazione 7.1.4. dim(Rn ) = n e dim(Rm,n ) = m n, come si evince contando gli


elementi delle basi canoniche.

Corollario 7.1.5. Sia V uno spazio finitamente generato e W V un sottospazio.


Allora dim(W ) dim(V ) e si ha luguaglianza se e solo se W = V .

Dimostrazione. Una base I = (u1 , . . . , um ) di W e un insieme libero di V , quindi


dim(W ) = m dim(V ) per il punto iii) del teorema 7.1.2. Si puo completare I ad una
base B I di V . Se dim(W ) = m = dim(V ), B ha lo stesso numero di elementi di I,
da cui B = I devono essere uguali. Da questo si ricava che W = L(I) = L(B) = V . 

Osservazione 7.1.6. Sia V uno spazio di dimensione n. Una immediata conseguenza


del precedente corollario e che: ogni insieme libero di n elementi e una base; ogni
insieme di n generatori e una base.

46
Enunciamo senza dimostrazione la formula di Grassmann. Dati due sottospazi Formula di
Grassmann
U, W di V , si ha

dim(U + W ) + dim(U W ) = dim(U ) + dim(W ) .

In particolare, se U + W e una somma diretta, dalla Prop. 4.4.2 segue che

dim(U W ) = dim(U ) + dim(W ) .

7.2 Esercizi
Esercizio 7.2.1. Estrarre una base B di R3 dallinsieme
 
I = v1 = ( 41 , 0, 12 ), v2 = (0, 1, 1), v3 = (1, 1, 1), v4 = (0, 0, 1), v5 = (1, 0, 0) .

Soluzione. Applichiamo il metodo degli scarti successivi. Essendo i vettori tutti diversi
da zero, I1 = I. I vettori di L(v1 ) hanno la seconda componente nulla, quindi v2 /
L(v1 ) e I2 = I1 . Siccome v3 = 4v1 v2 L(v1 , v2 ), allora I3 = I2 r {v3 }. La
condizione
v 4 = a1 v 1 + a2 v 2 + a3 v 3
da il sistema

41 a1 a3 = 0
a2 a3 = 0

1
a + a2 + a3 = 1
2 1

Sostituendo le prime due equazioni, a1 = 4a3 e a2 = a3 , nella terza troviamo 2a3 +


a3 + a3 = 1, che non ammette soluzione. Quindi v4 / L(v1 , v2 , v3 ) e I4 = I3 .
Non serve procedere oltre: B = (v1 , v2 , v4 ) e libero quindi, essendo dim(R3 ) = 3, e
anche una base. X

Esercizio 7.2.2. Completare ad una base B di R3 linsieme {(1, 0, 1), (0, 0, 2)}.

Soluzione. Usando la base canonica di R3 formiamo linsieme di generatori:


 
I = v1 = (1, 0, 1), v2 = (0, 0, 2), e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) .

Applichiamo il metodo degli scarti successivi. I2 = I1 = I poiche v2 non e proporzionale


a v1 . Siccome e1 = v1 + 12 v2 , si ha I3 = I2 r {e1 }. Qualunque combinazione lineare dei
primi tre vettori ha la seconda componente nulla, quindi e2 / L(v1 , v2 , e1 ) e I4 = I3 .
Un insieme libero di tre elementi e una base, quindi B = (v1 , v2 , e2 ). X

47
Esercizio 7.2.3. Dire se
 
1. (3, 2) L (0, 0), (2, 2) ;
 
2. (3, 2) L (1, 1), (2, 2) ;
 
3. (0, 0) L (1, 1), (2, 2) ;
 
4. (3, 2) L (1, 1), (2, 2) ;

5. dire se B = (1, 1), (1, 2) e una base di R2 .

Soluzione. No, si, si, no, si. Andando in ordine:


 
1. L (0, 0), (2, 2) = {a1 (0, 0) + a2 (2, 2) : a1 , a2 R} = {(2a2 , 2a2 ) : a2 R} =
{(x, y) R2 : x = y} e linsieme dei vettori che hanno le due componenti uguali.
 
Quindi (3, 2) / L (0, 0), (2, 2) .
2. a1 (1, 1) + a2 (2, 2) = (3, 2) da il sistema

a1 + 2a2 = 3
a1 + 2a2 = 2

Sommando le equazioni si ottiene 4a2 = 5, ossia a2 = 45 . Sostituendo nella prima


si ottiene a1 = 3 25 = 12 . Quindi (3, 2) = 12 (1, 1) + 54 (2, 2) e elemento di
 
L (1, 1), (2, 2) .
3. Questa e banale poiche (0, 0) = 0 (1, 1) + 0 (2, 2).
   
/ L (1, 1), (2, 2) poiche, come al punto 1, L (1, 1), (2, 2) = {(x, y) R2 :
4. (3, 2)
x = y} e linsieme di vettori che hanno le due componenti uguali.
5. Ogni (x1 , x2 ) R2 si puo scrivere nella forma
2x1 x2 x1 + x2
(x1 , x2 ) = (1, 1) + (1, 2)
3 3
(le componenti, come funzioni di x1 e x2 , si ricavano come al solito risolvendo un
sistema di due equazioni in due incognite), quindi B e una base di R2 . X

Esercizio 7.2.4 (2.8.8 punti 3-5, di [Pel1]). Dire quali dei seguenti insiemi di vettori
di R3 sono liberi:

1. A3 = (1, 0, 0), (1, 0, 2), (1, 1, 2), (0, 0, 1) ;

2. A4 = (1, 0, 1), (2, 0, 2), (1, 0, 2) ;

3. A5 = (0, 1, 0), (0, 0, 0), (1, 3, 2) .

48
Soluzione. Siccome dim(R3 ) = 3, un insieme libero non puo contenere piu di tre vettori.
Quindi A3 non e libero. A4 non e libero, poiche il secondo vettore e proporzionale al
primo. A5 non e libero perche contiene il vettore nullo. X

Esercizio 7.2.5 (2.8.15 di [Pel1]). Dire per quali valori di x, y R i vettori

v1 = (0, x, 1), v2 = (2, 0, 0), v3 = (0, y, 4)

sono una base di R3 .

Soluzione. Se y = 4x, v3 = 4v1 ed i vettori non formano una base. Da

a1 v1 + a2 v2 + a3 v3 = 0

si ricava il sistema
0a1 + 2a2 + 0a3 = 0

xa1 + 0a2 + ya3 = 0

a1 + 0a2 + 4a3 = 0

Dalla prima equazione si ricava a2 = 0; rimane il sistema



xa1 + ya3 = 0
a1 + 4a3 = 0
Dallo schema a pagina 19 segue che se il determinante della matrice dei coefficienti e
diverso da zero, ovvero se
4x y 6= 0 ,
il sistema ammette ununica soluzione, quella nulla. Quindi se y 6= 4x i tre vettori sono
linearmente indipendenti e, per losservazione 7.1.6, formano una base di R3 . X

Esercizio 7.2.6 (2.8.16 punti 1-3, di [Pel1]). Sia W = {(x1 , x2 , x3 , x4 ) R4 : x1


x2 + x3 = x2 + x3 x4 = 0}. Dire se W e un sottospazio di R4 e, in caso affermativo,
trovare un insieme di generatori e calcolare la dimensione di W .

Soluzione. Per la Prop. 4.3.6, W e sottospazio di R4 .


Siccome x1 = x2 x3 e x4 = x2 + x3 , ogni vettore di W ha la forma

(x2 x3 , x2 , x3 , x2 + x3 )

con x2 , x3 R. Scegliendo x2 = 1 e x3 = 0 si ottiene il vettore v1 = (1, 1, 0, 1);


scegliendo x2 = 0 e x3 = 1 si ottiene il vettore v2 = (1, 0, 1, 1). Notiamo che ogni
vettore di W si puo scrive come combinazione lineare

(x2 x3 , x2 , x3 , x2 + x3 ) = x2 v1 + x3 v2 ,

quindi (v1 , v2 ) e un insieme di generatori di W . Dalla precedente equazione si vede


che x2 v1 + x3 v2 = 0 x2 = x3 = 0, quindi (v1 , v2 ) e una base e dim(W ) = 2. X

49
Esercizio 7.2.7 (2.8.17 di [Pel1]). Sia

u1 = (1, 0, 0, 0) , u2 = (1, 2, 0, 0) , u3 = (1, 2, 3, 0) , u4 = (1, 2, 3, 4) .

Si verifichi che B = (u1 , u2 , u3 , u4 ) e una base di R4 e si determinino le componenti del


vettore v = (1, 1, 1, 1) nella base B.

Soluzione. La condizione a1 u1 + a2 u2 + a3 u3 + a4 u4 = 0 si traduce nel sistema




a1 + a2 + a3 + a4 = 0

2a2 + 2a3 + 2a4 = 0


3a3 + 3a4 = 0

4a4 = 0
che ha come unica soluzione quella nulla. Quindi B e una base. La condizione b1 u1 +
b2 u2 + b3 u3 + b4 u4 = v da il sistema


b1 + b2 + b3 + b4 = 1

2b2 + 2b3 + 2b4 = 1
(7.1)


3b3 + 3b4 = 1
4b4 = 1

Prendendo due volte la prima equazione meno la seconda si ricava 2b1 = 3, ossia b1 = 23 .
Prendendo tre volte la seconda equazione meno due volte la terza si ottiene 6b2 = 5,
ossia b2 = 56 . Prendendo quattro volte la terza equazione meno tre volte volte la
7
quarta si ottiene 12b3 = 7, ossia b3 = 12 . Infine dalla quarta b4 = 14 . Quindi

v = 32 , 65 , 12
7
, 14 B

(7.2)

sono le componenti di v nella base B. X

Esercizio 7.2.8. Trovare le componenti della matrice


 
1 1
A=
1 1
nella base
       !
1 0 1 2 1 2 1 2
B0 = B1 = , B2 = , B3 = , B4 =
0 0 0 0 3 0 3 4
di M2 (R).

Soluzione. La condizione b1 B1 + b2 B2 + b3 B3 + b4 B4 = A da il sistema di quattro


equazioni in quattro incognite (7.1), la cui soluzione e stata gia trovata ed e data da
(7.2). Quindi
A = 32 , 65 , 12
7
, 41 B0

X

50
Lezione VIII

Spazi metrici
Sommario: prodotto scalare; norma; disuguaglianza di Cauchy-Schwartz e disugua-
glianza triangolare. Esempi ed esercizi.

8.1 Lunghezze, angoli e proiezioni in R2


Sia X = (x1 , x2 ) R2 . Abbiamo ricordato nellosservazione 4.1.3 che X puo essere
#
identificato con il segmento orientato OX nella figura
qui a fianco. Tale segmento e la diagonale di un rettan- X = (x1 , x2 )
golo di base x1 ed altezza x2 , e la sua lunghezza, che
indichiamo con kXk, e data dal teorema di Pitagora: x2
q
2 2 O x1
kXk = x1 + x2 .

Se X 6= (0, 0), langolo in figura e determinato dalle equazioni:


x1 x1 x x2
cos = p 2 = , sin = p 2 = . (8.1)
x1 + x22 kXk x21 + x22 kXk
Consideriamo ora i due vettori non nulli X = (x1 , x2 ) e Y = (y1 , y2 ) in figura 2a.
Langolo in verde nella figura e detto angolo convesso fra X e Y (0 180 ). Angolo fra
X eY
Dalle formule di addizione di seno e coseno, ben note dalla trigonometria, ricaviamo:

cos = cos( )
= cos cos + sin sin
x1 y1 + x2 y2
= ,
kXk kY k
dove nellultimo passaggio abbiamo usato (8.1) per esprimere cos e sin , e
lespressione analoga in termini di Y per esprimere cos e sin .
Dati due vettori X, Y R2 arbitrari, il loro prodotto scalare, indicato con X Y , Prodotto
scalare
e la grandezza
X Y = x1 y1 + x2 y2 . (8.2)

Notiamo che kXk = X X. Se i vettori sono entrambi non nulli, allora

cos = X Y /kXk kY k (8.3)

individua langolo convesso fra i due. Due vettori X e Y si dicono ortogonali se Vettori
ortogonali
X Y = 0, e si dicono paralleli se X Y = ||X|| ||Y ||. Notiamo che (0, 0) e sia e paralleli
ortogonale che parallelo a qualsiasi vettore di R2 . Da (8.3) si vede che due vettori non
nulli sono ortogonali se e solo se = 90 e sono paralleli se e solo se = 0 o 180 .

51
X = (x1 , x2 ) X = (x1 , x2 )

Y = (y1 , y2 ) Y = (y1 , y2 )


prY (X)

(a) Angolo fra X e Y (b) Proiezione di X in direzione di Y

Figura 2: Angoli e proiezioni

Esercizio 8.1.1. Sia Y = (y1 , y2 ) R2 diverso da zero. Provare che X e parallelo ad


Y se e solo se X = kY per qualche k R (dove k > 0 se i vettori hanno lo stesso verso,
k = 0 se X = 0, e k < 0 altrimenti), ed e ortogonale ad Y se e solo se X = k(y2 , y1 )
per qualche k R.
Dato un vettore Y non nullo, ed un vettore X arbitrario (anche zero) indichiamo
con prY (X) la proiezione ortogonale di X sulla retta individuata da Y , ovvero il Proiezione
ortogonale
vettore rosso nella figura 2b.
Determiniamo le componenti di prY (X): essendo parallelo ad Y , dallesercizio 8.1.1
segue che prY (X) = kY . Se 0 90 , Y e prY (X) hanno lo stesso orientamento
e k 0; se 90 < 180 , k < 0. Assumiamo che sia 0 90 , ovvero k 0.
Vediamo dalla figura 2b che la lunghezza del vettore prY (X) e pari a cos kXk; ma
e anche uguale a kkY k = kkY k. Da (8.3) si ricava
kXk X Y kXk X Y
k = cos = = .
kY k kXk kY k kY k kY k2
Quindi
X Y
prY (X) =Y . (8.4)
kY k2
Si dimostra in modo del tutto analogo che lespressione (8.4) e valida anche quando
90 < 180 .
Chiudiamo questo paragrafo traducendo nel linguaggio dei vettori un ben noto
teorema della geometria Euclidea, la disuguaglianza triangolare, la quale afferma Disuguaglianza
triangolare
che in un triangolo la lunghezza di un qualsiasi suo lato non puo essere superiore alla
somma delle lunghezze degli altri due. Applicata al triangolo in blu nella figura 3,
poiche i tre lati hanno lunghezza kXk, kY k e kX + Y k, la disuguaglianza si traduce in

kX + Y k kXk + kY k , (8.5)

e in questa forma puo essere dimostrata in tutta generalita per qualsiasi spazio vetto-
riale dotato di un prodotto scalare, come illustrato nella prossima sezione.

52
X +Y

Y X

Figura 3: Disuguaglianza triangolare

8.2 Aree di triangoli e determinante


Notiamo il triangolo di vertici O, X, Y in figura 2b ha base kY k ed altezza pari alla
lunghezza del segmento tratteggiato, che per il teorema di Pitagora e data da
q p
kXk2 kprY (X)k2 = kY k1 kXk2 kY k2 |X Y |2
q
1
= kY k (x21 + x22 )(y12 + y22 ) (x1 y1 + x2 y2 )2
q p
1
= kY k x21 y22 + x22 y12 2x1 y1 x2 y2 = kY k1 (x1 y2 x2 y1 )2

= kY k1 |x1 y2 x2 y1 | .

Quindi larea del triangolo OXY


[ e data da Area di
OXY
d
1
2
base altezza = 21 |x1 y2 x2 y1 | .

Questo permette una interpretazione geometrica del determinante di una matrice 22. Significato
del deter-
Il modulo del determinante minante
a11 a12

a a 21 22

e due volte larea del triangolo di vertici O, X = (a11 , a12 ) ed Y = (a21 , a22 ); ovvero
due volte larea del triangolo di vertici O, X 0 = (a11 , a21 ) ed Y 0 = (a12 , a22 ). Il segno
del determinante e positivo se ruotando X (risp. X 0 ) in senso antiorario in modo da
sovrapporlo ad Y (risp. Y 0 ) si compie un angolo minore di 180 , e negativo in caso
contrario.
Piu in generale ci si puo chiedere come si esprime larea AXY Z di un triangolo di
vertici X = (x1 , x2 ), Y = (y1 , y2 ) e Z = (z1 , z2 ). Studiamo il caso in cui, ruotando in
senso antiorario a partire dallasse orizzontale, si incontrano nellordine prima Z, poi
Y , poi X (come in figura 4), e che tutti e tre i vettori siano nel semipiano superiore.

53
Come si evince dalla figura 4, larea di XYZ
[ e data dallarea di OXY
[ piu larea di
OYZ
[ meno larea di OXZ.
[ Quindi

x1 x2 y 1 y 2 x1 x 2
2AXY Z = +
y1 y2 z1 z2 z1 z2
ovvero: Area di
x1 x2 1 XYZ
\
1
AXY Z = y1 y2 1

2
z1 z2 1
come si evince facendo lo sviluppo di Laplace rispetto allultima colonna. Si puo
verificare facilmente che, a meno di un segno, la formula rimane valida qualunque sia
la disposizione di X, Y e Z.

X Y

O
Figura 4: Area AXY Z

8.3 Definizione astratta di prodotto scalare e sue proprieta


Definizione 8.3.1. Sia V uno spazio vettoriale (reale). Una applicazione Prodotto
scalare di V

V V R,
(v, w) 7 v w ,

che associa ad ogni coppia di vettori v e w un numero reale, che indichiamo con v w,
e detta un prodotto scalare di V se e:

i) simmetrica: v w = w v v, w V ;
ii) lineare: (au + bv) w = a(u w) + b(v w) a, b R , u, v, w V ;
iii) definita positiva: v v > 0 v 6= 0 .

Proposizione 8.3.2. Un prodotto scalare di V soddisfa:

iv) 0 v = 0 v V ;
v) w (au + bv) = a(w u) + b(w v) a, b R , u, v, w V .

54
Dimostrazione. La proprieta iv) segue da ii). Infatti:

0 v = (0 + 0) v = 0 v + 0 v ,

ovvero sottraendo 0 v ambo i membri si ottiene 0 v = 0 per ogni v V .


Usando prima i), poi ii), e quindi ancora i) si dimostra che:

w (au + bv) = (au + bv) w = a(u w) + b(v w) = a(w u) + b(w v)

per ogni a, b R e per ogni u, v, w V . 

Uno spazio vettoriale dotato di un prodotto scalare e detto metrico (o anche Eucli- Spazi metrici

deo), in quanto e possibile calcolare angoli e lunghezze.

Definizione 8.3.3. Sia V uno spazio metrico. Chiamiamo lunghezza o norma di Norma di
un vettore
v V la grandezza

kvk := v v .

Esempio 8.3.4. Siano X = (x1 , x2 , . . . , xn ) e Y = (y1 , y2 , . . . , yn ). Un prodotto scalare


di Rn , generalizzazione di (8.2), e dato da

X Y = x1 y1 + x2 y2 + . . . + xn yn , (8.6)

Tale prodotto scalare e detto prodotto scalare canonico. La norma associata e Prodotto
scalare
2
q
canonico
||X|| = X Y = x21 + x22 + . . . + x2n . (8.7)

Esempio 8.3.5. Sia V lo spazio delle funzioni R R continue e periodiche di periodo


2. Un prodotto scalare di V , indicato con il simbolo (f, g)L2 ( f, g V ), e dato da
Z 2
1
(f, g)L2 = f (t)g(t)dt .
2 0
1
R 2
(f, g)L2 e chiaramente lineare e simmetrico. Inoltre (f, f )L2 = 2 0
|f (t)|2 dt > 0 per
ogni funzione f non identicamente nulla.

Proposizione 8.3.6. Per ogni a R e u, v V si ha:

1. kavk = |a| kvk ;


2. kvk = 0 v = 0 ;
3. ku + vk2 = kuk2 + 2 u v + kvk2 .

55
Dimostrazione. Dal punto ii) della definizione 8.3.1 e dal punto v) della proposizione
8.3.2 si ricava
p p
kavk = (av) (av) = a2 (v v) = |a| kvk .
Dal punto iii) della definizione 8.3.1 e dal punto iv) della proposizione 8.3.2 segue che
kvk = 0 v = 0. Dai punti i) e ii) della definizione 8.3.1 e dal punto v) della
proposizione 8.3.2 si ricava

ku + vk2 = (u + v) (u + v) = u u + 2 u v + v v
= kuk2 + 2 u v + kvk2 .

Come nel caso di R2 , possiamo definire langolo convesso fra due vettori non nulli v
e w di uno spazio metrico V come
vw
cos := .
kvk kwk

Poiche il coseno e compreso fra 1 e 1, affinche tale definizione abbia senso occorre
verificare che il membro di destra dellequazione e in modulo non superiore a 1. Questo
e il contenuto del teorema che segue.

Teorema 8.3.7 (Disuguaglianza di Cauchy-Schwartz). Per ogni v, w V , si ha

|v w| kvk kwk . (8.8)

Dimostrazione. Se w = 0 la disuguaglianza si riduce ad un banale 0 0. Assumiamo


allora che w 6= 0. Per ogni R, dal punto 3 della proposizione 8.3.6, applicato alla
coppia u = v e w, si ottiene

0 kv wk2 = kvk2 2v w + 2 kwk2 ,

dove la prima disuguaglianza segue dal fatto che per definizione la norma di un vettore
e non negativa. In particolare scegliendo = v w/kwk2 si ottiene

(v w)2 (v w)2 (v w)2


0 kvk2 2 + = kvk2
,
kwk2 kwk2 kwk2

ovvero (v w)2 kvk2 kwk2 . Prendendo la radice quadrata di ambo i membri della
disuguaglianza, si prova (8.8). 

Due vettori si dicono paralleli se |v w| = kvk kwk e si dicono ortogonali se v w = 0.


Diciamo che due vettori paralleli hanno lo stesso verso se v w = kvk kwk, e che hanno
verso opposto se v w = kvk kwk.

56
Corollario 8.3.8 (Disuguaglianza triangolare). Per ogni v, w V , si ha

kv + wk kvk + kwk , (8.9)

e vale luguaglianza se e solo se i vettori sono paralleli ed hanno lo stesso verso.

Dimostrazione. Dal punto 3 della proposizione 8.3.6:


2
kv + wk2 = kvk2 + 2v w + kwk2 kvk2 + 2kvk kwk + kwk2 = kvk + kwk ,

dove la disuguaglianza segue da (8.8). Estraendo la radice si trova kv+wk kvk+kwk.


Luguaglianza si ha esattamente quando v w = kvk kwk. 

Proposizione 8.3.9 (Teorema di Pitagora). Due vettori v, w V soddisfano

kv + wk2 = kvk2 + kwk2 ,

se e solo se sono ortogonali.

Dimostrazione. Dal punto 3 della proposizione 8.3.6,

kv + wk2 kvk2 kwk2 = 2v w

si annulla se e solo se v w = 0. 

8.4 Proiezioni ortogonali


In analogia al caso di R2 , cf. equazione (8.4), se w 6= 0 il vettore Proiezioni

vw
prw (v) := w
kwk2
e detto proiezione (ortogonale) di v in direzione di w. Dato un vettore w 6= 0, ogni
vettore v V si puo decomporre nella forma

v = v// + v

con
v// := prw (v) , v := v prw (v) .
Notiamo che v e ortogonale a w, infatti
vw
v// w = prw (v) w = ww =vw (8.10)
kwk2
e quindi v w = v w v// w = 0. Dal punto 1 della proposizione 8.3.6, chiamando
a = v w/kwk2 , si ricava
|v w|
kv// k = kawk = |a| kwk = ,
kwk

57
e questultima equazione insieme a (8.10) ci dice che |v// w| = kv// k kwk, ovvero v//
e parallelo a w. Siccome v e v// sono ortogonali, dalla proposizione 8.3.9 si ricava

||v||2 = ||v// ||2 + ||v ||2 . (8.11)

Proposizione 8.4.1. Siano w 6= 0 e v = v// + v come sopra. Allora:

a) v e parallelo a w v = 0 ;
b) v e ortogonale a w v// = 0 .

Dimostrazione. Da v w = 0 e v// w = kv// k kwk segue che

v w = v// w = kv// k kwk . (8.12)

Poiche w 6= 0, dal punto 2 della proposizione 8.3.6 segue che v w = 0 kv// k = 0


v// = 0. Questo prova il punto b).
Da (8.12) segue anche che |v w| = kv// k kwk e uguale a kvk kwk se e solo se
kvk = kv// k. Per lequazione (8.11), questo e equivalente a kv k = 0, ovvero a
v = 0. Questo prova il punto a). 

Corollario 8.4.2. Due vettori v, w V sono paralleli se e solo se sono linearmente


dipendenti.

Dimostrazione. Se w = 0 laffermazione e banale. Se w 6= 0, segue dalla proposizione


precedente che v e parallelo a w se e solo se v = v// = aw con a = v w/kwk2 . 

Proposizione 8.4.3. Siano v1 , . . . , vk V dei vettori non nulli e a due a due ortogo-
nali, ovvero vi vj = 0 per ogni i 6= j, 1 i, j k. Allora v1 , . . . , vk sono linearmente
indipendenti.

Dimostrazione. Sia
u := a1 v1 + a2 v2 + . . . + ak vk = 0 .
Siccome vi vj = 0 i 6= j, prendendo il prodotto scalare di u con vi si ottiene

u vi = ai vi vi = ai ||vi ||2 = 0 ,

ovvero ai = 0 (per ipotesi vi 6= 0) per ogni i = 1, . . . , k. Questo prova lindipendenza


lineare. 

58
8.5 Esercizi
Esercizio 8.5.1. Determinare il valore del parametro R per il quale i vettori
v = (1, 3, 7, 1) e w = (3, 5, 1, ) risultano ortogonali (rispetto al prodotto scalare
canonico di R4 ).

Soluzione. Poiche

v w = 1 3 + 3 5 + 7 1 1 = 25 ,

i vettori sono ortogonali se e solo se = 25. X

Esercizio 8.5.2. Siano v = (1, 1, 1, 3) e w = (1, 2, 0, 2). Calcolare la proiezione


di v su w e langolo convesso tra i due vettori.

Soluzione. Si ha

v w = 1 (1) + (1) 2 + 1 0 3 2 = 9 ,
kvk2 = 12 + (1)2 + 12 + (3)2 = 12 ,
kwk2 = (1)2 + 22 + 22 = 9 .

Quindi
vw
prw (v) = w = w = (1, 2, 0, 2)
kwk2
e
vw 9 9 9 3 9 3 3
cos = = = = == = .
kvk kwk 12 9 6 3 6 3 3 63 2
Quindi = 150 (in radianti, = 56 ). X

Esercizio 8.5.3. Siano u = (2, 0, 1) e v = (2, 1, 0) vettori di R3 . Trovare tutti i


vettori di norma 1 ortogonali a u e v.

Soluzione. Un vettore w = (w1 , w2 , w3 ) e ortogonale a u e v se e solo se


(
u w = 2w1 + w3 = 0
v w = 2w1 + w2 = 0

Ovvero w = (1, 2, 2)w1 . La condizione kwk = 1 da

kwk2 = 1 + 22 + 22 w12 = 9w12 = 1




ovvero w1 = 31 . Esistono quindi esattamente due vettori di norma 1 ed ortogonali ad


u e v, e sono dati da w = 31 , 23 , 32 .

X

59
Esercizio 8.5.4. Ripetere lesercizio 8.5.3 con i vettori u = (8, 1, 6) e v = (4, 2, 3).

Soluzione. Un vettore w = (w1 , w2 , w3 ) e ortogonale a u e v se e solo se


(
u w = 8w1 + w2 6w3 = 0
v w = 4w1 + 2w2 + 3w3 = 0

Un sistema equivalente e
(
u w + 2v w = 4w2 = 0
2u w v w = 20w1 15w3 = 0

ed ha soluzione w2 = 0 e w1 = 34 w3 . La condizione kwk = 1 da

32 2
kwk2 = w12 + w22 + w32 = w
42 3
+ 0 + w32 25 w2 = 1
16 3

ovvero w3 = 45 . Abbiamo quindi due soluzioni: w = 3


, 0, 54

5
. X

Esercizio 8.5.5. Ripetere lesercizio 8.5.3 con i vettori u = (4, 2, 2) e v = (3, 3, 2).

Soluzione. Un vettore w = (w1 , w2 , w3 ) e ortogonale a u e v se e solo se


(
u w = 4w1 + 2w2 2w3 = 0
v w = 3w1 3w2 + 2w3 = 0

Un sistema equivalente e
(
u w + v w = 7w1 w2 = 0
3u w + 2v w = 18w1 2w3 = 0

ed ha soluzione w2 = 7w1 e w3 = 9w1 . La condizione kwk = 1 da

kwk2 = w12 + w22 + w32 = 1 + 72 + 92 w12 = 131 w12 = 1




1 1
ovvero w1 = 131 . Abbiamo quindi due soluzioni: w = 131 (1, 7, 9). X

60
Lezione IX

Basi ortonormali e metodo di Gram-Schmidt


Sommario: basi ortonormali; metodo di Gram-Schmidt; sottospazi ortogonali. Esem-
pi ed esercizi.

9.1 Basi ortonormali


Sia V uno spazio metrico di dimensione n.

Osservazione 9.1.1. Notiamo (proposizione 8.4.3) che n vettori non nulli e a due a
due ortogonali sono linearmente indipendenti, quindi per losservazione 7.1.6 formano
una base di V .

Definizione 9.1.2. Una base B = (u1 , u2 , . . . , un ) di V si dice ortonormale se Base


ortonormale
i) ui uj = 0 per ogni i 6= j;
ii) kui k = 1 per ogni i = 1, . . . , n.

Esempio 9.1.3. La base canonica di Rn e ortonormale rispetto al prodotto scalare


canonico.

Proposizione 9.1.4. Sia B = (u1 , u2 , . . . , un ) una base ortonormale di V , e v V


un vettore qualsiasi. Allora

v = (v u1 )u1 + (v u2 )u2 + . . . + (v un )un .

In altri termini, la componente i-esima ai di v nella base B e data da ai = v ui .

Dimostrazione. Per definizione di base, esistono a1 , . . . , an R tali che

v = a1 u1 + . . . + an un .

Da i) e ii) della definizione 9.1.2 e dalla linearita del prodotto scalare segue che
X X
v ui = ai (ui ui ) + aj (uj ui ) = ai kui k + aj 0 = ai
j6=i j6=i

per ogni i = 1, . . . , n. 

Proposizione 9.1.5. Sia B = (u1 , u2 , . . . , un ) una base ortonormale di V , e siano


v = (a1 , . . . , an )B e w = (b1 , . . . , bn )B due qualsiasi vettori di V . Allora

v w = a1 b 1 + a2 b 2 + . . . + an b n .

In altre parole, in una base ortonormale il prodotto scalare fra due vettori coincide con
il prodotto scalare canonico fra le n-uple delle componenti.

61
Pn Pn
Dimostrazione. Se v = i=1 ai ui e v = j=1 bj uj , dalla linearita del prodotto scalare
segue che
n
X
vw = ai bj (ui uj ) .
i,j=1
Pn
Poiche ui uj e zero se i 6= j ed e 1 se i = j, si ricava la tesi: v w = i=1 ai b i . 

9.2 Metodo di Gram-Schmidt


Sia V uno spazio metrico di dimensione n, e (v1 , v2 , . . . , vn ) una base qualsiasi di V .
E possibile ricavare da essa una base ortonormale come illustrato nel seguito (metodo
di Gram-Schmidt). Il primo passo e definire dei vettori (w1 , w2 , . . . , wn ) in maniera
ricorsiva: Passo 1

w1 = v1 ,
w2 = v2 prw1 (v2 ) ,
w3 = v3 prw1 (v3 ) prw2 (v3 ) ,
.. ..
. .
Xi1
wi = vi prwj (vi ) , (1 < i n) .
j=1

Lemma 9.2.1. I vettori (w1 , w2 , . . . , wn ) sono una base di V e soddisfano wi wj = 0


per ogni i 6= j.

Dimostrazione. Per losservazione 9.1.1, n vettori ortogonali non nulli formano una
base. I vettori sono chiaramente non nulli, infatti w1 = v1 6= 0 e per i 2, se per
Pi1
assurdo wi = 0 se ne dedurrebbe che vi = j=1 prwj (vi ) e combinazione lineare degli
altri vettori di B, contraddicendo lipotesi che B e una base.
Lortogonalita si dimostra per induzione. Per la proprieta delle proiezioni, w1 e orto-
gonale a w2 . Sia 3 i n. Per ipotesi induttiva, assumiamo che {w1 , w2 , . . . , wi1 }
siano a due a due ortogonali, e mostriamo che wi e ortogonale ad ogni vettore wk
dellinsieme, con k = 1, . . . , i 1. Per costruzione
 Xi1 
wk wi = wk vi prwj (vi ) .
j=1

Il vettore prwj (vi ) e parallelo a wj , e quindi per ipotesi induttiva e ortogonale a wk se


j 6= k. Si ricava

wk wi = wk vi prwk (vi ) .
Poiche vi prwk (vi ) e ortogonale a wk (vedere pag. 57), si ha wk wi = 0. 

62
Il secondo passo consiste nel normalizzare i vettori ottenuti. Chiamiamo Passo 2

w1 w2 wn
u1 = , u2 = , ... un = .
kw1 k kw2 k kwn k
Abbiamo
wi wj wi wi
ui uj = = 0 i 6= j , ui ui = = 1 i = 1, . . . , n .
kwi k kwj k kwi k2

Per losservazione 9.1.1, B = (u1 , u2 , . . . , un ) e una base ortonormale di V .

Corollario 9.2.2. Ogni spazio metrico finitamente generato ammette una base or-
tonormale (si trova una base con il metodo degli scarti successivi, e da questa una
ortonormale con il metodo di Gram-Schmidt).

9.3 Sottospazi ortogonali


Sia V uno spazio metrico di dimensione n.

Lemma 9.3.1. Siano v, w1 , w2 , . . . , wk V . Se v e ortogonale a ciascuno dei vettori


w1 , w2 , . . . , wk , allora e ortogonale ad ogni loro combinazione lineare.

Dimostrazione. Per ipotesi v wi = 0 per ogni i. Dalla linearita del prodotto scalare
segue che

v (a1 w1 + a2 w2 + . . . + ak wk ) = a1 (v w1 ) + a2 (v w2 ) + . . . + ak (v wk ) = 0

per ogni a1 , . . . , ak R. 

Definizione 9.3.2. Sia W V un sottospazio vettoriale. Linsieme Complemento


ortogonale

W := v V : v w = 0 w W


e detto complemento ortogonale di W .

Proposizione 9.3.3. W e un sottospazio vettoriale di V .

Dimostrazione. Per ogni a1 , a2 R, v1 , v2 W , il vettore a1 v1 + a2 v2 soddisfa

(a1 v1 + a2 v2 ) w = a1 (v1 w) + a2 (v2 w) = 0

per ogni w W . Quindi a1 v1 + a2 v2 W e per il criterio c) della proposizione 4.3.3


linsieme W e un sottospazio vettoriale di V . 

Osservazione 9.3.4. Sia W = L(w1 , w2 , . . . , wk ). Dal lemma 9.3.1 segue che

W = v V : v wi = 0 i = 1, . . . , k .


63
Esempio 9.3.5. Sia W = L (1, 0, 1) R3 . Per losservazione 9.3.4, (x, y, z) W


se e solo se (1, 0, 1) (x, y, z) = x z = 0. Dallidentita (x, y, x) = x(1, 0, 1) + y(0, 1, 0)


segue che i vettori (1, 0, 1) e (0, 1, 0) sono una base di W , ovvero:

W = L (1, 0, 1), (0, 1, 0) .




Proposizione 9.3.6. Sia W un sottospazio di V di dimensione k. Una base ortonor-


male (v1 , . . . , vk ) di W puo sempre essere completata ad una base ortonormale

(v1 , . . . , vk , uk+1 , . . . , un )

di V . Inoltre i vettori uk+1 , . . . , un formano una base ortonormale di W .

Dimostrazione. Applicando il metodo del completamento ad una base e possibile co-


struire una base B = (v1 , . . . , vk , vk+1 , . . . , vn ) di V contenente i vettori v1 , . . . , vk
(che per ipotesi formano un insieme libero). Applichiamo ora a B il metodo di Gram-
Schmidt ed otteniamo una base ortonormale (u1 , . . . , un ) di V . Per costruzione i primi k
vettori di B sono gia ortogonali e normalizzati ad 1, quindi ui = vi per ogni i = 1, . . . , k.
Questo prova la prima affermazione.
Ogni vettore w V si puo allora scrivere nella forma

w = (a1 v1 + a2 v2 + . . . + ak vk ) + (ak+1 uk+1 + ak+2 uk+2 + . . . + an un ) . (9.1)

Per losservazione 9.3.4 e la proposizione 9.1.4, si ha w W se e solo se vi w = ai = 0


per ogni i = 1, . . . , k. Quindi ogni w W e una combinazione lineare

w = ak+1 uk+1 + ak+2 uk+2 + . . . + an un ,

ed i vettori (uk+1 , . . . , un ) formano una base ortonormale di W . 

Corollario 9.3.7. Per ogni sottospazio W V valgono le seguenti proprieta:

1. (W ) = W ;
2. W W = {0};
3. dim(W ) + dim(W ) = n;
4. W + W = V .

Dimostrazione. Sia (u1 , . . . , uk ) una base ortonormale di W (W e finitamente generato,


e per il corollario 9.2.2 ammette una base ortonormale). Per la 9.3.6 possiamo trovare
una base ortonormale (uk+1 , . . . , un ) tale che (u1 , . . . , un ) e una base ortonormale di
V . Da questo segue che dim(W ) + dim(W ) = k + (n k) = n = dim(V ), ovvero il
punto 3.

64
Da (9.1) segue che ogni vettore v V si puo scrivere (in modo unico) come somma di
due vettori v0 = a1 u1 +a2 u2 +. . .+ak uk W e v00 = ak+1 uk+1 +ak+2 uk+2 +. . .+an un
W . Questo prova che V = W +W , ovvero il punto 4. Lunicita della decomposizione
prova che la somma e diretta, quindi W W = {0} per la proposizione 4.4.2.
Per finire, sia v come sopra. Per losservazione 9.3.4, v (W ) se e solo se e
ortogonale ad ogni vettore di base di W . Dalla condizione ai = v ui = 0 i =
k + 1, . . . , n si ricava v = v0 W . Quindi (W ) = W . 

9.4 Esercizi
Esercizio 9.4.1. Usando il metodo di Gram-Schmidt si determini una base ortonor-

male di R3 a partire dalla base B = v1 = (1, 1, 1), v2 = (0, 1, 1), v3 = (0, 0, 1) .

Soluzione. Come primo passo calcoliamo i vettori

w1 = v1 = (1, 1, 1) ,
(0,1,1)(1,1,1)
w2 = v2 prw1 (v2 ) = (0, 1, 1) k(1,1,1)k2
(1, 1, 1)

= (0, 1, 1) 23 (1, 1, 1) = 23 , 13 , 13 ,


w3 = v3 prw1 (v3 ) prw2 (v3 )


(0,0,1)(1,1,1) (0,0,1)( 23 , 13 , 13 )
23 , 13 , 13

= (0, 0, 1) k(1,1,1)k2
(1, 1, 1) k( 23 , 13 , 31 )k2

= (0, 0, 1) 31 (1, 1, 1) 1
32 , 13 , 13 = 0, 21 , 21 .
 
2

Quindi dividiamo ciascun vettore per la sua norma e otteniamo:


w1
u1 = = 1 (1, 1, 1) ,
kw1 k 3
w2
u2 = = 1 (2, 1, 1) ,
kw2 k 6
w3
u3 = = 1 (0, 1, 1) .
kw3 k 2

La base cercata e (u1 , u2 , u3 ). X

Esercizio 9.4.2. Usando il metodo di Gram-Schmidt si determini una base ortonor-



male di R3 a partire dalla base B = v1 = (0, 0, 1), v2 = (0, 1, 1), v3 = (1, 1, 1) .

65
Soluzione. Notiamo che i vettori sono gli stessi dellesercizio precedente, ma ordinati
in maniera differente. Come per lesercizio precedente:

w1 = v1 = (0, 0, 1) ,
(0,1,1)(0,0,1)
w2 = v2 prw1 (v2 ) = (0, 1, 1) k(0,0,1)k2
(0, 0, 1)

= (0, 1, 1) (0, 0, 1) = (0, 1, 0) ,


w3 = v3 prw1 (v3 ) prw2 (v3 )
(1,1,1)(0,0,1) (1,1,1)(0,1,0)
= (1, 1, 1) k(0,0,1)k2
(0, 0, 1) k(0,1,0)k2
(0, 1, 0)

= (1, 1, 1) (0, 0, 1) (0, 1, 0) = (1, 0, 0) .

I vettori hanno gia norma 1, quindi (w1 , w2 , w3 ) e la base cercata. X

Esercizio 9.4.3. Sia W il sottospazio di R4 generato dai vettori

v1 = (1, 1, 0, 1) , v2 = (1, 0, 1, 2) , v3 = (1, 2, 0, 0) .

Trovare una base ortonormale di W e di W .

Soluzione. Come per lesercizio precedente,

w1 = v1 = (1, 1, 0, 1) ,
(1,0,1,2)(1,1,0,1)
w2 = v2 prw1 (v2 ) = (1, 0, 1, 2) k(1,1,0,1)k2
(1, 1, 0, 1)

= (1, 0, 1, 2) (1, 1, 0, 1) = (0, 1, 1, 1) ,


w3 = v3 prw1 (v3 ) prw2 (v3 )
(1,2,0,0)(1,1,0,1) (1,2,0,0)(0,1,1,1)
= (1, 2, 0, 0) k(1,1,0,1)k2
(1, 1, 0, 1) k(0,1,1,1)k2
(0, 1, 1, 1)

= (1, 2, 0, 0) + 13 (1, 1, 0, 1) 32 (0, 1, 1, 1) = 4


, 1, 23 , 13

3
.

Dividendo ciascun vettore per la sua norma si trova la soluzione finale:


w1
u1 = = 13 (1, 1, 0, 1) ,
kw1 k
w2
u2 = = 13 (0, 1, 1, 1) ,
kw2 k
w3
u3 = = 130 (4, 3, 2, 1) .
kw3 k
Una base ortonormale di W e data da (u1 , u2 , u3 ). Siccome dim(W ) + dim(W ) = 4 e
dim(W ) = 3, una base di W e formata da un unico vettore u4 = (x1 , x2 , x3 , x4 ). Tale
vettore deve risolvere il sistema

3 u1 u4 = x1 + x2 + x4 = 0

3 u2 u4 = x2 x3 + x4 = 0


30 u3 u4 = 4x1 3x2 + 2x3 x4 = 0

66
Dalle prime due equazioni si ricava x1 = x2 x4 e x3 = x2 + x4 . Sostituendo
nellultima si trova x4 = 3x2 . Quindi u4 = (2, 1, 4, 3)x2 . Dalla condizione ku4 k =
1 si ricava
1 = ku4 k2 = (22 + 12 + (4)2 + (3)2 )x22 = 30x22 .
Quindi x2 = 130 e una base ortonormale di W e data dal vettore u4 = 130 (2, 1, 4, 3).
Notiamo che avremmo potuto scegliere x2 = 130 ottenendo u4 = 130 (2, 1, 4, 3),
anchesso base ortonormale di W . X

Esercizio 9.4.4. Sia W il sottospazio degli (x1 , x2 , x3 ) R3 soluzione dellequazione


2x1 + x2 = 0. Trovare una base ortonormale di W e W (rispetto al prodotto scalare
canonico di R3 ).

Soluzione. I vettori di W hanno la forma (x1 , 2x1 , x3 ) = x1 (1, 2, 0) + x3 (0, 0, 1).



Una base e quindi v1 = (0, 0, 1), v2 = (1, 2, 0) . I vettori sono gia ortogonali, quindi
v1 v2
u1 = = (0, 0, 1) , u2 = = 1 (1, 2, 0) .
kv1 k kv2 k 3

Un vettore u3 = (x1 , x2 , x3 ) W soddisfa



u u = x3 = 0
1 3
3 u2 u3 = x1 2x2 = 0

Quindi u3 = (2, 1, 0)x2 . Da ku3 k2 = (22 + 12 )x22 = 5x22 = 1 si ricava x2 = 1 ed


5
u3 = 15 (2, 1, 0) e una base ortonormale di W . X

67
Lezione X

Matrici
Sommario: matrice trasposta; vettori riga/vettori colonna; prodotto righe per colon-
ne; inversa ed aggiunta di una matrice. Esempi ed esercizi.

10.1 Prodotto righe per colonne


Se A Rm,n e la matrice

a11 a12 . . . a1n
a21 a22 . . . a2n

A :=
.. .. ..
. . .

am1 am2 . . . amn

chiamiamo trasposta di A la matrice tA Rn,m che si ottiene da A scambiando le Matrice


trasposta
righe con le colonne, ovvero

a11 a21 . . . am1
a12 a22 . . . am2

t
A=
.. .. .
..
. . .
a1n a2n . . . amn

Quindi lelemento di tA in posizione (i, j) e aji , per ogni i = 1, . . . , n e j = 1, . . . , m.


Ad esempio
t  1 4
1 2 3
= 2 5 .

4 5 6
3 6
Osservazione 10.1.1. Notiamo che t (tA) = A per ogni matrice A. Inoltre, siccome il
determinante si puo calcolare con lo sviluppo di Laplace per righe e per colonne, e il
risultato non cambia, se ne deduce che |tA| = |A| per ogni matrice A.

Una matrice 1 n e semplicemente una n-upla di numeri reali, e sara anche detta Vettori
riga e
vettore riga. Una matrice n 1 e anchessa una n-upla di numeri reali, scritti in una vettori
colonna, e sara detta per questo vettore colonna. colonna

Se X = (x1 , x2 , . . . , xn ) e una matrice 1 n ed Y = t (y1 , y2 , . . . , yn ) e una matrice


n 1, definiamo il loro prodotto come

X Y = x1 y1 + x2 y2 + . . . + xn yn .

Notiamo che X Y e semplicemente il prodotto scalare canonico fra le n-uple X e t Y .

68
Piu in generale date due matrici A = (aij ) Rm,n e B = (bjk ) Rn,p , possiamo
considerare i vettori riga

Xi = (ai1 , ai2 , . . . , ain ) i = 1, . . . , m

che formano le righe di A, ed i vettori colonna



b1k
b2k

Yk = ..
k = 1, . . . , p
.
bnk

che formano le colonne di B. Per costruzione



X1
X2
 
A= . ,
B = Y1 Y2 . . . Yp .
..
Xm

Chiamiamo prodotto righe per colonne di A e B, indicato con A B, la matrice Prodotto


righe per
m p seguente colonne
X1 Y1 X1 Y2 . . . X1 Yp
X2 Y1 X2 Y2 . . . X2 Yp

AB = .. .. .. .
. . .
Xm Y1 Xm Y2 . . . Xm Yp
Quindi C = A B e la matrice che in posizione (i, k) ha lelemento
Xn
cik = Xi Yk = aij bjk . (10.1)
j=1

In figura 5 e illustrato il calcolo di cik .

Esercizio 10.1.2. Calcolare il prodotto delle matrici



  1 2
1 2 1
A= , B = 3 1 .

3 0 1
2 4

Soluzione.
   
11+2312 12+2114 5 0
AB = = .
31+03+12 32+01+14 5 10
X

69
B : n righe, p colonne

b11 ... b1k ... b1p



.. .. .. .. ..

. . . . .



bj1 ... bjk ... bjp

1k

b

1
ai
+
.. .. .. .. ..

..
. . . . .

.+

jk

b

bn1 ... bnk ... bnp
j
ai
+
..
.+ b
nk

a in

a11 ... a1j ... a1n c11 ... c1k ... c1p



.. .. .. .. .. .. .. .. .. ..

. . . . .


. . . . .



ai1 ... aij ... ain ci1 ... cik ... cip



.. .. .. .. .. .. .. .. .. ..

. . . . .


. . . . .



am1 ... amj ... amn cn1 ... cnk ... cnp

A : m righe, n colonne C = AB : m righe, p colonne

Figura 5: Calcolo dellelemento cik di C = A B.

Osservazione 10.1.3. Notiamo che il prodotto A B puo essere definito solo se il


numero di colonne di A e uguale al numero di righe di B. Per ogni valore m, n, p il
prodotto righe per colonne da una applicazione

Rm,n Rn,p Rm,p .

In particolare per m = n = p, si ha una operazione interna di Mn (R). In generale


in Mn (R) non vale la proprieta AB = BA, come dimostrato nel caso di matrici 2 2
nellesercizio 5.2.3.

10.2 Proprieta del prodotto


Proposizione 10.2.1 (Associativita). Per ogni A = (aij ) Rm,n , B = (bjh ) Rn,p e Associativita
del prodotto
D = (dhk ) Rp,q si ha
A(BD) = (AB)D .

70
Dimostrazione. Si usa (10.1). Lelemento di matrice in posizione (i, k) di A(BC) e
dato da
Xn Xp  X
aij bjh dhk = aij bjh dhk ,
j=1 h=1
j=1,...,n
h=1,...,p

lelemento di matrice in posizione (i, k) di (AB)C e dato da


X p X n  X
aij bjh dhk = aij bjh dhk .
h=1 j=1
j=1,...,n
h=1,...,p

Le due espressioni coincidono, poiche lordine in cui si effettuano le due sommatorie e


irrilevante. 

Se A = (aij ) Mn (R) e una matrice quadrata, gli elementi aii (1 i n) si


dice che formano la diagonale principale (o semplicemente la diagonale) di A. Ad Diagonale
principale
esempio, nella matrice seguente gli elementi sulla diagonale principale sono in rosso

3 7 1
1 0 2 .

3 2 5

Chiamiamo matrice identica di ordine n, indicata con In , la matrice n n che ha Matrice


identica
tutti gli elementi sulla diagonale principale uguali ad 1, e tutti gli altri uguali a 0:

1 0 0 ... 0
0 1 0 . . . 0


In = 0 0 1 . . . 0 .
.. .. .. ..

. . . .
0 0 0 ... 1

La proposizione che segue e di semplice verifica.

Proposizione 10.2.2 (Elemento neutro). Per ogni A Rm,n si ha Elemento


neutro

Im A = AIn = A .

In particolare, In e elemento neutro rispetto al prodotto in Mn (R).

Sia R, A, A0 Rm,n e B, B 0 Rn,p . Chiamiamo Xi le colonne di A, Xi0 le


colonne di A0 , Yk le righe di B e Yk0 le righe di B 0 . Quindi:

X1 X10  
0 B = Y1 Y2 . . . Yp
X2 X2

0
A= .
.
A = .
.
. . 0

0 0 0

B = Y1 Y2 . . . Yp

0
Xm Xm

71
Notiamo che la somma di matrici definita nellesempio 4.1.5 corrisponde alla somma
dei loro vettori riga/colonna,

X1 + X10
X2 + X20
 
0 0 0 0 0
A+A = .. , B + B = Y 1 + Y 1 Y 2 + Y 2 . . . Yp + Y p , (10.2)
.


0
Xm + Xm

ed il prodotto per uno scalare e dato semplicemente da



X1
X2
 
A = .
, B = Y1 Y 2 . . . Y p . (10.3)
..

Xm

Proposizione 10.2.3 (Bilinearita). Per ogni R, A, A0 Rm,n e B, B 0 Rn,p Bilinearita


del prodotto
valgono le proprieta

i) (A + A0 )B = AB + A0 B;
ii) A(B + B 0 ) = AB + AB 0 ;
iii) (A)B = A(B) = (AB).

Dimostrazione. Il prodotto fra matrici Rm,n Rn,p Rm,p e definito usando il prodotto
scalare canonico di Rn , e la proposizione e una immediata conseguenza della linearita
del prodotto scalare.
Chiamiamo Xi ed Xi0 rispettivamente le righe di A ed A0 , Yk e Yk0 rispettivamente
le colonne di B e B 0 . Da (10.1) e (10.2) si ricava

(A + A0 )B = (Xi + Xi0 ) Yk = Xi Yk + Xi0 Yk


 

= Xi Yk + Xi0 Yk = AB + A0 B ,
 

A(B + B 0 ) = Xi (Yk + Yk0 ) = Xi Yk + Xi Yk0


 

= Xi Yk + Xi Yk0 = AB + AB 0 .
 

Nella seconda uguaglianza abbiamo usato la linearita del prodotto scalare. In maniera
simile da (10.1) e (10.3) si ricava
( 
  (Xi ) Yk = (A)B
(AB) = Xi Yk = (Xi Yk ) = 
Xi (Yk ) = A(B)

dove la terza uguaglianza segue dalla linearita del prodotto scalare. 

Osservazione 10.2.4. (Mn (R), +, 0, , In ) e un anello non commutativo.

72
Proposizione 10.2.5. Per ogni A, A0 Rm,n , B Rn,p e R si ha Proprieta
della
i) t (A + A0 ) = tA + tA0 ; trasposizione

ii) t (AB) = ( tB) ( tA) ;


iii) t (A) = ( tA) ;
Dimostrazione. Notiamo che se X = (x1 , x2 , . . . , xn ) ed X 0 = (x01 , x02 , . . . , x0n ) sono due
vettori riga, allora
x1 + x01
0
x1 x1
x + x0 x x0
2 2
t
(X +X 0 ) = t (x1 +x01 , x2 +x02 , . . . , xn +x0n ) = 2
= + 2 = t X +t X 0 .
. . . . . . . . .
xn + x0n xn x0n
Chiamiamo Xi ed Xi0 rispettivamente le righe di A ed A0 , Yk e Yk0 rispettivamente le
colonne di B e B 0 . Da (10.2), e dalla precedente osservazione, segue che

t X1 + X10
X2 + X20  t

t 0 0 t 0 t 0
(A + A ) = .. = (X 1 + X 1 ) (X 2 + X 2 ) . . . (X m + X m )
.


0
Xm + X m
 
= t
X1 + t
X10 t X2 + t
X20 t
. . . Xm + t 0
Xm
   
= t t
X1 X2 . . . Xm t
+ t X10 t X20 . . . t 0
Xm

t X1 t X10
0
X2 X2 t

t 0
= .. + .. = A + A .

. .
0
Xm Xm
Questo prova il punto i). Per il punto ii) osserviamo prima che se X e un vettore riga
e Y un vettore colonna, t (X Y ) = X Y = (t X) (t Y ), dove la prima uguaglianza
segue dal fatto che X Y e uno scalare (ovvero una matrice 1 1) e la seconda dalla
simmetria del prodotto scalare. Quindi

t
X1 Y1 X1 Y2 . . . X1 Yp (X1 Y1 ) t (X2 Y1 ) . . . t (Xm Y1 )
X2 Y1 X2 Y2 . . . X2 Yp t (X1 Y2 ) t (X2 Y2 ) . . . t (Xm Y2 )

t
(AB) =
.. .. .. =
.. .. ..
. . . . . .


t t t
Xm Y1 Xm Y2 . . . Xm Yp (X1 Yp ) (X2 Yp ) . . . (Xm Yp )

(t Y1 ) (t X1 ) (t Y1 ) (t X2 ) . . . (t Y1 ) (t Xm )
t
( Y2 ) (t X1 ) (t Y2 ) (t X2 ) . . . (t Y2 ) (t Xm )

= .. .. ..
. . .


t t t t t t
( Yp ) ( X1 ) ( Yp ) ( X2 ) . . . ( Yp ) ( Xm )

73

t
Y1
t 
Y2 t t t

.. X1 X2 . . .
= Xm = ( tB) ( tA) .
.
t
Yp
Questo prova ii). La proprieta iii) e elementare e segue da (10.3): la sua verifica e
lasciata come esercizio. 

Enunciamo, senza dimostrazione, una proprieta dei determinanti.


Teorema 10.2.6 (Teorema di Binet). Il determinante di un prodotto e il prodotto dei
determinanti:
|AB| = |A| |B|
per ogni A, B Mn (R).
Esercizio 10.2.7. Sia
   
2 7 5 3
A= , B= .
1 4 2 1
Verificare che |AB| = |A| |B|.

Soluzione. Si ha |A| = 8 + 7 = 15, |B| = 5 6 = 1,


   
25+72 23+71 24 13
AB = = ,
1 5 + 4 2 1 3 + 4 1 3 1
e |AB| = 24 39 = 15 = |A| |B|. X

10.3 Inversa ed aggiunta di una matrice


Una matrice A Mn (R) si dice invertibile (rispetto al prodotto righe per colonne) se Matrici
invertibili
esiste una matrice A1 Mn (R) tale che

A A1 = A1 A = In .

Come gia osservato nel caso dei gruppi (proposizione 2.2.2), linverso di un elemen-
to e unico se loperazione e associativa. Vedremo in questa sezione come si calcola
esplicitamente linverso di una matrice.
Osservazione 10.3.1. Se A e B sono matrici n n invertibili, AB e invertibile ed ha
come inversa la matrice B 1 A1 . Infatti per lassociativita del prodotto si ha

(B 1 A1 )(AB) = B 1 (A1 A)B = B 1 In B = B 1 B = In

ed anche
(AB)(B 1 A1 ) = A(BB 1 )A1 = AIn A1 = AA1 = In .

74
Definizione 10.3.2. Sia A = (aij ) Mn (R). Chiamiamo aggiunta della matrice A, Matrice
aggiunta
indicata con A , la matrice n n che si ottiene da A sostituendo lelemento aij con il
suo complemento algebrico ij (definito a pag. 35).

Abbiamo gia osservato, nellesercizio 5.2.3, che esistono matrici diverse da zero non
invertibili. Enunciamo senza dimostrazione un teorema che permette di stabilire in
quali casi una matrice quadrata e invertibile, e di calcolare la sua inversa.

Teorema 10.3.3 (Teorema di Laplace). A Mn (R) e invertibile se e solo se |A| =


6 0,
ed in tal caso linversa e data dalla matrice
1 t
A1 = (A )
|A|

dove t (A ) e la trasposta della matrice aggiunta di A.

Esercizio 10.3.4. Sia A la matrice



3 1 5
A=0 4 1 .

2 3 1

Calcolare A1 usando il teorema di Laplace.

Soluzione. La matrice aggiunta e data da



3 1 5 3 1 5 3 1 5

+ 0 4 1
0 4 1 + 0 4 1


2 3 1 2 3 1 2 3 1



3 1 5 3 1 5 3 1 5


A = 0 4 1 + 0 4 1 0 4 1




2 3 1 2 3 1 2 3 1



3 1 5 3 1 5 3 1 5

+ 0 4 1
0 4 1 + 0 4 1

2 3 1 2 3 1 2 3 1

4 1 0 1 + 0 4

+
3 1 2 1 2 3
1 2 8


1 5 + 3 5 3 1 =


= 2 3 14 7 7 .

3 1 2 1
19 3 12

3 1
1 5 3 5

+ 0 1 + 0 4

4 1

75
Con lo sviluppo di Laplace rispetto alla prima colonna si calcola |A| = 35. Usando il
teorema di Laplace si calcola linversa:

1 14 19
1 t 1
A1 = (A ) = 2 7 3 .

|A| 35
8 7 12
X

Esercizio 10.3.5. Determinare aggiunta ed inversa della matrice Inversa di


una matri-
 
a11 a12 ce 2 2
A= .
a21 a22

Soluzione. Ricordiamo che |A| = a11 a22 a12 a21 , e linversa esiste se |A| 6= 0. In tal
caso, usando il teorema di Laplace si trova:
   
a22 a21 1 1 a22 a12
A = , A = ,
a12 a11 a11 a22 a12 a21 a21 a11

Si puo verificare che effettivamente AA1 = A1 A = I2 . X

Esercizio 10.3.6. Sia A la matrice



1 0 1
A = 1 2 .

0 2 1
Dire per quali valori di la matrice e invertibile, e per tali valori determinare linversa.

Soluzione. Con lo sviluppo di Laplace rispetto alla prima riga si calcola |A| = 2 3.
La matrice quindi e invertibile se 6= 3/2. In questo caso, aggiunta ed inversa sono
date da

1 2 2 1
+
0 1 + 0 2

2 1
3 2


0 1 1 1 1 0
A =
2 1 + 0 1 0 2 = 2 1 2 .

1 2 1


0 1 1 1 1 0
+ +
1 2 2 1
e
3 2 1
1 t 1
A1 = (A ) = 1 2 .

|A| 2 3
2 2 1
X

76
Lezione XI

Il metodo di eliminazione di Gauss


Sommario: matrici triangolari e determinante; metodo di eliminazione di Gauss;
sistemi (di equazioni lineari) ridotti e a scala. Esempi ed esercizi.

11.1 Matrici triangolari


Definizione 11.1.1. Una matrice A = (aij ) Rm,n si dice Matrici
triangolari
triangolare superiore se aij = 0 per ogni i > j;
triangolare inferiore se aij = 0 per ogni i < j.
Una matrice triangolare si dice completa se aii 6= 0 per ogni i.
La trasposta di una matrice triangolare superiore e una triangolare inferiore. Nel
seguito considereremo solo matrici triangolari superiori.
Una matrice triangolare superiore ha quindi la forma

a11 a12 a13 . . . a1n


0 a22 a23 . . . a2n

a11 a12 a13 ... a1m ... a1n


0 0 a33 . . . a3n n
0 a22 a23 ... a2m ... a2n
. .. .. .. ..
..

0
0 a33 ... a3m ... a3n
. . . .


. .. .. .. ..
..

.. . 0 0 0 . . . ann
. . . .


0 0 0 ... 0

0 0 0 . . . amm . . . amn
.

. .. ..

.. .. . .
mn
| {z } | {z }

m nm 0 0 0 ... 0

(se m n) (se m > n)

Notiamo che se A Mn (R) e una matrice quadrata triangolare superiore, ripetendo


n volte lo sviluppo di Laplace rispetto alla prima colonna si ottiene:

a22 a23 a24 . . . a2n
a a . . . a
33 34 3n
0 a a . . . a

33 34 3n
0 a44 . . . a4n


|A| = a11 0
0 a44 . . . a4n = a11 a22 .
.. . . ..
.. .. .. . . . .
. . . .
. . . . ..
0 0 . . . ann
0 0 0 . . . ann

a44 . . . a4n
.

= a11 a22 a33 0 . . . .. = . . . = a11 a22 a33 ann .


0 ... a
nn

77
Il determinante di A e quindi il prodotto degli elementi sulla sua diagonale principale. Determinante
di matrici
Il determinante e diverso da zero (e quindi, per il teorema 10.3.3, A e invertibile) se e triangolari
solo se aii 6= 0 i, ovvero se e solo se A e una matrice triangolare completa.

11.2 Il metodo di eliminazione di Gauss


E possibile effettuare delle operazioni elementari su un sistema di m equazioni lineari
che permettono di ottenere un sistema equivalente, ovvero con le stesse soluzioni (vedere
pagina 15). Se E e la matrice completa del sistema, ed E1 , . . . , Em le sue righe, tali
operazioni elementari corrispondono alle seguenti operazioni sulle righe di E:

(I) scambiare fra di loro due righe Ei ed Ej , con i 6= j;


(II) sostituire una riga Ei con Ei , con 6= 0;
(III) sostituire una riga Ei con Ei + Ej , con i 6= j e R.

Se E e una matrice quadrata, per i punti 2 e 8 della proposizione 5.4.4, loperazione


(I) trasforma E in una nuova matrice E 0 con |E 0 | = |E|, mentre loperazione (III)
trasforma E in una nuova matrice E 0 con |E 0 | = |E|.
Il metodo di eliminazione di Gauss permette di trasformare una qualsiasi ma- Metodo di
eliminazione
trice A = (aij ) Rm,n in una triangolare superiore B usando le operazioni (I) e (III). di Gauss
Se A e una matrice quadrata, |B| = |A| ed il segno e positivo se si e usata la trasfor-
mazione (I) un numero pari di volte, altrimenti e negativo. Se A e la matrice completa
di un sistema lineare (di m equazioni in n 1 incognite), B e la matrice completa di
un sistema lineare equivalente.
Il metodo consiste in p passi, con p = min(m 1, n). Se la prima colonna di A Passo 1

e nulla saltiamo direttamente al passo 2, altrimenti riordiniamo le righe in modo da


ottenere una matrice A0 = (a0ij ) Rm,n con a011 6= 0. Dette Ei le righe di A0 , chiamiamo
A00 = (a00ij ) Rm,n la matrice ottenuta da A0 sostituendo, per ogni i = 2, . . . , m, la riga
Ei con Ei a0i1 (a011 )1 E1 ; notiamo che a00i1 = a0i1 a0i1 (a011 )1 a011 = 0. Il risultato del
primo passo e quindi:

0 0 0 0
a a a . . . a1n

a11 a12 a13 . . . a1n 11 12 13
a21 a22 a23 . . . a2n 0 a0022 a0023 . . . a002n


A= a 31 a 32 a 33 . . . a3n A00 = 0 a0023 a0033 . . . a003n

.. .. .. ..

. .. .. ..
. . . . .
. . . .


am1 am2 am3 . . . amn 0 a00m2 a00m3 . . . a00mn

Il secondo passo consiste nel prendere la sottomatrice (m1)(n1) di A00 evidenziata Passo 2

e applicare ad essa il primo passo, ottenendo una matrice A000 della forma:

78

a011 a012 a013 ... a01n


0 a000
22 a000
23 ... a000
2n



000
A = 0 0 a000
33 . . . a000
3n


.. .. .. ..

. . . .

0 0 a000 000
m3 . . . amn

Il terzo passo consiste nel prendere la sottomatrice (m 2) (n 2) di A000 evidenziata Passo 3

e applicare ad essa il primo passo. Si continua cos per fino ad ottenere una matrice
triangolare superiore B (e evidente che il procedimento termina dopo m 1 passi se
m n, o dopo n passi se m > n).

Esempio 11.2.1. Applichiamo il metodo di eliminazione di Gauss alla matrice



0 3 5 1
A = 2 8 2 4 .

3 9 6 0

Dette Ei le righe, effettuiamo in successione (primo passo): scambio di E1 con E3 ;


sostituzione di E2 con E2 32 E3 . Si ottiene

3 9 6 0 2
3 9 6 0 3 9 6 0
E E3 E2 E2 3 E3
A 1 2 8 2 4 2 32 3 8 23 9 2 23 6 4 32 0 = 0 2 2 4 .

0 3 5 1 0 3 5 1 0 3 5 1

Siano Ei0 le righe della matrice ottenuta. Il secondo e ultimo passo consiste nel sostituire E30
con E30 32 E20 , ottenendo la matrice triangolare superiore

3 9 6 0 3 9 6 0
B = 0 2 2 4 = 0 2 2 4 .

0 3 32 2 5 32 (2) 1 23 4 0 0 8 5

Esempio 11.2.2. Applichiamo il metodo di eliminazione di Gauss alla trasposta t A


della matrice A dellesercizio precedente. Siano Ei le righe di tA. Il primo passo consiste
nello scambiare E1 con E4 , sostituire E2 con E2 3E4 ed E3 con E3 5E4 :

0 2 3 1 4 0 1 4 0 1 4 0
E2 E2 3E4
3 8 9E1 E4 3 8 9 E3 E3 5E4 = 0 4
3 3 1 8 3 4 9 3 0 9

5 5 1 2 5 4 6 5 0 0 18
5 2 6 5 2 6 6


1 4 0 0 2 3 0 2 3 0 2 3

79
Dette Ei0 le righe della matrice ottenuta, il secondo consiste nel sostituire E30 con E30
18 0
4
E2 ed E40 con E40 42
E20 . Si ottiene la matrice:

1 4 0
0 4 9
.


0 0 2 69

15
0 0 2

Dette Ei00 le righe della matrice ottenuta, il terzo e ultimo passo consiste nel sostituire
E400 con E400 15
60
E300 . Si ottiene in questo modo la matrice triangolare superiore

1 4 0
0 4 9
B= .

69
0 0 2
0 0 0
Esercizio 11.2.3. Usando il metodo di eliminazione di Gauss, calcolare il determinante
della matrice
0 3 5
A = 2 8 2

3 9 6
e verificare che si ottiene lo stesso risultato usando lo sviluppo di Laplace.

Soluzione. Trasformiamo prima la matrice in una triangolare superiore T , quindi cal-


coliamo |T |. A meno di un segno, questo dara il determinante di A.
Notiamo che la matrice A e formata dalle prime tre colonne della matrice delle-
sempio 11.2.1. Procedendo come nellesempio, dopo due passi si ottiene la matrice:

3 9 6
T = 0 2 2 ,

0 0 8
formata dalle prime tre colonne della matrice B dellesempio 11.2.1.
Il determinante di una matrice triangolare e il prodotto degli elementi sulla diagona-
le, quindi |T | = 3 2 8 = 48. Poiche nel primo passo abbiamo scambiato due righe (E1
ed E3 ) e nel secondo nessuna, il numero totale di scambi e dispari e |A| = |T | = 48.
Daltra parte lo sviluppo di Laplace rispetto alla prima colonna di A da

3 5 3 5
|A| = 2 + 3
= 2(3 6 5 9) + 3(3 2 5 8)
9 6 8 2
= 54 102 = 48 ,

come ci aspettavamo. X

80
Esercizio 11.2.4. Usando il metodo di eliminazione di Gauss, calcolare il determinante
della matrice
0 3 5 1
2 8 2 4
A= .

3 9 6 0
0 0 8 4
Soluzione. Notiamo che le prime tre righe di A formano la matrice dellesempio 11.2.1.
Procedendo come nellesempio, dopo due passi si ottiene la matrice:

3 9 6 0
0 2 2 4
.


0 0 8 5
0 0 8 4
Dette Ei0 le righe di questultima matrice, lultimo passo consiste nel sostituire E40 con
E40 E30 , ottenendo la matrice

3 9 6 0
0 2 2 4
T = .

0 0 8 5
0 0 0 1
Quindi |T | = 3 2 8 1 = 48. Siccome abbiamo effettuato uno scambio (E1 ed E3 nel
primo passo), si ha |A| = |T | = 48. X

Ripetiamo lesercizio 5.3.2 usando il metodo di eliminazione di Gauss, e mostriamo


come con questo metodo i calcoli siano estremamente piu semplici.
Esercizio 11.2.5. Dire per quali valori di a, b, c R e nullo il determinante della
matrice
1 a a2
A = 1 b b2 .

1 c c2
Soluzione. Dette Ei le righe di A, il primo passo e

E2 E2 E1 1 a a2
E E E1
A 22 A0 = 0 b a b2 a2 .

0 c a c2 a2
Il secondo passo consiste nellannullare il termine in posizione (3, 2). Per fare questo,
dette Ei0 le righe di A0 , sostituiamo E30 con E30 ca E 0 ed otteniamo
ba 2

2
1 a a
E30 E30 ca E0
ba 2
A0 A00 = 0 b a b2 a2 .

0 0 (c2 a2 ) ca
ba
(b2 a2 )

81
Notiamo che b2 a2 = (b a)(b + a). Quindi lelemento in posizione (3, 3) e
ca 2
(c2 a2 ) (b a2 ) = (c2 a2 ) (c a)(b + a) = c2 bc ac + ab
ba
= c(c b) a(c b) = (c a)(c b) .

Il risultato e:
1 a a2
A00 = 0 b a b2 a2 .

0 0 (c a)(c b)
Poiche non abbiamo effettuato scambi di righe:

|A| = |A00 | = (b a)(c a)(c b) .

Il determinante e nullo se e solo se almeno due dei tre coefficienti sono uguali, ovvero
se e solo se almeno due righe di A sono uguali. X

11.3 Sistemi ridotti e a scala


Definizione 11.3.1.

Una matrice si dice ridotta per righe se ogni riga non nulla ha un elemento Matrici
ridotte
non nullo sotto il quale ci sono solo zeri (o meglio, sotto il quale non ci sono
elementi diversi da zero).
Se A e una matrice ridotta per righe ed X una sua riga non nulla, chiamiamo
speciale il primo elemento di X non nullo (da sinistra) sotto il quale ci sono Elementi
speciali
solo zeri.
Un sistema di equazioni lineari si dice ridotto se la matrice dei coefficienti e Sistemi
ridotti
ridotta per righe.
Un sistema di equazioni lineari si dice a scala se la matrice dei coefficienti e Sistemi
a scala
triangolare superiore completa8 .

Un esempio di matrice ridotta per righe e:



0 7 5 0 0 3
1 3 2 4 0 0


A= 0 0 0 0 0 0 . (11.1)
0 4 11 13 0 0

0 0 0 1 0 0
Gli elementi speciali sono evidenziati in rosso.
8
In realta la definizione di sistema a scala e un po piu generale di cos, ma a noi interesseranno
solo questo tipo di sistemi.

82
Osservazione 11.3.2. Una matrice e ridotta per righe se e solo se eliminando le righe
nulle e riordinando le colonne si ottiene una matrice triangolare superiore completa.
Per trasformare una matrice ridotta per righe in una a triangolare superiore com-
pleta e sufficiente, dopo aver eliminato le righe nulle, riordinare le colonne in modo che
gli elementi speciali siano sulla diagonale principale. Ad esempio per la matrice (11.1),
basta eliminare la terza riga, quindi scambiare la terza colonna con la quarta e mettere
lultima colonna al primo posto:

0 7 5 0 0 3 3 0 7 0 5 0
1 3 2 4 0 0 0 1 3 4 2 0
A A0 = .

0 4 11 13 0 0 0 0 4 13 11 0
0 0 0 1 0 0 0 0 0 1 0 0
I sistemi ridotti sono i piu semplici da risolvere. Prima di discutere il metodo generale,
studiamo lesempio in cui la matrice dei coefficienti e la matrice A in (11.1). Si consideri
il sistema

0x1 + 7x2 + 5x3 + 0x4 + 0x5 + 3x6 = 6


1x1 + 3x2 + 2x3 + 4x4 + 0x5 + 0x6 = 0



0x1 + 0x2 + 0x3 + 0x4 + 0x5 + 0x6 =





0x1 + 4x2 + 11x3 + 13x4 + 0x5 + 0x6 = 9

0x1 + 0x2 + 0x3 + 1x4 + 0x5 + 0x6 = 2

dove R e un parametro. La terza equazione e del tipo 0 = e se 6= 0 il sistema


e incompatibile. Studiamo quindi il caso = 0 e facciamo vedere che e compatibile
determinandone le soluzioni.
La terza equazione e del tipo 0 = 0 e puo essere eliminata. Il valore di x5 e arbitrario,
in quanto moltiplica zero in tutte le equazioni. Riordinando le variabili si ottiene un
sistema la cui matrice dei coefficienti e la matrice A0 qui sopra:


3x6 + 7x2 + 5x3 = 6


1x1 + 3x2 + 4x4 + 2x3 = 0


4x2 + 13x4 + 11x3 = 9

1x4 =2

Per risolvere le equazioni rimaste, procediamo dal basso verso lalto risolvendo ciascuna
equazione rispetto alla variabile che moltiplica lelemento speciale, quindi sostituiamo
lespressione ottenuta nelle equazioni rimanenti. Al primo passo si ottiene x4 = 2, che
sostituito nelle equazioni rimanenti da

3x6 + 7x2 + 5x3 = 6


1x1 + 3x2 + 2x3 = 4x4 = 8

4x2 + 11x3 = 9 13x4 = 15

83
La soluzione della terza equazione e x2 = 15
4
11
4 3
x , e sostituita nelle prime due da
(
3x6 57 x = 129
4 3 4
25 13
1x1 4 3
x = 4

la cui soluzione e x6 = 13
4
+ 25 x . e x6 = 43
4 3 4
+ 19
4 3
x.
Detto x3 = t1 e x5 = t2 , la soluzione generale e quindi:
13 25
t , 15 11
t , t , 2, t2 , 43 19

(x1 , . . . , x6 ) = 4
+ 4 1 4
4 1 1 4
+ 4 1
t (11.2)

e dipende da due parametri t1 , t2 R. Lespressione (11.2) e detta rappresentazione Rappresentazio-


ne parametrica
parametrica delle soluzioni del sistema, in quanto le incognite sono espresse in termini
di t1 e t2 , detti parametri liberi: ogni volta che fissiamo un valore per questi parametri Parametri
liberi
otteniamo una soluzione particolare del sistema. Il metodo illustrato si generalizza
facilmente.

Metodo di sostituzione delle variabili


Soluzione di
sistemi a scala
Consideriamo un sistema di equazioni lineari a scala. Sia A = (aij ) Rm,n la matrice
dei coefficienti (triangolare superiore completa) e B = t (b1 , b2 , . . . , bn ) la matrice dei
termini noti. Abbiamo tre casi

1. m n;
2. m > n e bn+1 = bn+2 = . . . = bm = 0: in tal caso possiamo eliminare le equazioni
nulle ed ottenere un sistema equivalente di n equazioni in n incognite;
3. m > n ed i coefficienti bn+1 , bn+2 , . . . , bm non sono tutti nulli: in questo caso il
sistema e incompatibile in quanto almeno una equazione e del tipo 0 = bi .

Mostreremo che nei primi due casi il sistema e compatibile in maniera costruttiva,
determinando le sue soluzioni. A meno di eliminare equazioni del tipo 0 = 0, possiamo
assumere che sia m n. Il sistema ha quindi la forma:


a11 x1 + a12 x2 + a13 x3 + . . . + a1m xm + . . . + a1n xn = b1





a22 x2 + a23 x3 + . . . + a2m xm + . . . + a2n xn = b2
a33 x3 + . . . + a3m xm + . . . + a3n xn = b3
.. .. ..

..
.



. . .

amm xm + . . . + amn xn = bn

con aii 6= 0 i = 1, . . . , m.
Un sistema di questo tipo si puo risolvere dal basso verso lalto. Siccome amm 6= 0,
possiamo esprimere xm in funzione di xm+1 , . . . , xn :

xm = a1
mm (am,m+1 xm+1 + am,m+2 xm+2 + amn xn bn ) .

84
Sostituendo tale espressione nelle equazioni rimanenti eliminiamo xm dalle equazioni
ed otteniamo un sistema a scala con m 1 equazioni ed n 1 incognite. Scriviamo
quindi xm1 in funzione di xm+1 , xm+2 , . . . , xn e sostituiamo nelle equazioni rimanenti,
eliminando anche xm1 ed ottenendo un sistema di m 2 equazioni ed n 2 incognite.
Continuando in questo modo, dopo m le incognite x1 , . . . , xm sono espresse tutte in
funzione di xm+1 , xm+2 , . . . , xn , e per ogni scelta di nm parametri reali t1 , t2 , . . . , tnm ,
ponendo xm+1 = t1 , xm+2 = t2 , . . . , xn = tnm si ottiene una soluzione.

Osservazione 11.3.3. Un sistema a scala e compatibile se e solo se non ha equazioni


del tipo 0 = , dove e un termine noto diverso da zero. Eliminando le equazioni nulle,
un sistema a scala compatibile puo essere sempre trasformato in uno equivalente di m
equazioni ed n incognite, con m n. La soluzione generale di tale sistema dipende da
n m parametri reali; in particolare, la soluzione e unica se n = m.

Risoluzione di un sistema ridotto


Soluzione di
sistemi ridotti
Consideriamo un sistema di matrice completa (A|B), con A ridotta per righe. A meno
di eliminare equazioni nulle, possiamo assumere che (A|B) non abbia righe nulle. In
questo caso, se A ha righe nulle, allora almeno unequazione e del tipo 0 = , con
termine noto non nullo, e il sistema e incompatibile.
Viceversa se A non ha righe nulle, possiamo riordinare le incognite in modo da
trasformare il sistema in uno a scala equivalente (facendo corrispondere gli elemen-
ti speciali alla diagonale principale), di matrice completa (A0 |B). Notiamo che una
matrice A0 Rm,n triangolare superiore completa e senza righe nulle ha sempre m n.
Il sistema di matrice completa (A0 |B) puo essere risolto con il metodo di sostituzione
delle variabili (e compatibile, essendo m n). Possiamo quindi concludere che:

Proposizione 11.3.4.
Un sistema ridotto e compatibile se e solo se non ha equazioni del tipo 0 = ,
con termine noto non nullo.
Un sistema ridotto compatibile si puo risolvere trasformandolo in uno a scala e
applicando il metodo di sostituzione delle variabili. In questo caso:
I la soluzione generale dipende da n m parametri, dove n e il numero di
incognite ed m il numero di righe non nulle del sistema di partenza;
I la soluzione e unica se e solo se n = m;
I se il sistema e omogeneo, linsieme delle soluzioni e un sottospazio vettoriale
W Rn di dimensione n m (su questo punto torneremo piu avanti). Se
n = m, W = {0} e lunica soluzione e quella nulla.

85
Notiamo che per risolvere un sistema ridotto non e necessario riordinare le colonne e
trasformarlo in uno a scala. Si puo risolvere direttamente per sostituzione, dal basso
verso lalto, risolvendo ciascuna equazione nellincognita che moltiplica lelemento spe-
ciale di quella riga. Le incognite che non moltiplicano elementi speciali corrispondono
a parametri liberi.

Esercizio 11.3.5. Risolvere il sistema



2x1 + x2 + 2x3 + 1x4 = 1


2x1 + 3x2 x3 = 3


1x + x3 = 0
1

Soluzione. Notiamo che il sistema e compatibile, in quanto non ha equazioni del tipo
0 = b, con b termine noto non nullo. La soluzione generale dipendera da n m = 1
parametro (n = 4 sono le incognite e m = 3 le equazioni non nulle).
Risolviamo dal basso verso lalto rispetto allincognita che moltiplica lelemento
speciale, evidenziato in rosso. Dallultima equazione si ottiene x1 = x3 , e sostituendo
nelle rimanenti due:
2x3 + x2 + 2x3 + 1x4 = 1


2x3 + 3x2 x3 = 3
ovvero semplificando
x2 + 1x4 = 1


3x2 3x3 = 3
Dalla seconda equazione si ricava x2 = x3 +1, che sostituita nella prima da x3 +1+1x4 =
1, ovvero x4 = x3 . Detto x3 = t, le soluzioni sono date da

(x1 , x2 , x3 , x4 ) = (t, t + 1, t, t)

per ogni valore del parametro t R. X

86
Lezione XII

Riduzione di sistemi lineari


Sommario: riduzione di una matrice; soluzione di un sistema lineare generale; calcolo
dellinversa di una matrice per riduzione e con il metodo di eliminazione di Gauss.
Esempi ed esercizi.

12.1 Riduzione di una matrice


In questa sezione spieghiamo come trasformare una matrice E in una matrice F ridotta Riduzione
di una
per righe, usando loperazione (III) di pagina 78. Il metodo e una variante del metodo matrice
di eliminazione di Gauss.
Sia E = (aij ) Rm,n , Ei1 la prima riga non nulla di E e sia ai1 j1 il primo elemento
non nullo di Ei1 . Per ottenere una matrice E 0 = (a0ij ) che abbia tutti zeri sotto
lelemento a0i1 j1 effettuiamo la sostituzione

Ek Ek (ai1 j1 )1 akj1 Ei1

per ogni k > i1 . Lelemento ai1 j1 e un elemento speciale della matrice E 0 . Notiamo che
a0ij = aij per ogni i i1 , e che lelemento a0i1 j1 ha tutti zeri sotto di lui.
Sia ora Ei02 la prima riga non nulla di E 0 con i2 > i1 , e sia ai2 j2 il primo elemento
non nullo di Ei02 . Con la sostituzione

Ek0 Ek0 (a0i2 j2 )1 a0kj2 Ei02 ,

per ogni k > i2 , otteniamo una matrice E 00 = (a00ij ) che ha a00ij = a0ij per ogni i i2 , e
tale che lelemento a00i1 j1 ha tutti zeri sotto di lui.
Iterando il procedimento dopo un numero finito di passi (al piu m) si ottiene una
matrice F ridotta per righe, in quanto ogni riga non nulla ha almeno un elemento con
tutti zeri sotto.

Esempio 12.1.1. Riduciamo la matrice



2 1 1 1
A= 3 1 1 1

0 1 1 9

Si ha i1 = j1 = 1 ed il primo passo e quindi



E2 E2 23 E1 2 1 1 1
E3 E3 0E1
A A0 = 0 12 5
52

2
0 1 1 9

87
Quindi i2 = j2 = 2 ed il secondo passo e

2 1 1 1
E30 E30 +2E20
A0 A00 = 0 12 5
52

2
0 0 6 4

A00 e la matrice ridotta cercata.

Esempio 12.1.2. Riduciamo la matrice



0 1 2 1
3 1 1 9
A=


0 4 8 7
4 3 6 5

Stavolta i1 = 1, j1 = 2 ed il primo passo e



E2 E2 +E1 0 1 2 1
E3 E3 4E1
E4 E4 +3E1

0 3 0 1 8
A A =


0 0 0 3
4 0 0 8

La seconda riga ha gia un elemento speciale, quindi possiamo saltare al terzo passo.
Evidentemente i3 = 3 e j3 = 4. Lultimo passo e

0 1 2 1
0 0 8 0 3 0 1 8
0 E4 E4 3 E3 00
A A =


0 0 0 3
4 0 0 0

La matrice A00 e ridotta per righe.

12.2 Soluzione di sistemi lineari generali


Dato un sistema di matrice completa E = (A|B), possiamo trasformarlo in un sistema Soluzione
di sistemi
equivalente di matrice F = (A0 |B 0 ) tale che A0 e ridotta per righe, usando il metodo lineari
illustrato nella sezione precedente. Tale sistema puo quindi essere risolto con il metodo generali

di sostituzione delle variabili. Attenzione: in questo caso ci interessa ridurre per righe
solo la matrice dei coefficienti.

Osservazione 12.2.1. Se F = (A0 |B 0 ) e ridotta per righe, A0 non e necessariamente


ridotta per righe. Ad esempio:
!
0 1 1
F = (A0 |B 0 ) =
1 1 0

88
e ridotta per righe, ma A0 non lo e in quanto
 
0 0 1
A =
1 1

e la prima riga non ha elementi speciali.

Esempio 12.2.2. Sia



0 1 2 1
3 1 1 9
E = (A|B) =


0 4 8 7
4 3 6 5

Usando la solita operazione (III) trasformiamo E in una matrice F = (A0 |B 0 ) con A0


ridotta per righe.
Il primo elemento non nullo della prima riga e 1, in posizione (1, 2). Usiamo (III)
in modo da far venire tutti zeri sotto questo elemento. Il primo passo e

E2 E2 +E1 0 1 2 1
E3 E3 4E1 3 0 1 8
E4 E4 +3E1
E F = (A0 |B 0 ) =


0 0 0 3
4 0 0 8

La matrice F e la matrice cercata. Notiamo che A0 e ridotta per righe (ha un elemento
speciale in tutte le righe esclusa la terza, che e nulla), mentre F non e ridotta per righe
(la terza riga di F e non nulla e non ha elementi speciali).
Notiamo che la matrice di questo esempio e la stessa dellesempio 12.1.2, solo che
stavolta ci siamo fermati al primo passo perche interessati a ridurre solo le prime tre
colonne, e non la matrice completa.

Esercizio 12.2.3. Dire per quali valori di b R il sistema



2x1 + x2 + x3 = 1


x1 x2 x3 = 0


x + 2x + 2x = b
1 2 3

e compatibile, e per tali valori determinarne le soluzioni.

Soluzione. Usando (III) trasformiamo la matrice completa



2 1 1 1
E = (A|B) = 1 1 1 0

1 2 2 b

89
in una matrice F = (A0 |B 0 ), con A0 ridotta per righe. Il primo elemento non nullo della
prima riga e 2, in posizione (1, 1). Il primo passo e

E2 E2 + 21 E1

2 1 1 1
E3 E3 12 E1
E E 0 = 0 12 21 1

2
3 3 1
0 2 2
b 2

Usiamo loperazione (II), che pure trasforma un sistema in uno equivalente, per sem-
plificare le righe con coefficienti non interi:

E20 2E20 2 1 1 1
E 0 2E30
E 0 3 E 00 = 0 1 1 1

0 3 3 2b 1

Il primo elemento non nullo della seconda riga e 1 in posizione (2, 2). Il passo
successivo e

2 1 1 1
E 00 E 00 +3E200
E 00 23 F = (A0 |B 0 ) = 0 1 1 1

0 0 0 2b + 2

La matrice A0 e ridotta per righe. Un sistema ridotto equivalente a quello di partenza


e quindi:
2x1 + x2 + x3 = 1


1x2 x3 = 1


0 = 2b + 2
Per la proposizione 11.3.4 il sistema e compatibile se e solo se = 2b + 2 = 0, ovvero
b = 1. In questultimo caso, procedendo per sostituzione si ottiene: x3 = t R
arbitrario, x2 = x3 1 = t 1, x1 = 12 (1 x2 x3 ) = 1. La soluzione generale e
quindi:
(x1 , x2 , x3 ) = (1, t 1, t)
e dipende da un parametro t R. X

12.3 Calcolo dellinversa di una matrice per riduzione


Sia A = (aij ) Mn (R) una matrice quadrata. Possiamo calcolare linversa (se esiste)
come segue. Una matrice X = (xij ) Mn (R) e inversa di A se risolve il sistema di
equazioni lineari (di n2 equazioni nelle n2 incognite xij ):

A X = In .

90
Possiamo trasformare il sistema in uno equivalente riducendo la matrice (A|In ), e quindi
risolverlo per sostituzione.
Illustriamo questo metodo calcolando linversa della matrice

0 3 0
A = 5 9 7

5 6 8

Abbiamo
0 3 0 1 0 0
E = (A|I3 ) = 5 9 7 0 1 0

5 6 8 0 0 1
Evidentemente i1 = 1 e j1 = 2. Dette Ei le righe della matrice E, il primo passo e

E2 E2 3E1 0 3 0 1 0 0
E3 E3 2E1 0
E E = 5 0 7 3 1 0

5 0 8 2 0 1

Notiamo che i2 = 2 e j2 = 1. Dette Ei0 le righe di E 0 , il passo successivo e



0 3 0 1 0 0
0 E3 E3 E2 00 00 00
E E = (A |B ) = 5 0 7 3 1 0

0 0 1 1 1 1

Dobbiamo ora risolvere il sistema A00 X = B 00 , ovvero svolgendo il prodotto righe per
colonne:
3x21 3x22 3x23 1 0 0
5x11 + 7x31 5x12 + 7x32 5x13 + 7x33 = 3 1 0

x31 x32 x33 1 1 1


Risolvendo dal basso verso lalto per sostituzione si trova:

8 7
2 5
5
A1 = X = 13 0 0

1 1 1

Si puo verificare che la matrice trovata e effettivamente linversa di A.

12.4 Determinare una base per riduzione


Proposizione 12.4.1. Sia A = (aij ) Rk,n una matrice triangolare superiore com-
pleta ed Ei = (0, . . . , 0, aii , ai,i+1 , . . . , ain ) Rn le sue righe, con i = 1, . . . , k e k n.
I vettori Ei sono linearmente indipendenti.

91
Dimostrazione. La condizione

x1 E1 + x2 E2 + . . . + xk Ek = 0

e equivalente al sistema di n equazioni in k incognite:





a11 x1 = 0



a12 x1 + a22 x2 = 0

a13 x1 + a23 x2 + a33 x3

= 0
a1k x1 + a2k x2 + a3k x3 + . . . + akk xk
= 0

.. ..



. .

a x + a x + a x + ... + a x
1n 1 2n 2 3n 3 kn k = 0

Notiamo che la matrice dei coefficienti e la trasposta di A. Risolvendo dallalto verso


il basso: poiche a11 6= 0, deve essere x1 = 0; sostituendo x1 = 0 nelle altre equazioni,
dalla seconda equazione, poiche a22 6= 0, ricaviamo x2 = 0; procedendo in questo modo
si dimostra che lunica soluzione del sistema e x1 = x2 = . . . = xk = 0, ovvero i vettori
Ei sono linearmente indipendenti. 

Corollario 12.4.2. Le righe non nulle di una matrice ridotta per righe sono vettori
linearmente indipendenti (per losservazione 11.3.2).

Il metodo di riduzione di una matrice puo essere usato per calcolare la dimensione
di un sottospazio di Rn . Piu in generale puo essere usato per calcolare la dimensione
di un sottospazio di uno spazio vettoriale V di cui si conosca una base.
Siano Xi = (ai1 , ai2 , . . . , ain ) Rn dei vettori, con i = 1, . . . , k, e sia W Rn il
sottospazio generato da tali vettori. Evidentemente detta A e la matrice che ha Xi
come righe, ed Xi0 le righe di una matrice ridotta A0 ottenuta da A usando (III), allora
W = L(X1 , . . . , Xk ) = L(Xi0 , . . . , Xk0 ). I vettori non nulli dellinsieme {Xi0 , . . . , Xk0 },
essendo linearmente indipendenti (cor. 12.4.2) sono una base di W .
Un discorso analogo vale se Xi sono le n-uple delle componenti di vettori vi V in
una base B fissata, con n = dim(V ).

Esercizio 12.4.3. Determinare una base del sottospazio W di R3 generato dai vettori

v1 = (1, 0, 2) , v2 = (1, 1, 3) , v3 = (2, 1, 3) .

Esprimere tali vettori come combinazione lineare dei vettori della base trovata.

Soluzione. Sia A la matrice che ha per righe vi :



1 0 2
A = 1 1 3 .

2 1 3

92
Riduciamo la matrice A:

E2 E2 +E1 1 0 2 1 0 2
E3 E3 2E1 E30 E30 E20
A A0 = 0 1 1 A00 = 0 1 1 ,

0 1 1 0 0 0

dove abbiamo chiamato Ei = vi le righe di A ed Ei0 le righe di A0 . Una base di W e


data dalle righe non nulle di A00 , ovvero i vettori

w1 = (1, 0, 2) , w2 = (0, 1, 1) .

Le componenti dei vettori vi nella base B = (w1 , w2 ) sono date da

v1 = (1, 0)B , v2 = (1, 1)B , v3 = (2, 1)B .


X

Esercizio 12.4.4. Determinare una base del sottospazio W di M2 (R) generato dalle
matrici      
1 2 1 5 2 7
A1 = , A2 = , A3 = .
3 0 3 1 6 1
Determinare le componenti di tali matrici nella base trovata.

Soluzione. Sia B la base canonica di M2 (R). In tale base

A1 = (1, 2, 3, 0)B , A2 = (1, 5, 3, 1)B , A3 = (2, 7, 6, 1)B .

Riduciamo la matrice E R3,4 che ha per righe le 4-uple delle componenti di A1 , A2 , A3 :



1 2 3 0 E2 E2 E1 1 2 3 0
E3 E3 2E1
E =1 5 3 1 E 0 = 0 3 0 1

2 7 6 1 0 3 0 1

1 2 3 0
E E E1
33 E 00 = 0 3 0 1 .

0 0 0 0

La matrice E 00 e ridotta, le sue righe non nulle:


   
1 2 0 3
B1 = (1, 2, 3, 0)B = , B2 = (0, 3, 0, 1)B = ,
3 0 0 1

formano una base B 0 = (B1 , B2 ) di W . Si puo verificare che in questa base:

A1 = (1, 0)B0 , A2 = (1, 1)B0 , A3 = (2, 1)B0 .


X

93
12.5 Inversa di una matrice con il metodo di Gauss
Abbiamo visto come si calcola linversa di una matrice A = (aij ) Mn (R) per riduzio-
ne. Un metodo alternativo e lalgoritmo di Gauss: invece di trasformare (A|In ) in una
matrice ridotto, la si puo trasformare in una matrice

a011 a012 . . . a01n b011 . . . b01n
0 a022 . . . a02n b021 . . . b02n

0 0
(A |B ) = .
.. . . .. .. ..
.. . . . . .

0 0 . . . a0nn b0n1 . . . b0nn

triangolare superiore. A e invertibile se e solo se A0 e triangolare superiore completa


(poiche deve essere |A0 | =
6 0), ed in questo caso il sistema A0 X = B 0 si puo risolvere
dal basso verso lalto per sostituzione. La soluzione X = (xij ) da linversa di A.

Esempio 12.5.1. Sia


 
1 2
A= .
2 4
Con il metodo di Gauss troviamo
! !
1 2 1 0 E2 E2 2E1 1 2 1 0
(A|I2 ) = (A0 |B 0 ) = .
2 4 0 1 0 0 2 1

Dunque la matrice non e invertibile (come si poteva anche capire dal fatto che le righe
di A sono proporzionali, quindi il determinante e nullo).

Esercizio 12.5.2. Determinare linversa della matrice


 
1 2
A= .
1 1

Soluzione. Con il metodo di Gauss troviamo


! !
1 2 1 0 E E +E1 1 2 1 0
(A|I2 ) = 22 (A0 |B 0 ) = .
1 1 0 1 0 3 1 1

Il sistema    
0 x11 + 2x21 x12 + 2x22 0 1 0
A X = =B =
3x21 3x22 1 1
ha soluzione !
1
23
A1 = X = 3
1 1
3 3 X

94
Lezione XIII

Applicazioni lineari
Sommario: applicazioni lineari e matrici rappresentative; proprieta elementari; nu-
cleo, immagine e teorema della dimensione.

13.1 Definizione e prime proprieta


Definizione 13.1.1. Una applicazione f : V W fra due spazi vettoriali V, W si dice Applicazioni
lineari
lineare se per ogni v1 , v2 V e 1 , 2 R si ha

f (1 v1 + 2 v2 ) = 1 f (v1 ) + 2 f (v2 ) (13.1)

Nel caso in cui V = W , lapplicazione f e detta endomorfismo di V . Endomorfismi

Come nel caso di applicazioni generali, V e detto dominio e W e detto codominio


di f . Due applicazioni lineari f, g sono uguali se hanno lo stesso dominio V , lo stesso
codominio W , e f (v) = g(v) per ogni v V . Data una applicazione lineare f : V
W , un vettore w W si dice immagine di v V tramite f se f (v) = w.

Esempio 13.1.2. Sia V = C k (R) lo spazio delle funzioni R R di classe k (funzioni Derivata

derivabili k volte e con derivate continue, se k 1; funzioni continue se k = 0). La


derivazione
df
D : f 7 D[f ] =
dx
k k1
e una applicazione lineare da C (R) a C (R), per ogni k 1. La derivazione e un
endomorfismo dello spazio delle funzioni di classe C .

Esempio 13.1.3. Sia V = C 0 ([0, 1]) lo spazio delle funzioni continue [0, 1] R. Integrale

Lintegrale Z 1
I : f 7 I[f ] = f (x)dx
0
e una applicazione lineare da V in R.

Esempio 13.1.4. Sia S un insieme e V = Fun(S, R) lo spazio delle funzioni da S in R.


Ad ogni x0 S e associata una applicazione lineare evx0 : V R detta valutazione
in x0 , data da
evx0 [f ] = f (x0 ) .

Esempio 13.1.5. Lapplicazione

f : R R, f (x) = x2 ,

non e lineare. Infatti, ad esempio, 9 = f (1 + 2) 6= f (1) + f (2) = 1 + 4 = 5.

95
Esempio 13.1.6. Ad ogni matrice A Rm,n , e per ogni p, q interi positivi, sono Matrici

associate due applicazioni lineari LA : Rn,p Rm,p e RA : Rq,m Rq,n come segue:
LA (B) = A B B Rn,p , RA (C) = C A C Rq,m .
La linearita segue dalla bilinearita del prodotto righe per colonne (prop. 10.2.3). Dalla
stessa proposizione segue che
LA+A0 = LA + LA0 , LA = LA , RA+A0 = RA + RA0 , RA = RA ,
per ogni R e A, A0 Rm,n . Dallassociativita del prodotto (prop. 10.2.1) segue che
per ogni A Rm,n e B Rn,r :
LA LB = LAB , RB RA = RAB , (13.2)
dove indica come al solito la composizione di applicazioni (definizione 1.3.9).
Segue dalla prop. 10.2.2 che
LIm (B) = B , RIn (B) = B ,
per ogni B Rm,n , ovvero la matrice identica corrisponde alla applicazione identica
(definita a pagina 6).
Sia A Mn (R). Da (13.2) segue che LA e una applicazione invertibile se e solo se
A e una matrice invertibile, e linversa e data da (LA )1 = LA1 . Stesso discorso vale
per RA .
Esempio 13.1.7. Come caso particolare dellesempio precedente, per ogni A Rm,n
abbiamo:
una applicazione lineare RA : Rm Rn , dove gli elementi di Rm ed Rn sono
scritti come vettori riga e RA (X) = X A per ogni X = (x1 , . . . , xm ) Rm ;
una applicazione lineare LA : Rn Rm , dove gli elementi di Rm ed Rn sono
scritti come vettori colonna e LA (Y ) = A Y per ogni Y = t (y1 , . . . , yn ) Rn .
Esempio 13.1.8. Siano V e W due spazi vettoriali di dimensione n ed m rispet-
tivamente. Possiamo allora scegliere una base B = (v1 , . . . , vn ) di V ed una ba-
se B 0 = (w1 , . . . , wm ) di W . Ad ogni matrice A = (aij ) Rm,n e associata una
0
applicazione lineare, che indicheremo con LB,B A , data da
0 Xm Xn
LB,B
A (1 v 1 + 2 v 2 + . . . + n v n ) = aij j wi .
i=1 j=1

In altre parole, se (1 , 2 , . . . , n )B sono le componenti del vettore v nella base B, le


0
componenti (1 , 2 , . . . , m )B0 del vettore w = LB,B 0
A (v) nella base B sono date da

1 a11 a12 . . . a1n 1 1
2 a21 a22 . . . a2n 2 2

. = . .. .. = LA .. .
..
. .
. . . . . .
m am1 am2 . . . amn n n

96
Proposizione 13.1.9. Sia f : V W una applicazione lineare. Allora:
1. f (0V ) = 0W .
2. per ogni n 1, per ogni v1 , . . . , vn V e per ogni 1 , . . . , n R, si ha

f (1 v1 + 2 v2 + . . . + n vn ) = 1 f (v1 ) + 2 f (v2 ) + . . . + n f (vn ) . (13.3)

Dimostrazione. Usando (13.1) nel caso particolare in cui 1 = 2 = 0 e v1 = v2 = 0V


si ottiene
f (0V ) = f (0 0V + 0 0V ) = 0 f (0V ) + 0 f (0V ) = 0W ,
ovvero il primo punto.
Il secondo punto si dimostra per induzione. Usando (13.1) nel caso particolare in
cui 2 = 0 si ottiene laffermazione per n = 1: f (1 v1 ) = 1 f (v1 ). Supponiamo ora
che sia vera per n, allora detto v0 = 1 v1 + 2 v2 + . . . + n vn si ha

f (1 v1 + 2 v2 + . . . + n vn + n+1 vn+1 ) = f (v0 + n+1 vn+1 )


= f (v0 ) + n+1 f (vn+1 ) = 1 f (v1 ) + 2 f (v2 ) + . . . + n f (vn ) + n+1 f (vn+1 ) ,

dove la seconda uguaglianza segue da (13.1) e la terza e lipotesi induttiva. 

Esempio 13.1.10. Lapplicazione f : R R data da f (x) = x + 2 non e lineare, in


quanto f (0) 6= 0.

Corollario 13.1.11. Se V e finitamente generato, una applicazione lineare f : V W


e completamente determinata dai valori assunti sugli elementi di una qualunque base
di V . Se infatti B = (v1 , . . . , vn ) e una base, ogni v V si scrive in modo unico come
combinazione lineare
v = 1 v1 + 2 v2 + . . . + n vn
e da (13.3) segue che

f (v) = 1 f (v1 ) + 2 f (v2 ) + . . . + n f (vn ) .

Lemma 13.1.12. Sia V uno spazio di dimensione finita n, e sia B = (v1 , . . . , vn ) una
base di V . Due applicazioni lineari f, g : V W sono uguali se e solo se

f (vi ) = g(vi ) i = 1, . . . , n . (13.4)

Dimostrazione. Limplicazione e ovvia. Limplicazione e immediata conse-


guenza della linearita di f e g: per ogni v = 1 v1 + 2 v2 + . . . + n vn si ha

f (v) = 1 f (v1 ) + 2 f (v2 ) + . . . + n f (vn ) = 1 g(v1 ) + 2 g(v2 ) + . . . + n g(vn ) = g(v) ,

dove la prima uguaglianza segue dalla linearita di f , lultima da quella di g e la seconda


uguaglianza e (13.4). 

97
Proposizione 13.1.13. Sia f : V W e una applicazione lineare fra due spazi di
dimensione finita, n = dim(V ) e m = dim(W ). Per ogni scelta di una base B =
(v1 , . . . , vn ) di V e di una base B 0 = (w1 , . . . , wm ) di W possiamo trovare una (unica)
0
matrice A = (aij ) Rm,n tale che f = LB,B A . Lelemento aij e dato dalla i-esima
componente di f (vj ) nella base B 0 .
Dimostrazione. f (vj ) W si scrive in modo unico come combinazione lineare dei
vettori wi . Chiamiamo aij le componenti, ovvero f (vj ) = m
P
i=1 aij wi . Allora f (vj ) =
B,B0 0
LA (vj ) per ogni vettore di base e per il corollario 13.1.11 si ha f = LB,B A . 

Se f : V W e una applicazione lineare, B e una base di V e B 0 e una base di W , la Matrice


0
matrice A tale che f = LB,B
A e detta matrice rappresentativa di f rispetto alle basi rappresen-
tativa
0
B e B . Se V = W , chiameremo matrice rappresentativa di f nella base B la matrice
A tale che f = LB,B
A .

Esercizio 13.1.14. Sia B = (1, 0), (0, 1) la base canonica di R2 e B 0 la base B 0 =




v1 = (1, 1), v2 = (1, 4) . Data lapplicazione lineare f : R2 R2 ,
   
x 5x + y
f = ,
y 4x + 2y
determinare la matrice rappresentativa A di f nella base B; determinare la matrice
rappresentativa A0 di f nella base B 0 .
0 0
Soluzione. Vogliamo trovare A, A0 M2 (R) tale che f = LA = LBA0,B . Le colonne di A
sono date da
               
1 a11 1 5 0 a21 0 1
A = =f = , A = =f = .
0 a21 0 4 1 a22 1 2
Quindi
 
5 1
A= .
4 2
Daltra parte a0ij e la i-esima componente del vettore f (vj ) nella base B 0 . Poiche
   
5+1 54
f (v1 ) = = 6v1 , f (v2 ) = = v2 ,
4+2 424
si ha  
0 6 0
A = .
0 1 X

Notiamo (vedere lesempio precedente) che basi diverse corrispondono a matrici


rappresentative differenti di uno stesso endomorfismo, ed ha interesse trovare una base
(se esiste) in cui la matrice rappresentativa sia la piu semplice possibile, ossia diagonale.
Studieremo questo problema (la diagonalizzazione di un endomorfismo) piu avanti
nel corso.

98
13.2 Proprieta delle applicazioni lineari
Se S V e un sottoinsieme ed f : V W una applicazione, indichiamo con f (S) il
sottoinsieme di W dei vettori che sono immagine di (almeno) un vettore di S:

f (S) = w = f (v) : v S . (13.5)

In particolare linsieme f (V ) e detto immagine dellapplicazione f , e linsieme Immagine


N (f ) = v V : f (v) = 0W

e detto nucleo di f . Dalla prop. 13.1.9 (punto 1) segue che 0V N (f ). Nucleo

Proposizione 13.2.1. Sia f : V W una applicazione lineare. Allora:


1. f manda sottospazi in sottospazi; in particolare f (V ) e un sottospazio di W .
2. N (f ) e un sottospazio di V .
3. f manda generatori di S in generatori di f (S).

Dimostrazione. Sia S V un sottospazio, w1 , w2 f (S) e 1 , 2 R. Allora esistono


v1 , v2 S tali che w1 = f (v1 ) e w2 = f (v2 ). Da (13.1) segue che

1 w1 + 2 w2 = 1 f (v1 ) + 2 f (v2 ) = f (1 v1 + 2 v2 ) .

Siccome S e per ipotesi un sottospazio, allora 1 v1 + 2 v2 S e 1 w1 + 2 w2 f (S)


(essendo immagine tramite f dellelemento 1 v1 + 2 v2 S). Per il criterio c) della
proposizione 4.3.3, f (S) e un sottospazio di W . Questo prova il primo punto.
Siano v1 , v2 N (f ) e 1 , 2 R. Da (13.1) segue che

f (1 v1 + 2 v2 ) = 1 f (v1 ) + 2 f (v2 ) = 1 0V + 2 0V = 0V ,

ovvero 1 v1 + 2 v2 N (f ). Per il criterio c) della proposizione 4.3.3, N (f ) e un


sottospazio di V . Questo prova il secondo punto.
Siano v1 , v2 , . . . , vn dei generatori di S. Per ogni w f (S) esiste v S tale
che f (v) = w. Possiamo scrivere v come combinazione lineare dei generatori, v =
1 v1 + 2 v2 + . . . + n vn , e da (13.3) segue che

w = 1 f (v1 ) + 2 f (v2 ) + . . . + n f (vn ) .

Siccome questo vale per ogni w f (S), i vettori f (v1 ), . . . , f (vn ) sono un insieme di
generatori di f (S). 

Ricordiamo che: una applicazione f e suriettiva se ogni elemento del codominio e


nellimmagine di f , ovvero f (V ) = W ; e iniettiva se manda elementi distinti in elementi
distinti, ovvero f (v) = f (v0 ) v = v0 .

99
Proposizione 13.2.2. Una applicazione lineare f e iniettiva se e solo se N (f ) = {0V }.

Dimostrazione. Se N (f ) contiene un vettore v non nullo, allora f (v) = 0W = f (0V )


ed f non e iniettiva. Viceversa se N (f ) = {0V }, allora f (v) f (v0 ) = f (v v0 ) si
annulla se e solo se v v0 = 0V , e questo prova liniettivita di f . 

Proposizione 13.2.3. Una applicazione lineare iniettiva f manda vettori linearmente


indipendenti in vettori linearmente indipendenti.

Dimostrazione. Siano v1 , v2 , . . . , vn linearmente indipendenti e wi = f (vi ). Siccome


N (f ) = {0V }, la combinazione

1 w1 + . . . + n wn = f (1 v1 + . . . + n vn )

e nulla se e solo se la combinazione 1 v1 + . . . + n vn e nulla, ovvero se e solo se


1 = . . . = n = 0 (per ipotesi sullindipendenza dei vettori vi ). Questo prova che i
vettori wi sono linearmente indipendenti. 

Corollario 13.2.4. Sia f : V W una applicazione lineare e siano n = dim(V ) e


m = dim(W ). Si ha:

1. se f e suriettiva, allora n m;
2. se f e iniettiva, allora n m;
3. se f e biunivoca, allora n = m e per ogni base B = (v1 , . . . , vn ) di V linsieme
(f (v1 ), . . . , f (vn )) e una base di W .

Dimostrazione. Sia B = (v1 , . . . , vn ) una base di V . Se f e suriettiva, segue dal punto 3


della proposizione 13.2.1 che (f (v1 ), . . . , f (vn )) sono generatori di f (V ) = W . Quindi
n m (per il lemma di Steinitz).
Segue dal punto 3 della proposizione 13.2.1 e dalla proposizione precedente che, per
ogni sottospazio S V , una applicazione lineare iniettiva f manda basi di S in basi
di f (S). Quindi se f e iniettiva, (f (v1 ), . . . , f (vn )) e una base di f (V ) W , da cui
n = dim f (V ) m.
Se f e sia iniettiva che suriettiva, allora manda basi di V in basi di f (V ) = W , ed
ovviamente n = m. 

Una applicazione lineare biunivoca f : V W e detta isomorfismo fra V e W . Isomorfismo

Se V e finitamente generato e (v1 , . . . , vn ) e una sua base, lapplicazione B : V Rn


che associa ad ogni vettore la sua n-upla delle componenti,

B (x1 v1 + x2 v2 + . . . + xn vn ) = (x1 , x2 , . . . , xn ) ,

e un isomorfismo.

100
Teorema 13.2.5 (della dimensione). Sia n = dim(V ) e f : V W una applicazione Teorema
della di-
lineare. Allora: mensione
dim N (f ) + dim f (V ) = n .

Dimostrazione. Se N (f ) = {0V }, lapplicazione e iniettiva e manda basi di V in basi


di f (V ). Quindi dim f (V ) = dim(V ) = n come richiesto.
Supponiamo che N (f ) 6= {0V }. Sia k la dimensione di N (f ) e (v1 , . . . , vk ) una
sua base. Usando il metodo del completamento ad una base, possiamo completare tale
insieme ad una base (v1 , . . . , vk , vk+1 , . . . , vn ) di V . Osserviamo che f si annulla sui
primi k vettori di base, e

w1 = f (vk+1 ) w2 = f (vk+2 ) ... wnk = f (vn )

sono generatori di f (V ). Facciamo vedere che sono linearmente indipendenti. Sia

1 w1 + 2 w2 + . . . + nk wnk = f (1 vk+1 + 2 vk+2 + . . . + nk vn ) = 0W

una combinazione lineare nulla. Allora

1 vk+1 + 2 vk+2 + . . . + nk vn N (f ) L(vk+1 , . . . , vn ) .

Per costruzione, poiche (v1 , . . . , vk , vk+1 , . . . , vn ) sono linearmente indipendenti, lunico


elemento del nucleo che e combinazione lineare dei vettori (vk+1 , . . . , vn ) e il vettore
nullo. Quindi
1 vk+1 + 2 vk+2 + . . . + nk vn = 0V
e per lindipendenza lineare dei vi questo implica 1 = 2 = . . . = nk = 0.
Abbiamo provato che i vettori wi sono vettori linearmente indipendenti, e quindi
una base di f (V ). Segue che dim f (V ) = n k = n dim N (f ), e questo conclude la
dimostrazione. 

101
Lezione XIV

Rango e sistemi lineari


Sommario: applicazioni e sistemi lineari; rango di una matrice; teoremi di Rouche-
Capelli e di Cramer; teorema degli orlati. Esercizi.

14.1 Applicazioni e sistemi lineari


Sia LA lapplicazione dellesempio 13.1.7 associata ad una matrice A = (aij ) Rk,n .
Notiamo che il nucleo di LA e linsieme dei vettori colonna X = t (x1 , . . . , xn ) tali che

a11 x1 + a12 x2 + . . . + a1n xn 0
a21 x1 + a22 x2 + . . . + a2n xn 0

LA (X) = A X = .. = . ,
.
. .


ak1 x1 + ak2 x2 + . . . + akn xn 0
ovvero linsieme delle soluzioni del sistema lineare omogeneo che ha A come matrice dei
coefficienti. Se (A|B) e la matrice completa di un sistema compatibile, una soluzione e
un vettore colonna X tale che LA (X) = B. Risolvere il sistema vuol dire quindi trovare
tutti i vettori che hanno per immagine un vettore B fissato. Il sistema e compatibile
se e solo se B e nellimmagine di LA .
Proposizione 14.1.1. Data una soluzione X0 di un sistema lineare compatibile
AX =B , (14.1)
tutte e sole le soluzioni di (14.1) si ottengono aggiungendo ad X0 un elemento di
N (LA ), ovvero una soluzione del sistema omogeneo associato. Chiameremo X0 una Soluzione
particolare
soluzione particolare di (14.1).
Dimostrazione. Sia Y una soluzione del sistema. Allora A(Y X0 ) = A Y A X0 =
B B = 0, ovvero Y X0 risolve il sistema omogeneo associato. Viceversa se AZ = 0,
allora detto Y = X0 + Z si ha A Y = A X0 + A Z = B + 0 = B, ovvero Y e soluzione
del sistema lineare. 

14.2 Rango di una matrice


Siano ei i vettori della base canonica di Rn . E immediato verificare che limmagine di
ei tramite LA e data dalli-esima colonna della matrice A:

a1i
a

LA (ei ) = .2i
..
aki

102
per ogni i = 1, . . . , n. Siccome una applicazione lineare manda generatori in generatori,
le colonne di A generano limmagine di LA .
Indichiamo con colonne (A), detto rango per colonne di A, la dimensione dello Rango per
colonne
spazio generato dalle colonne di A; ovvero la dimensione dellimmagine di LA .
Indichiamo con righe (A) = colonne (tA), detto rango per righe di A, la dimensione Rango per
righe
dello spazio generato dalle righe di A.

Teorema 14.2.1. Il rango per righe e uguale al rango per colonne:

righe (A) = colonne (A)

per ogni A Rk,n . Tale numero sara chiamato rango di A ed indicato con (A).

Dimostrazione. Come illustrato nella sezione 12.4, la dimensione dello spazio generato
dalle righe di A si puo calcolare riducendo la matrice e contando le righe non nulle
della matrice ridotta ottenuta, sia essa A0 e m il numero di righe non nulle. Quindi

righe (A) = m .

Il sistema omogeneo AX = 0 e equivalente ad A0 X = 0, e per la proposizione 11.3.4 le


soluzioni formano uno spazio vettoriale di dimensione n m. Quindi

dim N (LA ) = n m .

Per il teorema della dimensione (teorema 13.2.5),

dim N (LA ) + dim LA (Rn ) = dim(Rn ) = n .

Ma per definizione dim LA (Rn ) = colonne (A). Quindi

colonne (A) = n dim N (LA ) = n (n m) = m = righe (A) . 

Corollario 14.2.2. Sia A Rk,n . La dimensione dello spazio delle soluzioni del
sistema omogeneo AX = 0 e n (A).

Segue inoltre dalla proposizione 14.1.1 che:

Corollario 14.2.3. Se AX = B e un sistema compatibile di k equazioni in n incognite,


tutte e sole le soluzioni sono della forma

X = X0 + t1 X1 + . . . + tm Xm

dove:
m = n (A),
t1 , . . . , tm sono parametri reali,

103
X1 , . . . , Xm formano una base dello spazio delle soluzioni del sistema omogeneo
associato,
X0 e una soluzione particolare del sistema AX = B.

Teorema 14.2.4 (Rouche-Capelli). Un sistema di matrice completa (A|B) e compa-


tibile se e solo se
(A|B) = (A) .

Dimostrazione. Per riduzione trasformiamo (A|B) in (A0 |B 0 ), con A0 ridotta per righe.
Il sistema A0 X = B 0 e compatibile se e solo se non contiene equazioni del tipo 0 = b,
con b termine noto non nullo; ovvero, se e solo se il numero di righe non nulle di A0 e
uguale al numero di righe non nulle di (A0 |B 0 ). Siccome il numero di righe non nulle
di A0 e (A) ed il numero di righe non nulle di (A0 |B 0 ) e (A|B), il sistema AX = B e
compatibile se e solo se (A|B) = (A). 

14.3 Proprieta del rango


Evidentemente, siccome righe (A) = colonne (tA) ed il rango per righe coincide con quello
per colonne, si ha (A) = (tA) per ogni matrice A.

Proposizione 14.3.1. Se A Rk,n , allora

(A) min(k, n) .

Diremo che A ha rango massimo se (A) = min(k, n).

Dimostrazione. Se A Rk,n , limmagine di LA e contenuta in Rk ed ha dimensione al


piu pari ad k. Quindi (A) k. Per lo stesso motivo, (tA) n. Siccome (A) = (tA),
(A) e minore del minimo fra k ed n. 

Abbiamo gia osservato che se A Rk,n e ridotta per righe, (A) e dato dal numero
di righe non nulle di A.
Se A Rk,n e triangolare superiore completa, allora ha rango massimo. Infatti in
questo caso A e ridotta per righe, ed il numero di righe non nulle e il minimo fra k e
n (vedere i due casi k n e k > n a pagina 77).

Lemma 14.3.2. A Mn (R) ha determinante diverso da zero se e solo se (A) = n.

Dimostrazione. Se |A| = 6 0, applicando il metodo di eliminazione di Gauss si ottiene da


0
A una matrice A triangolare superiore completa. Le righe di una matrice triangolare
superiore completa sono tutte non nulle, quindi (A) = n.
Viceversa se (A) = n, riducendo per righe A si ottiene una matrice ridotta A00 che
ha tutte le righe non nulle. A00 puo essere trasformata in una matrice triangolare supe-
riore completa A000 riordinando le colonne. Una matrice triangolare superiore completa

104
ha sempre determinante non nullo, e siccome |A| = |A00 | e uguale ad |A000 | a meno di
un segno, si ricava |A| =
6 0. 
Teorema 14.3.3 (Cramer). Un sistema di n equazioni lineari in n incognite AX = B Teorema
di Cramer
ammette ununica soluzione se e solo se |A| = 6 0, ed in tal caso la soluzione e data da
X = (x1 , . . . , xn ) con

a
11 . . . a1,i1 b1 a1,i+1 . . . a1,n

a21 . . . a2,i1 b2 a2,i+1 . . . a2,n

. .. .. .. ..
.
. . . . .

an1 . . . an,i1 bn an,i+1 . . . an,n
xi = (14.2)
|A|
per i = 1, . . . , n. La matrice a numeratore si ottiene da A = (aij ) sostituendo alla
i-esima colonna il vettore colonna dei termini noti B = t (b1 , . . . , bn ).
Dimostrazione. Se il sistema e compatibile, (A) = (A|B) e le soluzioni sono dipen-
dono da n (A) parametri. La soluzione e unica se e solo se (A) = n, ovvero se e
solo se |A| =
6 0 (per il Lemma 14.3.2).
Viceversa se |A| =
6 0, la matrice A e invertibile ed esiste un unico vettore X che ha
per immagine, tramite LA , il vettore B. Tale vettore e dato da:
X = A1 B .
Il sistema e quindi compatibile ed ammette ununica soluzione.
Sia ij il complemento algebrico di aij . Per il teorema di Laplace lelemento in
posizione (i, j) della matrice A1 e dato da cij = |A|1 ji . Quindi
Xn Xn
xi = cij bj = |A|1 bj ji .
j=1 j=1

Nellultima sommatoria riconosciamo lo sviluppo di Laplace della matrice a nume-


ratore dellequazione (14.2), fatto rispetto alla colonna i-esima. Questo conclude la
dimostrazione. 

Anche il calcolo del rango puo essere ridotto ad un calcolo di determinanti, usando il
seguente teorema (enunciato senza dimostrazione), noto come teorema di Kronecker
o anche teorema degli orlati.
Definizione 14.3.4. Data una matrice A Rk,n , una matrice quadrata M ottenuta Minori

da A eliminando k p righe e n p colonne si dira minore di ordine p di A.


Teorema 14.3.5. Una matrice A Rk,n ha rango p se e solo se esiste un minore M Teorema
degli orlati
di ordine p il cui determinante e non nullo, e tutti i minori di ordine p + 1 contenenti
M hanno determinante nullo.
I minori di ordine p + 1 contenenti un minore M di ordine p si dicono orlati di M , Orlati

da cui il nome del teorema.

105
14.4 Esercizi
Esercizio 14.4.1 (4.2.1 di [BruLan]). Determinare il rango della matrice:

1 0 1
A = 2 1 1 .

1 1 0

Soluzione 1 (per riduzione).


Indicando come al solito con Ri le righe, per riduzione si ottiene:

R2 R2 2R1 1 0 1 1 0 1
R R +R1 R30 R30 R20 0
A 33 0 1 3 A = 0 1 3 .

0 1 1 0 0 4

Quindi (A) = (A0 ) = 3. X

Soluzione 2.
Calcoliamo il determinante di A, usando lo sviluppo di Laplace rispetto alla prima riga:

1 1 2 1
|A| =
+ = 1 + 3 = 4 6= 0 .
1 0 1 1

Dal Lemma 14.3.2 segue che A ha rango massimo, ovvero (A) = 3. X

Esercizio 14.4.2 (da 4.6.3 di [BruLan]). Determinare il rango della matrice:



0 1 2 1
0 1 1 1
A= .

0 2 3 2
1 2 2 1

Soluzione 1 (per riduzione).


Riducendo A si ottiene:

R2 R2 R1 0 1 2 1 0 1 2 1
R3 R3 2R1
R R R1 0 0 1 0
R3 R3 R2 0 0 0 1 0

A 44 A = .
0 0 1 0 0 0 0 0
1 1 0 0 1 1 0 0

Quindi (A) = (A0 ) = 3. X

106
Soluzione 2 (con il teorema degli orlati).
Chiamiamo M il minore di ordine 3 di A evidenziato:

0 1 2 1
0 1 1 1

0 2 3 2

1 2 2 1

Il determinante di M e non nullo. Infatti con lo sviluppo di Laplace rispetto alla prima
colonna
1 1
|M | = =1.
2 3
Il suo unico orlato e lintera matrice A, e con lo sviluppo di Laplace rispetto alla prima
colonna si calcola
1 2 1

|A| = 1 1 1


2 3 2
e questo vale 0, poiche lultima riga e somma delle prime due (proposizione 5.4.4, punto
7). Per il teorema degli orlati, questo prova che il rango della matrice e 3. X

Esercizio 14.4.3. Risolvere il sistema di equazioni lineari




x1 + x3 = 3
2x1 + x2 x3 = 0

x1 + x2 = 3

Soluzione. La matrice dei coefficienti e la matrice A dellesercizio 14.4.1, ed il deter-


minante e |A| = 4 e diverso da zero. Per il teorema di Cramer, la soluzione e unica e
data da

3 0 1 1 3 1 1 0 3

0 1 1 2 0 1 2 1 0


3 1 0 1 3 0 1 1 3
x1 = x2 = x3 =
|A| |A| |A|
Ricordiamo che la prima matrice a numeratore si ottiene sostituendo alla prima colonna
di A la colonna dei termini noti (in rosso), la seconda matrice a numeratore si ottiene
sostituendo alla seconda colonna di A la colonna dei termini noti, e la terza matrice a
numeratore si ottiene sostituendo alla terza colonna di A la colonna dei termini noti.
Calcolando i determinanti, ad esempio con lo sviluppo di Laplace rispetto alla
colonna in rosso, si trova (x1 , x2 , x3 ) = (0, 3, 3). X

107
Lezione XV

Esercitazione

15.1 Applicazioni lineari


Esercizio 15.1.1. Per R si consideri la matrice

2 1 4
A = 0 5 0 .

1
Determinare una base per nucleo e immagine dellendomorfismo LA : R3 R3 .

Soluzione. Limmagine di LA e lo spazio generato dalle colonne di A, ovvero dalle righe


di B = tA. Riordinando le righe di B si ottiene

2 0 1 1 5 1 5
R R2 0 R30 R30 2R20
B = 1 5 1 B = 2 0 1 B 00 = 2 0 1 ,

4 0 4 0 0 0 2
in cui abbiamo chiamato Ri le righe di B e Ri0 le righe di B 0 . La matrice B 00 e ridotta
per righe, per ogni R; le righe non nulle sono una base di LA (R3 ). Si ha:
1. Se 6= 2, una base di LA (R3 ) e formata dai vettori v1 = (1, 5, ), v2 = (2, 0, 1),
v3 = (0, 0, 2). La dimensione di LA (R3 ) e 3, quindi LA (R3 ) = R3 .
2. Se = 2, una base di LA (R3 ) e formata dai vettori v1 = (1, 5, 2), v2 = (2, 0, 1).
La dimensione di LA (R3 ) e 2.
Per il teorema della dimensione, il nucleo N (LA ) ha dimensione 0 nel primo caso e 1
nel secondo. Se 6= 2 si ha quindi N (LA ) = {0}.
Se = 2, qualunque vettore non nullo X = (x1 , x2 , x3 ) N (LA ) e una base del
nucleo. Per determinare X, sostituiamo = 2 nellespressione di A e risolviamo il
sistema A X = 0. Dette Ei le righe di A, riducendo A per righe:

2 1 4 2 1 4
E3 E3 21 E1 E30 E30 103 E20 0
A 0 5 0 A = 0 5 0

0 32 0 0 0 0
si ottiene il sistema equivalente A0 X = 0, ovvero

2x1 + x2 + 4x3 = 0
5x2 = 0
che risolto per sostituzione da X = (2x3 , 0, x3 ). Una base del nucleo si ottiene
prendendo x3 = 1, ed e data dal vettore (2, 0, 1). X

108
15.2 Basi e dimensione
Esercizio 15.2.1 (4.6.1 di [BruLan]). Si considerino linsieme I = {v1 , v2 , v3 , v4 , v5 }
dei vettori di R4 :

v1 = (1, 1, 2, 1) , v2 = (2, 2, 4, 2) , v3 = (1, 1, 1, 1) ,


v4 = (1, 3, 3, 3) , v5 = (1, 2, 1, 2) .

Detto W = L(I):

a) Estrarre una base B di W dallinsieme di generatori I.


b) Completare B ad una base di R4 .

Soluzione. Sia A la matrice che ha per righe i vettori di I, ossia



1 1 2 1
2 2 4 2


A= 1 1 1 1

1 3 3 3

1 2 1 2

Riducendo per righe si ha



R3 R2 +2R1 1 1 2 1 1 1 2 1
R3 R3 R1
0 0 0 0 R40 R40 R30 0 0 0 0

R4 R4 +R1
R R R1 R50 2R50 3R30
A0 = 00

A 55 0 2 1 2 A = 0 2 1 2 .

0 2 1 2 0 0 0 0

0 3 1 1 0 0 1 8

Come al solito abbiamo chiamato Ri = vi le righe di A ed Ri0 le righe di A0 . Una base


B 0 di W e data dalle righe Ri00 non nulle di A00 , quindi

B 0 = R100 = (1, 1, 2, 1) , R300 = (0, 2, 1, 2) , R500 = (0, 0, 1, 8) .




Al punto a) si chiede pero di trovare una base formata da vettori di I. Per estrarre una
base B dallinsieme di generatori I e sufficiente prendere le righe di A corrispondenti
alle righe non nulle di A00 . Quindi

B = R1 = v1 , R3 = v3 , R5 = v5 .

Per completare B ad una base di R4 e sufficiente trovare un vettore ei della base


canonica che, aggiunto alla matrice A00 , da una matrice che e ancora ridotta per righe:
infatti, in questo caso ei e linearmente indipendente dai vettori di B 0 , quindi non
contenuto in W , quindi linearmente indipendente dai vettori di B.

109
Il vettore cercato e e4 = (0, 0, 0, 1), infatti
00
R1 1 1 2 1
R00 0 2 1 2
3
00 =


R5 0 0 1 8
e4 0 0 0 1
e ridotta per righe. La base di R4 cercata e quindi (v1 , v3 , v5 , e4 ). X

Esercizio 15.2.2. Si considerino i vettori di R4 :

v1 = (1, 2, 3, 1) , v2 = (4, 2, 2, 0) , v3 = (4, 1, 9, 2) ,

ed i vettori di R3 :

w1 = (1, 4, 4) , w2 = (2, 2, 1) , w3 = (3, 2, 9) , w4 = (1, 0, 2) .

Determinare le dimensioni di V = L(v1 , v2 , v3 ) e di W = L(w1 , w2 , w3 , w4 ).

Soluzione. I vettori vi formano le righe, ed i vettori wj le colonne, della matrice:



1 2 3 1
A= 4 2 2 0

4 1 9 2

Quindi dim(V ) = dim(W ) = (A). Il rango puo essere calcolato come al solito per
riduzione o con il teorema degli orlati. Usiamo il secondo metodo. Il minore di ordine
2 evidenziato ha determinante non nullo:

1 2
4 2 = 6 .

Ha due orlati, ottenuti eliminando la terza e la quarta riga rispettivamente. Il loro


determinante e nullo, come si verifica con lo sviluppo di Laplace rispetto alla colonna
in rosso:

1 2 1
4 2 1 2 1 2
4 2 0 = 1 0 + 2


4 1 2
4 1 4 1 4 2

= 1 (12) + 0 (9) 2 (6) = 12 12 = 0 ,



1 2 3
4 2 1 2 1 2
2 2 = 3 (2)
4 4 1 + (9) 4 2


4 1 9
4 1

= 3 (12) + 2 (9) 9 (6) = 36 18 + 54 = 0 .

Quindi (A) = 3. X

110
15.3 Sistemi lineari
Esercizio 15.3.1. Si consideri il sistema lineare:


x1 x2 + x3 =


x4 = 1
x1 + x2 + x3 + x4 = 0



x1 x2 = 0

a) Stabilire per quali R il sistema e compatibile.


b) Determinare la soluzione generale del sistema per i valori di per i quali e
compatibile.
c) Per ogni R, determinare una base dello spazio W delle soluzioni del sistema
lineare omogeneo associato.

Soluzione. Detta (A|B) la matrice completa del sistema ed Ri le sue righe, riduciamo
la matrice dei coefficienti:

1 1 1 0 1 1 1 0
0 0 0 1 R3 R3 R1 0
0 0 1
(A|B) =


1 1 1 0 0 +1 0 1
1 1 0 0 0 1 1 0 0 0

1 1 1 0
1 1 0 0 0
R R4
2 (A0 |B 0 ) =


0 +1 0 1
0 0 0 1

1 1 1 0
R R +R4
1 1 0 0 0
33 (A00 |B 00 ) = .

0 +1 0 +1 1
0 0 0 1

Le matrici A00 e (A00 |B 00 ) sono ridotte per righe per ogni valore di . Ricordiamo che
(A) e il numero di righe non nulle di A00 e (A|B) e il numero di righe non nulle di
(A00 |B 00 ). Distinguiamo due casi:

i) se = 0 o = 1, (A) = 3 6= (A|B) = 4 ed il sistema non ammette soluzioni


(per il teorema di Rouche-Capelli);
ii) se
/ {0, 1}, (A) = (A|B) = 4 ed il sistema e compatibile.

In risposta al punto a):

il sistema e compatibile se e solo se


/ {0, 1}.

111
Per
/ {0, 1} le soluzioni si determinano risolvendo il sistema equivalente di matrice
completa (A0 |B 0 ), ovvero

x1 x2 + 1x3 =

1x x = 0


1 2


( + 1)x2 + x4 =

x4 = 1

Risolvendo per sostituzione dal basso verso lalto si ottiene la risposta al punto b):

+1 1
, + , , 1 .

(x1 , x2 , x3 , x4 ) = +1 +1

Passiamo al punto c). Il sistema omogeneo associato e equivalente al sistema A0 X = 0,


ossia

x1 x2 + 1x3 = 0

1x1 x2 = 0




( + 1)x2 + x4 = 0

x4 = 0

Lo spazio W delle soluzioni ha dimensione 4 (A), ossia 0 nel caso ii) e 1 nel caso 1.
Se = 0, risolvendo per sostituzione si trova

(x1 , x2 , x3 , x4 ) = (t, t, 0, t)

con t R. Una base di W e quindi data dal vettore (1, 1, 0, 1).


Se = 1, risolvendo per sostituzione si trova

(x1 , x2 , x3 , x4 ) = (t, t, 0, 0)

con t R. Una base di W e quindi data dal vettore (1, 1, 0, 0). X

112
Lezione XVI

Endomorfismi semplici
Sommario: matrice del cambiamento di base; matrici simili e coniugate; matrici
diagonalizzabili/endomorfismi semplici. Rotazioni nel piano.

16.1 Matrice del cambiamento di base


Consideriamo due basi B = (v1 , . . . , vn ) e B 0 = (v10 , . . . , vn0 ) di uno spazio vettoriale V .
Possiamo allora scrivere i vettori vi0 nella base B:

v10 = a11 v1 + a12 v2 + . . . + a1n vn ,


v20 = a21 v1 + a22 v2 + . . . + a2n vn ,
.. ..
. .
vn0 = an1 v1 + an2 v2 + . . . + ann vn .

Definiamo tre matrici n n:



a11 a12 . . . a1n v1 v10
0
a21 a22 . . . a2n v2 v2

0
A= . .. ,
.. E=
.. ,

.. .
E =
.. . . . .
an1 an2 . . . ann vn vn0
Si ha allora:
E0 = A E .
La matrice A, i cui elementi sono le componenti dei vettori della base B 0 nella base B, Matrice del
cambiamento
e detta matrice del cambiamento di base da B a B 0 . di base

Analogamente i vettori vi si possono scrivere nella base B 0 , e chiameremo A0 la


matrice del cambiamento di base da B 0 a B:

E = A0 E 0 .

Proposizione 16.1.1. La matrice A del cambiamento di base da B a B 0 e invertibile,


e la sua inversa e la matrice A0 del cambiamento di base da B 0 a B.
Dimostrazione. Per lassociativita del prodotto righe per colonne

E = A0 E 0 = A0 (A E) = (A0 A) E . (16.1)

Poiche le righe di E sono una base di Rn , il rango e (E) = n e la matrice E e invertibile


(Lemma 14.3.2). Moltiplicando ambo i membri di (16.1) per E 1 da destra, si ottiene:

A0 A = In .

113
Quindi A0 = A1 . 

E naturale chiedersi che relazione ce tra le matrici rappresentative di una applicazione


lineare f : V V (un endomorfismo di V ) in due basi diverse di V .
Ricordiamo che B = (bij ) si dice matrice rappresentativa di f nella base B se:

f (v1 ) = b11 v1 + b21 v2 + . . . + bn1 vn ,


f (v2 ) = b12 v1 + b22 v2 + . . . + bn2 vn ,
.. ..
. .
f (vn ) = b1n v1 + b2n v2 + . . . + bnn vn ,

e in maniera simile e definita la matrice rappresentativa B 0 = (b0ij ) di f nella base B 0 .


In notazione matriciale, dette F ed F 0 le matrici

f (v1 ) f (v10 )
f (v2 ) f (v20 )

0
F = .. ,
F = .. ,

. .
0
f (vn ) f (vn )

si ha
F = tB E , F 0 = tB0 E 0 .

Proposizione 16.1.2. Le matrici rappresentative B e B 0 sono legate dalla relazione:


t
B 0 = A t B A1 ,

o equivalentemente
B 0 = (tA)1 B tA .

Dimostrazione. Come prima cosa, dalla linearita di F segue che

f (vi0 ) = f (ai1 v1 + ai2 v2 + . . . + ain vn ) = ai1 f (v1 ) + ai2 f (v2 ) + . . . + ain f (vn )

o in forma matriciale
F0 = A F .
Quindi
t
B0 E 0 = A tB E .
Usando E = A0 E 0 = A1 E 0 si ottiene:
t
B 0 E 0 = A t B A1 E 0 ,

e siccome la matrice E 0 e invertibile, si ha


t
B 0 = A t B A1 .

114
Applicando la trasposizione ambo i membri di questa uguaglianza, e usando la proprieta
della trasposizione di invertire lordine in un prodotto (proposizione 10.2.5, punto ii),
si trova la relazione equivalente

B 0 = t (A t B A1 ) = (tA)1 B tA .

Esempio 16.1.3. In R2 , si considerino le basi B = v1 = (1, 0), v2 = (0, 1) e B 0 =


v10 = (1, 1), v20 = (1, 1) . Le matrici del cambiamento di base sono date da


   
1 1 0 1 1 1 1
A= , A =A = .
1 1 2 1 1
Se f : R2 R2 e lapplicazione lineare

f (x, y) = (y, x)

la matrice rappresentativa nella base B e


 
0 1
B=
1 0
e la matrice rappresentativa nella base B 0 e
     
0 t 1 t 1 1 1 0 1 1 1 1 0
B = ( A) B A = = .
2 1 1 1 0 1 1 0 1
La matrice B 0 si poteva calcolare direttamente notando che

f (v1 ) = f (1, 1) = (1, 1) = v1 , f (v2 ) = f (1, 1) = (1, 1) = v2 .

Lapplicazione f e una riflessione nel piano rispetto alla bisettrice del II e IV quadrante,
come mostrato in figura.

v2 v1
(x, y)
y
y x

(y, x)

I punti della bisettrice, corrispondenti ai vettori proporzionali a v2 = (1, 1), sono


lasciati invariati da f . I punti fuori dalla bisettrice vengono riflessi rispetto ad essa.

115
16.2 Matrici simili e coniugate
Definizione 16.2.1. Due matrici A, A0 Mn (R) si dicono: Matrici
n n simili e
simili se sono matrici rappresentative di uno stesso endomorfismo f : R R coniugate
in due basi B e B 0 di Rn ;
coniugate se esiste una matrice P Mn (R) invertibile tale che A0 = P 1 AP .
Osservazione 16.2.2. Le due basi nella definizione precedente non devono essere
necessariamente distinte. In particolare, una matrice e sempre simile a se stessa.
Proposizione 16.2.3. A e A0 sono simili se e solo se sono coniugate. In questo caso,
t
P e la matrice del cambiamento di base da B a B 0 .
Dimostrazione. Se A e A0 sono simili, ovvero sono matrici rappresentative di un endo-
morfismo f : Rn Rn in due basi B e B 0 rispettivamente, allora per la proposizione
16.1.2 sono legate dalla relazione A0 = P 1 AP , dove tP e la matrice del cambiamento
di base da B a B 0 . Quindi A e A0 sono coniugate.
Viceversa, supponiamo esista una matrice invertibile P tale che A0 = P 1 AP .
Poniamo f = LA , B = (e1 , . . . , en ) uguale alla base canonica di Rn e B 0 = (v10 , . . . , vn0 )
la base i cui vettori formano le colonne della matrice P . I vettori della base canonica
sono le righe della matrice identica, quindi

e1 v10
0
e2 v2 t

0
E= . . = In , E = . = P .
.
. .
en vn0
La matrice del cambiamento di base da B a B 0 e esattamente tP , poiche

E 0 = tP In = tP E .

La matrice rappresentativa di f nella base canonica e chiaramente A. Per la proposi-


zione 16.1.2, La matrice rappresentativa di f nella base B 0 e data da P 1 AP = A0 . Le
matrici A e A0 sono quindi simili. 
Definizione 16.2.4.
Una matrice A si dice diagonalizzabile se e simile ad una matrice diagonale, Matrici
diagona-
ovvero lizzabili
1 0 0 . . . 0
0 2 0 . . . 0


= 0 0 3 . . . 0
.. .. .. ..

. . . .
0 0 0 . . . n
con 1 , . . . , n R.

116
Un endomorfismo f di V si dice semplice se esiste una base B = (v1 , . . . , vn ) Endomorfismi
semplici
di V in cui e rappresentato da una matrice diagonale , ovvero

f (v1 ) = 1 v1 + 0 v2 + 0 v3 + . . . + 0 vn = 1 v1 ,
f (v2 ) = 0 v1 + 2 v2 + 0 v3 + . . . + 0 vn = 2 v2 ,
f (v3 ) = 0 v1 + 0 v2 + 3 v3 + . . . + 0 vn = 3 v3 ,
.. ..
. .
f (vn ) = 0 v1 + 0 v2 + 0 v3 + . . . + n vn = n vn .

Proposizione 16.2.5. Lendomorfismo LA e semplice se e solo se A e diagonalizzabile.


Dimostrazione. La matrice rappresentativa di LA nella base canonica e A. Se LA e
semplice, esiste una base in cui la matrice rappresentativa e diagonale, quindi A e
simile ad una matrice diagonale, ovvero diagonalizzabile.
Viceversa, se A e diagonalizzabile, ovvero A = P P 1 con diagonale e P
invertibile, allora nella base formata dalle colonne di P lendomorfismo f = LA e
rappresentato dalla matrice diagonale . Quindi LA e semplice. 
Esempio 16.2.6.
La matrice B dellesempio 16.1.3 e diagonalizzabile, essendo simile alla matrice
B 0 , che e diagonale. Anche la matrice B 0 dellesempio 16.1.3 e diagonalizzabile,
essendo gia in forma diagonale.
La matrice identica In e diagonale, quindi diagonalizzabile. La trasformazione
identica LIn e rappresentata dalla matrice identica in ogni base di Rn , poiche
(per la proprieta dellelemento neutro e dellinverso) lunica matrice simile alla
matrice identica e la matrice identica stessa:

P 1 In P = P 1 P = In .
Lendomorfismo
f : R2 R2 , f (x, y) = (2x, 3y) ,
e semplice, essendo rappresentato nella base canonica dalla matrice diagonale
 
2 0
A= .
0 3
Lendomorfismo

f : R2 R2 , f (x, y) = (x + 2y, 3x + 2y) ,



e semplice, essendo rappresentato nella base B = v1 = (2, 3), v2 = (1, 1) dalla
matrice  
4 0
A= .
0 1

117
Come mostrato nel seguente esempio, non tutti gli endomorfismi sono semplici, e
non tutte le matrici sono diagonalizzabili.

Esempio 16.2.7. Lendomorfismo

f : R2 R2 , f (x, y) = (y, x) , (16.2)

non e semplice. In altre parole la sua matrice rappresentativa A nella base canonica:
 
0 1
A=
1 0

non e diagonalizzabile. Infatti, supponiamo per assurdo che esista un vettore v = (x, y)
non nullo ed uno scalare R tale che f (v) = v. Allora (x, y) risolve il sistema

y = x
x = y

Tale sistema ha pero come unica soluzione quella nulla, qualunque sia il valore di .

Un problema che si presenta spesso nelle applicazioni consiste, dato un endomorfi-


smo di uno spazio vettoriale, nel determinare una base (se esiste) in cui e rappresen-
tato da una matrice diagonale. Vedremo nel prossimo capitolo come si risolve questo
problema.

Osservazione 16.2.8. Notiamo che lapplicazione (16.2) rappresenta una rotazione


antioraria di 90 rispetto allorigine degli assi, come si evince dalla figura qui sotto.

(y, x)

x
(x, y)
y
y x

16.3 Esercizio: rotazioni nel piano


Sia X = t (x1 , x2 ) R2 un vettore non nullo ed Y = t (y1 , y2 ) un secondo vettore
della stessa lunghezza ottenuto da X con una rotazione (rispetto allorigine) in senso
antiorario di un angolo . Vogliamo risolvere il seguente problema:

Esercizio 16.3.1. Esprimere (y1 , y2 ) in funzione di (x1 , x2 ).

118
Y
X
y2
x2

y1 x1

Figura 6: Rotazione nel piano

La situazione e illustrata in figura 6.


Proposizione 16.3.2. Si ha

y1 = x1 cos x2 sin ,
y2 = x2 cos + x1 sin ,

ovvero
Y = LR() (X)
dove abbiamo chiamato R() la matrice:
 
cos sin
R() := . (16.3)
sin cos
Dimostrazione. Detto r = kXk = kY k il raggio del cerchio, si ha x1 = r cos , x2 =
r sin , y1 = r cos e y2 = r sin . Poiche = + , usando le formule di addizione e
sottrazione di seno e coseno si ottiene:

y1 = r cos( + ) = r cos cos r sin sin = x1 cos x2 sin ,


y2 = r sin( + ) = r sin cos + r cos sin = x2 cos + x1 sin . 

Lapplicazione lineare
LR() : R2 R2
e quindi una rotazione (rispetto allorigine) in senso antioriario di un angolo .
Le rotazioni soddisfano numerose proprieta, la cui trattazione va oltre gli scopi di
questo corso. Le matrici di rotazione non sono diagonalizzabili (su questo torneremo
piu avanti).

119
Lezione XVII

Autovalori e autovettori
Sommario: autovalori, autovettori, autospazi; polinomio caratteristico; molteplicita
geometrica e algebrica di un autovalore. Esempi.

17.1 Autovalori e autovettori


Definizione 17.1.1. Sia f : V V una applicazione lineare e v V un vettore non Autovalori
e autovet-
nullo. Se esiste R tale che tori
f (v) = v ,
diremo che e un autovalore di f e che v e un autovettore di f associato a .

In altre parole, v e autovettore di f se e trasformato da f in un vettore parallelo


al vettore v stesso.

Osservazione 17.1.2. Un endomorfismo f e semplice (definizione 16.2.4) se esiste una


base di V fatta di autovettori di f .

Definizione 17.1.3. Data A Mn (R), diremo che v Rn e un autovettore di A di


autovalore se v e autovettore di LA di autovalore , ovvero soddisfa:

Av = v .

Osservazione 17.1.4. A Mn (R) e diagonalizzabile (definizione 16.2.4) se esiste una


base di V fatta di autovettori di LA .

Esempio 17.1.5.
Siano a, b R e sia f : R2 R2 lapplicazione f (x, y) = (ax, by). I vettori
e1 = (1, 0) ed e2 = (0, 1) sono autovettori di f :

f (e1 ) = a e1 , f (e2 ) = b e2 ,

associati agli autovalori a e b, rispettivamente.


Sia  
3 2
A= .
0 1
Il vettore e1 = (1, 0) e autovettore di A di autovalore 3:

Ae1 = 3e1 .

Il vettore v = (1, 1) e autovettore di A di autovalore 1: infatti, Av = v.

120
Esempio 17.1.6. La matrice
 
1 1 1
A=
2 1 1

non possiede autovettori. Infatti, per assurdo un autovettore v = (x1 , x2 ) di autovalore


dovrebbe risolvere il sistema

x1 x2 = 2 x1

x1 + x2 = 2 x2

Ma tale sistema non e compatibile (Esercizio: verificare che il sistema non ammette
soluzioni). Notiamo che A rappresenta una rotazione (antioraria, fatta rispetto allorigi-
ne) di 45 , come si vede sostituendo = 45 nellequazione (16.3). In generale, nessuna
matrice di rotazione R() possiede autovettori9 , poiche non esiste nessun vettore non
nullo v che con una rotazione e trasformato in un vettore parallelo a v.

Lemma 17.1.7. Se A = P P 1 , con



1 0 0 ... 0
0 2 0 ... 0


= 0 0 3 ... 0 (17.1)
.. .. .. ..

. . . .
0 0 0 . . . n

diagonale (1 , . . . , n R). Allora la colonna i-esima di P e un autovettore di A di


autovalore i .

Dimostrazione. Sia A = P P 1 con P = (pij ) invertibile e come nellequazione


(17.1). Evidentemente

A P = (P P 1 )P = P (P 1 P ) = P In = P .

Indicando con Xi le colonne di P , si ha



A P = A X1 , A X2 , . . . , A Xn ,

p11 p12 p13 . . . p1n 1 0 0 ... 0
p21 p22 p23 . . . p2n 0 2 0 ... 0


P = p21 p22 p23 . . . p2n
0 0 3 ... 0

.. .. .. .. .. .. .. ..

. . . . . . . .
pn1 pn2 pn3 . . . pnn 0 0 0 . . . n
9
tranne, ovviamente, il caso in cui e un multiplo di 360 : in questo caso R() e la matrice
identica.

121

1 p11 2 p12 3 p13 . . . n p1n
1 p21 2 p22 3 p23 . . . n p2n


1 p21 2 p22
= 3 p23 . . . n p2n
.. .. .. ..

. . . .
1 pn1 2 pn2 3 pn3 . . . n pnn

= 1 X1 , 2 X2 , . . . , n Xn .

Luguaglianza A P = P e quindi equivalente a

A Xi = i Xi i = 1, . . . , n ,

ovvero Xi e autovettore di A di autovalore i . 

E naturale domandarsi se la matrice A del lemma 17.1.7 possiede altri autovalori


oltre agli elementi di matrice di . Vedremo che la risposta e negativa.

Definizione 17.1.8. Se e un autovalore di f , chiameremo autospazio di f associato Autospazio

a linsieme:

V = v V : f (v) = v .
Per estensione, se f = LA diremo che V e un autospazio della matrice A.

Proposizione 17.1.9. Per ogni f e per ogni suo autovalore , lautospazio V e un


sottospazio vettoriale di V .

Dimostrazione. Come al solito dobbiamo provare che per ogni v1 , v2 V e per ogni
a1 , a2 R, la combinazione lineare a1 v1 +a2 v2 appartiene a V . Per ipotesi f (vi ) = vi .
Per la linearita di f si ha

f (a1 v1 + a2 v2 ) = a1 f (v1 ) + a2 f (v2 ) = a1 v1 + a2 v2 = (a1 v1 + a2 v2 ) .

Quindi a1 v1 + a2 v2 e autovettore di f con autovalore , ovvero appartiene a V . 

Segue dalla precedente proposizione che lautovettore di f associato ad un autovalo-


re non e mai unico. Ad esempio se 0 6= v V , allora anche il vettore v appartiene
a V (cos come il vettore av per ogni a R).

Esempio 17.1.10.
Sia f : R2 R2 lapplicazione f (x, y) = (2x, 3y). Gli autospazi di f sono dati
da:
 
V2 = (x, 0) : x R , V3 = (0, y) : y R .

Sia f : R2 R2 lapplicazione f (x, y) = (3x + 2y, y). Gli autospazi di f sono


dati da:
 
V1 = (t, t) : t R , V3 = (t, 0) : t R .

122
Proposizione 17.1.11. Sia f : V V una applicazione lineare e siano v1 , v2 due
autovettori di f associati ad autovalori 1 , 2 distinti (cioe 1 6= 2 ). Allora {v1 , v2 }
sono linearmente indipendenti.

Dimostrazione. Sia per assurdo v2 = av1 . Allora

2 v2 = f (v2 ) = f (av1 ) = af (v1 ) = a1 v1 = 1 v2 .

Quindi
(1 2 )v2 = 0 .
Ma 1 2 6= 0 per ipotesi, e v2 6= 0 per definizione di autovettore. Abbiamo raggiunto
un assurdo: v2 non puo essere proporzionale a v1 , ovvero i due vettori sono linearmente
indipendenti (teorema 6.1.8). 

La proposizione precedente si puo generalizzare come segue.

Proposizione 17.1.12. Sia f : V V una applicazione lineare e siano v1 , v2 , . . . , vk


degli autovettori di f associati ad autovalori 1 , 2 , . . . , k distinti (i 6= j i 6= j).
Allora v1 , v2 , . . . , vk sono linearmente indipendenti.

Dimostrazione. Un autovettore e per definizione non nullo, quindi v1 6= 0. Per il teore-


ma 6.1.8 e sufficiente dimostrare, per ogni i = 2, . . . , k, che vi non e combinazione linea-
re dei vettori v1 , v2 , . . . , vi1 . La dimostrazione procede per induzione. Supponiamo
che sia vera per vi1 (vi1 non e combinazione lineare dei vettori v1 , v2 , . . . , vi2 , ovve-
ro i vettori v1 , v2 , . . . , vi1 sono linearmente indipendenti). Ammettiamo per assurdo
che
vi = a1 v1 + a2 v2 + . . . + ai1 vi1 .
Allora

f (vi ) = a1 f (v1 ) + a2 f (v2 ) + . . . + ai1 f (vi1 ) =


a1 1 v1 + a2 2 v2 + . . . + ai1 i1 vi1 .

Ma deve essere anche

f (vi ) = i vi = i a1 v1 + i a2 v2 + . . . + i ai1 vi1 .

Sottraendo le ultime due equazioni si trova:

a1 (1 i )v1 + a2 (2 i )v2 + . . . + ai1 (i1 i )vi1 = 0 .

Per ipotesi induttiva, i vettori v1 , v2 , . . . , vi1 sono linearmente indipendenti e dalla


precedente equazione si ricava

aj (j i ) = 0 j = 1, . . . , i 1 .

123
Siccome per ipotesi j i 6= 0, i coefficienti aj devono essere tutti nulli. Quindi
vi = 0, contraddicendo lipotesi che si tratta di un autovettore. Questo dimostra il
passo induttivo: vi non puo essere combinazione lineare dei vettori v1 , v2 , . . . , vi1 . 

Corollario 17.1.13.
Se V e uno spazio vettoriale di dimensione n, un endomorfismo f : V V ha
al piu n autovalori distinti.
Una matrice A Mn (R) ha al piu n autovalori distinti.

Dimostrazione. Il primo punto segue dalla proposizione 17.1.12 e dal fatto che in V
non e possibile trovare piu di n vettori linearmente indipendenti. Il secondo punto si
ottiene dal primo quando f = LA e V = Rn . 

17.2 Polinomio caratteristico


Un problema tipico consiste nel determinare autovalori ed autovettori di un endo-
morfismo o di una matrice, e di stabilire se lendomorfismo e semplice e la matrice
diagonalizzabile. Lo studio di autovalori ed autovettori di un endomorfismo f si puo
ridurre al caso delle matrici scegliendo una base (qualsiasi) per il dominio di f , e stu-
diando la matrice rappresentativa in quella base. In questo paragrafo vediamo come si
risolve il problema nel caso delle matrici.
Data A = (aij ) Mn (R) e X Rn , lequazione

A X = X

si puo riscrivere nella forma


(A In )X = 0 (17.2)
Condizione necessaria e sufficiente affinche il sistema omogeneo (17.2) ammetta so-
luzioni non nulle e che la matrice dei coefficienti sia non invertibile, ossia che il suo
determinante sia zero:

a11 a 12 a 13 . . . a 1n


a21 a22 a23 ... a2n


|A In | = a31 a32 a33 . . . a3n = 0 . (17.3)
.. .. .. ..
. . . .

an1 an2 an3 . . . ann

Il determinante (17.3) e un polinomio a coefficienti reali di grado n nella variabile ,


detto polinomio caratteristico di A ed indicato con pA (). Il polinomio caratteristico Polinomio
caratteristico
e della forma

pA () = |A In | = (1)n n + c1 n1 + c2 n2 + . . . + cn1 + cn

124
con coefficienti ci R che dipendono dalla matrice A. In particolare, cn = |A| e il
determinante di A e

(1)n1 c1 = a11 + a22 + a33 + . . . + ann

e la somma degli elementi sulla diagonale, ed e detto traccia della matrice A. Traccia

Abbiamo detto che 0 R e autovalore di A, ossia esiste un vettore non nullo X


tale che AX = 0 X, se e solo se pA (0 ) = 0. Gli autovalori di A sono quindi le radici
reali del polinomio caratteristico.

Osservazione 17.2.1. Gli autovalori di A sono le radici reali del polinomio caratteri-
stico pA ().

Osservazione 17.2.2. Per il teorema di Binet, se P e una matrice invertibile allora

|P 1 (A In )P | = |P |1 |(A In )| |P | = |A In | ,

ovvero matrici coniugate hanno lo stesso polinomio caratteristico. In particolare,


le matrici rappresentative di un endomorfismo f hanno tutte lo stesso polinomio
caratteristico, e le radici reali di tale polinomio sono gli autovalori di f .

Osservazione 17.2.3. Una conseguenza dellosservazione precedente e che due matrici


coniugate hanno lo stesso determinante e la stessa traccia.

Esempio 17.2.4. Se
 
a11 a12
A=
a21 a22
e una matrice 2 2, il suo polinomio caratteristico e dato da

a11 a12
|A I2 | =
= 2 (a11 + a22 ) + a11 a22 a12 a21 .
a21 a22

Esempio 17.2.5. Se
 
0 1
A=
1 0
il polinomio caratteristico e
pA () = 2 + 1 .
Tale polinomio non ammette radici reali10 , e quindi A non possiede autovettori.
10

Le sue radici sono = 1 = i, con i unita immaginaria dei numeri complessi.

125
Esempio 17.2.6. Sia
3 1 1
A = 1 0 2 .

1 2 0
Il polinomio caratteristico e dato da

3 1 1

pA () = 1 2


1 2

2 1 1 1 1
= (3 ) +
2 2 2
= (3 )(2 4) ( 2) + (2 + )
= 3 + 32 + 6 8

(calcolato con lo sviluppo di Laplace rispetto alla prima colonna). Il polinomio si puo
fattorizzare come segue:

pA () = ( 1)( 4)( + 2)

e gli autovalori di A sono dati da = 1, 4, 2.

Metodo pratico di ricerca degli autovalori e autovettori di A:


1. si determinano gli autovalori, ovvero le radici reali del polinomio caratteristico;
2. per ogni autovalore , si determinano gli autovettori associati risolvendo il sistema
omogeneo
(A In )X = 0 .
Lo spazio delle soluzioni e lautospazio V , e la sua dimensione e data da

dim(V ) = n (A In )

in cui (A In ) e il rango di A In (corollario 14.2.2).

Definizione 17.2.7. Chiamiamo molteplicita geometrica dellautovalore di A, Molteplicita


geometrica
indicata con g , la dimensione dellautospazio associato: g = dim(V ).

Se 0 e una radice di pA (), allora il polinomio si puo fattorizzare come segue:

pA () = ( 0 )k q()

dove q() e un polinomio e q(0 ) 6= 0. Lesponente k e detto molteplicita di 0 .

126
Definizione 17.2.8. Chiamiamo molteplicita algebrica dellautovalore di A, Molteplicita
algebrica
indicata con m , la sua molteplicita come radice del polinomio caratteristico.

Teorema 17.2.9. Per ogni autovalore 0 di A, la molteplicita geometrica e minore o


uguale alla molteplicita algebrica:

g0 m0 .

Dimostrazione. Supponiamo g0 = k. Possiamo prendere una base (v1 , . . . , vk ) di V0


e completarla ad una base B = (v1 , . . . , vk , vk+1 , . . . , vn ) di Rn . Siccome

(A In )vi = (0 )vi

per ogni i k, lapplicazione lineare LAIn nella base B e rappresentata da una


matrice

0 0 ... 0 ...
0 0 . . . 0 ...


.. .. .. .. ..

. . . . .

. . . 0 . . .

0 Ik 0 0
M= =
0 0 0 . . . 0 . . .

...

0 0 ... 0
.. .. .. .. ..

. . . . .


0 0 ... 0 ...

dove 0 e la matrice nulla con n k righe e k colonne ed i blocchi indicati con un


asterisco sono arbitrari. Il polinomio caratteristico e pA () = |M |. Facendo k volte lo
sviluppo di Laplace rispetto alla prima riga si trova

pA () = (0 )k q()

dove q() e un polinomio in . La molteplicita algebrica di 0 e k se 0 non e una


radice di q(), altrimenti e maggiore di k. Questo prova che m0 k = g0 . 

Esempio 17.2.10. Sia A la matrice



1 2 3
A = 0 1 5

0 0 1

Siccome A I3 e una matrici triangolare, il determinante e il prodotto degli elementi


sulla diagonale:
pA () = |A I3 | = (1 )3 .

127
Quindi = 1 e autovalore di molteplicita algebrica m = 3. Determiniamo la
molteplicita geometrica. Dobbiamo risolvere il sistema

(A I3 )X = 0

ovvero 
2x2 + 3x3 = 0
5x3 = 0
La soluzione e x2 = x3 = 0 e x1 = t R arbitrario. Lautospazio associato a = 1 e
quindi

V1 = (t, 0, 0) : t R
e la molteplicita geometrica dellautovalore e dim(V1 ) = 1 ed e strettamente minore
della molteplicita algebrica.

Esempio 17.2.11. Gli autovalori di una matrice triangolare superiore sono gli elementi Matrici
triangolari
sulla diagonale. Se infatti superiori

a11 a12 a13 . . . a1n
0 a22 a23 . . . a2n


0
A= 0 a33 . . . a3n
.. .. .. ..

. . . .
0 0 0 . . . ann

allora A In e una matrice triangolare, ed il determinante e dato dal prodotto degli


elementi sulla diagonale:

pA () = |A In | = (a11 )(a22 )(a33 ) . . . (ann ) .

Tutte e sole le radici del polinomio caratteristico (ovvero gli autovalori di A) sono date
dagli elementi a11 , a22 , . . . , ann .

128
Lezione XVIII

Diagonalizzazione di matrici
Sommario: criteri per la diagonalizzabilita di una matrice. Esempi ed esercizi.

18.1 Diagonalizzazione
Ricordiamo che un polinomio p(x) di grado n si puo sempre scrivere come segue:

p(x) = (x z1 )m1 (x z2 )m2 . . . (x zr )mr

dove z1 , . . . , zr C sono radici complesse distinte di p(x) e mi e detta molteplicita


della radice zi . Ad esempio

x3 + x2 33x + 63 = (x 3)2 (x + 7) .

Ovviamente
m1 + m2 + . . . + mr = n .

Osservazione 18.1.1. Gli autovalori di una matrice A Mn (R) sono le radici reali
di pA (). Dette 1 , . . . , r le radici reali distinte, per la molteplicita algebrica vale la
disuguaglianza
m1 + m2 + . . . + m1 n ,
e si ha uguaglianza se e solo se tutte le radici di pA () sono reali.

Lemma 18.1.2. Se A = P P 1 , con



1 0 0 ... 0
0 2 0 ... 0


= 0 0 3 ... 0
.. .. .. ..

. . . .
0 0 0 . . . n

diagonale (1 , 2 , . . . , n R). Allora tutti e soli gli autovalori di A sono dati da


1 , 2 , . . . , n .

Dimostrazione. Segue dallosservazione 17.2.2 che

pA () = p () = (1)n ( 1 )( 2 ) . . . ( n ) .

Le radici (reali) del polinomio caratteristico sono quindi date da 1 , 2 , . . . , n . 

129
Osservazione 18.1.3. Notiamo che la traccia di e data da 1 + 2 + . . . + n ed il
determinante da 1 2 n . Come conseguenza del lemma precedente, poiche A e
hanno lo stesso determinante e la stessa traccia, si ha
la traccia di una matrice diagonalizzabile e la somma dei suoi autovalori (ciascuno
contato con la sua molteplicita);
il determinante di una matrice diagonalizzabile e il prodotto dei suoi autovalori
(ciascuno contato con la sua molteplicita).

Proposizione 18.1.4. La somma di autospazi di un endomorfismo f : V V e


diretta.

Dimostrazione. Siano 1 , . . . , r autovalori distinti di f , e supponiamo che v V1 +


V2 + . . . + Vr si possa scrivere in due modi

v = v1 + v2 + . . . + vr = w1 + w2 + . . . + wr

come somma di vettori degli autospazi, vi , wi Vi i = 1, . . . , r. Allora

(v1 w1 ) + (v2 w2 ) + . . . + (vr wr ) = 0 .

Quindi i vettori vi wi Vi sono linearmente dipendenti. Dalla proposizione 17.1.12


si deduce che questi vettori devono essere tutti nulli (altrimenti sarebbero linearmente
indipendenti), quindi vi = wi i e per ogni vettore v la decomposizione come somma
di vettori degli autospazi Vi e unica. Questo prova che la somma di autospazi e diretta.


Teorema 18.1.5. Un endomorfismo f : V V e semplice se e solo se

V = V1 V2 . . . Vr ,

dove 1 , 2 , . . . , r sono gli autovalori distinti di f (r n) e V1 , . . . , Vr gli autospazi


associati.

Dimostrazione. Proviamo prima che se f e semplice, V e somma diretta degli autospazi.


Sia n = dim(V ) e B = (v1 , . . . , vn ) una base di V formata da autovettori di f (che per
ipotesi e semplice) allora:

V = L(v1 , . . . , vn ) V1 + V2 + . . . + Vr ;

linclusione opposta e ovvia. Poiche la somma e diretta (prop. 18.1.4), si ha la tesi.


Viceversa, sia Bi una base di Vi , per i = 1, . . . , r. Se V e somma diretta degli
autospazi di f , allora B1 B2 . . . Br e una base di V , ed e ovviamente formata da
autovettori di f . 

130
Il teorema che segue fornisce un criterio per stabilire quando una matrice reale e
diagonalizzabile (ovvero quando lendomorfismo associato e semplice).

Teorema 18.1.6. Una matrice A Mn (R) e diagonalizzabile se e solo se:


i) tutte le radici del polinomio caratteristico sono reali;
ii) ogni autovalore ha molteplicita algebrica uguale alla molteplicita geometrica.

Dimostrazione. Dimostriamo prima che la condizione e necessaria. Indichiamo con


1 , 2 , . . . , r gli autovalori distinti di A (r n), e con gi e mi le molteplicita
geometriche e algebriche. Per il teorema 18.1.5 (applicato ad f = LA ) si ha

n = dim(V ) = dim(V1 V2 . . . Vr )
= dim(V1 ) + dim(V2 ) + . . . + dim(Vr )
= g1 + g2 + . . . + gr
m1 + m2 + . . . + mr n ,

dove la seconda riga segue dalla formula di Grassmann e la prima disuguaglianza segue
dal teorema 17.2.9. Deve essere quindi:

m1 + m2 + . . . + mr = n = g1 + g2 + . . . + gr

e per losservazione 18.1.1 questo significa che tutte le radici di pA () sono reali.
Siccome gi mi , la precedente uguaglianza implica anche gi = mi (per ogni
i = 1, . . . , r). Questo prova i) e ii).
Viceversa, se i) e ii) sono verificati, poiche tutte le radici di pA () sono reali, si ha

n = m1 + m2 + . . . + mr = dim(V1 ) + dim(V2 ) + . . . + dim(Vr )

dove lultima uguaglianza segue dallipotesi. Quindi

dim(V ) = dim(V1 V2 . . . Vr )

e per il corollario 7.1.5: V = V1 V2 . . . Vr . Per il teorema 18.1.5, questo prova


che f = LA e semplice, ovvero A e diagonalizzabile. 

Corollario 18.1.7. Se A Mn (R) ha n autovalori distinti, allora e diagonalizzabile.

Dimostrazione. Le radici distinte di pA () sono al piu n. Se A ha n autovalori distinti,


questi sono tutte e sole le radici di pA (), che ha quindi solo radici reali e con molte-
plicita mi = 1 (per i = 1, . . . , n). Siccome 1 gi mi segue che gi = mi = 1 ed
A e diagonalizzabile per il teorema 18.1.6.
Questo si poteva anche dimostrare in maniera diretta, notando che se A ha n
autovalori distinti, ha n autovettori linearmente indipendenti, ed n vettori linearmente
indipendenti formano sempre una base di Rn . 

131
Ricordiamo che una matrice A Mn (R) e diagonalizzabile se e solo se esiste Matrice
diagona-
P Mn (R) invertibile tale che P 1 AP e diagonale. La matrice P , detta matrice lizzante
diagonalizzante di A, si puo determinare come segue. Sappiamo che le colonne di P
sono autovettori di A (lemma 17.1.7). Essendo P e invertibile, ha rango massimo e le
sue colonne sono n vettori linearmente indipendenti: formano quindi una base di Rn .
Data una matrice A Mn (R) diagonalizzabile, per determinare una matrice dia-
gonalizzante P (in generale, non unica) e sufficiente trovare una base B = (v1 , . . . , vn )
di Rn formata da autovettori di A. Una matrice diagonalizzante e la matrice che ha i
vettori vi come colonne.
Proposizione 18.1.8. Sia A Mn (R) diagonalizzabile e B = (v1 , . . . , vn ) una base
di Rn formata da autovettori di A. Detta P la matrice che ha per colonne i vettori vi ,
P 1 AP e diagonale.
Dimostrazione. Per ipotesi Avi = i vi , con i R autovalori di A. Dette wi le righe
di P 1 , la condizione P 1 P = In equivale a

0 se i 6= j ,
wi vj =
1 se i = j .
Lelemento di matrice (i, j) di P 1 AP vale quindi

0 se i 6= j ,
wi Avj = wi (i vi ) = i (wi vi ) =
i se i = j .

Esempio 18.1.9. Una base di R2 formata da autovettori della matrice
 
0 1
A=
1 0
e data da:
v1 = (1, 1) , v2 = (1, 1) .
Si puo infatti verificare che Av1 = v1 e Av2 = v2 . La matrice diagonalizzante e
 
t t
 1 1
P = v1 v 2 = .
1 1
Linversa di P e data da  
1 1 1 1
P =
2 1 1
e si puo verificare facilmente che
     
1 1 1 1 0 1 1 1 1 0
P AP = =
2 1 1 1 0 1 1 0 1
e diagonale e che gli elementi sulla diagonale sono gli autovalori di A.

132
Esercizio 18.1.10. Diagonalizziamo la matrice

3 1 1
A = 1 0 2 .

1 2 0

Soluzione. Gli autovalori sono gia stati calcolati nellesempio 17.2.6, e sono dati da
1 = 1, 2 = 4 e 3 = 2. Avendo tre autovalori distinti, A e diagonalizzabile. Una
base

v1 = (x1 , y1 , z1 ) , v2 = (x2 , y2 , z2 ) , v3 = (x3 , y3 , z3 )
si ottiene risolvendo i sistemi lineari Av1 = v1 , Av2 = 4v2 , Av3 = 2v3 . Procedendo
ad esempio con il metodo di Gauss, si trova che una soluzione non nulla del primo e
data da v1 = (1, 1, 1), una soluzione non nulla del secondo e data da v2 = (2, 1, 1),
ed una soluzione non nulla del terzo e data da v2 = (0, 1, 1). I tre vettori trovati
formano una base di R3 composta da autovettori di A.
La matrice diagonalizzante e data da

1 2 0
P = t v1 t v2 t v3 = 1 1 1


1 1 1

Verifichiamo che P 1 AP e diagonale e che gli elementi sulla diagonale sono gli autova-
lori di A.
Determinante ed aggiunta di P sono dati da:

1 1 1 1
|P | = 1
2 = 6 ,
1 1 1 1

1 1 1 1 1 1
+ +
1 1 1 1 1 1
2 2 0



2 0 1 0 1 2
1 1 + 1 1
P = = 2 1 3 .
1 1
2 1 3


2 0 1 0 1 2


+ +

1 1 1 1 1 1

Usando il teorema di Laplace si trova quindi:



2 2 2
1 t 1
P 1 = (P ) = 2 1 1 .

|P | 6
0 3 3

133
Si puo verificare che

2 2 2 3 1 1 1 2 0
1 1
P AP = 2 1 1 1 0 2 1 1 1

6
0 3 3 1 2 0 1 1 1

2 2 2 1 8 0 1 0 0 1 0 0
1
= 2 1 1 1 4 2 = 0 4 0 = 0 2 0

6
0 3 3 1 4 2 0 0 2 0 0 3

come aspettato. X

Abbiamo gia incontrato esempi di matrici che non ammettono autovalori, e matrici
che ne ammettono ma non sono diagonalizzabili. La matrice dellesempio 17.2.10 ha
un autovalore con molteplicita algebrica 3 e geometrica 1, e per il teorema 18.1.6 non
puo essere diagonalizzata. Nel seguito diamo un esempio geometrico.

Esempio 18.1.11. Per 0 < < 2 consideriamo la matrice



cos sin 0
A = sin cos 0 .

0 0 1

Se v = (x, y, 0) e un vettore del piano z = 0, allora A agisce su v come una rotazione di


un angolo . Se v = (0, 0, z) e un vettore ortogonale al suddetto piano, allora Av = v:
il vettore resta invariato. La matrice A rappresenta quindi una rotazione nello spazio
tridimensionale attorno allasse z.
Il vettore (0, 0, 1) e una base dellautospazio V1 . Un vettore non nullo v = (x, y, 0)
non e mai autovettore di A, in quanto non puo essere trasformato da una rotazione nel
piano in un vettore v0 parallelo a v.
La matrice A non ha quindi altri autovettori oltre ai vettori di V1 . Non esiste una
base di R3 formata da autovettori di A, che quindi non e diagonalizzabile.

Un caso molto importante e dato dalle matrici simmetriche. Una matrice A Rn si Matrici
simmetriche
dice simmetrica se tA = A. Le matrici simmetriche si possono sempre diagonalizzare.
Piu in generale, vale il seguente teorema (qui enunciato senza dimostrazione):

Teorema 18.1.12. Sia A una matrice simmetrica. Allora:


A e diagonalizzabile;
autovettori associati ad autovalori distinti sono ortogonali;
esiste una base ortonormale di Rn fatta di autovettori di A.

134
18.2 Esercizi
Esercizio 18.2.1. Siano A, B, C le seguenti matrici:
     
1 1 1 2 3 4
A= , B= , C= .
0 1 3 1 1 0

a) Determinare il polinomio caratteristico di ciascuna matrice.


b) Determinare gli autovalori di ciascuna matrice.
c) Stabilire quali delle tre matrici sono diagonalizzabili.

Soluzione. a) pA () = ( + 1)2 , pB () = 2 + 5, pC () = 2 + 3 4 = ( 1)( + 4).


b) la matrice A ha autovalore 1 con molteplicita algebrica 2; B non ha autovalori
reali; gli autovalori di C sono 1 = 1, 2 = 4.
c) B non e diagonalizzabile. C ha due autovalori distinti, quindi e diagonalizzabile.
Un autovettore v = t (x1 , x2 ) di A deve risolvere il sistema
    
0 1 x1 0
(A (1)I2 )v = = .
0 0 x2 0

Quindi V1 = {(x, 0) : x R} ha dimensione 1 ed A non e diagonalizzabile (la


molteplicita geometrica di e 1, ed e minore della molteplicita algebrica). X

Esercizio 18.2.2. Per t R si consideri la matrice



1 0 t2
A = 0 t 0 .

1 0 1

a) Dire per quali valori di t la matrice e diagonalizzabile.


b) Per i valori di t determinati in a), trovare una base di R3 formata da autovettori
di A.

Soluzione. a) il polinomio caratteristico e pA () = (t )(2 2 + 1 t2 ). Le sue


radici sono
1 = t , 2 = 1 t , 3 = 1 + t .
Si hanno tre casi
1. se t = 0, gli autovalori sono 1 = 0 e 2 = 3 = 1; A e diagonalizzabile se e solo
se la molteplicita geometrica dellautovalore 1 e pari alla molteplicita algebrica,

135
ovvero uguale a 2. La molteplicita geometrica g e la dimensione del nucleo di
A I2 , ovvero g = 3 (A I2 ). Poiche

0 0 0
A I3 = 0 1 0 ,

1 0 0
si ha (A I2 ) = 2 e g = 1. Quindi la matrice A non e diagonalizzabile.
2. se t = 1/2, gli autovalori sono 1 = 2 = 1/2 e 3 = 3/2; come nel primo caso, A
e diagonalizzabile se e solo se (A 2 I2 ) = (A 21 I2 ) = 1. Evidentemente

1/2 0 1/4
A 21 I3 = 0 0 0 .

1 0 1/2
Siccome la terza riga e il doppio della prima, il rango e 1 ed A e quindi diagona-
lizzabile.
3. se t
/ {0, 1/2} i tre autovalori sono distinti. Quindi A e diagonalizzabile.
b) Diagonalizziamo A nei casi t = 1/2 e t
/ {0, 1/2}:
1. se t = 1/2, gli autovettori v = t (x, y, z) associati allautovalore 1 = 2 = 1/2
risolvono

1
1/2 0 1/4 x 4
(2x + z)
0 = (A 12 I3 )v = 0 0 0 y = 0 .

1
1 0 1/2 z 2
(2x + z)
Quindi z = 2x ed y e arbitrario. Una base di V1/2 e data dai vettori (1, 0, 2)
e (0, 1, 0).
Gli autovettori v = t (x, y, z) associati allautovalore 3 = 3/2 risolvono

1
1/2 0 1/4 x 4
(2x + z)
0 = (A 32 I3 )v = 0 1 0 y = y .

1
1 0 1/2 z 2 (2x + z)
Quindi z = 2x e y = 0. Una base di V3/2 e data dal vettore (1, 0, 2). I tre
autovettori insieme formano una base B di R2 :

B = (1, 0, 2) , (0, 1, 0) , (1, 0, 2) .

/ {0, 1/2}, un autovettore v = t (x, y, z) associato allautovalore 1 = t si


2. se t
ottiene risolvendo

1 t 0 t2 x (1 t)x + t2 z
0 = (A tI2 )v = 0 0 0 y = 0 .

1 0 1t z x + (1 t)z

136
Una soluzione e data da v1 = (0, 1, 0).
Un autovettore v = t (x, y, z) associato allautovalore 2 = 1 t si ottiene
risolvendo

t 0 t2 x t(x + tz)
0 = (A (1 t)I2 )v = 0 2t 1 0 y = (2t 1)y .

1 0 t z x + tz

Una soluzione e data da v2 = (t, 0, 1).


Un autovettore v = t (x, y, z) associato allautovalore 3 = 1 t si ottiene
risolvendo

t 0 t2 x t(x tz)
0 = (A (1 + t)I2 )v = 0 1 0 y = y .

1 0 t z x tz

Una soluzione e data da v3 = (t, 0, 1). I tre vettori v1 , v2 , v3 formano la base


cercata. X

Esercizio 18.2.3. Per t R si considerino le matrici



t 0 0 t 1 10
A = 0 2 0 , B = 0 2 0 .

0 0 3 0 t t

a) Determinare nucleo e immagine dellendomorfismo LB : R3 R3 .


b) Si stabilisca per quali valori di t le matrici A e B sono simili.

Soluzione. a) Limmagine di LB e generata dalle colonne di B, ovvero dalle righe di


t
B. Si puo trovare una base riducendo t B per righe. Dette Ri le sue righe, si ha
R
t 0 0 R 1 3
R2 R1 1 2 t
t R R2
B = 1 2 t 3 M = 10 0 t .

10 0 t t 0 0

La matrice M e ridotta per righe per ogni valore di t. Se t 6= 0, (B) = (M ) = 3


e limmagine di LB e R3 ; se t = 0, le due righe non nulle di M formano una base
dellimmagine di LB , che ha quindi dimensione 2.
Per il teorema della dimensione, se t 6= 0 il nucleo e N (LB ) = {0}. Se t = 0, il
nucleo ha dimensione 1 ed i suoi vettori si trovano risolvendo il sistema

0 1 10 x y + 10z 0
0 2 0 y = 2y = 0 .

0 0 0 z 0 0

137
Si trova y = z = 0 e x arbitrario. Quindi N (LB ) = L{(1, 0, 0)}.
b) Condizione necessaria e che A e B abbiano gli stessi autovalori. Gli autovalori di A
sono t, 2, 3. Quelli di B sono le radici di

pB () = (t )2 (2 ) .

Le due matrici hanno gli stessi autovalori se e solo se t = 3. In questultimo caso, B


e diagonalizzabile (quindi, simile ad A) se e solo se lautovalore = 3 ha molteplicita
geometrica pari a quella algebrica (che e 2). Lautospazio associato e formato dai
vettori v = t (x, y, z) che risolvono:

0 1 10 x y + 10z
0 = (B 3I2 )v = 0 1 0 y = y .

0 3 0 z 3y

Quindi y = z = 0 ed x e arbitrario. Una base di V3 e data da (1, 0, 0), e la molteplicita


geometrica di = 3 e dim(V3 ) = 1. Possiamo concludere che le matrici A e B non
sono simili per nessun valore di t. X

Esercizio 18.2.4. Siano A, B, C le seguenti matrici:



2 1 0 1 1 0 1 1 1
A = 0 2 0 , B = 0 2 0 , C = 0 t 0 .

0 0 1 0 0 2 0 0 2

a) Determinare autovalori ed autovettori di A e B.


b) Stabilire se A e B sono simili.
c) Esistono valori di t R per cui B e C sono simili?

Soluzione. a) le tre matrici sono triangolari superiori: gli autovalori sono gli elementi
sulla diagonale.
Gli autovalori di A sono 1 = 1 e 2 = 2. Il primo ha molteplicita algebrica 1, il
secondo 2. Gli autovettori associati, v1 = t (x, y, z) e v2 = t (x0 , y 0 , z 0 ), devono risolvere

1 1 0 x x+y
0 = (A 1 I2 )v1 = 0 1 0 y = y

0 0 0 z 0
e
0 1 0 x0 y0
0 = (A 2 I2 )v2 = 0 0 0 y 0 = 0 .

0 0 1 z0 z 0

138
Quindi V1 = {(0, 0, z) : z R} e V2 = {(x0 , 0, 0) : x0 R}. Notiamo che la matrice A
non e diagonalizzabile, poiche 2 ha molteplicita geometrica data da dim(V2 ) = 1 ed
algebrica uguale a 2.
Gli autovalori di B sono 01 = 1 e 02 = 2. Il primo ha molteplicita algebrica 1, il
secondo 2. Gli autovettori associati, v10 = t (x, y, z) e v20 = t (x0 , y 0 , z 0 ), devono risolvere

0 1 0 x y
0 0
0 = (B 1 I2 )v1 = 0 1 0 y = y

0 0 1 z z
e
1 1 0 x0 x0 + y 0
0 = (B 02 I2 )v20 = 0 0 0 y 0 = 0 .

0
0 0 0 z 0
Quindi V01 = {(x, 0, 0) : x R} e V02 = {(x0 , x0 , z 0 ) : x0 , z 0 R}. I tre vettori (1, 0, 0)
V01 e (1, 1, 0), (1, 1, 1) V02 formano una base di R3 , quindi B e diagonalizzabile (in
alternativa, basta si poteva notare che la molteplicita algebrica di ciascun autovalore e
uguale a quella algebrica).

b) A e B non sono simili: infatti B e diagonalizzabile ed A no.

c) Condizione necessaria e che B e C abbiano gli stessi autovalori, quindi t = 2.


Per t = 2, C e simile a B se e diagonalizzabile, ovvero se la molteplicita geometrica
dellautovalore = 2 e pari a 2. Determiniamo lautospazio associato. Un vettore
v = t (x, y, z) e autovettore di C associato allautovalore = 2 se risolve

1 1 1 x x + y + z
0 = (C 2I2 )v = 0 0 0 y = 0 .

0 0 0 z 0

Quindi V2 = {(y + z, y, z) : y, z R}. Una base di V2 e data ad esempio dai vettori


(1, 1, 0) e (1, 0, 1). La molteplicita geometrica dellautovalore = 2 e dim(V2 ) = 2,
quindi C e diagonalizzabile.
In risposta al punto c), B e C sono simili se (e solo se) t = 2. X

Esercizio 18.2.5. Sia A la matrice



2 1 1 0
0 3 4 0
A= .

0 0 5 0
0 0 0 1

Riconoscere che e diagonalizzabile e determinare una matrice diagonalizzante P .

139
Soluzione. A ha quattro autovalori distinti (gli elementi sulla diagonale): 1 = 1,
2 = 2, 3 = 3, 4 = 5. E quindi diagonalizzabile. Per trovare un autovettore
v = t (x1 , x2 , x3 , x4 ) associato allautovalore 1 dobbiamo risolvere il sistema:

1 1 1 0 x1 x1 + x2 + x3
0 2 4 0
x2 2x2 + 4x3

0 = (A I2 )v = =


0 0 4 0 x3 4x3
0 0 0 0 x4 0

La soluzione e x1 = x2 = x3 = 0 e x4 arbitrario. Un autovettore e v1 = (0, 0, 0, 1).


In maniera simile, per trovare un autovettore associato allautovalore 2 risolviamo
il sistema
0 1 1 0 x1 x2 + x3
0 1 4 0 x x + 4x
2 2 3
0 = (A 2I2 )v = =


0 0 3 0 x3 3x3
0 0 0 1 x4 x4
La soluzione e x2 = x3 = x4 = 0 e x1 arbitrario. Un autovettore e v2 = (1, 0, 0, 0).
Per 3 risolviamo il sistema

1 1 1 0 x1 x1 + x2 + x3
0 0 4 0 x 4x3
2
0 = (A 3I2 )v = =


0 0 2 0 x3 2x3
0 0 0 2 x4 2x4

La soluzione e x3 = x4 = 0 e x1 = x2 arbitrario. Un autovettore e v3 = (1, 1, 0, 0).


Per 4 risolviamo il sistema

3 1 1 0 x1 3x1 + x2 + x3
0 2 4 0 x 2x + 4x
2 2 3
0 = (A 5I2 )v = =


0 0 0 0 x3 0
0 0 0 4 x4 4x4

La soluzione e x4 = 0, x2 = 2x3 e x1 = x3 . Un autovettore e v4 = (1, 2, 1, 0).


La matrice diagonalizzante e

0 1 1 1
t
 0
0 1 2
P = v1 t v 2 t v3 t v 4 = .

0 0 0 1
1 0 0 0
X

140
Lezione XIX

Geometria di R2
Sommario: rette e circonferenze nel piano; intersezioni; distanze (puntopunto, punto
retta, rettacirconferenza); rette tangenti ad una circonferenza. Esempi.

19.1 Equazioni di una retta


Sia O = (0, 0) lorigine del piano cartesiano. Consideriamo due punti, P di coordinate
u = (u1 , u2 ) e Q di coordinate x = (x1 , x2 ) di R2 , distinti e diversi dallorigine.
I tre punti O, P e Q sono allineati se e solo se x = tu per qualche t 6= 0, ovvero
se e solo se i corrispondenti vettori x e u sono proporzionali. Ad esempio, assumendo
per semplicita che x1 e u1 siano diversi da zero, linclinazione del segmento OP e
larcotangente di x2 /x1 , linclinazione del segmento OQ e larcotangente di u2 /u1 , ed i
punti sono allineati se e solo se x2 /x1 = u2 /u1 , ovvero esiste t 6= 0 tale che x1 = tu1 e
x2 = tu2 . In figura 7a e disegnato lesempio u = (1, 2) e x = 3u = (3, 6).
Lequazione

x1 = tu1
x = tu
x2 = tu2
al variare di t R descrive tutti i punti appartenenti alla retta r0 passante per lorigine
e la cui direzione e data dal vettore u = (u1 , u2 ) (lorigine si ottiene per t = 0).
Sommando a tu un vettore p = (p1 , p2 ) indipendente da t si ottiene una retta
parallela ad r0 ma passante per il punto di coordinate p = (p1 , p2 ). La retta r passante
per p e parallela ad u e quindi il luogo dei punti11 di coordinate x date da
 Equazione
x1 = p1 + tu1 parametrica
x = p + tu (19.1)
x2 = p2 + tu2 di una retta

Come esempio, in figura 7b e disegnata (in blu) la retta di direzione u = (2, 1) e


passante per il punto p = (0, 1).
Lequazione (19.1) e detta equazione parametrica della retta r. Lequazione
parametrica di una retta non e unica. Moltiplicando ad esempio il vettore u per
uno scalare, la retta rappresentata non cambia (vettori proporzionali hanno la stessa
direzione). Inoltre come punto p e possibile scegliere un qualsiasi punto della retta.
Ad esempio le equazioni:

r : x = (1, 1) + t(3, 2) , r0 : x = (1, 1) + t(6, 4) , r00 : x = (4, 3) + t(6, 4) ,

11
Un luogo geometrico e linsieme di tutti e soli i punti del piano che hanno una determinata
proprieta, solitamente espressa attraverso una equazione.

141
6 x
u

p
2 u

1 3

(a) Vettori proporzionali (b) Retta passante per p = (0, 1) e parallela a u = (2, 1)

Figura 7

descrivono la stessa retta. Le rette r e r0 coincidono, perche abbiamo semplicemente


moltiplicato per 2 il vettore che da la direzione della retta. Inoltre il punto (4, 3)
appartiene ad r (si ottiene scegliendo t = 1 nellequazione di r), quindi anche r00
coincide con r.
Data una retta r di equazioni parametriche (19.1), possiamo ridurre lambiguita
nella scelta del vettore che ne individua la direzione chiedendo che abbia norma 1.
Esistono solo due vettori di norma 1 paralleli ad r, sono dati da u/kuk e si dicono
versori della retta. Versore

Si dice invece vettore normale ad r un qualsiasi vettore non nullo n che sia Vettore
normale
perpendicolare alla retta stessa. Ad esempio, il vettore n = (u2 , u1 ) e ortogonale ad
u, e tutti i vettori normali sono proporzionali ad esso.
Eliminando da (19.1) il parametro t si ottiene una equazione detta equazione
cartesiana della retta r. Per eliminare il parametro t e sufficiente prendere in ambo i
membri di (19.1) il prodotto scalare con il vettore n = (u2 , u1 ). Si ottiene

n x = n p u2 x1 + u1 x2 = u2 p1 + u1 p2 .

Chiamando a = u2 , b = u1 e c = u2 p1 u1 p2 si trova lequazione cartesiana di una


generica retta r, data da
Equazione
ax1 + bx2 + c = 0 . (19.2) cartesiana
di una retta
Abbiamo provato che (19.1) implica (19.2). Mostriamo che e vero anche il viceversa,
(19.2) implica (19.1) e quindi descrive lo stesso luogo geometrico (la stessa retta).
Notiamo che per ipotesi (a, b) 6= (0, 0), poiche u 6= (0, 0). Il rango della matrice dei
coefficienti e quindi 1, e la soluzione generale di (19.2) dipende da un parametro t.
Evidentemente p e una soluzione particolare, poiche

ap1 + bp2 + c = u2 p1 + u1 p2 + u2 p1 u1 p2 = 0 .

142
La soluzione generale ha quindi la forma x = p + tv dove v e una qualsiasi soluzione
non nulla dellequazione omogenea associata. Possiamo scegliere v = u, infatti

au1 + bu2 = u2 u1 + u1 u2 = 0 ,

ottenendo in questo modo x = p + tu, che e esattamente (19.1).

Osservazione 19.1.1. Lequazione (19.2) descrive una retta se e solo se (a, b) 6= (0, 0)
(se a = b = 0 linsieme delle soluzioni e linsieme vuoto, se c 6= 0, oppure lintero piano,
se c = 0). Il vettore n = (a, b) e perpendicolare alla retta di equazione (19.2).

Osservazione 19.1.2. Come per le equazioni parametriche, anche lequazione carte-


siana di una retta non e unica. Ad esempio, moltiplicando tutti e tre i coefficienti a, b, c
per uno scalare non nullo si ottiene una equazione differente della medesima retta. Ve-
dremo in effetti, quando parleremo di intersezioni, che due equazioni ax1 + bx2 + c = 0
e a0 x1 + b0 x2 + c0 = 0 descrivono la stessa retta se e solo i vettori (a, b, c) e (a0 , b0 , c0 ) di
R3 sono proporzionali.

Supponiamo di voler risolvere il seguente problema: sia r la retta di equazione Rette


ortogonali
ax1 + bx2 + c = 0 e p = (p1 , p2 ) un punto qualsiasi del piano. Vogliamo scrivere
lequazione parametrica della retta r0 passante per p ed ortogonale ad r. La soluzione
e semplice: r0 ha equazione

0 x1 = p1 + ta
r : (19.3)
x2 = p2 + tb
come si evince notando che la direzione di r0 e data dal vettore (a, b), che e perpendi-
colare ad r (osservazione 19.1.1).
Un altro problema che puo capitare e di voler trovare unequazione della retta
passante per due punti dati. Siano a = (a1 , a2 ) e b = (b1 , b2 ) due punti distinti: e Rette
passante per
immediato trovare lequazione parametrica della retta passante per questi due punti. due punti
In (19.1) si pone p = a e si nota che la retta deve essere parallela al vettore u = b a.
Unequazione parametrica e quindi data da

x1 = a1 + t(b1 a1 )
(19.4)
x2 = a2 + t(b2 a2 )

Si noti che ponendo t = 0 nelle equazioni parametriche si ritrova il punto x = a, e


ponendo t = 1 si trova il punto x = b.
Per ottenere unequazione cartesiane basta prendere lequazione x = a + t(b a) e
fare il prodotto scalare ambo i membri con il vettore normale (u2 , u1 ) = (a2 b2 , b1
a1 ). Si ottiene
(a2 b2 )x1 (a1 b1 )x2 + a1 b2 a2 b1 = 0 .

143
b

u a

Figura 8

In forma matriciale, lequazione si puo scrivere nella forma:



x1 a1 x2 a2
b a b a =0. (19.5)

1 1 2 2

Esempio 19.1.3. Scriviamo lequazione della retta passante per i punti a = (1, 2) e
b = (2, 4). Lequazione parametrica e data da

x1 = 1 3t
x2 = 2 + 2t

Lequazione cartesiana e data da:



x1 1 x2 2
= 2x1 + 3x2 8 = 0 .
3 2

Il grafico e in figura 8.

19.2 Intersezione fra due rette


Date due rette r e r0 ci sono tre possibilita: le rette si intersecano in un punto, sono
parallele (quindi hanno intersezione vuota), oppure coincidono (e lintersezione e tutta
la retta). Per stabilire quale dei tre casi si verifica, si puo usare il rango.
Lintersezione r r0 e il luogo dei punti le cui coordinate risolvono il sistema

ax1 + bx2 + c = 0
a0 x 1 + b 0 x 2 + c 0 = 0

in cui la prima equazione e unequazione cartesiana della retta r, la seconda e unequa-


zione cartesiana della retta r0 , e per ipotesi (a, b) 6= (0, 0) e (a0 , b0 ) 6= (0, 0).
Indicando con A e (A|B) le matrici associate al sistema:
! !
a b a b c
A= , (A|B) = ,
a0 b 0 a0 b0 c0

144
evidentemente il rango soddisfa

1 (A) (A|B) 2 ,

in cui la prima disuguaglianza segue dal fatto che ogni riga di A ha almeno un elemento
non nullo. Per il teorema di Rouche-Capelli,
1. se (A) = 1 e (A|B) = 2 il sistema non ammette soluzione, e r r0 = e
linsieme vuoto (questo vuol dire che le rette r e r0 sono parallele e distinte);
2. se (A) = (A|B) = 1 le due righe della matrice dei coefficienti sono proporzio-
nali, e le due rette coincidono: r = r0 ; in questo caso lintersezione r r0 = r e
una retta;
3. se (A) = (A|B) = 2 il sistema ammette ununica soluzione, e lintersezione
r r0 e un punto.

Esempio 19.2.1. Siano r e r0 le rette di equazioni cartesiane

r : 2x1 3x2 + 1 = 0
r0 : 4x1 6x2 = 0

Si ha (A) = 1 e (A|B) = 2: le due rette sono parallele e non coincidenti.

Esempio 19.2.2. Siano r e r0 le rette di equazioni cartesiane

r : 2x1 3x2 + 1 = 0
r0 : 4x1 + 2x2 1 = 0

Si ha (A) = (A|B) = 2: le due rette si incontrano in un punto.

Esempio 19.2.3. Siano r e r0 le rette di equazioni cartesiane

r : 2x1 3x2 + 1 = 0
r0 : 4x1 6x2 + 2 = 0

Si ha (A) = (A|B) = 1: le due rette coincidono.

19.3 Circonferenze
Ricordiamo che la distanza del punto P di coordinate x = (x1 , x2 ) dallorigine, ovvero
la lunghezza del segmento OP , e data da
q
kxk = x21 + x22 .

Piu in generale (vedere figura 9a), la distanza fra due punti di coordinate x = (x1 , x2 )
e y = (y1 , y2 ), indicata con d(x, y), e la norma del vettore (x1 y1 , x2 y2 ), ossia
p
d(x, y) = kx yk = (x1 y1 )2 + (x2 y2 )2 .

145
x = (x1 , x2 )
d(x, y) = kx yk
|x2 y2 |
c
y = (y1 , y2 ) R
|x1 y1 |

(a) Distanza (b) Circonferenza di centro


c = (4, 2) e raggio R = 3.

Figura 9

Una circonferenza di centro c = (c1 , c2 ) e raggio R > 0 e linsieme dei punti del piano Circonferenza

a distanza R dal punto c. Quindi un punto x e sulla circonferenza se e solo se soddisfa:

kx ck = R ,

ovvero elevando al quadrato ambo i membri:


Equazione della
(x1 c1 )2 + (x2 c2 )2 = R2 . (19.6) circonferenza

Un esempio e in figura 9b.


Data una retta di equazione ax1 + bx2 + d = 0, lintersezione della retta con la Intersezione
fra retta e una
circonferenza di equazione (19.6) e linsieme delle soluzioni del sistema (non lineare): circonferenza

(x1 c1 )2 + (x2 c2 )2 = R2


ax1 + bx2 + d = 0

Per trovare le intersezioni si procede per sostituzione. Sappiamo che (a, b) 6= (0, 0).
Supponiamo ad esempio sia a 6= 0, allora dalla seconda equazione ricaviamo x1 =
a1 (bx2 + d), che sostituita nella prima da una equazione di secondo grado in una
sola variabile. Il numero di soluzioni (reali) dipendera dal segno del discriminante. Si
hanno tre possibilita:
1. se il discriminante e positivo, retta e circonferenza si incontrano in due punti;
2. se il discriminante e zero, retta e circonferenza si incontrano in un punto (in
questo caso la retta si dice tangente alla circonferenza); Retta
tangente
3. se il discriminante e negativo, lintersezione e vuota.

Esempio 19.3.1. Determiniamo lintersezione della retta di equazione x1 x2 + 2 = 0


con la circonferenza di centro (2, 1) e raggio 3 (figura 10a). Dobbiamo risolvere il
sistema
(x1 2)2 + (x2 1)2 = 9


x1 x2 + 2 = 0

146
(a) (b) (c)

Figura 10

Dalla seconda si ricava x2 = x1 +2, che sostituita nella prima da (x1 2)2 +(x1 +1)2 9 =
0. Sviluppando i quadrati si trova

2x21 2x1 4 = 0

che ha soluzioni x1 = 2, 1. Usando x2 = x1 + 2 si evince che lintersezione e data dai


due punti di coordinate (2, 4) e (1, 1).

In maniera simile si trova lintersezione fra due circonferenze, diciamo una di centro
c = (c1 , c2 ) e raggio R e la seconda di centro c0 = (c01 , c02 ) e raggio R0 . Se le due Intersezione
fra due
circonferenze hanno lo stesso centro, allora coincidono oppure hanno intersezione vuota. circonferenze
Supponiamo quindi che c 6= c0 . Lintersezione e linsieme delle soluzioni del sistema
(non lineare):
(x1 c1 )2 + (x2 c2 )2 = R2


(x1 c01 )2 + (x2 c02 )2 = R02


Notiamo che sottraendo membro a membro le due equazioni, i termini di secondo grado
scompaiono. Si ottiene in questo modo il sistema equivalente

(x1 c1 )2 + (x2 c2 )2 = R


2(c1 c01 )x1 + 2(c2 c02 )x2 = (c21 c02 2 02 2


1 ) + (c2 c2 ) R + R
02

La seconda equazione descrive una retta, ed il sistema si puo ora risolvere come nel
caso delle intersezioni fra retta e circonferenza. A seconda dei casi, le due circonferenze
si incontreranno in un punto, in due o in nessuno.

Esempio 19.3.2. In figura 10b e mostrata come esempio lintersezione fra la circonfe-

renza di centro (2, 1) e raggio 3 e la circonferenza di centro ( 23 , 52 ) e raggio 5 2/2.
Le due circonferenze si incontrano nei punti (1, 1) e (2, 2).

147
Un altro problema consiste, data una circonferenza di centro c e raggio R ed un Tangenti ad una
circonferenza
punto p sulla circonferenza, nel trovare lequazione della retta r tangente alla circon-
ferenza nel punto p. La tangente deve essere ortogonale al segmento da c a p, ovvero
al vettore p c. Lequazione cartesiana di r sara quindi

(p c) (x p) = 0 .

Si vede infatti che la direzione e quella giusta e x = p e soluzione particolare delle-


quazione, quindi p e un punto della retta.

Esempio 19.3.3. La retta tangente alla circonferenza di centro c = (2, 2) e raggio


R = 5 nel punto p = (5, 2) ha equazione

3x1 4x2 23 = 0 .

La situazione e illustrata in figura 10c.

19.4 Distanze
La distanza di un punto p da una retta r e la lunghezza del segmento che va da p alla
proiezione ortogonale di p su r, sia essa q. Se r ha equazione cartesiana (19.2), la retta
r0 ortogonale ad r e data da (19.3). Lintersezione fra r ed r0 si ottiene sostituendo i
valori di x1 e x2 dati da (19.3) nellequazione (19.2) e risolvendo in t. Si ottiene

ax1 + bx2 + c = a(p1 + ta) + b(p2 + tb) + c = 0

ovvero
ap1 + bp2 + c
t= .
a2 + b 2
Sostituendo in (19.3) si trovano le coordinate del punto q = (x1 , x2 ), date da

ap1 + bp2 + c ap1 + bp2 + c


x1 = p 1 a, x1 = p2 b.
a2 + b2 a2 + b 2
La distanza fra p ed r e quindi data da

|ap1 + bp2 + c| Distanza


d(p, r) = kp qk = . (19.7) punto-retta
a2 + b 2
Esempio 19.4.1. La distanza fra la retta r di equazione 7x1 4x2 + 6 = 0 ed il punto
p = (4, 1) vale
|7 4 4 1 + 6| 30
d(p, r) = = .
2
7 +4 2 65
La situazione e illustrata in figura 11a.

148
r
r d(r, C)
d(p, r)

(a) (b)
Figura 11

Analogamente, per calcolare la distanza fra due rette parallele r ed r0 si calcola la


distanza di r da un qualsiasi punto p r0 . Per finire, data una circonferenza C di
centro c e raggio R, un punto p ed una retta r, se d(p, c) R la distanza di p da C e
data dalla distanza dal centro meno il raggio:

d(p, C) = d(p, c) R ,

e in maniera simile se d(r, c) R la distanza di r da C e d(r, C) = d(c, r) R.


Esempio 19.4.2. La distanza fra la retta r di equazione 3x1 4x2 + 14 = 0 e la
circonferenza di centro c = (3, 1) e raggio R = 5/4 e data da:
|3 3 4 1 + 14| 5 19 5 51
d(r, C) = = = .
2
3 +4 2 4 5 4 20
La situazione e illustrata in figura 11b.

19.5 Esercizi
Osservazione 19.5.1. Osserviamo che

x1 x2 1
x 1 a1 x 2 a2
= a1 a2 1 .
b a b a
1 1 2 2
b1 b2 1

Quindi, lequazione cartesiana di una retta passante per due punti distinti a = (a1 , a2 )
e b = (b1 , b2 ) si puo anche scrivere nella forma

x1 x2 1

a1 a2 1 = 0 .


b1 b2 1

In particolare, questo significa che tre punti x = (x1 , x2 ), a = (a1 , a2 ) e b = (b1 , b2 )


sono allineati (cioe contenuti in una retta) se e solo se il determinante qui sopra e nullo.

149
Esercizio 19.5.2. Stabilire se i punti (1, 3), (2, 1) e (3, 1) sono allineati.

Soluzione. Usiamo losservazione 19.5.1. Calcolando il determinante per riduzione e


poi con lo sviluppo di Laplace rispetto alla terza colonna si trova:

1 3 1 R2 R2R1 1 3 1
R3 R3R1 3 4
2 1 1 = 3 4 0 = = 6 + 8 = 14 .


3 1 1

2 2 0
2 2

Quindi i punti non sono allineati. X

Esercizio 19.5.3. Determinare una equazione cartesiana e una parametrica della retta
passante per i punti (2, 1) e (2, 3).

Soluzione. Usando (19.4) si trova una equazione parametrica:



x1 = 2 4t
x2 = 1 + 2t

e usando (19.5) si trova quella cartesiana. Poiche



x1 2 x2 1
= 2x1 + 4x2 8 ,
4 2

una equazione cartesiana e x1 + 2x2 4 = 0. X

Esercizio 19.5.4. Si determini la distanza del punto p = (2, 1) dalla retta r di equa-
zione 2x1 x2 + 5 = 0. Si determini la distanza del punto p0 = (1, 3) dalla retta r0 di
equazione x1 + 2x2 7 = 0.

Soluzione. Usando la formula (19.7) si ottiene:

|2 2 1 1 + 5| 8
d(p, r) = = ,
22 + 12 5
e
|1 1 + 2 3 7|
d(p0 , r0 ) = =0.
12 + 22
La distanza di p0 da r0 e zero. Si puo in effetti notare che p0 r0 . X

Esercizio 19.5.5. Si determini la distanza fra le rette di equazioni:



x1 = 2 4t
r: , r0 : x1 + 2x2 7 = 0 .
x2 = 1 + 2t

150
Soluzione. Notiamo che le due rette sono parallele. La prima e parallela al vettore
u = (4, 2), la seconda e ortogonale al vettore (a, b) = (1, 2), ovvero parallela al
vettore u0 = (2, 1). Siccome u = 2u0 le due rette sono parallele.
La distanza fra r e r0 e la distanza fra un qualsiasi punto p r ed r0 . Ad esempio,
possiamo scegliere p = (2, 1) e calcolare

|1 2 + 2 1 7| 3
d(p, r0 ) = = .
2
1 +2 2 5
X

Esercizio 19.5.6. Determinare lintersezione fra le circonferenze C e C 0 di equazione

(x1 3)2 + (x2 + 4)2 = 25 , (x1 + 1)2 + x22 = 9 .

Soluzione. Sottraendo membro a membro le due equazioni si ottiene lequazione:

r : 8x1 + 8x2 + 8 = 0 .

Poiche C C 0 = r C 0 , basta determinare lintersezione di C 0 con la retta r. Dalle-


quazione di r si ricava x1 = x2 + 1, che sostituita nellequazione di C 0 da:

(x2 + 2)2 + x22 = 9 2x22 + 4x2 5 = 0 .


q q
7
Le soluzioni sono date da x2 = 1 ed i corrispondenti valori di x1 sono 72 .
2
,
p p  p p 
Lintersezione e quindi nei due punti 7/2, 7/2 1 e 7/2, 7/2 1 . La
situazione e illustrata in figura 12. X

Figura 12

151
Lezione XX

Esercitazione
Sommario: esempi svolti di temi desame.12

20.1 Tema desame #1


Esercizio 20.1.1. Si consideri il seguente sistema di equazioni lineari dipendente da
un parametro R:


x2 + x4 = 2

x1 + 2x2 + 2x3 + 2x4 = 3
x2 + ( + 2)x3 + ( + 3)x4 = 2


( 1)x1 + 2x2 + x3 + 2x4 = 5

a) Determinare i valori di per cui il sistema ammette soluzioni;


b) per i valori di trovati al punto a), determinare la soluzione generale del sistema.

Esercizio 20.1.2. Nello spazio vettoriale R4 si considerino i seguenti sottospazi:



V := L (2, 4, 1, 3), (1, 0, 1, 0), (4, 8, 2, 6), (2, 12, 1, 9) ,
W := (x1 , x2 , x3 , x4 ) R4 : x1 x3 = 2x1 + x2 + 2x3 + x4 = 0 .


a) Si determini, se esiste, una base per ciascuno dei sottospazi: V , W , V W , V +W ;


b) la somma V + W e diretta?
c) si determini, se esiste, una base di W .

Esercizio 20.1.3. Si consideri la matrice:



2 0 4
A = t + 1 1 2t

t + 1 0 2t + 2

Stabilire per quali valori di t R la matrice A e diagonalizzabile.

12
Con un abuso di notazione, in questo capitolo la riga i-esima di una qualsiasi matrice verra indicata
sempre con il simbolo Ri .

152
20.2 Tema desame #2
Esercizio 20.2.1. Considerare la matrice

1 0 2
1 1 3
A=


2 1 3
0 1 1

a) Calcolare il rango di A;
b) indicare una base per lo spazio delle righe ed una per lo spazio delle colonne di A;
c) discutere il sistema
AX =B
nelle variabili X = t (x1 , x2 , x3 ), con B = t (1, 1, 4, 2);
d) esistono valori di t R per cui AX = B 0 , con B 0 = t (1, 1, t, t), ammette soluzione?

Esercizio 20.2.2. Sia V il sottospazio di R3 formato dai vettori v della forma

v = ( 2a1 + a2 , a1 a3 , a1 + a2 + a3 )

con a1 , a2 , a3 R.

a) Calcolare la dimensione di V ;
b) scrivere una base di V .

Esercizio 20.2.3. Siano A e B le matrici



4 1 0 2 1 0
A= 0 2 0 , B= 0 2 0 ,

0 0 2 0 0 t

con t parametro reale.

a) Calcolare gli autovalori di A e trovare una base per ciascun autospazio di A;


b) la matrice A e diagonalizzabile? In caso affermativo, trovare una matrice diago-
nalizzante;
c) esistono valori di t R per cui le matrici A e B sono simili?

153
20.3 Soluzioni tema desame #1
Esercizio 20.3.1. Si consideri il seguente sistema di equazioni lineari dipendente da
un parametro R:


x2 + x4 = 2

x1 + 2x2 + 2x3 + 2x4 = 3


x2 + ( + 2)x3 + ( + 3)x4 = 2
( 1)x1 + 2x2 + x3 + 2x4 = 5

a) Determinare i valori di per cui il sistema ammette soluzioni;


b) per i valori di trovati al punto a), determinare la soluzione generale del sistema.

Soluzione. a) La matrice completa del sistema e



0 1 0 1 2
1 2 2 2 3
(A|B) = .

0 1 +2 +3 2
1 2 2 5

Per riduzione si ottiene



1 2 2 2 3

R R2
(A|B) 1 0 1 0 1 2
1 2 2 5

0 1 +2 +3 2

1 2 2 2 3

R4 R4 (1)R1 0 1 0 1 2
0

1 +2 +3 2

0 2 + 4 + 2 2 + 4 3 + 8

1 2 2 2 3
R3 R3 R2
R4 R4 +(24)R2 0 1 0 1 2
(A0 |B 0 ) =
0 0 +2 +2
.
0
0 0 + 2 0

La matrice completa A0 e ridotta per righe, qualunque sia il valore di . Se = 2,


allora (A) = 3 6= (A|B) = 4, e il sistema non e compatibile. Se = 2, allora
(A) = (A|B) = 3: il sistema e compatibile e le soluzioni dipendono da un parametro
reale. Se 6= 2, allora (A) = (A|B) = 4, e il sistema e compatibile ed ammette
ununica soluzione.
b) Il sistema di matrice completa (A0 |B 0 ) e equivalente a quello di partenza ed e dato

154
da

x1 + 2x2 + 2x3 + 2x4 = 3

x2 + x4 = 2


( + 2)(x3 + x4 ) = 0

( + 2)x3 =
Se 6= 2 lunica soluzione si trova per sostituzione dal basso verso lalto. Si ottiene
 
+2 4
(x1 , x2 , x3 , x4 ) = , , ,
2 2 2 2

Se = 2 il sistema diventa

x1 + 2x2 + 2x3 + 2x4 = 3

x2 + x4 = 2

4x3 = 2

Assegnando un valore t arbitrario ad x4 e risolvendo per sostituzione si trova

(x1 , x2 , x3 , x4 ) = 0, 2 t, 12 , t ,


con t R. X

Esercizio 20.3.2. Nello spazio vettoriale R4 si considerino i seguenti sottospazi:



V := L (2, 4, 1, 3), (1, 0, 1, 0), (4, 8, 2, 6), (2, 12, 1, 9) ,
W := (x1 , x2 , x3 , x4 ) R4 : x1 x3 = 2x1 + x2 + 2x3 + x4 = 0 .


a) Si determini, se esiste, una base per ciascuno dei sottospazi: V , W , V W , V +W ;


b) la somma V + W e diretta?
c) si determini, se esiste, una base di W .

Soluzione. a) Dei generatori di V , il terzo e proporzionale al primo. Per stabilire se i


restanti vettori, li scriviamo come righe di una matrice e la riduciamo per righe:

2 4 1 3 2 4 1 3 2 4 1 3
R3 R3 3R1 R3 R3 +4R2
1 0 1 0 1 0 1 0 1 0 1 0 .

2 12 1 9 4 0 4 0 0 0 0 0

La terza riga e nulla. Una base B di V e data dai primi due generatori:

B = u1 = (2, 4, 1, 3) , u2 = (1, 0, 1, 0) .

155
W e lo spazio delle soluzioni di un sistema di due equazioni lineari omogenee: la prima
e equivalente a x1 = x3 , che usata nella seconda da 2x1 + x2 + 2x3 + x4 = x2 + x4 = 0,
ossia x2 = x4 . I vettori di W hanno quindi la forma

1 0
0 1 t 
1
v = (t1 , t2 , t1 , t2 ) =

1 0 t2

0 1

con t1 , t2 R. In altre parole, W e limmagine dellapplicazione lineare LA : R2 R4


associata alla matrice
1 0
0 1
A= .

1 0
0 1
Tale immagine e generata dalle colonne di A, che sono evidentemente linearmente
indipendenti e formano quindi una base. Una base B 0 di W e quindi data dai vettori:

B 0 = u2 = (1, 0, 1, 0) , u3 = (0, 1, 0, 1) .


I tre vettori u1 , u2 , u3 generano V + W . La matrice



u1 2 4 1 3

B = u2 = 1 0 1 0


u3 0 1 0 1

ha rango massimo, cioe (B) = 3. Infatti il minore 3 3 evidenziato ha determinante


non nullo (con lo sviluppo di Laplace rispetto alla terza riga si verifica che il determi-
nante e 1). Quindi le righe di B sono linearmente indipendenti e formano una base
di V + W . Una base di V + W e quindi data dai vettori u1 , u2 , u3 .
Lintersezione V W e data dai vettori di V che soddisfano le equazioni che
definiscono W . Ogni vettore di V ha la forma:

(x1 , x2 , x3 , x4 ) = t1 u1 + t2 u2 = (2t1 + t2 , 4t1 , t1 + t2 , 3t1 ) .

Sostituendo nelle equazioni di W si trova



x1 x3 = (2t1 + t2 ) (t1 + t2 ) = t1 = 0
2x1 + x2 + 2x3 + x4 = x2 + x4 = 4t1 + 3t1 = 0

I vettori di V W hanno quindi la forma (t2 , 0, t2 , 0), ovvero sono proporzionali al


vettore u2 . Se ne deduce che una base di V W e formata dal vettore u2 .

156
b) Ricordiamo che la somma di due sottospazi e diretta se e solo se la loro intersezione
e data dal solo vettore nullo. Siccome V W = L(u2 ) 6= {0}, la somma V + W non e
diretta.
c) Un vettore v = (x1 , x2 , x3 , x4 ) appartiene a W se e solo se il suo prodotto scalare
con i vettori della base B 0 e zero:

u2 v = x1 + x3 = 0
u3 v = x2 x4 = 0

La soluzione dipende da due parametri reali, ed e data da



1 0
0 1  
1
v = (1 , 2 , 1 , 2 ) =

1 0 2

0 1

con 1 , 2 R. In altre parole, W e limmagine dellapplicazione lineare LC : R2 R4


associata alla matrice
1 0
0 1
C= .

1 0
0 1
Le colonne di C sono linearmente indipendenti e formano quindi una base di W . X

Esercizio 20.3.3. Si consideri la matrice:



2 0 4
A = t + 1 1 2t

t + 1 0 2t + 2

Stabilire per quali valori di t R la matrice A e diagonalizzabile.

Soluzione. Il polinomio caratteristico e dato da



2 0 4

pA () = |A I3 | = t + 1 1 2t .


t+1 0 2t + 2

Con lo sviluppo di Laplace rispetto alla seconda colonna si trova:



2 4
pA () = ( + 1)
t + 1 2t + 2

= ( + 1) 2 (2t + 4) = ( + 1) (2t + 4) .
 

157
Gli autovalori sono quindi

1 = 0 , 2 = 1 , 3 = 2t + 4 .

/ {2, 25 }, la matrice e A certamente


Se i tre autovalori sono distinti, ossia se t
diagonalizzabile. Rimangono da studiare i due casi t = 2 e t = 5/4.
Sia t = 2, quindi 3 = 1 = 0. A e diagonalizzabile se e solo se la molteplicita
geometrica dellautovalore 0, data da g0 = 3 (A 0I3 ), e pari a 2. Per t = 2,

2 0 4 0 0 0
R1 R1 +2R3 0
A = 1 1 4 A = 1 1 4 .

1 0 2 1 0 2

A0 e ridotta per righe, quindi (A) = (A0 ) = 2. La molteplicita geometrica dellauto-


valore 0 e g0 = 3 2 = 1 e la matrice A non e diagonalizzabile.
Passiamo al caso t = 5/2, quindi 3 = 2 = 1. A e diagonalizzabile se e solo se
la molteplicita geometrica dellautovalore 1, data da g1 = 3 (A + 1I3 ), e pari a
2. Per t = 2,

3 0 4 R2 R2 + 21 R1 3 0 4
R3 R3 + 12 R1 00
A + I3 = 23 0 5 A = 0 0 3 .

32 0 2 0 0 0

A00 e ridotta per righe, quindi (A) = (A00 ) = 2. La molteplicita geometrica dellau-
tovalore 1 e g1 = 3 2 = 1 e la matrice A non e diagonalizzabile.
/ {2, 52 }.
In conclusione: A e diagonalizzabile se e solo se t X

20.4 Soluzioni tema desame #2


Esercizio 20.4.1. Considerare la matrice

1 0 2
1 1 3
A=


2 1 3
0 1 1

a) Calcolare il rango di A;
b) indicare una base per lo spazio delle righe ed una per lo spazio delle colonne di A;
c) discutere il sistema
AX =B
nelle variabili X = t (x1 , x2 , x3 ), con B = t (1, 1, 4, 2);

158
d) esistono valori di R per cui A X = B , con B = t (1, 1, , ), ammette
soluzione?

Soluzione. a) Per riduzione si trova:



1 0 2 1 0 2
R2 R2 +R1 R3 R3 R2

R3 R3 2R1 0 1 1 R4 R4 R2 0 1 1
A .

0 1 1 0 0 0
0 1 1 0 0 0

Quindi il rango e (A) = 2. Le righe non nulle della matrice trovata formano una base
per lo spazio generato dalle righe di A. Quindi:
b) Una base per lo spazio delle righe di A e data da:

B = (1, 0, 2) , (0, 1, 1) .

Una base per lo spazio delle colonne si ottiene riducendo tA. Si ha:

1 1 2 0 1 1 2 0 1 1 2 0
t R3 R3 +2R1 R3 R3 R2
A = 0 1 1 1 0 1 1 1 0 1 1 1 .

2 3 3 1 0 1 1 1 0 0 0 0

Una base per lo spazio delle colonne di A e quindi data da

B 0 = (1, 1, 2, 0) , (0, 1, 1, 1) .


c) Con le stesse operazioni usate al punto a) si riduce la matrice completa (A|B) del
sistema:
1 0 2 1
R3 R3 R2 3R1 0
R R R2 R1 1 1 1
(A|B) 44 (A0 |B 0 ) = .

0 0 0 0
0 0 0 0
Un sistema equivalente e quindi:

x1 2x3 = 1
x2 + x3 = 1

Il sistema e compatibile, e la soluzione generale e data da

(x1 , x2 , x3 ) = (1 + 2t, 1 t, t)

per t R.

159
d) Ripetendo le stesse operazioni del punto c) riduciamo la matrice (A|B ):

1 0 2 1
R3 R3 R2 3R1
R R R2 R1 0 1 1 1
(A|B ) 44 .

0 0 0 4
0 0 0 2

Qualunque sia il valore di almeno una fra la terza e la quarta riga e non nulla: poiche
(A) = 2 e (A|B ) {3, 4}, si ha sempre (A) 6= (A|B ). La risposta e quindi (per il
teorema di Rouche-Capelli): il sistema al punto d) non ammette soluzioni per nessun
valore di . X

Esercizio 20.4.2. Sia V il sottospazio di R3 formato dai vettori v della forma

v = ( 2a1 + a2 , a1 a3 , a1 + a2 + a3 )

con a1 , a2 , a3 R.

a) Calcolare la dimensione di V ;
b) scrivere una base di V .

Soluzione. Notiamo che


2 1 0 a1
v = 1 0 1 a2 .

1 1 1 a3
Quindi V e limmagine dellapplicazione lineare associata alla matrice

2 1 0
A = 1 0 1 .

1 1 1

Limmagine di LA e generata dalle colonne di A, ovvero dalle righe di tA. Per trovare
una base possiamo ridurre tA per righe, ottenendo:

2 1 1 2 1 1 2 1 1
t R3 R3 +R1 R3 R3 2R2
A = 1 0 1 1 0 1 1 0 1 .

0 1 1 2 0 2 0 0 0

Le righe non nulle della matrice ridotta cos trovata formano una base di V . Quindi:
b) una base di V e data da

B = (2, 1, 1) , (1, 0, 1) .

a) la dimensione di V e 2. X

160
Esercizio 20.4.3. Siano A e B le matrici

4 1 0 2 1 0
A= 0 2 0 , B= 0 2 0 ,

0 0 2 0 0 t

con t parametro reale.

a) Calcolare gli autovalori di A e trovare una base per ciascun autospazio di A;


b) la matrice A e diagonalizzabile? In caso affermativo, trovare una matrice diago-
nalizzante;
c) esistono valori di t R per cui le matrici A e B sono simili?

Soluzione. a) Siccome A e triangolare superiore, gli autovalori sono 1 = 4 (con


molteplicita algebrica m1 = 1) e 2 = 2 (con molteplicita algebrica m2 = 2). Un
autovettore associato allautovalore 1 si ottiene risolvendo il sistema:

0 1 0 x1
(A 1 I3 )X = 0 2 0 x2 = 0 .

0 0 2 x3

La soluzione e (x1 , x2 , x3 ) = (a, 0, 0) con a R. Una base dellautospazio V1 si ottiene


ad esempio prendendo t = 1, ed e data dal vettore v1 = (1, 0, 0).
Gli autovettori associati allautovalore 2 risolvono il sistema:

2 1 0 x1
(A 2 I3 )X = 0 0 0 x2 = 0 .

0 0 0 x3

La soluzione e (x1 , x2 , x3 ) = (t1 , 2t1 , t2 ) con t1 , t2 R. Una base B dellautospazio V2


e data ad esempio dai vettori che si ottengono prendendo (t1 , t2 ) = (1, 0) e (t1 , t2 ) =
(0, 1). Quindi

B = v2 = (1, 2, 0) , v3 = (0, 0, 1) .
b) A e diagonalizzabile: (v1 , v2 , v3 ) e una base di R3 formata da autovettori di A. Una
matrice diagonalizzante P e data da

1 1 0
P = t v1 t v2 t v3 = 0 2 0 .


0 0 1

c) La matrice B e simile ad A se e solo se e diagonalizzabile ed ha gli stessi autovalori di


A. Essendo triangolare superiore, gli autovalori di B sono 2 (con molteplicita algebrica

161
m = 2) e t (con molteplicita algebrica 1). Condizione necessaria perche A e B siano
simili e quindi t = 1 = 4. La matrice B e diagonalizzabile se la molteplicita geometrica
dellautovalore 2 e pari a quella algebrica, deve essere quindi

3 (B 2I3 ) = m = 2 .

Poiche
0 1 0
(B 2I3 ) = 0 0 0

0 0 t2
per t = 4 il rango di B 2I3 e 2 e la matrice B non e diagonalizzabile. La risposta al
punto c) e quindi: per nessun valore di t R le matrici A e B sono simili. X

162
Lezione XXI

Geometria di R3: rette, piani e intersezioni


Sommario: rette e piani nello spazio tridimensionale; equazioni parametriche e car-
tesiane; intersezioni.

21.1 Rette e piani in R3 : equazioni parametriche


La geometria di R3 e in molti aspetti simile a quella di R2 . Un punto P dello spazio
tridimensionale e individuato da tre coordinate p = (p1 , p2 , p3 ) R3 . Graficamente, il
punto e il vertice di un parallelepipedo rettangolo i cui lati hanno lunghezza p1 , p2 e p3
(come mostrato in figura 13a). Possiamo anche identificare p con il vettore geometrico
uscente dallorigine e di estremo P .

x3 x3 u+v
u
p3

P = (p1 , p2 , p3 )

p2
p1
x2 x2

x1 x1
(a) Coordinate in 3D. (b) Regola del parallelogramma.

Figura 13

Il prodotto di u = (u1 , u2 , u3 ) per uno scalare da un vettore parallelo a u, e due


vettori sono paralleli se e solo se sono proporzionali. Come nel caso di R2 , questa
osservazione permette di scrivere le equazioni parametriche di una retta r passante per
p e parallela ad u:

x1 = p1 + tu1
Equazioni
r : x = p + tu x2 = p2 + tu2 (21.1) parametriche
di una retta
x3 = p3 + tu3

Come in R2 , anche in questo caso la somma di due vettori u e v e data dalla diagonale
del parallelogramma che ha u e v per lati (figura 13b). Notiamo che due vettori u
e v non allineati individuano un piano , e che u + v appartiene allo stesso piano

163
x3

u
u+v

x1

x2

Figura 14: Piano individuato da due vettori.

(figura 14). Piu in generale, il piano e linsieme di tutte le combinazioni lineari


t1 u + t2 v, con t1 , t2 R. Le equazioni parametriche del piano passante per lorigine
e individuato da u e v sono date da

: x = t1 u + t2 v

e piu in generale sommando un vettore p indipendente dai parametri t1 , t2 si ottengono


le equazioni parametriche del piano passante per p e parallelo ad u e v:

x1 = p1 + t1 u1 + t2 v1
Equazioni
x = p + t1 u + t2 v x2 = p2 + t1 u2 + t2 v2 (21.2) parametriche
di un piano
x3 = p3 + t1 u3 + t2 v3

Le equazioni qui sopra descrivono un piano se e solo se i vettori u e v sono linearmente


indipendenti, ovvero
 
u1 u2 u3
=2.
v1 v2 v3
Viceversa, se il rango e 1 si ritrova lequazione di una retta (uno dei due parametri e
ridondante).
Come nel caso di R2 , anche in R3 e possibile eliminare il parametro t dalle equazioni
di una retta. In maniera simile, si possono eliminare i parametri t1 , t2 dalle equazioni
di un piano.

Esempio 21.1.1. Si consideri la retta r R3 di equazioni parametriche



x1 = 1 t

x2 = 3 2t

x3 = 5 + 3t

164
p x3
5
u

1
x2
x1
q

Figura 15: Esempio di retta in R3 .

La direzione e data da u = (1, 2, 3), e la retta passa per i punti p = (1, 3, 5) e


q = (3, 1, 1) (che si ottiene scegliendo t = 2). Il disegno e in figura 15.
Ricavando dalla prima equazione t = x1 1 e sostituendo questa espressione nella
seconda e nella terza possiamo eliminare il parametro t ed ottenere x2 = 3 + 2x1 + 2
e x3 = 5 3x1 3, ovvero:

2x1 + x2 + 1 = 0
3x1 + x3 2 = 0

Esempio 21.1.2. Si consideri il piano R3 di equazioni parametriche



x1 = 1 + 2t1 + t2

x2 = 2 t1 t2

x3 = t2

Risolvendo le ultime due equazioni rispetto a t1 e t2 si trova: t1 = 2 x2 x3 e t2 = x3 .


Sostituendo queste espressioni nella prima equazione si trova unequazione cartesiana
del piano :
x1 + 2x2 + x3 5 = 0 .

21.2 Equazioni cartesiane di una retta


Dagli esempi precedenti si intuisce che un piano in R3 e definito da una equazione
lineare in tre incognite, ed una retta e definita da un sistema di due equazioni in tre
incognite. Iniziamo in questo paragrafo a studiare il caso della retta in R3 . Uno schema
riassuntivo e nella tabella 1.
Le equazioni parametriche (21.1) descrivono una retta se e solo se (u1 , u2 , u3 ) 6=
(0, 0, 0). Supponiamo ad esempio che sia u1 6= 0. Possiamo allora eliminare il parametro

165
t ricavando dalla prima equazione t = (x1 p1 )/u1 . Sostituendo questa espressione
nelle due rimanenti si ottiene
 
x2 = p2 + u2 (x1 p1 )/u1 u2 x1 u1 x2 u2 p1 + p2 = 0

x3 = p3 + u3 (x1 p1 )/u1 u3 x1 u1 x3 u3 p1 + p3 = 0

Chiamando
(a, b, c) = (u2 , u1 , 0) , (a0 , b0 , c0 ) = (u3 , 0, u1 ) ,
e chiamando d = u2 p1 + p2 e d0 = u3 p1 + p3 , le equazioni cartesiane della retta r si
possono scrivere nella forma:
 Equazioni
a x1 + b x2 + c x3 + d = 0
(21.3) cartesiane
a0 x 1 + b 0 x 2 + c 0 x 3 + d 0 = 0 di una retta

Osserviamo che i vettori (a, b, c) = (u2 , u1 , 0) e (a0 , b0 , c0 ) = (u3 , 0, u1 ) sono linear-


mente indipendenti (ossia, non allineati), infatti la matrice
   
a b c u2 u1 0
=
a0 b 0 c 0 u3 0 u1

ha rango 2 (e ridotta per righe ed ha due righe non nulle, essendo u1 6= 0). Piu in
generale, le equazioni (21.3) descrivono una retta se e solo se
 
a b c
=2,
a0 b0 c0

ovvero i vettori (a, b, c) e (a0 , b0 , c0 ) sono non allineati.


Osserviamo che i vettori (u2 , u1 , 0) e (u3 , 0, u1 ) sono perpendicolari rispetto al
vettore u, che individua la direzione della retta (esercizio: verificare che il prodotto
scalare e zero). Piu in generale, in maniera analoga al caso di R2 , al variare di d e
d0 le equazioni (21.3) descrivono un fascio di rette parallele di direzione ortogonale ai
vettori (a, b, c) e (a0 , b0 , c0 ).
Se si chiede quindi di scrivere le equazioni di una retta r ortogonale al piano di
equazione parametrica (21.2) (quindi, ortogonale a u e v), in forma cartesiana r avra
equazione

u1 x1 + u2 x2 + u3 x3 + d = 0
v1 x1 + v2 x2 + v3 x3 + d0 = 0
con d, d0 R.

Osservazione 21.2.1. Abbiamo visto come si passa dalle equazione parametriche a


quelle cartesiane di una retta. Per passare dalle equazioni cartesiane (21.3) a quelle
parametriche e sufficiente risolvere il sistema (21.3). Siccome la matrice dei coefficienti
ha rango 2, la soluzione dipendera da un solo parametro reale.

166
21.3 Equazioni cartesiane di un piano
Lequazione cartesiana
: ax1 + bx2 + cx3 + d = 0 (21.4) Equazione
cartesiana
descrive un piano in R3 se e solo se (a, b, c) 6= (0, 0, 0). Al variare di d R si ottiene di un piano

un fascio di piani paralleli. In particolare, per d = 0 si ottiene il piano contenente


lorigine, la cui equazione e (a, b, c) (x1 , x2 , x3 ) = 0.
Osserviamo che il vettore (a, b, c) e ortogonale al piano di equazione (21.4). In par-
ticolare, i piani ortogonali alla retta di equazione parametrica (21.1) hanno equazione
cartesiana
u1 x1 + u2 x3 + u3 x3 + d = 0
con d R.
Data una equazione cartesiana di un piano , si possono trovare delle equazioni
parametriche risolvendo lequazione di . Se ad esempio a 6= 0, la soluzione generale e

1
x1 = a (bt1 + ct2 + d)

x2 = t1

x3 = t2

Date delle equazioni parametriche di un piano, della forma (21.2), la corrispondente


equazione cartesiana si puo scrivere in maniera compatta nella forma

x p x1 p 1 x3 p 2 x3 p 3

u = u u u =0.

1 2 3

v v1 v2 v3

Tale determinante infatti si annulla se e solo se la prima riga e combinazione lineare


delle altre due, ovvero vale unequazione del tipo (21.2).

Osservazione 21.3.1. Come nel caso di R2 , data una retta r di R3 , le sue equazioni
cartesiana/parametriche di r non sono uniche. E dato un piano di R3 , le sue equazioni
cartesiana/parametriche di non sono uniche. Ad esempio le equazioni cartesiane

2x1 + x2 x3 = 4

e
4x1 + 2x2 2x3 = 8
descrivono lo stesso piano (la seconda e un multiplo della prima, si tratta quindi di
equazioni equivalenti).

167
Tabella 1: Equazioni di rette e piani.

Retta r Piano

Equazioni
x = p + tu x = p + t1 u + t2 v
parametriche
   
u u1 u2 u3
Condizione u 6= 0 = =2
v v1 v2 v3


Equazioni a x1 + b x2 + c x3 + d = 0
ax1 + bx2 + cx3 + d = 0
cartesiane a0 x1 + b0 x2 + c0 x3 + d0 = 0

 
a b c
Condizione =2 (a, b, c) 6= (0, 0, 0)
a0 b0 c0

Osservazioni u k r, (a, b, c) r, (a0 , b0 , c0 ) r. (a, b, c) , u k , v k .

21.4 Intersezioni
Iniziamo con lo studio dellintersezione di due piani. Siano e 0 due piani di equazioni Intersezione
di due piani
cartesiane:

: ax1 + bx2 + cx3 + d = 0 , 0 : a0 x1 + b0 x2 + c0 x3 + d0 = 0 .

Lintersezione 0 e linsieme delle soluzioni del sistema di matrice completa


 
a b c d
(A|B) = .
a0 b0 c0 d0

Notiamo che 1 (A) (A|B) 2 (la prima disuguaglianza segue dal fatto che
ciascuna riga di A ha almeno un elemento non nullo). Possono allora verificarsi tre
casi:
1. Se (A) = 1 e (A|B) = 2, il sistema e incompatibile e lintersezione e vuota.
2. Se (A) = (B) = 1, possiamo eliminare una delle due equazioni (per riduzione
ad esempio) e quella che rimane e lequazione di un piano: 0 = = 0 e
quindi un piano di R3 .
3. Se (A) = (B) = 2, si ottengono le equazioni cartesiane di una retta: 0 e
una retta di R3 .

Notiamo che = 0 se e solo se i vettori (a, b, c, d) e (a0 , b0 , c0 , d0 ) di R4 sono propor-


zionali.

168
Consideriamo ora lintersezione del piano con una retta r di equazioni cartesiane Intersezione
di una retta
 e un piano
a1 x 1 + b 1 x 2 + c 1 x 3 + d 1 = 0
a2 x 1 + b 2 x 2 + c 2 x 3 + d 2 = 0

Lintersezione r in questo caso e linsieme delle soluzioni del sistema lineare di


matrice completa, che continuiamo a indicare con il simbolo (A|B), data da

a1 b1 c1 d1
(A|B) = a2 b2 c2 d2 .

a b c d

Notiamo che (a1 , b1 , c1 ) e (a2 , b2 , c2 ) devono essere linearmente indipendenti (altrimenti


le prime due equazioni non descrivono una retta). Quindi 2 (A) (A|B) 3.
Possono allora verificarsi tre casi:
1. Se (A) = 2 e (A|B) = 3, il sistema e incompatibile e lintersezione e vuota.
2. Se (A) = (B) = 2, una delle tre equazioni puo essere eliminata (per riduzione
ad esempio). Siccome le prime due equazioni sono indipendenti, la terza (quella
di ) deve essere combinazione lineare delle prime due. Quindi r = r (ovvero
la retta r e contenuta nel piano ).
3. Se (A) = (B) = 3, la soluzione e unica e lintersezione e un punto.

Per finire, sia r0 una seconda retta, di equazioni cartesiane: Intersezione


di due rette

a01 x1 + b01 x2 + c01 x3 + d01 = 0




a02 x1 + b02 x2 + c02 x3 + d02 = 0

Lintersezione r r0 e linsieme delle soluzioni di un sistema lineare la cui matrice


completa e

a1 b1 c1 d1
a b c d
2 2 2 2
(A|B) = 0 0 0 .
a1 b1 c1 d01
a02 b02 c02 d02
Come nel caso precedente, il rango della matrice dei coefficienti e maggiore uguale di
due, ed e minore o uguale al numero di righe. Quindi:

2 (A) 3 e (A) (A|B) 4 .

Possono allora verificarsi i seguenti casi:


1. Se (A) = 2 e (A|B) = 3, il sistema non ammette soluzioni e r r0 = .
2. Se (A) = 2 e (A|B) = 4, come nel primo caso lintersezione e vuota.

169
Tabella 2: Intersezioni.

(A) (A|B) r r0 r 0

1 1 retta
1 2
2 2 retta (r = r0 ) retta (r ) piano ( = 0 )
2 3
3 3 punto punto
3 4

3. Se (A) = 3 e (A|B) = 4, come nel primo caso lintersezione e vuota.


4. Se (A) = (B) = 2, possiamo eliminare due equazioni (ad esempio, per riduzio-
ne) ed ottenere le equazioni cartesiane di una retta: questo vuol dire che r = r0
e r r0 = r = r0 e una retta.
5. Se (A) = (B) = 3, possiamo eliminare una equazione ed ottenere un sistema
di tre equazioni in tre incognite. Siccome la matrice dei coefficienti ha rango
massimo (uguale a 3), la soluzione e unica e lintersezione e un punto.

Osservazione 21.4.1. Il secondo caso ((A) = 2 e (A|B) = 4) non puo mai verifi-
carsi. Infatti se (A|B) = 4, il determinante della matrice (A|B) e diverso da zero. Il
determinante si puo calcolare con lo sviluppo di Laplace rispetto allultima colonna:

a2 b 2 c 2 a1 b 1 c 1 a1 b 1 c 1 a1 b 1 c 1

|(A|B)| = d1 a01 b01 c01 d2 a01 b01 c01 + d01 a2 b2 c2 d02 a2 b2 c2 .

0 0 0 0 0 0 0 0 0 0 0 0
a2 b 2 c 2 a2 b 2 c 2 a2 b 2 c 2 a1 b 1 c 1

Le matrici 3 3 che compaiono nella formula sono i minori di ordine 3 di A. Se


|(A|B)| =
6 0, almeno un minore di ordine 3 di A deve avere determinante non nullo, da
cui (per il teorema degli orlati) deve essere (A) 3.

Osservazione 21.4.2. Si puo dire qualcosa di piu sul primo e terzo caso. Se (A) = 2
e (A|B) = 3 le due rette sono parallele ma non coincidenti. Se (A) = 3 e (A|B) = 4
le due rette non sono parallele e non si intersecano: due rette di questo tipo si dicono Rette
sghembe
sghembe. Siccome due rette contenute nello stesso piano sono sempre parallele oppure
si intersecano in un punto, due rette sono sghembe se e solo se non sono complanari.

Uno schema riassuntivo e nella tabella 2.

170
Lezione XXII

Geometria di R3: lunghezze, aree e volumi


Sommario: distanze, aree e volumi; equazione di una sfera; prodotto vettoriale e
prodotto misto; area di un parallelogramma e volume di un parallelepipedo; retta
passante per due punti distinti; piano individuato da tre punti non allineati.

22.1 Distanze, equazione di una sfera


Come in R2 , anche in R3 la distanza di un punto p = (p1 , p2 , p3 ) dallorigine e data
dalla norma del corrispondente vettore uscente dallorigine, data da Distanza
dallorigine
q
kpk = p21 + p22 + p23 . (22.1)

Per provarlo basta guardare la figura 16a. Per il teorema di Pitagora, la diagonale del
p
rettangolo nel piano x3 = 0 disegnato in figura ha lunghezza L = p21 + p22 ; il segmento
OP e la diagonale di un triangolo rettangolo (in rosso) i cui cateti hanno lunghezza L
e p3 rispettivamente: per il teorema di Pitagora, la lunghezza di OP e data da
q q
L2 + p23 = p21 + p22 + p23 ,

ovvero dalla formula (22.1).


Dati due punti a = (a1 , a2 , a3 ) e b = (b1 , b2 , b3 ), possiamo costruire il parallelogram-
ma in figura 16b che ha per lati i vettori a e b a, e per diagonale la loro somma,
ovvero a + (b a) = b (regola del parallelogramma). La lunghezza del segmento
di estremi a e b e uguale alla lunghezza del segmento di estremi O e b a, quindi
d(a, b) = d(O, b a) = kb ak. Si ottiene in questo modo la formula per la distanza
fra due punti arbitrari: Distanza fra
due punti
q
d(a, b) = (a1 b1 )2 + (a2 b2 )2 + (a3 b3 )2 . (22.2)

Per la distanza d(p, ) di un punto p = (p1 , p2 , p3 ) da un piano , di equazione

ax1 + bx2 + cx3 + d = 0 ,

esiste una semplice formula, simile a quella che in R2 da la distanza di un punto da


una retta.
La distanza e data dalla lunghezza del segmento di estremi p e q, con q = (q1 , q2 , q3 )
proiezione ortogonale di p sul piano. Le coordinate di q si trovano intersecando con

171
x3 x3 b

ba
p3

b)
,
k

d(a
a
P = (p1 , p2 , p3 )

kb
a

O p2
O
p1 L
x2
x2

x1 x1
(a) Distanza di un punto dallorigine. (b) Distanza fra due punti.

Figura 16

la retta r ortogonale a e passante per p. Tale retta ha equazioni parametriche:



x1 = p1 + at

x2 = p2 + bt

x3 = p3 + ct

Sostituendo queste espressioni nellequazione di si ottiene il valore del parametro t


corrispondente alle coordinate di q. Si ha
ap1 + bp2 + cp3 + d
a(p1 + at) + b(p2 + b) + c(p3 + ct) + d = 0 t= .
a2 + b 2 + c 2
Sostituendo questo valore di t nelle equazioni di r si trovano le coordinate di q:
ap1 + bp2 + cp3 + d
(q1 , q2 , q3 ) = (p1 , p2 , p3 ) (a, b, c) .
a2 + b 2 + c 2
La distanza e data da

ap1 + bp2 + cp3 + d
d(p, ) = kp qk = (a, b, c)
a2 + b 2 + c 2


k(a, b, c)k = |ap1 + bp2 + cp3 + d| a2 + b2 + c2 .
ap1 + bp2 + cp3 + d
=
a2 + b 2 + c 2 a2 + b 2 + c 2
Semplificando numeratore e denominatore si trova la formula finale: Distanza
di un punto
|ap1 + bp2 + cp3 + d| da un piano
d(p, ) = .
a2 + b 2 + c 2

Usando la formula (22.2) della distanza, e possibile scrivere lequazione cartesiana


di una superficie sferica.

172
x3

x2

x1

Figura 17: Sfera di centro c = (0, 0, 1) e raggio R = 1.

La superficie sferica di centro c = (c1 , c2 , c3 ) e raggio R > 0 e linsieme dei punti Superficie
sferica
x R3 a distanza R dal punto c, ovvero soddisfacenti lequazione

d(x, c) = R .

Elevando al quadrato ambo i membri dellequazione, ed usando la formula (22.2), si


trova lequazione cartesiana di una superficie sferica

(x1 c1 )2 + (x2 c2 )2 + (x3 c3 )2 = R2 .

Un esempio e in figura 17.

22.2 Angolo fra due vettori di R3


Abbiamo visto che, dato uno spazio vettoriale V con un prodotto scalare (definizione
8.3.1), questo puo essere usato per definire langolo convesso (cioe, 0 ) fra
due vettori non nulli u e v attraverso la formula:
uv
cos = .
kuk kvk
Un prodotto scalare canonico e dato da (8.6), ed il corrispondente angolo in R2 e
proprio langolo convesso individuato dai vettori geometrici u e v.
In R3 , due vettori geometrici uscenti dallorigine individuano un angolo convesso
, come mostrato in figura 18a. Verifichiamo che langolo e langolo , definito in
astratto a partire dal prodotto scalare, coincidono.

173
u
u
kuk
u+v
u

L
/2
v
v
O
v kvk

(a) (b)

Figura 18: Parallelograma ed angolo individuati dai vettori u e v.

Lavoriamo nel piano contenente i vettori u e v. Per costruzione, i vettori u/kuk e


v/kvk sono contenuti in una circonferenza di centro O e raggio 1, come illustrato in
figura 18b. Evidentemente
sin 2 = L . (22.3)
Usando la formula di duplicazione del seno si scrive il membro di sinistra come
r
1 cos
sin 2 =
2
mentre per il membro di destra notiamo che
r   
u
, v
u v
= kuk u v u v

2L = d kuk kvk kvk
= kuk
kvk
kuk kvk

q q
u u v v u v uv
= kuk
kuk
+ kvk
kvk
2 kuk kvk
= 2 2 kuk kvk
.

Luguaglianza (22.3) diventa quindi:


r r
1 cos 1 uv
= 22 .
2 2 kuk kvk

Confrontando membro di sinistra e membro di destra si ottiene


uv
cos =
kuk kvk
esattamente come ci aspettavamo.

174
22.3 Prodotto vettoriale e prodotto misto
Dati due vettori u e v di R3 , il loro prodotto vettoriale, indicato con u v, e il Prodotto
vettoriale
vettore di componenti

u v = u2 v3 u3 v2 , u3 v1 u1 v3 , u1 v2 u2 v1 . (22.4)

La regola mnemonica e:
!
u1 u2 u3 u1 u2 u3 u1 u2 u3
uv = + , , +
v1 v2 v3 v1 v2 v3 v1 v2 v3

Indicando come al solito con (e1 , e2 , e3 ) e la base canonica di R3 , osserviamo che


formalmente il prodotto vettoriale si puo calcolare attraverso il determinante

e1 e2 e3

u v = u1 u2 u3 (22.5)


v1 v2 v3

come si puo verificare con lo sviluppo di Laplace rispetto alla prima riga. Si tratta
solo formalmente di un determinante, in quanto gli elementi della prima riga non sono
numeri ma i versori dei tre assi di R3 .
Lo scalare Prodotto
misto
(u v) w
e detto prodotto misto vettori u, v e w di R3 . Notiamo che

u1 u2 u3 u1 u2 u3 u1 u2 u3
(u v) w = w1 w2 + w3
v1 v2 v3 v1 v2 v3 v1 v2 v3

Nellespressione precedente riconosciamo lo sviluppo di Laplace rispetto alla terza riga


del determinante:
u1 u2 u3

(u v) w = v1 v2 v3 (22.6)


w1 w2 w3

Lemma 22.3.1. Per i vettori della base canonica valgono le regole:

e1 e2 = e3 , e2 e3 = e1 , e3 e1 = e2 .

Dimostrazione. Se u = e1 = (0, 0, 1) e v = e2 = (0, 1, 0), si ha


!
1 0 0 1 0 0 1 0 0
uv = , , + = (0, 0, 1) = e3 .
0 1 0 0 1 0 0 1 0

In modo analogo si provano le altre due uguaglianze. 

175
Proposizione 22.3.2.
1. Il prodotto vettoriale R3 R3 R3 , (u, v) 7 u v, e una operazione interna
di R3 non associativa e non commutativa. Gode invece della proprieta anti-
commutativa:
u v = v u u, v R3 .

2. u, v R3 sono linearmente dipendenti 13


u v = 0.
3. Vale la seguente identita di Lagrange: Identita di
Lagrange

ku vk2 = kuk2 kvk2 ku vk2 .

4. Il prodotto vettoriale u v e ortogonale al piano individuato da u e v.


Area di un
5. La norma del vettore u v e larea del parallelogramma di lati u e v. parallelogramma
6. Il prodotto misto gode della simmetria ciclica:

(u v) w = (w u) v = (v w) u

per ogni u, v, w R3 .
7. u, v, w R3 sono linearmente dipendenti 14
(u v) w = 0.
Volume di un
8. |(u v) w| e il volume del parallelepipedo che ha per lati i vettori u, v e w. parallelepipedo

Dimostrazione.
1. Scambiando due righe di una matrice il determinante cambia segno. Da questa
osserazione e da (22.5) segue la proprieta anticommutativa del prodotto vetto-
riale. Per il Lemma 22.3.1, e1 e2 = e3 e diverso da e2 e1 = e3 ; inoltre se
u = (1, 1, 0), il vettore

(e1 e2 ) u = e3 u = (1, 1, 0)

e diverso da
e1 (e2 u) = e1 (0, 0, 1) = (0, 1, 0) ;
quindi il prodotto vettoriale non e commutativo e non e associativo.
2. E sufficiente osservare che le componenti di u v sono, a meno di un segno, il
determinante dei minori di ordine 2 della matrice:
 
u1 u2 u3
A= .
v1 v2 v3
13
Ricordiamo che due vettori di R3 non nulli sono linearmente dipendenti se e solo se sono paralleli.
14
Ricordiamo che tre vettori non nulli di R3 sono linearmente dipendenti se e solo se sono complanari.

176
I vettori u e v sono linearmente indipendenti se e solo se (A) = 2, ed una con-
dizione necessaria e sufficiente (per teorema degli orlati) e che almeno un minore
di ordine 2 di A abbia determinante non nullo, ovvero almeno una componente
di u v sia diversa da zero. Quindi u e v sono linearmente indipendenti se e solo
se u v 6= 0, affermazione equivalente a quella che si voleva dimostrare.
3. Lidentita di Lagrange si prova con un semplice calcolo. Si ha:

kuk2 kvk2 (u v)2 = (u21 + u22 + u23 )(v12 + v22 + v32 ) (u1 v1 + u2 v2 + u3 v3 )2
u21
= 2 2 2 2 2 2 2
u22
1 + u1 v2 + u1 v3 + u2 v1 + 
v 2 2 2 2 2 2 2
u23
2 + u2 v3 + u3 v1 + u3 v2 + 
v 2
v
3

u212
u222
u232

 1 +
v 2 +
v 3 + 2u1 u2 v1 v2 + 2u1 u3 v1 v3 + 2u2 u3 v2 v3
v
= (u2 v3 u3 v2 )2 + (u3 v1 u1 v3 )2 + (u1 v2 u2 v1 )2
= ku vk2 .

4. Usando (22.6) si calcola il prodotto scalare



u1 u2 u3

(u v) u = v1 v2 v3 = 0 .


u1 u2 u3

Il determinante e zero perche la matrice ha due righe uguali. In maniera simile


si prova che (u v) v = 0, da cui segue che u v e ortogonale a qualsiasi
combinazione lineare dei vettori u e v, ovvero la tesi.
5. Larea del parallelogramma in figura 18a e

Area = base altezza = kuk kv sin k .

Daltra parte dallidentita di Lagrange, ricordando che u v = kuk kvk cos ,


segue che
p p
ku vk = kuk2 kvk2 (u v)2 = kuk2 kvk2 (1 cos2 )

= kuk kvk 1 cos2 = kuk kvk | sin | ,

da cui la tesi.
6. Segue da (22.6) e dalle proprieta del determinante (che cambia segno se si scam-
biano due righe, e rimane invariato se si effettuano un numero pari di scambi).
7. Segue da (22.6) e dalle proprieta del determinante: tre vettori sono linearmente
indipendenti se e solo se la matrice che ha i vettori come righe ha rango 3. Nel
caso di una matrice 3 3, per il teorema degli orlati e necessario e sufficiente che
tale matrice abbia determinante non nullo.

177
w

pruv (w)

u
h
v
O

Figura 19: Parallelepipedo individuato dai vettori u, v e w.

8. La situazione e illustrata in figura 19. Per il punto 5, la base del parallelepipedo


ha area data da ku vk. Laltezza e la norma del vettore
(u v) w
pruv (w) = u v , = ,
ku vk2
ovvero
|(u v) w|
altezza = .
ku vk
Il volume e quindi
|(u v) w|
Volume = base altezza = ku vk = |(u v) w| ,
ku vk
come volevasi dimostrare. 

Da un punto di vista geometrico, dati due vettori u e v linearmente indipenenti, u v


ha direzione ortogonale al piano contenente i vettori u e v (figura 20) e la norma
e data dallarea del parallelogramma di lati u e v. Per determinare il verso di u v
esistono varie regole mnemoniche (la regola della mano destra, la regola di Fleming
della mano sinistra, la regola della vite destrorsa, etc.), che non tratteremo in questo
corso.
Notiamo che, dato un piano di equazioni parametriche:

: x = p + t1 u + t2 v ,

lequazione parametrica della retta r ortogonale a e passante per un punto p0 sara


data da
r : x = p0 + t(u v) .

178
x3

uv

u
x2

x1

Figura 20: Prodotto u v.

Per finire, osserviamo che come nel caso di matrici 2 2 (paragrafo 8.2), anche
il determinante di una matrice A M3 (R) ha una interpretazione geometrica: il suo
modulo e il volume del parallelepipedo che ha le righe di A come lati.
Proposizione 22.3.3. Siano u, v R3 due vettori linearmente indipendenti. Allora

la terna u, v, u v e una base di R3 .
Dimostrazione. Chiamiamo w = u v. Il prodotto misto di u, v, w, e dato da

(u v) w = (u v) (u v) = ku vk2

e quindi e diverso da zero per il punto 2 della proposizione 22.3.2. Dalla proposizione
22.3.2, punto 7, segue che i vettori u, v, w sono linearmente indipendenti, e quindi
formano una base di R3 . 

22.4 Retta per due punti, piano individuato da tre punti


Non e difficile scrivere le equazioni parametriche della retta r passante per due punti
distinti a e b. Si ha
r : x = a + t(b a) .
Siccome u = b a 6= 0, la precedente equazione descrive una retta. Per t = 0 si
ottiene il punto a, e per t = 1 si ottiene il punto a + (b a) = b. Quindi a, b r come
richiesto.
Daltra parte x a = t(b a) se e solo se i vettori x a e b a sono linearmente
dipendenti. Due vettori di R3 sono linearmente dipendenti se e solo se il loro prodotto
vettoriale e zero, quindi le equazioni cartesiane di r si possono scrivere nella forma

(b a) (x a) = 0 .

179
Notiamo che si tratta di tre equazioni in tre incognite, ma solo due sono indipendenti
fra di loro. Infatti, il sistema in forma matriciale e dato da:

0 (b3 a3 ) b 2 a2 x 1 a1
b 3 a3 0 (b1 a1 ) x2 a2 = 0

(b2 a2 ) b 1 a1 0 x 3 a3
e la matrice dei coefficienti ha rango 2 (con lo sviluppo di Laplace si prova che il
determinante e zero, ed e facile trovare un minore di ordine due con determinante non
nullo, da cui per il teorema degli orlati il rango e 2).

Consideriamo ora tre punti a, b, c R3 . Le equazioni parametriche:


: x = a + t1 (b a) + t2 (c a)
descrivono un piano se e solo se i due vettori u = b a e v = c a sono linearmente
indipendenti (ovvero i tre punti a, b, c non sono allineati). Notiamo che se (t1 , t2 ) =
(0, 0), si ottiene x = a; se (t1 , t2 ) = (1, 0), si ottiene x = b; se (t1 , t2 ) = (0, 1), si ottiene
x = c. Quella trovata e quindi lequazione del piano passante per tre punti a, b, c non
allineati.
Ricordiamo che due vettori sono linearmente indipendenti se e solo se il loro pro-
dotto vettoriale e diverso da zero, si ottiene quindi la condizione
(b a) (c a) 6= 0 .
Scrivendo le equazioni parametriche di nella forma x a = t1 (b a) + t2 (c a),
si vede che x se e solo se i tre vettori x a, b a e c a sono linearmente
dipendenti. Ricordiamo che tre vettori di R3 sono linearmente dipendenti se e solo se
il loro prodotto misto e zero, quindi x appartiene al piano se e solo se:
(x a) (b a) (c a) = 0 . (22.7)
La (22.7) e lequazione cartesiana di . Lequazione puo essere scritta nella forma
equivalente:

x1 x2 x3 1

a1 a2 a3 1
: =0. (22.8)


b1 b2 b3 1

c1 c2 c3 1
Proviamo che (22.7) e equivalente a (22.8).
Per riduzione, sottraendo la seconda riga della matrice in (22.8) alle altre tre, si
ottiene

x 1 x 2 x 3 1 x 1 a1 x 2 a2 x 3 a3 0

a a a 1 a1 a2 a3 1
1 2 3
= ,


b 1 b 2 b 3 1 b 1 a1 b 2 a2 b 3 a3 0

c c c 1 x a x a x 3 a3 0
1 2 3 1 1 2 2

180
Tabella 3: Retta passante per a, b R3 ; piano contenente a, b, c R3 .

Retta r Piano

Equazioni
x = a + t(b a) x = a + t1 (b a) + t2 (c a)
parametriche

Equazioni
(b a) (x a) = 0 (x a) (b a) (c a) = 0
cartesiane

Condizione a 6= b (b a) (c a) 6= 0

e con lo sviluppo di Laplace rispetto allultima colonna otteniamo



x 1 a1 x 2 a2 x 3 a3 xa

= b1 a1 b2 a2 b3 a3 = ba ,


x 1 a1 x 2 a2 x 3 a3 ca

cioe il determinante in (22.8) e proprio il prodotto misto in (22.7).


Uno schema riassuntivo e nella tabella 3.

181
Appendice A

Equazioni polinomiali
Sommario: equazioni polinomiali; il campo dei numeri complessi; polinomi; teorema
fondamentale dellalgebra (senza dimostrazione); le equazioni di secondo e terzo grado;
cenni sullequazione di quarto grado.

A.1 Introduzione
Una equazione algebrica o polinomiale di grado n in una incognita x e una equazione Equazioni
polinomiali
della forma
a0 xn + a1 xn1 + . . . + an1 x + an = 0
con ai elementi di un qualche campo, e qui assumeremo sempre ai R salvo indicazioni
contrarie, e a0 6= 0. Dividendo per a0 , lequazione si puo sempre ridurre alla forma
an1
xn + a1 n1
a0
x + ... + a0
x + an
a0
=0

con il coefficienti di xn uguale ad 1.


Gli autovalori di una matrice n n sono soluzioni di una equazione di grado n.
Una equazione polinomiale a coefficienti reali puo non ammettere soluzioni reali:
ad esempio x2 + 1 = 0, ovvero x2 = 1, non ammette soluzioni reali, poiche il quadrato
di un numero reale e sempre positivo o nullo.

A.2 Richiami sui numeri complessi


Intuitivamente i numeri complessi si ottengono dai reali aggiungendo una radice del
numero reale 1. Tale radice e detta unita immaginaria ed e generalmente indicata Unita
immaginaria
con il simbolo i, ma qui verra indicata con il simbolo 1 per non confonderla con
un indice di riga.
Un numero complesso e un numero della forma

z = x + 1 y x, y R .

La parte reale di z, indicata con <(z), e la parte immaginaria, indicata con =(z),
sono i numeri reali:
<(z) = x ; , =(z) = y .

Sia z 0 = x0 + 1 y 0 (con x0 , y 0 R). I numeri complessi si sommano e moltiplicano
secondo la regola

z + z 0 = (x + x0 ) + 1 (y + y 0 ) , z z 0 = xx0 yy 0 + 1 (xy 0 + x0 y) .

182
Linsieme di tutti i numeri complessi e indicato con C. E un anello commutativo, con
somma e prodotto definiti qui sopra ed elementi neutri lo 0 e l1 dei numeri reali.
Lapplicazione lineare

R2 C , (x, y) 7 x + 1 y ,

e biunivoca. Diremo che i numeri complessi formano uno spazio vettoriale reale di
dimensione 2, isomorfo ad R2 .

Il complesso coniugato di z = x + 1 y e il numero Complesso
coniugato

z = x 1 y .

Il prodotto
z z = x2 + y 2
e non negativo, e si annulla se e solo se z = 0. In particolare ogni z 6= 0 e invertibile,
con inverso:
z
z 1 = .
z z
I numeri complessi formano quindi un campo.
Ogni punto di R2 si puo rappresentare nella forma

(x, y) = (r cos , r sin ) ,

con r 0 e 0 < 2. I numeri r, sono univocamente determinati se (x, y) 6= (0, 0),


e si dicono coordinate polari del punto (x, y). Usando le coordinate polari, ogni Coordinate
polari
numero complesso non nullo si puo scrivere nella forma

z = r(cos + 1 sin ) .

Il numero r = z z e detto modulo del numero complesso z. Un numero complesso Modulo

diverso da zero ha esattamente n radici di ordine n, date da


+ 2k
  
+ 2k 
n
z= n
r cos + 1 sin : k = 0, . . . , n 1 ,
n n

dove n r indica la radice n-esima positiva di r. Le radici di z sono disposte su un
cerchio di raggio r ed equidistanti fra di loro. In figura 21, a titolo di esempio, sono
riportate le radici n-esime di 1 per n = 3, 4.

A.3 Polinomi
Sia n 0 un intero non negativo. Un polinomio di grado n nella variabile a coefficienti
in un campo K e una espressione del tipo

p() = a0 n + a1 n1 + . . . + an1 + an

183
y y

(0, 1)
21 , 3

2


2 2
3

(1, 0) (1, 0) (1, 0)


0 x 0 x

4
3 3
2


12 , 3

2
(0, 1)

(a) n = 3 (b) n = 4

Figura 21: Radici complesse n-esime di 1

con ai K per ogni i, e a0 6= 0. A noi interessera il caso K = R. In quasto paragrafo


utilizziamo il simbolo per indicare la variabile, per enfatizzare che si tratta appunto
di un simbolo e non un numero.
Sia p0 () = a00 n + a01 n1 + . . . + a0n1 + a0n un altro polinomio. Due polinomi p()
e p0 () sono uguali se e solo se

a0 = a00 , a1 = a01 , ... an = a0n .

Dato 0 R, valutare il polinomio in 0 vuol dire sostituire al simbolo il numero reale


0 : si ottiene in questo modo un numero reale p(0 ). La funzione reale:

f :RR, x 7 p(x) ,

che associa ad ogni x R il numero p(x) e detta funzione polinomiale. Polinomi e


funzioni polinomiali sono in corrispondenza biunivoca (due polinomi sono uguali se e
solo se sono uguali le funzioni polinomiali associate).
Un numero 0 R e detto radice del polinomio p() se e uno zero della corrispon- Radici

dente funzione polinomiale: p(0 ) = 0.


Un polinomio reale puo non ammettere radici reali: ad esempio p() = 2 + 1 non
ammette radici reali. Ammette pero due radici complesse. Piu in generale, vale il
seguente teorema.

Teorema A.3.1 (Teorema fondamentale dellalgebra). Un polinomio di grado n a Teorema


fondamentale
coefficienti in C ammette sempre n radici complesse, ovvero puo essere scritto nella dellalgebra
forma
p() = a( z1 )( z2 ) . . . ( zn ) ,
dove z1 , . . . , zn C sono le sue radici e a C.

184
Siccome R C, come caso particolare si ottiene che un polinomio a coefficienti
reali ammette sempre radici complesse.

Corollario A.3.2. Un polinomio di grado n a coefficienti in R ammette sempre n


radici complesse, ovvero puo essere scritto nella forma

p() = a( z1 )( z2 ) . . . ( zn ) ,

dove z1 , . . . , zn C sono le sue radici e a R.

Le radici z1 , . . . , zn non sono necessariamente distinte. Ad esempio il polinomio

x2 2x + 1 = (x 1)2

ammette due radici, entrambe uguali ad 1.


In generale, indicando con 1 , . . . , r le radici distinte del polinomio p() (r n),
si avra
p() = a( 1 )m1 ( 2 )m2 . . . ( r )mr ,
dove mi Z+ e detto molteplicita della radice i , e Molteplicita

m1 + m2 + . . . + mr = n .

A.4 Lequazione di secondo grado


La formula risolutiva per le equazioni di secondo grado e ben nota dalle scuole superiori.
Lequazione
ax2 + bx + c = 0
(con a 6= 0) ha soluzioni Formula
b b2 4ac risolutiva
x= . equazione
2a di 2 grado
La formula risolutiva vale sia quando i coefficienti sono reali, sia quando sono complessi.
Se a, b, c R, si possono verificare tre casi, che dipendono dal segno della grandezza
b2 4ac, detta discriminante: se il discriminante e positivo si hanno due soluzioni Discriminante

reali distinte; se e nullo si ha una sola soluzione ed e reale (di molteplicita 2); se e
negativo si hanno due soluzioni complesse coniugate.

Osservazione A.4.1. Notiamo che per ogni 1 , 2 C vale lidentita

(x 1 )(x 2 ) = x2 (1 + 2 )x + 1 2 .

Risolvere lequazione x2 + bx + c = 0 equivale quindi a trovare due numeri 1 , 2 tali


che 
1 + 2 = b
1 2 = c

185
A.5 Lequazione di terzo grado
Unequazione di terzo grado si puo sempre scrivere nella forma:

x3 + ax2 + bx + c = 0 . (1.1)

Con la sostituzione
a
y =x+
3
lequazione (1.1) si trasforma in una in cui manca il termine di grado 2. Si ha infatti:

y 3 + py + q = 0 (1.2)

con
1 2 1
p = a2 + b , q = a3 ab + c .
3 27 3
Per motivi imperscrutabili, scriviamo y = u + v e sostituiamo in (1.2). Sostituendo si
trova lequazione
(u3 + v 3 + q) + (u + v)(3uv + p) = 0 .
Per trovare una soluzione di questa equazione in due variabili, e sufficiente risolvere il
sistema (non lineare) di due equazioni in due incognite
 3
u + v 3 = q
(1.3)
3uv = p

Il miracolo e che tutte le soluzioni dellequazione di terzo grado di partenza si possono


ottenere risolvendo questo sistema. Si ha infatti:

Proposizione A.5.1. y e soluzione dellequazione (1.2) se e solo se y = u + v, con u


e v soluzioni di (1.3).

Dimostrazione. Dobbiamo provare il solo se. Sia y soluzione di (1.2). Possiamo


sempre trovare due numeri u, v tali che u + v = y e 3uv = p (per losservazione A.4.1,
u e v sono le soluzioni dellequazione z 2 yz p3 = 0) e ricavare

0 = y 3 + py + q = (u3 + v 3 + q) + (u + v)(3uv + p) = u3 + v 3 + q

che e la seconda equazione cercata. 

Prendendo il cubo della seconda equazione in (1.3), si vede che u3 , v 3 risolvono


lequazione di secondo grado (osservazione A.4.1):
p3
z 2 + qz =0.
27
Non tutte le soluzioni di questa equazione daranno pero soluzioni di (1.3). Elevando
al cubo lequazione 3uv = p abbiamo aggiunto delle soluzioni.

186
Usando la formula risolutiva per le equazioni di secondo grado si trova
( r r )
q q 2 p 3 q q 2 p 3
{u3 , v 3 } = + + , +
2 4 27 2 4 27

e quindi s s Formula
r r risolutiva
3 q q 2 p3 3 q q 2 p3 equazione
y =u+v = + + + + . di 3 grado
2 4 27 2 4 27
Questa e la celebre formula risolutiva per lequazione (1.2).
Ripetiamo che non tutte le radici cubiche daranno soluzioni dellequazione (1.2).
Due radici cubiche u, v di u3 , v 3 danno soluzioni dellequazione di terzo grado se e solo
se 3uv = p.
Ci chiediamo ora, nel caso in cui i coefficienti p, q siano reali, quante sono le soluzioni
reali di (1.2). Questo dipende dal valore di Discriminante

q 2 p3
+ ,
4 27
detto discriminante dellequazione. Si puo verificare che se il discriminante e minore
o uguale a zero tutte le soluzioni sono reali, mentre se il discriminante e positivo
lequazione ha una soluzione reale (che si ottiene prendendo le radici reali nella formula
risolutiva) e due complesse coniugate15 .

Esempio A.5.2. Un caso particolare di (1.1) si ha quando c = ab. In tal caso

x3 + ax2 + bx + c = (x + a)(x2 + b)

e le soluzioni sono x = a e x = b.

A.6 Cenni sullequazione di quarto grado


Unequazione di quarto grado si puo sempre scrivere nella forma:

x4 + ax3 + bx2 + cx + d = 0 . (1.4)

Con la sostituzione
a
y =x+
4
si trasforma (1.4) nellequazione

y 4 + py 2 + qy + r = 0
15
Per maggiori dettagli, si puo leggere larticolo di G. Gorni, Lequazione di terzo grado, on-line
qui: http://sole.dimi.uniud.it/~gianluca.gorni/Dispense/TerzoGrado.pdf

187
dove abbiamo chiamato
3 1 1 3 4 1 1
p = a2 + b , q = a3 ab + c , r= a + a2 b ac + d .
8 8 2 256 16 4
Cerchiamo quindi una soluzione della forma

y =u+v+w .

Si puo dimostrare che u, v, w sono le soluzioni dellequazione di terzo grado


p p r q2
z3 + z2 + z =0.
2 16 4 64
Questultima equazione puo essere risolta come illustrato nel paragrafo precedente.
La situazione cambia drasticamente nel caso di equazioni polinomiali di grado supe-
riore al quarto. Per tali equazioni e noto che non esistono formule risolutive esprimibili
tramite radicali (Teorema di Abel-Ruffini). La storia delle equazioni algebriche, dai Ba-
bilonesi ai nostri giorni, si puo trovare nel libro Storia della matematica di C.B. Boyer
(Mondadori, 2000).

A.7 Polinomi a coefficienti interi


Nel caso di un polinomio a coefficienti interi, sia esso Teorema
delle radici
p(x) = an xn + an1 xn1 + . . . + a1 x + a0 razionali

con an 6= 0, e possibile trovare le radici razionali con il metodo illustrato nel seguito.
Per il teorema delle radici razionali, se un numero razionale r = p/q e una radice
di p(x) allora
i) p divide a0 ;
ii) q divide an .
Per trovare le radici razionali basta allora verificare per sostituzione quali fra le com-
binazioni p/q, con p divisore di a0 e q divisore di an , sono radici.
Con questo metodo ovviamente non e possibile determinare radici che non siano
razionali.
Esempio A.7.1. Determiniamo le radici razionali di

p(x) = x3 + 3x2 + 6x 8 .

I divisori di a0 = 8 sono 1, 2, 4, 8; i divisori di a3 = 1 sono 1; quindi

p/q {1, 2, 4, 8} .

Per sostituzione si verifica che le radici sono 1, 4, 2, quindi

p(x) = (x 1)(x 4)(x + 2) .

188
Esempio A.7.2. Determiniamo le radici razionali di

p(x) = x3 + 12 x2 2x 1 .

Come prima cosa moltiplichiamo p(x) per 2, in modo da ottenere un polinomio a


coefficienti interi che indichiamo con p(x):

p(x) = 2p(x) = 2x3 + x2 4x 2 .

I divisori di a0 = 2 sono 1, 2; quindi

p {1, 2} .

i divisori di a3 = 2 sono 1, 2; quindi

q {1, 2} .

Dobbiamo provare tutte le combinazioni p/q e vedere quali sono radici del polinomio.
Facendo la verifica si trova

p(1) = 3 , p(1) = 1 , p( 21 ) = 43 , p( 12 ) = 0 , p(2) = 10 , p(2) = 6

Lunica radice razionale e quindi 1/2. Si puo in effetti verificare che



p(x) = (x + 12 )(x 2)(x + 2) .

Regola di Ruffini Regola di


Ruffini
Dato uno scalare r e un polinomio p(x) di grado n:

p(x) = an xn + an1 xn1 + . . . + a1 x + a0

con an 6= 0, la regola di Ruffini permette di decomporre p(x) nella forma

p(x) = (x r)q(x) + R

in cui
q(x) = bn1 xn1 + . . . + b1 x + b0
e un polinomio di grado n 1 e R e una costante detta resto. Per calcolare i
coefficienti b0 , . . . , bn1 si procede come illustrato nella tabella seguente:

an an1 an2 ... a2 a1 a0


r bn1 r bn2 r ... b2 r b1 r b0 r
an an1 + bn1 r an2 + bn2 r ... a2 + b2 r a1 + b1 r a0 + b0 r
= bn1 = bn2 = bn3 ... = b1 = b0 =R

189
Se r e una radice di p(x), allora il resto e R = 0. La regola di Ruffini permette
allora di scrivere un polinomio come il prodotto di x r, con r radice, per un polinomio
di grado inferiore. Se p(x) ha coefficienti interi, una radice razionale (se esiste) si puo
trovare come illustrato allinizio del paragrafo, e poi si puo applicare la regola di Ruffini
per provare a determinare le radici rimanenti.

Esempio A.7.3. Sia


p(x) = x3 + 12 x2 2x 1 .
Sappiamo che r = 1/2 e una radice. Determiniamo allora q(x) tale che p(x) =
(x + 12 )q(x). Si ha

1 1/2 2 1
1/2 1/2 0 1
1 0 2 0
= b2 = b1 = b0 =R

Quindi q(x) = x2 2 e
p(x) = (x + 21 )(x2 2) .

Le rimanenti radici (irrazionali) si trovano notando che x2 2 = (x + 2)(x 2).

Esempio A.7.4. Sia


p(x) = 2x3 + 2x2 x 3 .
Si vede a occhio che r = 1 e una radice (p(1) = 2 + 2 1 3 = 0). Con la regola di
Ruffini:
2 2 1 3
1 2 4 3
2 4 3 0
= b2 = b1 = b0 =R

Quindi q(x) = 2x2 + 4x + 3 e

p(x) = (x 1)(2x2 + 4x + 3) .

Si puo verificare che q(x) non ha radici reali (il discriminante e negativo). Quindi
lunica radice reale di p(x) e r = 1.

190

Potrebbero piacerti anche