Sei sulla pagina 1di 85

Politecnico di Torino

Appunti di
Algebra Lineare e Geometria
Niero Luca
Corso di Laurea in Ing. Aerospaziale

A.A. 2020/2021

1
1

Note d’uso
Gli appunti sono stati prodotti sulla base delle fonti citate in ultima pagina
(testi o docenti), selezionate con cura in modo da evitare erroneità.
Tali appunti NON devono essere sostitutivi di libri e professori, poiché si
prefiggono solamente di fare un recap della materia, possibilmente in modo
chiaro e corretto, per uno studio di revisione a fine corso.
L’invito è sempre quello di acquistare i testi citati per avere una visione
completa e corretta della materia.
Nel caso ci siano errori, sviste e mancanze, tali possono essere segnalate
all’indirizzo mail ”poliaerospace@gmail.com”.
Gli appunti sono distribuiti sul sito web www.poliaerospace.it, pagina di
appunti gratuiti per Ingegneria Aerospaziale.
CONTENTS 2

Contents
1 Vettori 6
1.1 Definizione e caratteristiche di un vettore. Vettori particolari . 6
1.2 Somma di vettori . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Prodotto di uno scalare per un vettore . . . . . . . . . . . . . 8
1.4 Combinazione lineare . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.1 Dipendenza ed indipendenza lineare . . . . . . . . . . . 9
1.5 Componenti di un vettore. Versori fondamentali . . . . . . . . 10
1.6 Prodotto scalare . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6.1 Proiezione ortogonale . . . . . . . . . . . . . . . . . . . 12
1.7 Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . 13
1.8 Prodotto misto . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2 Piani e rette 16
2.1 Piani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2 Parallelismo tra piani . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Rette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4 Posizioni reciproche . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.1 Posizioni tra rette e rette . . . . . . . . . . . . . . . . . 23
2.4.2 Posizioni tra rette e piani . . . . . . . . . . . . . . . . 23
2.5 Fasci di piani . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.6 Distanze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.6.1 Distanza tra due punti . . . . . . . . . . . . . . . . . . 25
2.6.2 Distanza di punto da un piano . . . . . . . . . . . . . . 25
2.6.3 Distanza di un punto da una retta nel piano . . . . . . 25
2.6.4 Distanza di un punto da una retta nello spazio . . . . . 26
2.6.5 Distanza tra piani paralleli . . . . . . . . . . . . . . . . 26
2.6.6 Distanza tra rette sghembe . . . . . . . . . . . . . . . . 26

3 Matrici e sistemi lineari 27


3.1 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2 Vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3 Somma di matrici. Prodotto di uno scalare per una matrice . 29
3.4 Prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4.1 Caso vettore riga per vettore colonna . . . . . . . . . . 30
3.4.2 Caso generale . . . . . . . . . . . . . . . . . . . . . . . 30
3.5 Matrici particolari . . . . . . . . . . . . . . . . . . . . . . . . 31
CONTENTS 3

3.6 Potenza e inversa di una matrice quadrata . . . . . . . . . . . 32


3.7 Determinanti . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.7.1 Determinanti notevoli . . . . . . . . . . . . . . . . . . 33
3.7.2 Determinante di ordine n . . . . . . . . . . . . . . . . . 33
3.7.3 Sviluppo di Laplace . . . . . . . . . . . . . . . . . . . . 34
3.8 Matrici ridotte . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.9 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.10 Metodo di eliminazione di Gauss . . . . . . . . . . . . . . . . 38
3.10.1 Operazioni elementari sulle righe . . . . . . . . . . . . 38
3.10.2 Metodo di Gauss . . . . . . . . . . . . . . . . . . . . . 38
3.11 Teorema di Rouchè-Capelli . . . . . . . . . . . . . . . . . . . . 40
3.12 Matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.12.1 Inversa di una matrice di ordine 2 . . . . . . . . . . . . 41
3.12.2 Regola di Cramer . . . . . . . . . . . . . . . . . . . . . 41

4 Spazi Vettoriali Rn 42
4.1 Spazio vettoriale su R . . . . . . . . . . . . . . . . . . . . . . 42
4.2 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.1 Sottospazi impropri e propri . . . . . . . . . . . . . . . 43
4.2.2 Sottospazi notevoli . . . . . . . . . . . . . . . . . . . . 43
4.3 Costruzione di sottospazi vettoriali di Rn . . . . . . . . . . . . 44
4.3.1 Copertura lineare . . . . . . . . . . . . . . . . . . . . . 44
4.3.2 Soluzioni di sistemi lineari omogenei . . . . . . . . . . 44
4.4 Indipendenza lineare. Base e dimensione . . . . . . . . . . . . 45
4.4.1 Dipendenza ed indipendenza lineare . . . . . . . . . . . 45
4.4.2 Spazio delle righe e delle colonne . . . . . . . . . . . . 45
4.4.3 Basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.4.4 Dimensioni . . . . . . . . . . . . . . . . . . . . . . . . 46

5 Operazioni sui sottospazi e spazi vettoriali astratti 47


5.1 Operazioni sui sottospazi. Teorema di Grassmann . . . . . . . 47
5.1.1 Intersezione, unione e somma . . . . . . . . . . . . . . 47
5.1.2 Relazione di Grassmann . . . . . . . . . . . . . . . . . 47
5.2 Spazio vettoriale astratto . . . . . . . . . . . . . . . . . . . . . 48
5.2.1 Campo di scalari . . . . . . . . . . . . . . . . . . . . . 48
5.2.2 Spazio vettoriale su K . . . . . . . . . . . . . . . . . . 48
5.2.3 Spazio vettoriale di polinomi . . . . . . . . . . . . . . . 49
5.3 Sottospazi, Span, basi, dimensioni . . . . . . . . . . . . . . . . 50
CONTENTS 4

6 Applicazioni lineari e cambiamenti di base 51


6.1 Richiami di Analisi Matematica 1 . . . . . . . . . . . . . . . . 51
6.2 Applicazioni lineari f: Rn → Rm . . . . . . . . . . . . . . . . . 52
6.2.1 Funzioni matriciali . . . . . . . . . . . . . . . . . . . . 52
6.2.2 Applicazioni lineari, endorfismi e isomorfismi . . . . . . 52
6.3 Nucleo e immagine di un’applicazione lineare f : Rn → Rm . . 54
6.3.1 Nucleo . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
6.3.2 Immagine di un’applicazione lineare . . . . . . . . . . . 54
6.4 Composizione e prodotto di matrici . . . . . . . . . . . . . . . 55
6.5 Applicazioni lineari f : V → W . . . . . . . . . . . . . . . . . 56
6.6 Basi e applicazioni lineari . . . . . . . . . . . . . . . . . . . . 57
6.7 Cambiamenti di base . . . . . . . . . . . . . . . . . . . . . . . 58
6.8 Cambiamenti di base e applicazioni lineari . . . . . . . . . . . 59

7 Autovettori e autovalori 60
7.1 Diagonalizzazione di un enfomorfismo . . . . . . . . . . . . . . 60
7.1.1 Diagonalizzazione . . . . . . . . . . . . . . . . . . . . . 60
7.1.2 Autovettori e autovalori . . . . . . . . . . . . . . . . . 60
7.1.3 Autospazio . . . . . . . . . . . . . . . . . . . . . . . . 60
7.2 Ricerca analitica degli autovettori . . . . . . . . . . . . . . . . 62
7.3 Diagonalizzabilità di un endomorfismo . . . . . . . . . . . . . 63

8 Matrici ortogonali e forme quadratiche 64


8.1 Prodotto scalare . . . . . . . . . . . . . . . . . . . . . . . . . . 64
8.2 Basi ortonormali . . . . . . . . . . . . . . . . . . . . . . . . . 65
8.3 Matrici ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . 66
8.4 Matrici simmetriche reali . . . . . . . . . . . . . . . . . . . . . 67
8.5 Metodo di ortonormalizzazione di Gram-Schmidt . . . . . . . 68
8.6 Teorema di Cayley-Hamilton . . . . . . . . . . . . . . . . . . . 69
8.7 Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . 70

9 Equazioni di secondo grado in due o tre variabili 71


9.1 Coniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
9.1.1 Definizione generale . . . . . . . . . . . . . . . . . . . . 71
9.1.2 Completamento dei quadrati: traslazione . . . . . . . . 71
9.1.3 Rotazione . . . . . . . . . . . . . . . . . . . . . . . . . 72
9.1.4 Coniche degeneri . . . . . . . . . . . . . . . . . . . . . 73
9.1.5 Coniche non degeneri . . . . . . . . . . . . . . . . . . . 75
CONTENTS 5

9.2 Quadriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
9.2.1 Quadriche non degeneri . . . . . . . . . . . . . . . . . 77
9.2.2 Quadriche degeneri . . . . . . . . . . . . . . . . . . . . 79
9.3 Sfere e circonferenze . . . . . . . . . . . . . . . . . . . . . . . 81
9.4 Circonferenze nello spazio . . . . . . . . . . . . . . . . . . . . 83
1 VETTORI 6

1 Vettori
1.1 Definizione e caratteristiche di un vettore. Vettori
particolari
Fissato un punto O del piano o dello spazio, si definisce vettore v applicato
in O qualsiasi segmento orientato OP ~ , al variare del punto P nel piano o
nello spazio. Il vettore v si può denotare anche ~v .

Fissata una unità di misura delle lunghezze, il vettore v è individuato asseg-


nando:

ˆ la direzione (quella della retta passante per O e per P);

ˆ il verso (quello da O verso P);

ˆ il modulo (ossia il numero reale non negativo che esprime la lunghezza


del segmento OP rispetto all’unità di misura fissata).

Due vettori u e v sono uguali se sono uguali in direzione, verso e modulo.


Un vettore di modulo nullo si dice vettore nullo e si indica con 0.
Il modulo di un vettore u si indica con |u|.
Un vettore u tale che |u| = 1 si dice versore; ad ogni u 6= 0 è associato
un versore versu, cioè un vettore di modulo unitario con stessa direzione e
stesso verso di u.
1 VETTORI 7

1.2 Somma di vettori


Dati due generici vettori u = OP ~ e v = OQ, ~ il vettore somma u + v è il
~
segmento orientato OR, ossia la diagonale del parallelogramma che ha per
lati OP e OQ (regola del parallelogramma); ne segue che il vettore somma
è contenuto nel piano individuato dai due vettori e che vale la diseguaglianza
triangolare |u + v| 6 |u| + |v|.

Valgono le seguenti proprietà:

ˆ commutativa, u + v = v + u;

ˆ associativa, (u + v) + w = u + (v + w);

ˆ u + 0 = u, ∀u;

ˆ ∀u 6= 0, ∃(−u) : u + (−u) = 0.

La somma u + (−v) si scrive di solito u − v (differenza tra due vettori).


1 VETTORI 8

1.3 Prodotto di uno scalare per un vettore


Dati u e un numero reale k, si definisce il vettore ku come il vettore con
stessa direzione di u, stesso verso di u se k > 0, verso opposto se k < 0 e
modulo |k||u|.

Tramite il prodotto per scalare, se u 6= 0, si può ridefinire il versore


caratteristico di un vettore come
1
versu = u
|u|

Dato u qualsiasi, vale che 0u = 0.


Valgono le seguenti proprietà:

ˆ a(bu) = (ab)u, ∀a, b ∈ R;

ˆ 1u = u;

ˆ (a + b)u = au + bu;

ˆ a(u + v) = au + av.
1 VETTORI 9

1.4 Combinazione lineare


Dati i numeri reali a1 , a2 , . . . , an e i vettori u1 , u2 , . . . , un , si dice combi-
nazione lineare dei vettori u1 , u2 , . . . , un a coefficienti a1 , a2 , . . . , an il vet-
tore
a1 u1 + a2 u2 + · · · + an un

1.4.1 Dipendenza ed indipendenza lineare


Dati i vettori u1 , u2 , . . . , un , essi vengono definiti linearmente dipendenti
se uno di essi può essere espresso come combinazione lineare dei rimanenti,
ossia se esistono n coefficienti reali non tutti nulli tali che

a1 u1 + a2 u2 + · · · + an un = 0

Si dicono linearmente indipendenti se non sono linearmente dipendenti,


ossia se l’unica soluzione all’equazione a1 u1 + a2 u2 + · · · + an un è la soluzione
banale.
Si esaminano ora tre casi particolari di dipendenza lineare.
Tre vettori u, v e w sono linearmente dipendenti se si può scrivere a1 u +
a2 v + a3 w = 0 con almeno un coefficiente non nullo; risulta che i tre vettori
sono complanari.
Due vettori u e v sono linearmente dipendenti se si può scrivere a1 u+a2 v = 0
con almeno un coefficiente non nullo; risulta che i due vettori sono paralleli.
Un vettore u è linearmente dipendente se e solo se u = 0.
Quattro vettori u, v, w e t nello spazio sono sempre linearmente dipendenti.
1 VETTORI 10

1.5 Componenti di un vettore. Versori fondamentali


Fissato un sistema di riferimento R(O, x, y, z) di origine O, ad ogni punto
P (x, y, z) è associato un vettore u = OP ~ e viceversa ad ogni vettore u è
associato un unico segmento orientato di origine O ed estremo P (x, y, z),
quindi è possibile identificare ogni vettore applicato in O con le coordinate
cartesiane del suo estremo, dette componenti.
In particolare si definiscono i versori fondamentali i = (1, 0, 0), j = (0, 1, 0)
e k = (0, 0, 1), ovvero versori dello stesso verso degli assi cartesiani. Risulta
che un vettore generico u si può scrivere in modo unico come u = xi+yj+zk
o u = (x, y, z).

Il modulo può essere ricavato dalle componenti applicando due volte il teo-
rema di Pitagora p
|u| = x2 + y 2 + z 2
Dati u = (x1 , y1 , z1 ) e v = (x2 , y2 , z2 ) si ha

u + v = (x1 + x2 , y1 + y2 , z1 + z2 )

Dati m ∈ R e u = (x, y, z) si ha

mu = (mx, my, mz)


1 VETTORI 11

1.6 Prodotto scalare


Dati due vettori u e v si dice prodotto scalare il numero reale

u · v = |u||v| cos θ

dove 0 6 θ 6 π è l’angolo compreso tra u e v.

Valgono le seguenti proprietà:

ˆ commutativa, u · v = v · u;

ˆ (mu)v = u(mv) = m(u · v);

ˆ u(v + w) = u · v + u · w.

Due vettori u e v non nulli si dicono ortogonali se θ = π/2, paralleli se


θ = 0 o θ = π.
Si possono fare alcune osservazioni importanti:

ˆ u · u = |u|2 ;

ˆ u · v = 0 se e solo se uno dei due vettori è nullo oppure se i due vettori


sono ortogonali tra loro;

ˆ |u · v| 6 |u||v|, in particolare vale l’eguaglianza se e solo se i vettori


sono paralleli.

Dati u = (x1 , y1 , z1 ) e v = (x2 , y2 , z2 ) si ha

u · v = x1 x2 + y1 y2 + z1 z2
1 VETTORI 12

1.6.1 Proiezione ortogonale


Dati due vettori u e v, il vettore proiezione ortogonale di v su u è il
vettore vu = (u · v) |u|u2 . Si ha infatti vu = (|v| cos θ)versu = (|v| cos θ) |u|
u
1 VETTORI 13

1.7 Prodotto vettoriale


Dati due vettori u e v, si dice prodotto vettoriale il vettore u ∧ v cosı̀
definito

ˆ u ∧ v ha direzione perpendicolare al piano di dei due vettori;

ˆ il verso di u ∧ v è determinato dalla regola della mano destra, ossia u,


v e u ∧ v (in ordine) formano una terna destrorsa di vettori

ˆ il modulo di u ∧ v è |u ∧ v| = |u||v| sin θ.

Dalla definizione segue che il modulo |u ∧ v| è uguale all’area del parallelo-


gramma avente come lati adiacenti u e v. Inoltre se n è un versore ortogonale
sia a u che v allora u ∧ v = |u ∧ v|n.
Valgono le seguenti proprietà:

ˆ anticommutativa, u ∧ v = −v ∧ u;

ˆ (mu) ∧ v = v ∧ (mu) = m(u ∧ v;

ˆ u ∧ (v + w) = u ∧ v + u ∧ w

Si possono fare alcune osservazioni importanti:

ˆ u ∧ v = 0 se e solo se uno dei due vettori è nullo oppure se i due vettori


sono paralleli tra loro;

ˆ i versori fondamentali formano una terna ortogonale destrorsa, quindi


si ha che i ∧ j = k, j ∧ k = i e k ∧ i = j mentre i ∧ i = 0;

ˆ in generale non vale una proprietà associativa del prodotto vettoriale.


1 VETTORI 14

Dalle proprietà del prodotto vettoriale e dalle osservazioni precedenti e dati


u = (x1 , y1 , z1 ), v = (x2 , y2 , z2 ) si ha che u ∧ v = (x1 i + y1 j + z1 k) ∧ (x2 i +
y2 j + z2 k), ossia

y1 z1 x1 z1 x1 y 1
y2 z2 i − x2 z2 j + x2 y2 k

anche riscrivibile come



i j k

x1 y1 z1

x2 y2 z2
1 VETTORI 15

1.8 Prodotto misto


Dati tre vettori u, v e w, si dice prodotto misto il numero reale

u · (v ∧ w)

Definendo i tre vettori in componenti si ottiene che



x0 y 0 z0

u · (v ∧ w) = x1 y1 z1
x2 y 2 z2

Si possono fare alcune osservazioni importanti:

ˆ dalla definizione segue che u·(v∧w) = 0 se e solo se uno dei due vettori
è nullo oppure se i tre vettori sono complanari (e quindi linearmente
dipendenti);

ˆ dati tre vettori linearmente indipendenti, è possibile ricavare l’espressione


del vettore uα proiezione ortogonale di u sul piano α individuato
da v e w. Si ha che u = uα + up , dove up è il vettore proiezione ortogo-
nale di u sulla retta p ortogonale al piano α. Si ha dunque uα = u − up
v∧w
con up = uv∧w = (u · (v ∧ w)) |v∧w| 2;

ˆ il volume del parallelepipedo avente per spigoli i vettori u, v e w è


uguale al modulo del prodotto misto.
2 PIANI E RETTE 16

2 Piani e rette
2.1 Piani
Per individuare un piano α nello spazio si possono assegnare:

a) un punto P0 di α e un vettore u ortogonale ad α;

b) un punto P0 di α e due vettori v e w paralleli ad α;

c) tre punti P0 , P1 , P2 di α non allineati.

Caso (a)
Siano P0 = (x0 , y0 , z0 ) e u = (a, b, c); se P è un generico punto di α, il vettore
~ − OP
(OP ~ 0 ) è parallelo ad α e quindi ortogonale a u.

Si ha perciò l’equazione vettoriale


~ − OP
u · (OP ~ 0) = 0
2 PIANI E RETTE 17

che passando alle componenti diventa


a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0
da cui si ricava l’equazione cartesiana del piano
α : ax + by + cz + d = 0
dove d = −(ax0 + by0 + cz0 ).
Un piano si rappresenta quindi con un’equazione lineare in x, y, z e i coeffi-
cienti delle incognite sono le componenti di un vettore ortogonale al piano
stesso. Se l’equazione viene moltiplicata per uno scalare non nullo si ottiene
lo stesso piano: non esiste dunque un metodo univoco per definire il piano.

Caso (b)
É facile ricondursi al primo caso definendo come u il vettore v ∧ w.

Si ha l’equazione vettoriale come


~ − OP
v ∧ w · (OP ~ 0) = 0
e l’equazione cartesiana uguale al caso (a). Definendo v = (l, m, n) e w =
(l0 , m0 , n0 ) si può scrivere che

m n l n l m
a = 0 0 , b = − 0 0 , c = 0 , d = (ax0 + by0 + cz0 )
m n l n l m0
Avendo definito l’equazione vettoriale come prodotto misto è ora possibile
definire il piano con un’equazione cartesiana in forma matriciale

x − x0 y − y0 z − z0

α : l m n = 0
l0 m0 n0
2 PIANI E RETTE 18

Caso (c)
Nell’ultimo caso si cerca il piano passante per tre punti non allineati. Basta
ricondursi al caso (b) definendo v = (OP ~ 1 − OP~ 0 ) e w = (OP~ 2 − OP~ 0 ). É
facile osservare che il piano è parallelo a questi due vettori e quindi ricondursi
alle regole dei casi precedenti per il calcolo del piano.

Si nota che è sempre possibile individuare il vettore ortogonale al piano uti-


lizzando come componenti i coefficienti a, b, c dell’equazione cartesiana del
piano.
2 PIANI E RETTE 19

2.2 Parallelismo tra piani


Due piani α : ax + by + cz + d = 0 e β : a0 x + b0 y + c0 z + d0 = 0 si dicono
paralleli se e solo se i vettori ortogonali associati ad essi u = (a, b, c) e
u0 = (a0 , b0 , c0 ) sono paralleli tra loro, ossia se esiste un coefficiente reale non
nullo λ tale che
(a, b, c) = λ(a0 , b0 , c0 )
Se vale inoltre che (a, b, c, d) = λ(a0 , b0 , c0 , d0 ) allora i piani coincidono.

Se due piani non sono paralleli, ossia se non esiste coefficiente che soddisfa
il parallelismo dei vettori ortogonali, allora si dicono incidenti. Due piani
incidenti sono sempre tali che

α∩β =r

con r retta ottenuta dall’intersezione dei due piani.


2 PIANI E RETTE 20

2.3 Rette
Per individuare una retta r nello spazio si possono assegnare:

a) un punto P0 della retta e un vettore u parallelo ad r;


b) due piani non paralleli di cui r è intersezione;
c) due punti distinti di r.

Caso (a)
Nel primo caso siano P0 = (x0 , y0 , z0 ) e u = (l, m, n).

~ − OP
Un punto P = (x, y, z) appartiene ad r se e solo se i vettori (OP ~ 0) e u
sono paralleli, ossia se e solo se esiste t ∈ R tale che
~ − OP
(OP ~ 0 ) = tu

relazione detta equazione vettoriale della retta. Si definiscono inoltre u


il vettore direttore di r e le componenti l, m, n i parametri direttori di r.
Dall’equazione vettoriale passando alle componenti si ricavano le equazioni
parametriche della retta

x = x0 + lt

y = y0 + mt

z = z0 + nt

2 PIANI E RETTE 21

da cui segue
x − x0 y − y0 z − z0
= =
l m n
Eguagliando due coppie di tali rapporti si possono ricavare le equazioni di
due piani di cui r è intersezione; il sistema lineare
(
x−x0
l
= y−y
m
0

x−x0
l
= z−z
n
0

si dice rappresentazione cartesiana della retta nello spazio.

Caso (b)
Nel secondo caso sono dati due piani incidenti α : ax + by + cz + d = 0 e
β : a0 x + b0 y + c0 z + d0 = 0, che hanno intersezione la retta r; le coordinate
dei punti di r sono le soluzioni del sistema
(
ax + by + cz + d = 0
a0 x + b 0 y + c 0 z + d 0 = 0

Per ottenere una rappresentazione parametrica di r, a partire da quella carte-


siana, occorre trovare un punto della retta (ovvero una particolare soluzione
(x0 , y0 , z0 ) del sistema) e un vettore u parallelo ad essa; per il vettore basti
osservare che i due vettori normali ai rispettivi piani n = (a, b, c) e n0 =
(a0 , b0 , c0 ) devono essere ortogonali alla retta e al suo vettore direttore u. Si
sceglie dunque u = n ∧ n0 = (bc0 − b0 c, a0 c − ac0 , ab0 − a0 b).
2 PIANI E RETTE 22

Caso (c)
Nell’ultimo caso si vuole determinare la retta passante per P0 (x0 , y0 , z0 ) e
P1 (x1 , y1 , z1 ). Si può ricondurre lo studio al caso (a) cercando la retta pas-
sante per uno dei due punti e parallela al vettore (OP ~ − OP ~ 0 ) = (l, m, n). Si
ottengono le equazioni parametriche

x = x0 + t(x1 − x0 )

y = y0 + t(y1 − y0 )

z = z0 + t(z1 − z0 )

Quanto visto finora per le rette nello spazio può ripetersi per analogia nel
piano, ricordando che nel piano la scelta del riferimento permette di iden-
tificare i vettori applicati nell’origine con coppie ordinate di numeri reali;
per ottenere quindi una rappresentazione parametrica di r passante per P0 e
parallela a u = (l, m) basta sopprimere la coordinata z nell’equazione para-
metrica tridimensionale (
x = x0 + lt
y = y0 + mt
dalla quale eliminando il parametro t si ottiene la rappresentazione carte-
siana della retta nel piano

ax + by + c = 0

dove v = (a, b) è perpendicolare al vettore u = (l, m).


2 PIANI E RETTE 23

2.4 Posizioni reciproche


Si riportano le posizioni possibili tra rette e tra rette e piani.

2.4.1 Posizioni tra rette e rette

2.4.2 Posizioni tra rette e piani


2 PIANI E RETTE 24

2.5 Fasci di piani


Date le equazioni di due piani distinti α : ax + by + cz + d = 0 e β :
a0 x + b0 y + c0 z + d0 = 0 si parla di fascio di piani di α e β l’insieme di tutti
i piani individuati da un’equazione del tipo

λ(ax + by + cz + d) + µ(a0 x + b0 y + c0 z + d0 ) = 0

al variare di λ, µ ∈ R.
Si può osservare che l’equazione definisce un piano ben preciso a meno di un
fattore di proporzionalità per ogni coppia di valori (λ, µ) 6= (0, 0) tramite le
variabili x, y, z. Si distinguono due casi:

ˆ se i piani α e β si intersecano secondo una retta r, ogni piano del fascio


passa per quella retta. In questo caso si parla di fascio proprio di
piani con asse la retta r

ˆ se i piani α e β sono paralleli, ogni piano del fascio è parallelo ad α e


β e viceversa; in questo caso si parla di fascio improprio di piani. I
piani del fascio sono tutti rappresentati da un’equazione del tipo

ax + by + cz + k = 0

al variare di k.
2 PIANI E RETTE 25

2.6 Distanze
2.6.1 Distanza tra due punti
Dati due punti P = (x, y, z) e A = (x0 , y 0 , z 0 ), si definisce la loro distanza
come
~ − OA|
~ = (x − x0 )2 + (y − y 0 )2 + (z − z 0 )2
p
d(P, A) = |OP

2.6.2 Distanza di punto da un piano


Dato un piano α : ax + by + cz + d = 0 ed un punto P0 = (x0 , y0 , z0 ), la
distanza del punto dal piano è la distanza da P0 dal punto H proiezione
ortogonale di P0 su α
|ax0 + by0 + cz0 + d|
d(P0 , α) = d(P0 , H) = √
a2 + b 2 + c 2

2.6.3 Distanza di un punto da una retta nel piano


Data l’analogia tra l’equazione di una retta nel piano e quella di un piano
nello spazio, con un procedimento simile al precedente, si ottiene la distanza
di un punto P0 (x0 , y0 ) da una retta r : ax + by + c = 0
|ax0 + by0 + c|
d(P0 , r) = d(P0 , H) = √
a2 + b 2
2 PIANI E RETTE 26

2.6.4 Distanza di un punto da una retta nello spazio


Dati la retta r e il punto P0 , la distanza del punto dalla retta può essere de-
terminata con un procedimento che segue dai precedenti: basta determinare
il piano α passante per il punto e ortogonale alla retta considerando il loro
punto di intersezione H = r ∩ α; si ha infatti
d(P0 , r) = d(P0 , H)

2.6.5 Distanza tra piani paralleli


Per calcolare tale distanza ci si può ricondurre al calcolo della distanza tra
un punto ed un piano: dati i piani α, β paralleli si ha che
|d − d0 |
d(α, β) = d(P0 , α) = √
a2 + b 2 + c 2
dove P0 è un punto qualsiasi di β.

2.6.6 Distanza tra rette sghembe


Date due rette sghembe r ed s, esistono due punti (P1 su r e P2 su s) tali
che la retta passante per essi è ortogonale e incidente con entrambe le rette.
Il segmento definito è la lunghezza minima tra tutti i segmenti aventi un
estremo su r e uno su s. Per calcolare tale distanza ci si può ricondurre al
calcolo della distanza tra un punto e un piano: sia α il piano che contiene
una delle due rette (ad esempio s) e parallelo all’altra, allora
d(r, s) = d(r, α) = d(P0 , α)
dove P0 è un punto qualsiasi di r.
3 MATRICI E SISTEMI LINEARI 27

3 Matrici e sistemi lineari


3.1 Matrici
Una matrice di tipo m × n è una tabella di numeri disposti su m righe e n
colonne del tipo  
a11 a12 ··· a1n
 a21 a22 ··· a2n 
A =  ..
 
.. .. .. 
 . . . . 
am1 am2 · · · amn
Quando m = n la matrice si dice quadrata di ordine n.
I singoli valori della matrice si dicono elementi della matrice. Dentro una
matrice ogni elemento occupa una posizione ben precisa identificata dalla
riga e dalla colonna a cui appartiene.
L’insieme delle matrici a elementi reali si indica con Rm,n ; a elementi comp-
lessi Cm,n .
Due matrici si dicono uguali se lo sono i rispettivi elementi nella stessa po-
sizione.
In generale data una matrice si denota con ai,j l’elemento appartenente alla
i-esima riga e alla j-esima colonna. Più in generale una matrice può essere
indicata con A = (ai,j ).
Si definisce la trasposta di una matrice A la matrice che si ottiene scam-
biando tra loro le righe e le colonne; si indica con t A o con At .
Se A ∈ Rn,m allora t A ∈ Rm,n . In particolare t (t A) = A.
3 MATRICI E SISTEMI LINEARI 28

3.2 Vettori
Sono di particolare importanza le matrici che hanno soltanto una riga o
soltanto una colonna. Si dicono rispettivamente vettore riga e vettore
colonna.
 
a11
 a21  
A =  .. , B = a11 a12 · · · a1n
 
 . 
am1

Spesso la distinzione tra vettore riga e colonna non è importante, in partico-


lare di solito si identificano gli insieme R1,n e Rn,1 con Rn , esattamente come
quando si scrivono le coordinate cartesiane di un punto nel piano (vettori di
R2 ) o nello spazio (vettori di R3 ).
Vettori riga e colonna non sono solo casi particolari di matrici; infatti data
una qualsiasi matrice A ∈ Rm,n si possono considerare i suoi vettori riga
r1 , r2 , . . . , rm ∈ R1,n e i suoi vettori colonna c1 , c2 , . . . , cn ∈ Rm,1 .
3 MATRICI E SISTEMI LINEARI 29

3.3 Somma di matrici. Prodotto di uno scalare per


una matrice
Date A e B due matrici m × n, si dice matrice somma A + B la matrice
m × n tale che
A + B = (ai,j ) + (bi,j )
Data la matrice A di tipo m × n e lo scalare k, la matrice kA è la matrice
m × n tale che
kA = (kai,j )
Valgono le seguenti proprietà:

ˆ 0A = (0), con (0) definita come matrice nulla;

ˆ A + (−A) = (0);

ˆ commutativa, A + B = B + A;

ˆ associativa, (A + B) + C = A + (B + C);

ˆ distributiva, k(A + B) = kA + kB;

ˆ (k + m)A = kA + mA;

ˆ (km)A = k(mA).
3 MATRICI E SISTEMI LINEARI 30

3.4 Prodotto di matrici


É possibile definire un operazione di prodotto tra matrici: il prodotto righe
per colonne tra una matrice A di tipo m × k e una matrice B di tipo k × n
fornisce una matrice AB di tipo m × n.

3.4.1 Caso vettore riga per vettore colonna


Siano dati a e b rispettivamente vettore riga di tipo 1 × k e vettore colonna
di tipo k × 1. Il prodotto a · b è il numero
 
b1
  b2 

a · b = a1 a2 . . . ak ·  ..  = a1 b1 + a2 b2 + · · · + ak bk

.
bk

3.4.2 Caso generale


Sia A una matrice di tipo m × k avente righe r1 , r2 , . . . , rm e B una matrice
di tipo k × n avente colonne c1 , c2 , . . . , cn , allora AB è la matrice di tipo
m × n avente come coefficienti i termini ri · cj .
Valgono le seguenti proprietà:

ˆ A(B + C) = AB + AC, (B + C)A = BA + CA;

ˆ (AB)C = A(BC);

ˆ k(AB) = (kA)B;

ˆ t (AB) =t B t A.

Si può osservare che non sempre il prodotto tra matrici gode della proprietà
commutativa.
3 MATRICI E SISTEMI LINEARI 31

3.5 Matrici particolari


Una matrice quadrata M = (ai,j ) si dice diagonale se gli unici coefficienti
non nulli sono quelli che appartengono alla diagonale principale, ossia
quelli per i quali i = j.  
a1 0 · · · 0
 0 a2 · · · 0 
 
 .. .. . . .. 
. . . .
0 0 · · · ak
Si dice triangolare alta [bassa] una matrice quadrata M = (ai,j ) se tutti i
suoi coefficienti al di sotto [sopra] della diagonale principale sono nulli.
 
a11 a12 · · · a1m
 0 a22 · · · a2m 
 
 .. .. . . .. 
 . . . . 
0 0 · · · amm

Si dice matrice identità una matrice In di ordine n tale che


 
1 0 ··· 0
0 1 · · · 0
 
 .. .. . . .. 
. . . .
0 0 ··· 1

É di facile verifica che data A ∈ Rm,n si ha che Im A = A = AIn .


3 MATRICI E SISTEMI LINEARI 32

3.6 Potenza e inversa di una matrice quadrata


Data una matrice quadrata A di ordine k è possibile calcolare una potenza
An , per ogni intero positivo n. Per esempio A3 = AAA = A2 A = AA2 . Si
pone per convenzione A0 = Ik .
Si verifica che le potenze di una data matrice commutano tra loro, infatti

Am An = An Am

Data una matrice quadrata A, si dice che A è invertibile se esiste una


matrice quadrata B di ordine uguale tale che

AB = BA = I

In questo caso B si dice matrice inversa di A e si denota A−1 .


Nel caso di matrici di ordine 2 il calcolo dell’inversa è semplice e si ha che la
matrice  
a b
A=
c d
è invertibile se e solo se ad − bc 6= 0 e in tal caso si ha
 
−1 1 d −b
A =
ad − bc −c a
3 MATRICI E SISTEMI LINEARI 33

3.7 Determinanti
Ad ogni matrice quadrata A di ordine n è possibile associare un numero,
detto determinante e indicato det(A), e calcolato a partire dagli elementi
di A.

3.7.1 Determinanti notevoli


Se l’ordine è 1 allora il determinante è l’unico elemento della matrice.

A = (a)

det(A) = a
Nel caso di matrici di ordine 2, il numero ad − bc è il determinante di A:
 
a b
A=
c d

a b
det(A) = = ad − bc
c d
Se l’ordine è 3 si ha che  
a b c
A = d e f 
g h i

e f d f d e
det(A) = a − b
g i + c g h

h i

3.7.2 Determinante di ordine n


Sia A una matrice quadrata di ordine n, il determinante di A è il numero
X
det(A) = sgn(σ)a1σ(1) a2σ(2) · · · anσ(n)
σ∈Sn

dove σ varia nell’insieme Sn di tutte le n! permutazioni di n elementi.


Calcolare a mano un determinante utilizzando questa formula è pura follia.
Un procedimento alternativo è riscrivere la formula mettendo in evidenza gli
elementi di una riga fissata di A: ciò permette di ottenere lo sviluppo di
Laplace come segue.
3 MATRICI E SISTEMI LINEARI 34

3.7.3 Sviluppo di Laplace


Data la matrice A = (ai,j ) si dice complemento algebrico di (ai,j ) il numero
definito da prodotto di (−1)i+j per il determinante della matrice che si ottiene
da A cancellando la riga i-esima e la colonna j-esima.
Vale il teorema di Laplace, ovvero data una matrice A quadrata n × n,
det(A) è uguale alla somma dei prodotti degli elementi di una riga fissata per
il rispettivo complemento algebrico.

det(A) = ai,1 Ai,1 + ai,2 Ai,2 + · · · + ain Ain

É comodo scegliere come riga o colonna fissata quella con più zeri possibili.
Un caso particolare è la matrice triangolare, la quale ha come determinante
la produttoria degli elementi della diagonale principale.
Valgono le seguenti proprietà:

ˆ se nella matrice A si scambiano tra loro due righe, il determinante


cambia segno;

ˆ se nella matrice A si sostituisce a un vettore riga Ri il vettore riga


Ri → Ri + kRj , il determinante non cambia;

ˆ applicando il metodo di eliminazione di Gauss alla matrice A, si ot-


tiene una matrice S ridotta a scala e, dai risultati precedenti, si ha che
det(A) = ±det(S) in particolare se rg(A) = n, det(S) è il prodotto
degli indicatori perciò det(A) 6= 0, mentre se rg(A) < n, det(A) =
±det(S) = 0 e viceversa.
3 MATRICI E SISTEMI LINEARI 35

3.8 Matrici ridotte


Si danno ora alcune definizioni utili per i successivi calcoli matriciali.
Una riga di una matrice M si dice non nulla se possiede almeno un elemento
diverso da 0.
Il primo elemento di una riga non nulla diverso da 0 (da sinistra) si dice
indicatore o elemento speciale della riga.
Una matrice M si dice ridotta per righe se in ogni sua riga non nulla esiste
almeno un elemento non nullo che ha al di sotto solo zeri oppure nessun
elemento. Si dice invece ridotta per colonne se la sua trasposta è ridotta
per righe.
Una matrice M si dice fortemente ridotta per righe se in ogni sua riga
non nulla esiste almeno un elemento uguale a 1 e che ha al di sopra e al di
sotto solo zeri oppure nessun elemento e inoltre se tutte le righe al di sotto
di una riga nulla sono anch’esse nulle.
Una matrice M si dice ridotta a scala se in ogni sua riga non nulla esiste
almeno un elemento non nullo che ha alla sua sinistra e al di sotto solo zeri
o nessun elemento, ossia se

ˆ non ci sono due indicatori nella stessa colonna;

ˆ percorrendola dall’alto verso il basso, gli indicatori si spostano verso


destra;

ˆ eventuali righe non nulle sono tutte in basso.

Ritornando ai concetti di dipendenza e di indipendenza lineare, si possono


enunciare le seguenti proposizioni:

a) le righe non nulle di una matrice M ridotta a scala sono linearmente


indipendenti;

b) una colonna di M è priva di indicatore se e solo se è combinazione


lineare di quelle che la precedono.

Si introduce ora un concetto fondamentale nel calcolo matriciale. Data M


una matrice ridotta a scala, si dice rango di una matrice ridotta a scala
M , rg(M ), il numero delle sue righe non nulle o, equivalentemente, il numero
dei suoi indicatori.
3 MATRICI E SISTEMI LINEARI 36

3.9 Sistemi lineari


Un sistema lineare di m equazioni in n incognite a coefficienti in R è un
insieme di equazioni la cui soluzione deve essere comune.


 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn = b2

.. .. ... .. .


 . . . = ..
a x + a x + · · · + a x = b
m1 1 m2 2 mn n m

É possibile scrivere un sistema in forma matriciale come

AX = B

dove  
a11 a12 ··· a1n
 a21 a22 ··· a2n 
A =  ..
 
.. .. .. 
 . . . . 
am1 am2 · · · amn
è la matrice dei coefficienti,
 
x1
 x2 
X =  .. 
 
.
xn

è la matrice delle incognite e


 
b1
 b2 
B =  .. 
 
.
bn

è la matrice dei termini noti.


Ogni riga della matrice completa (A|B) corrisponde ad un’equazione del
sistema.
Una soluzione del sistema è una n-upla di numeri (a1 , . . . , an ) ∈ R che
soddisfano tutte le sue equazioni contemporaneamente.
3 MATRICI E SISTEMI LINEARI 37

Un sistema può avere una sola o infinite soluzioni: si dice allora che il sistema
è compatibile. Se non ne ha alcuna, allora è detto incompatibile.
Un sistema omogeneo, ovvero i cui termini noti sono tutti nulli, è sempre
compatibile poiché ammette sempre soluzione banale (0, 0, . . . , 0).
Un sistema lineare AX = B può essere riscritto come

x1 c1 + · · · + xn cn = B

dove i vettori colonna appartengono ad A; dunque la risoluzione di un sistema


lineare comporta trovare dei coefficienti per soddisfare una combinazione
lineare di B rispetto ad A.
Per riconoscere se un sistema è compatibile e trovarne, nel caso, le soluzioni
si può procedere in più modi (ad esempio il classico metodo di sostituzione).
Nei sistemi la cui matrice A è fortemente ridotta a righe la risoluzione è
rapida: in ogni sua equazione c’è un’incognita a coefficiente 1 che non figura
in altre equazioni. Esplicitandola si ricava in funzione delle altre incognite
di riga. Per i sistemi ridotti a scala basta sostituire dal basso all’alto.
Un sistema lineare AX = B, dove A è una matrice a scala di tipo r × n di
rango r (cioè tutte le r righe sono non nulle) è compatibile qualunque sia B.
Se r < n si hanno ∞n−r soluzioni, se r = n la soluzione è unica.
3 MATRICI E SISTEMI LINEARI 38

3.10 Metodo di eliminazione di Gauss


3.10.1 Operazioni elementari sulle righe
Data una matrice M , si dice operazione elementare sulla riga una delle
seguenti operazioni:

ˆ scambio di righe Ri → Rj ;

ˆ moltiplicazione di una riga per uno scalare non nullo Ri → kRi ;

ˆ somma di una riga moltiplicata per uno scalare Ri → Ri + kRj .

Eseguendo operazioni elementari si ottiene sempre una matrice dello stesso


ordine.
Due sistemi lineari nelle incognite x1 , x2 , . . . , xn si dicono equivalenti se
hanno esattamente le stesse soluzioni.
É utile dare la definizione precedente a questo punto per la formulazione del
prossimo lemma.
Data M = (A|B) matrice completa di un sistema lineare, la matrice M 0 =
(A0 |B 0 ) ottenuta eseguendo operazioni elementari sulle righe di M corrisponde
ad un sistema equivalente.

3.10.2 Metodo di Gauss


Dato un sistema lineare AX = B, il metodo di Gauss consiste nell’applicare
una opportuna successione di operazioni elementari sulle righe della matrice
M = (A|B) ∈ Rm,n+1 in modo da ottenere una matrice M 0 = (A0 |B 0 ) ∈
Rm,n+1 ridotta a scala. Dunque, grazie al lemma prima riportato, i due sis-
temi sono equivalenti. Il tutto porta ad un sistema facilmente (se possibile)
risolvibile. Nota bene: il procedimento va applicato all’intera riga, termine
noto compreso.
Un sistema lineare AX = B ad m equazioni in n incognite è compatibile se
e solo se in una sua qualunque riduzione a scala A0 X = B 0 , detto r il rango
di A0 , gli ultimi m − r coefficienti di B sono nulli.
Gli indicatori di M 0 dipendono unicamente dalle scelte fatte sulle operazioni,
ma il loro numero r = rg(M ) non dipende da queste.
Fatte le precedenti considerazioni si può ora definire il rango di una ma-
trice qualsiasi M come il rango di una matrice M 0 ottenuta riducendo a
3 MATRICI E SISTEMI LINEARI 39

scala M mediante operazioni elementari. Dunque

rg(A) = rg(A0 ), rg(A|B) = rg(A0 |B 0 )


3 MATRICI E SISTEMI LINEARI 40

3.11 Teorema di Rouchè-Capelli


Utilizzando la nozione di rango per matrice qualsiasi è possibile formulare
un risultato fondamentale per comprendere se un sistema è compatibile o
meno (anche senza calcolare le eventuali soluzioni) e dire quante soluzioni
ammette nel caso lo fosse. Questo metodo prende il nome di teorema di
Rouchè-Capelli e recita come segue.
Dato il sistema lineare AX = B, con A ∈ Rm,n , X ∈ Rn,1 e B ∈ Rm,1

a) esso è incompatibile se e solo se r(A) < r(A|B);

b) se è compatibile, si pone r = rg(A) = rg(A|B); allora sussistono ∞n−r


soluzioni che si possono scrivere in funzione di n − r incognite libere.
Se n = r la soluzione è unica.

Se B = 0 si è nel caso b): un sistema omogeneo ha sempre soluzione; se


n = r la soluzione unica è X = (0).
Dato un sistema lineare non omogeneo AX = B, il sistema AX = 0 si dice
sistema omogeneo associato. Supponendo di conoscere una soluzione Y
del sistema AX = B e una Z del sistema AX = 0, allora A(Y + Z) = B + 0
cioè Y + Z è un’altra soluzione del sistema.
3 MATRICI E SISTEMI LINEARI 41

3.12 Matrice inversa


Operando formalmente nello stesso modo, si possono applicare il metodo di
Gauss e il teorema di Rouchè-Capelli a sistemi lineari del tipo AX = B, con
A ∈ Rm,n , X ∈ Rn,p , B ∈ Rm,p ; in questo caso si può interpretare AX = B
come un sistema in cui le incognite sono le righe di X. Si consideri il caso
particolare
AX = In · · · A, X ∈ Rn,n
Per definire la soluzione, se esiste, si cerca la matrice inversa A−1 . Inoltre,
essendo rg(In ) = n, si ha rg(A|In ) = n, quindi per il teorema di Rouchè-
Capelli essa esiste solo se rg(A) = n e, se esiste, è unica.

3.12.1 Inversa di una matrice di ordine 2


Come già accennato, si può ricavare il risultato
 
−1 1 d −b
A =
ad − bc −c a

3.12.2 Regola di Cramer


Il sistema lineare AX = B con A ∈ Rn invertibile ha una sola soluzione data
da X = A−1 B
4 SPAZI VETTORIALI RN 42

4 Spazi Vettoriali Rn
4.1 Spazio vettoriale su R
Fissato un n ∈ N, sia Rn l’insieme delle n-uple ordinate di numeri reali: un
elemento u di Rn è costituito da n numeri reali (x1 , x2 , . . . , xn ), elementi detti
componenti di u. A seconda dei casi si identifica u come vettore colonna
o vettore riga, ossia si identifica Rn con Rn,1 o con R1,n .
Si definisce l’operazione di somma tra elementi di Rn :

(x1 . . . xn ) + (y1 . . . yn ) = (x1 + y1 . . . xn + yn )

e quella di prodotto per scalare k ∈ R:

k(x1 . . . xn ) = (kx1 . . . kxn )

É facile verificare che in Rn valgono le seguenti proprietà:

ˆ u + v = v + u;

ˆ (u + v) + w = u + (v + w);

ˆ ∃0 : u + 0 = u, ∀u ∈ Rn ;

ˆ ∀u 6= 0, ∃(−u) : u + (−u) = 0;

ˆ a(bu) = (ab)u, ∀a, b ∈ R;

ˆ 1u = u;

ˆ (a + b)u = au + bu;

ˆ a(u + v) = au + av.

Si dice che Rn è dotato di una struttura di spazio vettoriale su R in quanto


si sono definite le operazioni di somma e prodotto per scalare e l’insieme ne
gode delle loro proprietà.
4 SPAZI VETTORIALI RN 43

4.2 Sottospazi vettoriali


Un sottoinsieme V ∈ Rn si dice sottospazio vettoriale se non è l’insieme
vuoto e se è chiuso rispetto alle operazioni di somma e di prodotto per un
numero reale, ossia:

1) V 6= Φ;

2) ∀u, v ∈ V, u + v ∈ V;

3) ∀u ∈ V, ∀k ∈ R, ku ∈ V.

Si può osservare banalmente che ogni sottospazio vettoriale acquisisce una


struttura di spazio vettoriale e che ogni sottospazio contiene il vettore nullo
(non vale necessariamente il viceversa).

4.2.1 Sottospazi impropri e propri


Sono sottospazi di Rn il sottospazio V = {0} (sottospazio nullo) e lo spazio
Rn . Questi due sottospazi sono detti impropri; ogni altro sottospazio è detto
proprio.

4.2.2 Sottospazi notevoli


Sono sottospazi notevoli i sottospazi di R2 (sottospazio nullo, rette pas-
santi per l’origine) e i sottospazi di R3 (sottospazio nullo, rette passanti per
l’origine, piani passanti per l’origine).
4 SPAZI VETTORIALI RN 44

4.3 Costruzione di sottospazi vettoriali di Rn


4.3.1 Copertura lineare
Dati i vettori u1 , . . . , uk ∈ Rn , si denota con L(u1 , . . . , uk ) l’insieme di tutte
le combinazioni lineari a1 u1 + · · · + ak uk al variare dei coefficienti in R; tale
insieme è detto Span lineare o copertura lineare ed è un sottospazio
vettoriale particolare definito come sottospazio generato di V.
I vettori di L(u1 , . . . , uk ) si dicono generatori di V.

4.3.2 Soluzioni di sistemi lineari omogenei


Un altro metodo di assegnazione di sottospazi vettoriali di Rn segue dalla
proposizione: data M ∈ Rm,n , l’insieme delle soluzioni del sistema lineare
omogeneo M X = 0 è un sottospazio di Rn,1 .
4 SPAZI VETTORIALI RN 45

4.4 Indipendenza lineare. Base e dimensione


4.4.1 Dipendenza ed indipendenza lineare
Si riprende il concetto di dipendenza ed indipendenza lineare già spiegato in
1.4.1. Dati i vettori u1 , . . . , uk ∈ Rn , si dicono linearmente indipendenti se
l’equazione
x1 u1 + · · · + xk uk = 0
ha unicamente soluzione banale; se esistono altre soluzioni allora si dicono
linearmente dipendenti.

4.4.2 Spazio delle righe e delle colonne


Data una matrice M ∈ Rm,n si dice spazio delle righe di M (denotato con
R(M )) il sottospazio vettoriale L(R1 , . . . , Rm ) di R1,n generato dalle righe
di M e spazio delle colonne di M (denotato con C(M )) il sottospazio
vettoriale L(C1 , . . . , Cn ) di Rm,1 generato dalle colonne di M .

4.4.3 Basi
Sia V un sottospazio vettoriale di Rn . Un insieme ordinato di vettori B =
(u1 , . . . , uk ) ∈ V si dice una base per V se:

1) u1 , . . . , uk sono linearmente indipendenti;

2) V = L(u1 , . . . , uk ), cioè i vettori u1 , . . . , uk sono generatori di V.

Dalla definizione si può subito osservare che nessuna base può contenere il
vettore nullo, in quanto esso non può mai far parte di una combinazione di
vettori linearmente indipendenti.
I vettori riga (o colonna) della matrice identità In sono una base di Rn detta
base canonica e denotata B = (e1 , . . . , en ).
É possibile dimostrare che, data una base B = (u1 , . . . , uk ) di V sottospazio
di Rn , per ogni vettore v ∈ V i coefficienti che permettono di esprimerlo
come combinazione lineare dei vettori della base sono unici. Inoltre vale
che i coefficienti che permettono di esprimere qualsiasi vettore di Rn come
combinazione lineare dei vettori della base canonica sono le componenti del
vettore stesso. Si ha infatti

v = (a1 , a2 , . . . , an ) = a1 (1, 0, . . . , 0) + a2 (0, 1, . . . , 0) + · · · + an (0, 0, . . . , 1)


4 SPAZI VETTORIALI RN 46

Dato un sottospazio V = L(u1 , . . . , uk ), per trovarne una base si può appli-


care il metodo di riduzione a scala delle matrici. Infatti le righe non nulle di
una matrice M ∈ Rm,n ridotta a scala formano una base dello spazio R(M )
generato dalle righe di M . Dunque basta costruire una matrice M ∈ Rk,n
che ha per righe i generatori di V; riducendola a scala mediante operazioni
elementari sulle righe si ottiene una matrice M 0 le cui righe non nulle for-
mano la base ricercata. Si può risolvere in modo analogo sulle colonne.
Vale per le basi il seguente teorema: sia V un sottospazio non nullo di Rn .
Allora ogni base di V ha lo stesso numero di elementi. Inoltre, come corol-
lario, si ha che un sottospazio non nullo V di Rn ha una base con al più n
elementi.

4.4.4 Dimensioni
Sia V un sottospazio di Rn ; si dice dimensione di V, e si indica con dim(V), il
numero di elementi in una sua qualunque base. Se V = 0 allora dim(V) = 0.
Per ogni matrice M ∈ Rm,n si ha che rg(M ) = dimR(M ) = dimC(M ).
5 OPERAZIONI SUI SOTTOSPAZI E SPAZI VETTORIALI ASTRATTI47

5 Operazioni sui sottospazi e spazi vettoriali


astratti
5.1 Operazioni sui sottospazi. Teorema di Grassmann
5.1.1 Intersezione, unione e somma
Siano U e W due sottospazi di Rn .
L’intersezione U ∩ W è un sottospazio di V. Ne segue che dato qualsiasi
numero di sottospazi, la loro intersezione è sempre un sottospazio (mai vuoto
poiché contiene sempre il vettore nullo).
L’unione U ∪ W in generale non è un sottospazio; lo è solo nel caso in cui
U ⊆ W oppure W ⊆ U .
Sia V uno spazio vettoriale e U e W due suoi sottospazi. Si dice somma
dei sottospazi l’insieme U + W costituito da tutti i vettori del tipo u + w,
al variare di essi nei rispettivi sottospazi. Il sottospazio somma cosı̀ definito
è ancora sottospazio vettoriale di V ed è contenuto in qualsiasi sottospazio
contenente U ∪ W .
Si ricorda che ogni sottospazio U di uno spazio V è tale che dim(U ) ≤
dim(V ); infatti una base di U può sempre essere estesa ad una di V; si ha
dim(U ) = dim(V ) se e solo se U = V .

5.1.2 Relazione di Grassmann


Dati due sottospazi U e W di uno spazio V di dimensione finita, si ha

dim(U ) + dim(W ) = dim(U + W ) + dim(U ∩ W )

Si definisce somma diretta la somma U + W (indicata con U ⊕ W ) quando


U ∩ W = 0. La somma U + W è diretta se e solo se ogni vettore v ∈ U + W
si scrive in modo unico come v = u + w con u ∈ U e w ∈ W .
É possibile ottenere una base di U ⊕ W unendo una base di U e una di W .
5 OPERAZIONI SUI SOTTOSPAZI E SPAZI VETTORIALI ASTRATTI48

5.2 Spazio vettoriale astratto


La struttura di uno spazio vettoriale su Rn si può ulteriormente generalizzare:
ogni sottospazio di Rn (improprio o proprio) è un esempio di spazio vettoriale.
Le motivazioni dietro a questa generalizzazione sono:

ˆ mettere in evidenza gli aspetti della teoria che non dipendono dalla
scelta di una base specifica;

ˆ poter usare come scalari numeri diversi dai reali: R è un esempio di


campo numerico, altri sono Q, C, etc;

ˆ estendere la teoria a spazi di dimensione infinita.

5.2.1 Campo di scalari


Per la definizione di uno spazio vettoriale in generale, è necessario assegnare
un campo K di scalari, ossia un insieme in cui valgano le proprietà di somma,
sottrazione, prodotto e divisione e in cui siano presenti i due elementi neutri
rispetto a somma e prodotto (0 e 1).

5.2.2 Spazio vettoriale su K


Sia dato un campo K e un insieme V 6= Φ in cui sono definite le operazioni
di:

ˆ somma u + v di u, v ∈ V;

ˆ prodotto ku di k ∈ K con u ∈ V.

V si dice spazio vettoriale su K se, per ogni u, v, w ∈ V e per ogni a, b ∈ K:

ˆ u + v = v + u;

ˆ (u + v) + w = u + (v + w);

ˆ ∃0 : u + 0 = u, ∀u ∈ Rn ;

ˆ ∀u 6= 0, ∃(−u) : u + (−u) = 0;

ˆ a(bu) = (ab)u, ∀a, b ∈ R;


5 OPERAZIONI SUI SOTTOSPAZI E SPAZI VETTORIALI ASTRATTI49

ˆ 1u = u;

ˆ (a + b)u = au + bu;

ˆ a(u + v) = au + av.

Gli elementi di V si dicono vettori anche se non è detto che assomiglino a


vettori di Rn .
La somma u + (−v) si scrive solitamente u − v (differenza tra vettori).
La definizione di spazio vettoriale astratto è una definizione assiomatica,
ossia tutte le proprietà della struttura di spazio vettoriale si deducono dagli
otto assiomi.
Supponendo K = R, si dice che V è uno spazio vettoriale reale. Un
esempio di questo è V = Rn , già visto e definito. Un altro esempio è V = Rm,n
con le operazioni di somma e prodotto per scalare di matrici già visto.

5.2.3 Spazio vettoriale di polinomi


Si ricorda che un polinomio nell’indeterminata x è un espressione del tipo

p(x) = a0 + a1 x + a2 x2 + · · · + an xn

dove i coefficienti possono appartenere a qualsiasi campo K. Il polinomio ha


grado n se an 6= 0. Il termine costante del polinomio è il termine a0 = p(0)
che è il valore assunto dalla funzione x 7→ p(x) nel punto 0; esso è nullo se e
solo se il polinomio è divisibile per x.
Sia Kn [x] l’insieme dei polinomi in x di grado minore o uguale a n a coefficienti
nel campo K. Si definiscono in Kn [x] le seguenti operazioni valide per ogni
k ∈ K e per ogni polinomio di Kn [x]:

p(x) + q(x) = (a0 + a1 x + a2 x2 + · · · + an xn ) + (b0 + b1 x + b2 x2 + · · · + bn xn ) =

= (a0 + b0 ) + (a1 + b1 )x + · · · + (an + bn )xn


kp(x) = k(a0 + a1 x + a2 x2 + · · · + an xn ) = ka0 + ka1 x + · · · + kan xn
É facile verificare che per queste operazioni sono soddisfatte le otto proprietà,
quindi Kn [x] è uno spazio vettoriale su K.
5 OPERAZIONI SUI SOTTOSPAZI E SPAZI VETTORIALI ASTRATTI50

5.3 Sottospazi, Span, basi, dimensioni


Si riassumono le definizioni analoghe degli spazi vettoriali su R, riadattate
per un generico campo K.
Come nel caso dello spazio Rn , dati i vettori u1 , . . . , uk di uno spazio V su
campo K, si denota con L(u1 , . . . , uk ) lo Span lineare ovvero l’insieme di
tutte le combinazioni lineari al variare dei coefficienti nel campo.
Un sottoinsieme W di V si dice sottospazio vettoriale se:

1) W 6= Φ;

2) ∀u, v ∈ W, u + v ∈ W ;

3) ∀u ∈ W, ∀k ∈ K, ku ∈ W .

Sia W sottospazio dello spazio V su K. Un insieme ordinato di vettori B =


(u1 , . . . , uk ) ∈ W si dice base di W se:

1) u1 , . . . , uk sono linearmente indipendenti;

2) W = L(u1 , . . . , uk ), cioè u1 , . . . , uk sono generatori di V.

Sia V uno spazio vettoriale su K con base B = (u1 , . . . , uk ), allora:

ˆ ogni base di V ha n elementi e quindi V ha dimensione n;

ˆ se m vettori u1 , . . . , um di V sono linearmente dipendenti, allora m ≤ n;

ˆ se V = L(u1 , . . . , up ), allora n ≤ p.
6 APPLICAZIONI LINEARI E CAMBIAMENTI DI BASE 51

6 Applicazioni lineari e cambiamenti di base


6.1 Richiami di Analisi Matematica 1
Dati due insieme C e D, una funzione f : C 7→ D è una legge che associa ad
ogni elemento c ∈ C un preciso elemento d ∈ D. Si scrive f (c) = d oppure
c 7→ d e si dice che d è immagine di c.
L’immagine di f è l’insieme Im(f ) = {f (c)|c ∈ C}; Im(f ) è contenuta nel
codominio D e non coincide necessariamente con D. Dato d ∈ D, l’insieme
{c ∈ C|f (c) = d} è detto insieme delle controimmagini di d e si denota
f −1 (d).
Si dice che f è suriettiva se Im(f ) = D, quindi f è suriettiva se e solo se
f −1 (d) è non vuoto per ogni d ∈ D. Inoltre f è iniettiva se f (c1 ) = f (c2 )
implica che c1 = c2 . Se f è sia iniettiva che suriettiva si dice che è biiettiva
ed esiste la funzione inversa f −1 : D 7→ C tale che f −1 ◦ f e f ◦ f −1 sono
funzioni identità.
6 APPLICAZIONI LINEARI E CAMBIAMENTI DI BASE 52

6.2 Applicazioni lineari f: Rn → Rm


6.2.1 Funzioni matriciali
Data una matrice A ∈ Rm,n , si può definire una funzione fA : Rn → Rm
ponendo
fA (u) = Au
al variare di u in Rn (con u vettore colonna di Rn,1 ), dove Au è l’usuale
prodotto tra matrici riga per colonna.
Si ricordano le proprietà del prodotto tra matrici, valide per ogni A ∈ Rm,n ,
per ogni u, v ∈ Rn e per ogni k ∈ R:

ˆ A(u + v) = Au + Av;

ˆ k(Au) = A(ku).

Per le funzioni fA assegnate come sopra si ha quindi:

ˆ fA (u + v) = fA (u) + fA (v);

ˆ k(fA (u)) = fA (ku).

Si possono fare ora alcune osservazioni.


Le componenti del vettore fA (u) sono polinomi omogenei di primo grado
nelle componenti del vettore u.
In generale, nella matrice A ∈ Rm,n , la j-esima colonna rappresenta l’immagine
fA (ej ) del j-esimo vettore della base canonica di Rn .
Per ogni A ∈ Rm,n si ha fA (0) = 0.
Dato w ∈ Rm , {v ∈ Rn |fA (v) = w} è l’insieme delle controimmagini di
w e si denota con fA −1 (w); si tratta dell’insieme delle soluzioni del sistema
lineare avente come matrice dei coefficienti A e come colonna dei termini noti
le componenti di w.

6.2.2 Applicazioni lineari, endorfismi e isomorfismi


Una funzione f : Rn → Rm si dice applicazione lineare quando gode delle
seguenti proprietà per ogni u, v ∈ Rn e per ogni k ∈ R:

1) f (u + v) = f (u) + f (v);

2) k(f (v)) = f (kv).


6 APPLICAZIONI LINEARI E CAMBIAMENTI DI BASE 53

Quando m = n, f si dice endomorfismo. Se f è una biiezione, si dice che


f è un isomorfismo.
Fissate una base di Rn e una di Rm , sia data un’applicazione lineare f :
Rn → Rm ; allora esiste un’unica matrice M ∈ Rm,n tale che f = fM .
6 APPLICAZIONI LINEARI E CAMBIAMENTI DI BASE 54

6.3 Nucleo e immagine di un’applicazione lineare f :


R n → Rm
6.3.1 Nucleo
Data la matrice A ∈ Rm,n , si dice nucleo di A (o di fA ) l’insieme:

ker(A) = {v ∈ Rn |Av = 0}

Data la matrice A ∈ Rm,n , ker(A) è un sottospazio vettoriale di Rn e ha


dimensione n − rg(A).

6.3.2 Immagine di un’applicazione lineare


Si definisce immagine di un’applicazione lineare l’insieme:

Im(A) = {w ∈ Rm |∃v ∈ Rn : Av = w}

Per ogni matrice A ∈ Rm,n , Im(A) è il sottospazio di Rm generato dalle


colonne di A e vale che dim(Im(A)) = rg(A).
Dalle definizioni precedenti segue il fondamentale corollario. Per ogni matrice
A ∈ Rm,n
dim(Im(A)) + dim(ker(A)) = n
Data la matrice A ∈ Rm,n , ker(A) = {0} se e solo se fA è iniettiva.
6 APPLICAZIONI LINEARI E CAMBIAMENTI DI BASE 55

6.4 Composizione e prodotto di matrici


Si considerano le matrici B ∈ Rm,n e A ∈ Rn,p e le applicazioni lineari ad
esse associate fB : Rn → Rm e fA : Rp → Rn definite rispettivamente da
fB (u) = Bu e fA (v) = Av. La composizione fB ◦ fA è data da

v 7→ Av 7→ BAv

ed è perciò associata alla matrice prodotto BA.


Un caso particolare è quello delle applicazioni lineari invertibili. Si ricorda
che se una funzione f : C 7→ D è invertibile, la funzione f −1 : D 7→ C definita
da f −1 (y) = x è detta inversa di f e si ha f −1 ◦ f = IdC e f ◦ f −1 = IdD .
Se A ∈ Rn,n è invertibile, la matrice associata all’applicazione inversa fA −1 è
la matrice A−1 .
L’applicazione lineare associata a una matrice A ∈ Rn,n è invertibile se e solo
se rg(A) = n.
6 APPLICAZIONI LINEARI E CAMBIAMENTI DI BASE 56

6.5 Applicazioni lineari f : V → W


Siano V, W due spazi vettoriali sullo stesso campo K.
Un’applicazione f : V → W si dice lineare se:

1) f (u + v) = f (u) + f (v), ∀u, v ∈ V;

2) k(f (v)) = f (kv), ∀k ∈ K, v ∈ V.

Una conseguenza importante della definizione è che f (0) = 0, cioè f manda


il vettore nullo di V nel vettore nullo di W .
Siano V, W due spazi vettoriali sul campo K e f : V → W un’applicazione
lineare; come nel caso delle applicazioni sul campo specifico R si ha

ˆ kerf = {v ∈ V|f (v) = 0} si dice nucleo di f ;

ˆ Imf = {f (v)|v ∈ V} si dice immagine di f ;

ˆ f −1 (w) = {v ∈ V|f (v) = w} si dice insieme delle controimmagini


del vettore w ∈ W .

Analogamente a quanto già descritto, f è iniettiva se e solo se kerf = 0.


6 APPLICAZIONI LINEARI E CAMBIAMENTI DI BASE 57

6.6 Basi e applicazioni lineari


Sia W un sottospazio dello spazio vettoriale V su campo K. Si ricorda che
un insieme ordinato di vettori B = (u1 , . . . , uk ) ∈ W si dice una base di W
se:

1) u1 , . . . , uk sono linearmente indipendenti;

2) W = L(u1 , . . . , uk ), cioè i vettori u1 , . . . , uk sono generatori di V.

Si enuncia il seguente teorema. Dato il K-spazio vettoriale V, se esiste una


base B = (u1 , . . . , uk ) di V, l’applicazione f : Kn → V definita da

(a1 , · · · , an ) 7→ a1 v1 + · · · + an vn

è un isomorfismo.
In particolare l’isomorfismo f manda ogni elemento della base canonica di Kn
in un elemento della base data di V. Dunque si può usare f per identificare
Kn con V. Si ottengono risultati analoghi a quelli visti nello spazio Rn , in
particolare:

ˆ ogni base di V ha n elementi, si può dire che V ha dimensione n;

ˆ se m vettori u1 , . . . , um di V sono linearmente indipendenti, si ha m ≤


n;

ˆ se V = L(u1 , . . . , up ), si ha n ≤ p.

Dati due K-spazi vettoriali V e W , se B = (u1 , . . . , un ) è una base di V,


per assegnare un’applicazione lineare f : V → W basta assegnare i vettori
f (u1 ), . . . , f (un ).
6 APPLICAZIONI LINEARI E CAMBIAMENTI DI BASE 58

6.7 Cambiamenti di base


Sia V un K-spazio vettoriale di dimensione finita n e siano B = (e1 , . . . , en )
e B 0 = (e01 , . . . , e0n ) due sue basi, con B 0 assegnata nel modo seguente

e01 = a11 e1 + · · · + an1 en

e02 = a12 e1 + · · · + an2 en


···
e0n = a1n e1 + · · · + ann en
La matrice  
a11 a12 · · · a1n
 a21 a22 · · · a2n 
P =  ..
 
.. . . .. 
 . . . . 
an1 an2 · · · ann
si dice matrice di passaggio o di cambio di base da B a B 0 .
P è invertibile, infatti le sue colonne sono i vettori della base B 0 . La matrice
inversa P −1 è la matrice di passaggio da B 0 a B.
Dato un qualsiasi vettore u ∈ V, si avrà u = x1 e1 + · · · + xn en = x01 e01 + · · · +
x0n e0n ; le relazioni tra le componenti di u rispetto a B e le componenti di u
rispetto a B 0 si ottengono come segue.

u = x01 e01 +· · ·+x0n e0n = x01 (a11 e1 +· · ·+an1 en )+· · ·+x0n (a1n e1 +· · ·+ann en ) =

= x1 e1 + · · · + xn en
da cui    
x1 x01
 x2   x0 
 2
 ..  = P
 
 .. 
. .
xn x0n
6 APPLICAZIONI LINEARI E CAMBIAMENTI DI BASE 59

6.8 Cambiamenti di base e applicazioni lineari


Sia data un’applicazione lineare f : V → W , con VeW spazi vettoriali di
dimensione finita sul campo K. Si fissi una base BV e una BW ; allora risulta
univocamente determinata una matrice M associata ad f rispetto a BV e
a BW . Si può dunque scrivere M X = Y , dove X è il vettore colonna delle
coordinate di un qualunque u ∈ V rispetto a BV , mentre Y è il vettore colonna
delle coordinate di f (u) rispetto a BW . Se si cambia base in V, passando
a BV0 , e analogo con W , i due cambiamenti di base saranno descritti dalle
rispettivi matrici di passaggio P e Q, cioè X = P X 0 e Y = QY 0 . Segue che

M (P X 0 ) = QY 0

da cui Q−1 M P X 0 = Y 0 ; com’è noto, dopo aver fissato le due basi, la matrice
associata ad f è univocamente determinata. Di conseguenza Q−1 M P è la
matrice di f rispetto alle nuove basi.
Nel caso particolare in cui lo spazio di partenza coincida con quello di arrivo,
cioè V = W , si può fissare la stessa base. Si avrà quindi

M 0 = P −1 M P

Due matrici quadrate M e M 0 si dicono simili se esiste una matrice invertibile


P tale che M 0 = P −1 M P .
7 AUTOVETTORI E AUTOVALORI 60

7 Autovettori e autovalori
7.1 Diagonalizzazione di un enfomorfismo
7.1.1 Diagonalizzazione
Sia V un K-spazio vettoriale di dimensione finita n.
Un endomorfismo f : V → V si dice diagonalizzabile o semplice se esiste
una base B = (u1 , . . . , un ) di V rispetto alla quale la matrice di f è diago-
nale, ossia una matrice avente elementi tutti nulli meno che sulla diagonale
principale. In altri termini, la matrice di f è diagonalizzabile se è simile ad
una matrice diagonale.
Se f è diagonalizzabile, sia B = (u1 , . . . , un ) una base rispetto alla quale la
matrice di f è la matrice diagonale
 
λ1 0 · · · 0
 0 λ2 · · · 0 
D =  ..
 
.. . . .. 
. . . .
0 . . . 0 λn
allora si ha f (u1 ) = λ1 u1 , f (u2 ) = λ2 u2 , . . . , f (un ) = λn un , cioè ciascun
vettore della base viene trasformato dall’endomorfismo f in un multiplo
di se stesso; viceversa, se ciascun vettore della base B viene trasformato
dall’endomorfismo f in un multiplo di se stesso, la matrice di f rispetto a B
è diagonale.

7.1.2 Autovettori e autovalori


Un vettore non nullo u ∈ V si dice autovettore di f se esiste un numero
λ ∈ K tale che
f (u) = λu
In questo caso λ si dice autovalore di f associato a u.
Segue quindi che un endomorfismo f : V → V è diagonalizzabile se e solo se
esiste una base di V formata da autovettori di f .

7.1.3 Autospazio
Si dice autospazio relativo all’autovalore λ l’insieme
Vλ = {u ∈ V|f (u) = λu}
7 AUTOVETTORI E AUTOVALORI 61

É facile verificare che Vλ è sottospazio di V. In particolare il vettore nullo


appartiene a Vλ , infatti un autovettore è per definizione non nullo, ma

f (0) = 0 = λ0

Per definizione di nucleo, per ogni u ∈ kerf, f (u) = 0 = 0u; dunque se f


non è iniettivo, kerf è l’autospazio relativo all’autovalore 0 e viceversa se 0
è autovalore di f allora f non è iniettivo.
Nella definizione di autovettore si richiede che u non sia nullo, infatti il vet-
tore nullo non si può considerare autovettore in quanto l’autovalore sarebbe
indeterminato.
Ad autovalori distinti corrispondono autovettori linearmente indipendenti.
7 AUTOVETTORI E AUTOVALORI 62

7.2 Ricerca analitica degli autovettori


Sia, d’ora in avanti, V uno spazio vettoriale reale di dimensione n. Fissata
una base di V, si può identificare V con lo spazio Rn e gli endomorfismi
f : Rn → Rn con le matrici M ∈ Rm,n . In questi termini, un autovettore di
f è un vettore colonna non nullo u tale che

M u = λu

Se u è un autovettore di M con autovalore λ, allora det(M − λI) = 0; vicev-


ersa, se det(M − λI) = 0, allora esiste un autovettore di M con autovalore
λ.
Il polinomio p(λ) = det(M −λI) si dice polinomio caratteristico della ma-
trice M . Si tratta di un polinomio di grado n in λ. L’equazione det(M −λI) =
0 si dice equazione caratteristica.
Visto che il polinomio ha grado n, l’equazione caratteristica ha al più n radici,
quindi f ha al più n autovalori distinti, ma possono essere di meno dal mo-
mento che le radici di un polinomio possono essere ripetute con molteplicità
e può succedere che compaiano come radici coppie di numeri complessi. Si
osserva inoltre che per ogni matrice quadrata M , il termine costante di p(λ) è
dato da p(0) = det(M −0λ) = det(M ), mentre è facile verificare che il termine
di grado n è (−λ)n = (−1)n (λ)n e il coefficiente di (λ)n−1 è (−1)n−1 tr(M ),
dove tr(M ) si definisce traccia di M e denota la somma dei coefficienti della
diagonale principale.
Trovato un autovalore λ1 , l’autospazio Vλ1 corrispondente è lo spazio delle
soluzioni del sistema omogeneo di matrice dei coefficienti (M − λ1 I); tale
sistema ammette, come è noto, soluzioni non banali. Perciò è sempre vero
che dim(Vλ1 ) ≥ 1; in particolare dim(Vλ1 ) = n − rg(M − λ1 I).
7 AUTOVETTORI E AUTOVALORI 63

7.3 Diagonalizzabilità di un endomorfismo


Si dice molteplicità (molt(λ1 )) di una radice λ1 del polinomio caratteristico
di M ∈ Rn,n , l’esponente del fattore (λ − λ1 ) che compare nella decompo-
sizione di p(λ) come prodotto di polinomi di primo grado.
Vale il seguente teorema. Se λ1 è un autovalore di f , 1 ≤ dim(Vλ1 ) ≤
molt(λ1 ).
Se l’endomorfismo f di Rn ha n autovalori distinti (tutti di molteplicità 1)
allora è diagonalizzabile.
Non tutti gli endomorfismi sono diagonalizzabili, vale infatti il seguente teo-
rema. L’endomorfismo f di Rn è diagonalizzabile se e solo se

ˆ tutte le radici del suo polinomio caratteristico sono reali;

ˆ per ogni autovalore λ si ha dim(Vλ ) = molt(λ).

In pratica, dato un endomorfismo f di Rn diagonalizzabile di autovalori


λ1 , . . . , λh con rispettive molteplicità µ1 , . . . , µh , per costruire una base di
Rn rispetto alla quale f ha matrice diagonale, basta scegliere una base per
ogni autospazio Vλi e fare l’unione di tutte le basi cosı̀ ottenute. Infatti, se
f è diagonalizzabile, l’unione di tutte le base degli autospazi di f è una base
di Rn .
8 MATRICI ORTOGONALI E FORME QUADRATICHE 64

8 Matrici ortogonali e forme quadratiche


8.1 Prodotto scalare
Si introduce in Rn una generalizzazione del prodotto scalare, studiato nel
caso n = 2, 3, per poter definire distanza, modulo, misura angolare e in
particolare ortogonalità.
Un prodotto scalare è una legge Rn × Rn → R che associa ad ogni coppia
di vettori u, v un numero reale indicato con u · v o anche < u, v >, per cui
valgono le seguenti proprietà:

ˆ u · v = v · u;

ˆ (mu) · v = u · (mv) = m(u · v);

ˆ u · (v + w) = u · v + u · w;

ˆ u · u ≥ 0, ∀u e u · u = 0 ⇔ u = 0.

Nello spazio vettoriale Rn , dati u = (x1 , . . . , xn ) e v = (y1 , . . . , yn ), si dice


loro prodotto scalare euclideo il numero reale
n
X
(x1 , . . . , xn ) · (y1 , . . . , yn ) = xi y i
i=1

Ricordando il prodotto riga per colonna definito per le matrici, se si identi-


ficano u e v come vettori colonna di Rn,1 e si indica t u la trasposta di u, si
può scrivere
u · v =t uv
In analogia allo spazio geometrico, si dice che due vettori sono ortogonali
se il loro prodotto scalare è nullo.
√ Si definisce
Pn inoltre modulo o norma di
2 12
un vettore u il numero ||u|| = u · u = ( i=1 xi ) .
8 MATRICI ORTOGONALI E FORME QUADRATICHE 65

8.2 Basi ortonormali


Si consideri la base canonica di Rn :
     
1 0 0
0 1 0
e1 =  ..  , e2 =  ..  , . . . , en =  .. 
     
. . .
0 0 1
Ogni vettore della base canonica ha norma 1:

||ei || = ei · ei
Inoltre i vettori della base canonica sono a due a due ortogonali
ei · ej = 0, i 6= j
Tutto ciò si può riassumere con
ei · ej = δij
dove δij è detto delta di Kronecker.
Esistono però altre basi con queste proprietà.
Una base di Rn si dice ortogonale se è costituita da vettori a due a due
ortogonali.
Una base di Rn si dice ortonormale se è costituita da vettori a due a due
ortogonali e di norma 1.
Si suppone che B = (u1 , . . . , un ) sia una base ortonormale di Rn . Poiché
B è una base, si può scrivere ogni vettore v ∈ Rn in modo unico come
combinazione lineare dei vettori di B:
v = c1 u1 + · · · + cn un
Dato che B è ortonormale, è molto facile determinare i coefficienti di questa
combinazione lineare; basta infatti calcolare il prodotto scalare di v con
ciascun vettore della base:
v · ui = c1 u1 · ui + · · · + ci ui · ui + · · · + cn un · ui = ci
da cui segue il teorema: rispetto a una base ortonormale (u1 , . . . , un ), ogni
vettore v ∈ Rn si esprime come
v = (v · u1 )u1 + · · · + (v · un )un
Se i vettori v1 , . . . , vm ∈ Rn sono non nulli e a due a due ortogonali, allora
sono linearmente indipendenti.
8 MATRICI ORTOGONALI E FORME QUADRATICHE 66

8.3 Matrici ortogonali


Una matrice P ∈ Rn,n si dice ortogonale se i suoi vettori colonna sono una
base ortonormale di Rn .
Ogni matrice ortogonale è invertibile e l’inversa coincide con la trasposta
t
P = P −1 .
Siano A e B matrici ortogonali di Rn,n , allora A−1 e AB sono ortogonali.
Si enuncia ora il teorema di Binet: siano A e B matrici quadrate, allora
det(AB) = det(A)det(B).
Ogni matrice ortogonale ha determinante 1 o −1.
Una matrice ortogonale con determinane 1 si dice speciale.
Si può dimostrare che le matrici ortogonali speciali di Rn,n sono le matrici di
passaggio tra le basi ortonormali di Rn con lo stesso orientamento.
8 MATRICI ORTOGONALI E FORME QUADRATICHE 67

8.4 Matrici simmetriche reali


Tra le matrici quadrate a coefficienti reali, ne esiste un insieme particolare
che risulta sempre diagonalizzabile: le matrici simmetriche. Si ricorda che
una matrice quadrata è simmetrica quando t S = S.
Siano u1 , u2 autovettori di una matrice simmetrica S corrispondenti a due
distinti autovalori λ1 , λ2 ; allora u1 · u2 = 0.
Si può dimostrare il seguente teorema. Sia S ∈ Rn,n una matrice simmetrica,
allora

ˆ le radici del polinomio caratteristico di S sono tutte reali;

ˆ esiste una matrice ortogonale P ∈ Rn,n tale che P −1 SP =t P SP = D,


con D matrice diagonale avente sulla diagonale principale gli autoval-
ori di S scritti con la dovuta molteplicità. Segue che esiste una base
ortonormale di Rn formata da autovettori di S.
8 MATRICI ORTOGONALI E FORME QUADRATICHE 68

8.5 Metodo di ortonormalizzazione di Gram-Schmidt


Per ottenere una base ortonormale (e1 , e2 , . . . , en ) a partire da una base qual-
siasi (u1 , u2 , . . . , un ) di Rn si pone innanzitutto
u1
e1 =
||u1 ||

e si cerca un vettore v2 del tipo v2 = u2 + λe1 che sia ortogonale a e1 .


Dunque
v2 · e1 = u2 · e1 + λe1 · e1 = u2 · e1 + λ = 0
da cui
v2 = u2 − (u2 · e1 )e1
ma, essendo u1 , u2 linearmente indipendenti, lo sono anche e1 , u2 , di con-
seguenza v2 6= 0; si pone quindi
v2
e2 =
||v2 ||

Analogamente si cerca un vettore v3 e si determina


v3
e3 =
||v3 ||

e cosı̀ via.
8 MATRICI ORTOGONALI E FORME QUADRATICHE 69

8.6 Teorema di Cayley-Hamilton


Sia A ∈ Kn,n una matrice quadrata qualsiasi e sia f (T ) = a0 + a1 T + · · · +
am T m un polinomio a coefficienti in K. Si pone per definizione f (A) =
a0 I + a1 A + · · · + am Am , dove I è la matrice identità di Kn,n . Ne risulta che
f (A) è una matrice di Kn,n .
Si enuncia quindi il teorema. Sia f (T ) il polinomio caratteristico della ma-
trice A ∈ Kn,n , allora si ha che f (A) = 0.
Tale risultato si può utilizzare per il calcolo dell’inversa di una matrice, ot-
tenendo
−1
A−1 = (a1 I + · · · + (−1)n An−1 )
det(A)
8 MATRICI ORTOGONALI E FORME QUADRATICHE 70

8.7 Forme quadratiche


Una forma lineare è un’applicazione lineare del tipo f : Rn → R.
Segue che f (x1 , . . . , xn ) = a1 x1 + . . . + an xn = Av dove A ∈ R1,n è la matrice
(a1 . . . an ) che rappresenta f e v il vettore colonna t (x1 , . . . , xn ). Se A non è
la matrice nulla, Imf = R e quindi kerf sarà un sottospazio di dimensione
n − 1 di Rn .
n
Pn forma quadratica è una funzione q : R → R del tipo q(x1 , . . . , xn ) =
Una
i,j=1 aij xi xj , cioè una combinazione lineare di tutti i monomi di secondo
grado in x1 , . . . , xn univocamente determinata da una matrice simmetrica
A = (aij ).  
2 2 a11 a12
Per n = 2 si ottiene q(x, y) = a11 x + 2a12 xy + a22 y , con A = ,
  a21 a22
x
ossia q(x, y) = (xy)A .
y
In generale q(x1 , . . . , xn ) =t vAv e la funzione q può essere semplificata
diagonalizzando A.
L’espressione q(x1 , . . . , xn ) = λ1 x1 2 + · · · + λn xn 2 =t vDv con D matrice
diagonale, si dice forma canonica di q.
Per studiare il segno di una forma quadratica q, si può osservare che si ha
sempre q(0, . . . , 0) = 0, inoltre, utilizzando una forma canonica di q, si vede
che il segno di q dipende dal segno degli autovalori della matrice A e della
eventuale presenza dell’autovalore 0. Segue in particolare che:
ˆ se gli autovalori di A sono tutti positivi (o nulli), q(x1 , . . . , xn ) >
(≥)0 per ogni v 6= 0 la forma quadratica si dice definita positiva
(semidefinita);
ˆ se gli autovalori di A sono tutti negativi (o nulli), q(x1 , . . . , xn ) <
(≤)0 per ogni v 6= 0 la forma quadratica si dice definita negativa
(semidefinita):
ˆ se non vale nessuno dei casi precedenti, la forma quadratica si dice
indefinita.
Per lo studio del segno di una forma quadratica è anche utile la seguente
formulazione detta regola di Cartesio. Dato un polinomio di grado n in
una variabile scritto per potenze crescenti o decrescenti, avente coefficienti e
radici reali, il numero delle radici positive è uguale al numero di variazioni
di segno dei coefficienti del polinomio, trascurano i coefficienti nulli.
9 EQUAZIONI DI SECONDO GRADO IN DUE O TRE VARIABILI 71

9 Equazioni di secondo grado in due o tre


variabili
9.1 Coniche
9.1.1 Definizione generale
Un’equazione di primo grado nelle variabili x, y è del tipo ax + by + c e rap-
presenta una retta. Un’equazione di secondo grado nelle medesime variabili
assume invece una forma del tipo

a11 x2 + 2a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = 0

dove si suppongono i primi tre membri non tutti nulli.


Si definisce conica il luogo dei punti (x, y) nel piano che soddisfano un’equazione
come quella sopra riportata.
L’equazione in questione si può scrivere in forma matriciale come
 
x
a11 x2 + 2a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = x y 1 B y 


dove B è la matrice simmetrica


 
a11 a12 a13
B = a21 a22 a23 
a31 a32 a33

Per capire la forma del luogo rappresentato, si possono eseguire due tipi di
operazioni.

9.1.2 Completamento dei quadrati: traslazione


Se nell’equazione compare un quadrato e un termine lineare nella stessa vari-
abile, del tipo a2 x + bx (con a 6= 0), si può completare il quadrato individ-
uando cosı̀ un opportuno cambiamento di coordinate (traslazione) del tipo
(
x=X +u
y =Y +v
9 EQUAZIONI DI SECONDO GRADO IN DUE O TRE VARIABILI 72

Si associa un esempio per facilitare la comprensione. L’equazione x2 + 6x +


y 2 + 4y = 23 può essere riscritta come (x + 3)2 − 9 + (y + 2)2 − 4 = 23, con la
traslazione Y = y + 2, X = x + 3 si riscrive come X 2 + Y 2 = 36 e si conclude
che si tratta della circonferenza di centro (−3, −2) e raggio 6.

9.1.3 Rotazione
Se nell’equazione compare un termine in xy, con un’opportuna rotazione lo si
può rimuovere; si osserva infatti che i termini di secondo grado dell’equazione
costituiscono una forma quadratica in x, y associata alla matrice simmetrica
 
a11 a12
A=
a21 a22
Per esempio, nell’equazione C : x2 + y 2 − 2xy − x − y = 0 si ha
 
1 −1
A=
−1 1
una matrice ortogonale speciale che diagonalizza A è
 √ √ 
1/ √2 1/√2
P =
−1/ 2 1/ 2
   √ √  
x 1/ √2 1/√2 X
La rotazione data da P è = e l’equazione
y −1/ 2 1/ 2 Y

canonica di C diventa 2X 2 = 2Y (una parabola).
Alla fine di queste operazioni si trova in ogni caso un’equazione con termini
X 2 o Y 2 o entrambi e al più un termine costante. Vale il teorema seguente.
Detti λ1 , λ2 gli autovalori della matrice A esiste nel piano un sistema di rifer-
imento rispetto al quale l’equazione standard di secondo grado assume una
delle seguenti forme (equazioni canoniche):

1) λ1 X 2 + λ2 Y 2 = γ;
2) λ1 X 2 = 2γY .

La matrice B associata alle due equazioni vale rispettivamente


   
λ1 0 0 λ1 0 0
 0 λ2 0  ,  0 0 −γ 
0 0 −γ 0 −γ 0
9 EQUAZIONI DI SECONDO GRADO IN DUE O TRE VARIABILI 73

9.1.4 Coniche degeneri


Quando è nullo almeno uno dei coefficienti nelle equazioni canoniche, la con-
ica si dice degenere.
Le coniche degeneri possono essere di uno dei seguenti tipi:

a) se λ1 , λ2 sono non nulli con segni opposti (ossia det(A) < 0) e γ = 0, si


tratta di due rette che si intersecano in un punto. L’equazione si può
scrivere come
x2 y 2
− 2 =0
a2 b

b) se uno dei λi è nullo (ossia det(A) = 0) e l’altro è concorde con γ, si


tratta di due rette parallele. L’equazione vale

x2
=1
a2

c) se uno dei λi è nullo (ossia det(A) = 0) e γ = 0 si tratta di due rette


coincidenti. L’equazione è
x2
=0
a2
9 EQUAZIONI DI SECONDO GRADO IN DUE O TRE VARIABILI 74

d) se λ1 , λ2 sono concordi (ossia det(A) > 0) e γ = 0 si tratta di un punto.


L’equazione è definita
x2 y 2
+ 2 =0
a2 b

Sia P una matrice ortogonale tale che t P AP = D è una matrice diagonale.


Per il teorema di Binet det(D) = det(t P )det(A)det(P ) = det(A), in quanto
det(t P ) = det(P ) = ±1, ossia det(A) è invariante rispetto al cambiamento di
base associato a P , in particolare rispetto alle rotazioni.
9 EQUAZIONI DI SECONDO GRADO IN DUE O TRE VARIABILI 75

9.1.5 Coniche non degeneri


Dal teorema e dalle sue due equazioni, lee coniche non degeneri possono es-
sere di uno dei seguenti tipi.
1) Coniche a centro. Se det(A) 6= 0, con un’opportuna rotazione l’equazione
diventa del primo tipo e con una traslazione è possibile eliminare i termini di
primo grado. In questo caso il punto X, Y ) ∈ C se e solo se (−X, −Y ) ∈ C e
il centro di simmetria è il punto (0, 0), ossia (x, y) = (u, v). Tenendo presente
che det(A) = λ1 λ2 e che γ = − det(B)
det(A)
, si ottiene:
a) un’ellisse se λ1 , λ2 sono non nulli e concordi, ossia det(A) > 0, e γ non
nullo concorde con loro; in particolare se λ1 = λ2 si ha una circon-
ferenza. L’equazione vale
x2 y 2
+ 2 =1
a2 b

b) un’ellisse a punti non reali se λ1 , λ2 sono non nulli e concordi, ossia


det(A) > 0, ma γ, non nullo, è discorde. L’equazione vale
x2 y 2
+ 2 = −1
a2 b
c) un’iperbole se λ1 , λ2 sono non nulli e discordi, ossia det(A) < 0, e γ è
non nullo; in particolare quando λ1 = −λ2 si ha un’iperbole ad asintoti
perpendicolari. L’equazione vale
x2 y 2
− 2 =1
a2 b
9 EQUAZIONI DI SECONDO GRADO IN DUE O TRE VARIABILI 76

2) Parabole. Se det(A) = 0 si ha che uno degli autovalori è nullo, la conica


non ha centro di simmetria e non esiste un cambiamento di riferimento che
permette di eliminare tutti i termini di primo grado; si tratta di una parabola
in un opportuno sistema di riferimento con equazione 2).
9 EQUAZIONI DI SECONDO GRADO IN DUE O TRE VARIABILI 77

9.2 Quadriche
Analogamente alla definizione di conica, una quadrica Q è il luogo dei punti
(x, y, z) dello spazio R3 che soddisfano un’equazione del tipo

a11 x2 + 2a12 xy + a22 y 2 + 2a23 yz + a33 z 2 + 2a14 x + 2a24 y + 2a34 z + a44 = 0

dove si suppongono i primi sei coefficienti non tutti nulli, in modo da avere
un’equazione di secondo grado. I termini di secondo grado costituiscono una
forma quadratica in x, y, z associata alla matrice simmetria M ∈ R3,3 . Detti
λ1 , λ2 , λ3 gli autovalori di M , si ottiene l’analogo teorema nello spazio. Data
una quadrica Q, esiste nello spazio un sistema di riferimento R(O, X, Y, Z)
rispetto al quale C si rappresenta con una equazione di uno dei seguenti tipi
(equazioni canoniche):

1) λ1 X 2 + λ2 Y 2 + λ3 Z 2 = γ;

2) λ1 X 2 + λ2 Y 2 = 2γZ.

9.2.1 Quadriche non degeneri


Dal teorema, si distinguono due casi generali.
1) Quadriche a centro. Trasformando le coordinate con una traslazione,
è possibile eliminare tutti i coefficienti dei termini di primo grado e ottenere
una quadrica con equazione

a11 x2 + 2a12 xy + a22 y 2 + 2a23 yz + a33 z 2 + a44 = 0

detta quadrica a centro. In questo caso con una opportuna rotazione


l’equazione di Q diventa la prima del teorema. Si propongono ora esempi di
quadriche a centro con autovalori tutti non nulli.

a) ellissoide (con i tre autovalori e γ concordi); se i tre autovalori si



eguagliano si ha una sfera di raggio γ e centro nell’origine. L’equazione

x2 y 2 z 2
+ 2 + 2 =1
a2 b c
9 EQUAZIONI DI SECONDO GRADO IN DUE O TRE VARIABILI 78

b) iperboloide a una falda o iperboloide iperbolico (se uno dei tre


autovalori è discorde agli altri e a γ); l’equazione si può scrivere
x2 y 2 z 2
+ 2 − 2 =1
a2 b c

c) iperboloide a due falde o iperboloide ellittico (se due dei tre


autovalori sono discordi all’altro e a γ); l’equazione si può scrivere
x2 y 2 z 2
− 2 − 2 =1
a2 b c
9 EQUAZIONI DI SECONDO GRADO IN DUE O TRE VARIABILI 79

2) Paraboloidi. Si consideri l’equazione Q : z = xy. Eseguendo una ro-


tazione di π/4 nel piano (xy) utilizzando la matrice
 √ √ 
1/ √2 1/√2
P =
−1/ 2 1/ 2
si ottiene l’equazione 2Z = Y 2 − X 2 . Questo è un esempio di paraboloide
iperbolico o a sella. Ogni piano del tipo X = c oppure Y = c interseca Q
in una parabola, mentre ogni piano del tipo Z = c la interseca in un’iperbole
o (se c = 0) in una coppia di rette. I paraboloidi sono quadriche senza centro
di simmetria con equazioni nella forma 2). Sono del tipo
X2 Y 2
Z= − 2 paraboloide iperbolico
a2 b

X2 Y 2
Z= + 2 paraboloide ellittico
a2 b

9.2.2 Quadriche degeneri


Quando è nullo almeno uno dei coefficienti nelle equazioni canoniche, la
quadrica Q si dice degenere. Si distinguono alcuni casi.
a) cono (se gli autovalori non hanno tutti lo stesso segno e γ = 0); se
due autovalori con lo stesso segno sono uguali, il cono è di rotazione,
altrimenti si dice cono ellittico, In ogni caso si tratta di una quadrica
degenere. L’equazione vale
x2 y 2 z 2
− 2 + 2 =1
a2 b c
9 EQUAZIONI DI SECONDO GRADO IN DUE O TRE VARIABILI 80

b) cilindro ellittico (con due autovalori e γ positivi e un autovalore


nullo); l’equazione si scrive
x2 y 2
+ 2 =1
a2 b

c) cilindro parabolico (con un autovalore e γ non nulli e due autovalori


nulli); l’equazione si scrive
x2 = 2az
9 EQUAZIONI DI SECONDO GRADO IN DUE O TRE VARIABILI 81

9.3 Sfere e circonferenze


Si dice sfera (nel senso di superficie) con centro C(a, b, c) e raggio R il luogo
dei punti P (x, y, z) che hanno distanza R da C: S = {P (x, y, z)|d(P, C) =
R}.

Analogamente nel piano si definisce la circonferenza come C = {P (x, y)|d(P, C)}.

La sfera ha quindi equazione cartesiana


(x − a)2 + (y − b)2 + (z − c)2 = R2
o anche
x2 + y 2 + z 2 − 2ax − 2by − 2cz + d = 0
9 EQUAZIONI DI SECONDO GRADO IN DUE O TRE VARIABILI 82

dove d = a2 + b2 + c2 − R2 . Ogni equazione del secondo tipo rappresenta una


sfera, purché si abbia a2 + b2 + c2 − d > 0.
Analogamente la circonferenza ha equazione cartesiana

(x − a)2 + (y − b)2 = R2

o
x2 + y 2 − 2ax − 2by + d = 0
dove d = a2 + b2 − R2 .
9 EQUAZIONI DI SECONDO GRADO IN DUE O TRE VARIABILI 83

9.4 Circonferenze nello spazio


Una circonferenza nello spazio è determinata dall’intersezione di due superfici
che passano per essa; la scelta di queste è arbitraria. Una circonferenza si
può infatti pensare come intersezione di una sfera e di un piano o come
intersezione di due sfere.
Se la circonferenza è intersezione di una sfera S e di un piano α, allora è
rappresentata da
(
x2 + y 2 + z 2 − 2ax − 2by − 2cz + d = 0
αx + βy + γz + δ = 0

dove, assumento
√ d = a2 + b2 + c2 − R2 > 0, la sfera ha centro C(a, b, c) e
raggio R = a2 + b2 + c2 − d.
Se d(C, α) < R, l’intersezione S ∩ α è una circonferenza di cui si può ricavare
il centro C 0 e il raggio r; infatti C 0 è il punto di intersezione tra il piano con
la retta perpendicolare
p ad esso condotta per il centro della sfera, dunque per
Pitagora r = R − d(C, α)2 .
2

Se d(C, α) > R il sistema non ha soluzioni reali e l’intersezione è priva di


punti reali.
Se d(C, α) = R, il sistema ha unica soluzione e rappresenta un solo punto,
ovvero quello di tangenza tra il piano e la sfera.
Un piano si dice tangente ad una sfera S di centro C e raggio R se ha
distanza R da C. Analogamente si definisce la retta tangente ad una cir-
conferenza.
9 EQUAZIONI DI SECONDO GRADO IN DUE O TRE VARIABILI 84

Corso
Corso: Algebra Lineare e Geometria (e fondamenti di Calcolo Numerico)
Carico: 10 CFU
Docenti: Cumino C., Guerra M.

Bibliografia
ˆ Materiale didattico fornito dal Politecnico di Torino;

ˆ ”Algebra Lineare e Geometria” di Anichini, Conti e Paoletti;

ˆ www.YouMath.it per le immagini.

ˆ TeX Maker per l’editor LATEX

Potrebbero piacerti anche