Sei sulla pagina 1di 190

lezione 01

Notazioni (§1.1)
Simboli usati in matematica, per semplificare la scrittura di equazioni e teoremi.

S IMBOLO S IGNIFICATO
∀ “per ogni” (detto quantificatore universale)
∃ “esiste” (detto quantificatore esistenziale)
∃! “esiste ed è unico”
=⇒ implicazione logica
⇐⇒ “se e solo se”
:= definizione (a := b si legge “a per definizione è uguale a b”)
: “tale che”
| “tale che”
∧ “e” (detto congiunzione logica)
∨ “o” (detto disgiunzione logica)

Altri simboli verranno introdotti durante il corso.

Slide 1/21

lezione 01

Insiemi (§1.1)
Un insieme può essere definito elencando i suoi elementi, ad esempio

A := 0, 1, 2, 3, −1, −2 ,

oppure specificando le proprietà soddisfatte dai suoi elementi, ad esempio



B := n intero : −2 6 n 6 3 .

Evidentemente A = B.
Gli insiemi verranno indicati con lettere maiuscole (A, B, C, . . .), i loro elementi con
lettere minuscole (a, b, c, . . .). L’ espressione “a ∈ A” si legge “a appartiene ad A”.
Gli elementi di un insieme possono avere natura arbitraria (insieme dei punti di una
retta, insieme dei giocatori di una squadra di calcio, l’insieme dei caratteri di un
alfabeto, etc.). Possono anche essere essi stessi degli insiemi. Ad esempio, dati
C := {1, 2} e D := {1, 4}, possiamo formare l’insieme:

E := {C, D} = {1, 2}, {1, 4} .

Slide 2/21
lezione 01

Insiemi notevoli (§1.1)

N := {0, 1, 2, 3, 4, . . .} numeri naturali (incluso lo 0)


Z := numeri interi (relativi, ossia positivi e negativi, incluso lo zero)
Q := numeri razionali (quozienti di due interi)
R := numeri reali
C := numeri complessi
Z+ := {1, 2, 3, . . .} interi positivi
Z− := {−1, −2, −3, . . .} interi negativi
R+ := reali positivi
R+
0 := reali non negativi
etc.

Slide 3/21

lezione 01

Insieme dei punti di una retta (Orecchia, cap. 1)

Sistema di riferimento monodimensionale: si fissa un punto, detto origine ed indicato


con O, un verso di percorrenza ed un’unità di misura delle lunghezze.

Fissare un verso vuol dire scegliere una semiretta fra le due uscenti da O.
Per convenzione se P 6= O appartiene a tale semiretta, diremo che O precede P.
In caso contrario diremo che P precede O.

O P
| {z }
x

Fissato un sistema di riferimento, ogni punto P della retta è individuato da un numero


reale x ∈ R, il cui modulo indica la distanza di P dall’origine, nelle unità scelte. Si
prende x > 0 se O precede P, e x < 0 in caso contrario.

Slide 4/21
lezione 01

Numeri complessi (§A.3.1)

L’ equazione seguente non ammette soluzioni reali:

x2 = −1

I numeri complessi si ottengono dai reali aggiungendo ad essi una radice del numero

reale −1, detta unità immaginaria ed indicata con il simbolo “i” o “ −1”.
Un numero complesso è un numero della forma

z=x+ −1 y x, y ∈ R .

Sia z 0 = x 0 + −1 y 0 (con x 0 , y 0 ∈ R). I numeri complessi si sommano e moltiplicano
secondo la regola
√ √
z + z 0 = (x + x 0 ) + −1 (y + y 0 ) , z · z 0 = xx 0 − yy 0 + −1 (xy 0 + x 0 y) .

Un’equazione polinomiale (di grado > 1) ammette sempre soluzioni in campo complesso!
(Torneremo sull’argomento più avanti. . . )

Slide 5/21

lezione 01

Operazioni fra insiemi (§1.2)


Definizione 1.2.1
Sottoinsieme:
A⊆B ⇐⇒ ∀ x ∈ A, x ∈ B .
Sottoinsieme proprio:
 
A⊂B ⇐⇒ ∀ x ∈ A, x ∈ B ∧ ∃ b ∈ B : b ∈
/A .

Definizione 1.2.2
Intersezione, unione e differenza:

A ∩ B := x : x ∈ A ∧ x ∈ B ,

A ∪ B := x : x ∈ A ∨ x ∈ B ,

A r B := x : x ∈ A ∧ x ∈
/B .

Si indica con ∅ l’insieme vuoto, ovvero privo di elementi.

Slide 6/21
lezione 01

Diagrammi di Venn
Un insieme può essere visualizzato graficamente utilizzando un diagramma di Venn,
che consiste nel rappresentare gli elementi di un insieme finito con dei punti racchiusi
da una curva (tipicamente un cerchio o un ellisse). Ad esempio,
 √
A := 7, Paolo, 2

si può rappresentare nel seguente modo

Paolo

2

Slide 7/21

lezione 01

Operazioni insiemistiche con i diagrammi di Venn

A∩B A∪B

A B A B

ArB BrA

A B A B

Slide 8/21
lezione 01

Proprietà delle operazioni fra insiemi (§1.2)

 
A ⊆ B ∧ B ⊆ A =⇒ A = B
A∩A=A∪A=A
A∩∅=∅
A∪∅=A
A∩B=B∩A (proprietà commutativa di ∩)

A∪B=B∪A (proprietà commutativa di ∪)

(A ∩ B) ∩ C = A ∩ (B ∩ C) (proprietà associativa di ∩)

(A ∪ B) ∪ C = A ∪ (B ∪ C) (proprietà associativa di ∪)

Slide 9/21

lezione 01

Prodotto cartesiano (§1.2)

Definizione 1.2.3
Il prodotto cartesiano di due insiemi A e B, indicato con A × B, è l’insieme delle coppie
ordinate aventi il primo elemento in A ed il secondo in B. Quindi:

A × B := (a, b) : a ∈ A ∧ b ∈ B .

Più in generale dati n insiemi A1 , . . . , An definiamo:



A1 × A2 × . . . × An := (a1 , a2 , . . . , an ) : ai ∈ Ai ∀ i = 1, . . . , n .

Esempio
Il prodotto cartesiano di A = {0, 1, 5} e B = {0, 1, 2} è l’insieme

A×B= (0, 0) , (0, 1) , (0, 2) , (1, 0) , (1, 1) , (1, 2) , (5, 0) , (5, 1) , (5, 2)

(notare che (0, 1) 6= (1, 0) in A × B)

Slide 10/21
lezione 01

n-uple (§3.1)

Sia A un insieme. Chiameremo n-upla (si legge “ennupla”) di elementi di A un


elemento dell’insieme
An = A × A × . . . × A .
| {z }
n volte

Una n-upla è quindi un insieme ordinato* di n elementi di A. Useremo la notazione:

(a1 , a2 , a3 , . . . , an ) ∈ An .

Esempi:

(9, 7) è una coppia di numeri interi (A = Z);



(π, 1, 2) è una tripla di numeri reali (A = R);
(♣, ♠) è una coppia di semi delle carte da gioco;
(Terra , Sole , Luna , Plutone) è una quadrupla di corpi celesti.

*Esempio: (1, 0) e (0, 1) rappresentano due coppie distinte.

Slide 11/21

lezione 01

Prodotto cartesiano di due rette (Orecchia, cap. 1)


Sistema di riferimento bidimensionale: si scelgono due rette non parallele, la cui
intersezione determina l’origine del sistema di riferimento, un orientamento per
ciascuna retta ed una unità di misura delle lunghezze.

Fissato un sistema di
P(x, y) riferimento, ogni punto
y
P della retta è indivi-
duato da un una coppia
ordinata di numeri reali
α
(x, y) ∈ R2 , detti ascissa
O x e ordinata del punto P.

=⇒ Possiamo pensare il piano come prodotto cartesiano di due rette.


Se α = 90◦ , il sistema di riferimento si dice ortogonale.

Slide 12/21
lezione 01

Funzioni/applicazioni (§1.3)

Definizione 1.3.4
Una applicazione (o funzione) f da A in B è una legge che associa ad ogni elemento
x di A un elemento y = f(x) in B, detto immagine di x tramite f. L’ insieme A si dice
dominio e l’insieme B si dice codominio di f.

Per le applicazioni useremo la scrittura:


f:A→B
x 7→ y = f(x)

Due applicazioni f : A → B e g : C → D sono uguali se e solo se

A=C, B=D, f(x) = g(x) ∀ x ∈ A .

Slide 13/21

lezione 01

Funzioni/applicazioni (§1.3)
Una applicazione f : A → B si dice

1 suriettiva se per ogni y ∈ B esiste almeno un x ∈ A tale che y = f(x);

2 iniettiva se x 6= y =⇒ f(x) 6= f(y) (ovvero se f(x) = f(y) =⇒ x = y );

3 biunivoca (o biettiva o 1 a 1) se sia iniettiva che suriettiva.

Esempi:

f : N → N, f(x) := x2 (iniettiva ma non suriettiva)


g : R r {0} → R+ , g(x) := x2 (suriettiva ma non iniettiva)
h : R+ → R+ , h(x) := x2 (biunivoca)

Sia A l’insieme dei giocatori di Napoli, Lazio e Inter, B l’insieme delle tre squadre di
calcio citate, ed f : A → B la funzione che associa ad ogni giocatore la squadra a cui
appartiene. Tale funzione è suriettiva, ma non è iniettiva.

Slide 14/21
lezione 01

Applicazioni e diagrammi di Venn

Una applicazione f : A → B fra due insiemi finiti si può visualizzare graficamente


disegnando i diagrammi di Venn dei due insiemi, e congiungendo ogni punto x ∈ A
con la sua immagine f(x) ∈ B.

Esempi:

p p
a a
q q
b b
r r
c s s c

Applicazione iniettiva Applicazione suriettiva


ma non suriettiva. ma non iniettiva.

Slide 15/21

lezione 01

Richiami sulle applicazioni (§1.3)

Sia A un insieme qualsiasi. Chiamiamo applicazione identica su A la funzione

idA : A → A
x 7→ idA (x) = x

L’ applicazione identica è biunivoca!

Definizione 1.3.9
Date due applicazioni
f g
A −−−−→ B −−−−→ C
la loro composizione, indicata con g ◦ f, è quella applicazione h : A → C definita da

h(x) := g f(x)

per ogni x ∈ A.

Slide 16/21
lezione 01

Composizione di applicazioni

La composizione di applicazioni può essere visualizzata graficamente. Si considerino


ad esempio gli insiemi A := {a, b, c}, B = {p, q, r, s}, C = {α, β, γ} e le applicazioni:

a p p α
q q
b β
r r
c s s γ

f:A→B g:B→C

La loro composizione g ◦ f : A → C è l’applicazione:

a α

b β
c γ

Slide 17/21

lezione 01

Proprietà della composizione di applicazioni

I Si verifica facilmente che la composizione di applicazioni è associativa, ovvero


date tre applicazioni qualsiasi
f g h
A −−−−→ B −−−−→ C −−−−→ D

vale l’uguaglianza h ◦ (g ◦ f) = (h ◦ g) ◦ f.

I Date due applicazioni f : A → A e g : A → A, l’uguaglianza

f◦g=g◦f

non è sempre soddisfatta. Si dice che la composizione di applicazioni non gode


della proprietà commutativa.

I Un esempio di applicazioni f e g tali che f ◦ g 6= g ◦ f è nella prossima slide.

Slide 18/21
lezione 01

La composizione di applicazioni non è commutativa

Prendiamo A := {a, b, c}, e siano f e g le applicazioni:

a a a a
b b b b
c c c c

f:A→A g:A→A

Allora:

a a a a
b b b b
c c c c

g◦f:A→A f◦g:A→A

Slide 19/21

lezione 01

Applicazioni invertibili (§1.3)


Definizione (funzione inversa)
Una funzione f : A → B si dice invertibile se ∃ g : B → A (detta inversa di f) tale che
g ◦ f = idA , f ◦ g = idB .

Esempio
L’ inversa della funzione
f : R+ → R+ , f(x) := x2
è la funzione

g : R+ → R+ , g(y) := y

Esempio con diagrammi di Venn:

a p p a
b q q b
c r r c
f:A→B f−1 : B → A
Slide 20/21
lezione 01

Applicazioni invertibili e applicazioni biunivoche


I Si dimostra che una applicazione f : A → B è invertibile se e solo se è biunivoca,
e che l’applicazione inversa se esiste è anche unica.
I Nel caso in cui A e B sono insiemi finiti, l’equivalenza fra biunivocità e invertibilità
è chiara dai diagrammi di Venn:

I Una applicazione è biunivoca se e solo se da ogni punto di A parte una e


una sola freccia e in ogni punto di B arriva una e una sola freccia.
I L’ applicazione inversa si ottiene cambiando il verso di tutte le frecce.
I Fra due insiemi finiti A e B può esistere una funzione
I iniettiva solo se A non ha più elementi di B;
I suriettiva solo se B non ha più elementi di A;
I biunivoca solo se A e B hanno lo stesso numero di elementi.
Per insiemi infiniti questo in generale non è vero, ma vedremo che valgono
proprietà analoghe se A e B sono spazi vettoriali ed f : A → B è una
applicazione lineare (la cui definizione verrà introdotta più avanti nel corso).
Slide 21/21
lezione 02

Matrici (§3 e 4)
Una matrice di tipo m × n è una tabella di elementi disposti in m righe e n colonne:
 
a11 a12 ... a1n
a a22 ... a2n 
 21 
A := 
 .. .. .. 

 . . . 
am1 am2 ... amn

Per ogni 1 6 i 6 m e 1 6 j 6 n, aij è l’elemento nell’intersezione della riga i con la


colonna j. Se gli elementi aij sono numeri reali, si parlerà di matrice reale.
Esempi:    √ 
" # 5 3 −5 2 2
2 −1 7    12 
1 −1 7  π 3 
1 0 4
2 0 3 −1 0
A volte useremo la notazione abbreviata

A = (aij ) , B = (bij ) , etc.

L’insieme di tutte le matrici reali m × n sarà indicato con il simbolo Rm,n .


Slide 1/17

lezione 02

Matrice trasposta (§10.1)


Se A ∈ Rm,n è la matrice
 
a11 a12 ... a1n
a a22 ... a2n 
 21 
A := 
 .. .. .. 

 . . . 
am1 am2 ... amn
chiamiamo trasposta di A, indicata con tA (oppure At o AT ), la matrice di tipo n × m
che si ottiene da A scambiando le righe con le colonne:
 
a11 a21 ... am1
a a22 ... am2 
 12 
t
A=
 .. .. .. 

 . . . 
a1n a2n ... amn
Nota: l’elemento di tA in posizione (i, j) è aji . Esempi:
     
t" # t
1 4 th i 1 1 h i
1 2 3      
= 2 5 1 0 π = 0 0 = 1 0 π
4 5 6
3 6 π π
Slide 2/17
lezione 02

Vettori riga e vettori colonna (§10.1)


I Una matrice 1 × n è semplicemente una n-upla di numeri reali, e viene anche detta
vettore riga.
I Una matrice n × 1 è anch’essa una n-upla di numeri reali, scritti in una colonna, ed
detta anche vettore colonna.
I Trasponendo un vettore riga si ottiene un vettore colonna, e viceversa.

Date due matrici A = (aij ) ∈ Rm,n e B = (bij ) ∈ Rm,n , indicando con Ri il vettore
riga formato dalla i-esima riga di A e con Cj il vettore colonna formato dalla j-esima
colonna di B (per ogni i = 1, . . . , m e j = 1, . . . , n), si ha:
 
b1j
b 
  2j 
Ri = ai1 , ai2 , . . . , ain Cj = 
 .. 

 . 
bmj

Slide 3/17

lezione 02

Somma e prodotto per uno scalare: vettori riga (§4.1)


Per vettori riga useremo la notazione v , w , . . . (notazione alternativa: v , w , . . .).
Ricordiamo che

R1,n = Rn = v = (v1 , v2 , . . . , vn ) : v1 , v2 , . . . , vn ∈ R .

L’elemento vi è detto componente i-esima di v.


In questo contesto, un numero k ∈ R è detto uno scalare.

Date due n-uple v = (v1 , v2 , . . . , vn ), w = (w1 , w2 , . . . , wn ) e k ∈ R, definiamo


somma e moltiplicazione per uno scalare come segue:

v + w := (v1 + w1 , v2 + w2 , . . . , vn + wn ) ,

kv := (kv1 , kv2 , . . . , kvn ) .

L’n-upla nulla (o vettore nullo) e l’opposto −v di v sono definiti come segue:

0Rn = 0 := (0, 0, . . . , 0) − v := (−v1 , −v2 , . . . , −vn )

Slide 4/17
lezione 02

Esempi
Ricordiamo che per definizione:

v + w = (v1 + w1 , v2 + w2 , . . . , vn + wn ) ,

kv = (kv1 , kv2 , . . . , kvn ) .

Esempio in R2

Sia v = (1, 2) e w = (π, −7). Allora
√ √
v + w = (1 + π, 2 − 7) w + v = (π + 1, −7 + 2)

Notiamo che, in questo esempio, v + w = w + v.

Esempio in R3
√ √
(2, 0, − 5) + (3, 12, π) = (5, 12, π − 5)
√ √ √
3 · (5, 2, 7) = (3 · 5, 3 · 2, 3 · 7) = (15, 3 2, 21)

Slide 5/17

lezione 02

Proprietà dei vettori riga (§4.1)

Proposizione 4.1.1
Somma e moltiplicazione per uno scalare soddisfano le seguenti proprietà:

i) ∀ u, v, w ∈ Rn si ha

1. v + w = w + v (proprietà commutativa di +)
2. (u + v) + w = u + (v + w) (proprietà associativa di +)
3. v + 0Rn = v (0Rn è elemento neutro)
4. v + (−v) = 0Rn (esistenza dell’opposto)

ii) ∀ k, k 0 ∈ R e ∀ v, w ∈ Rn si ha

5. (k + k 0 )v = kv + k 0 v (proprietà distributiva I)
6. k(v + w) = kv + kw (proprietà distributiva II)
7. k(k 0 v) = (kk 0 )v
8. 1 · v = v

Slide 6/17
lezione 02

Verifica (Dimostrazione).

1. Segue dalla proprietà commutativa della somma di due numeri reali:

v + w = (v1 + w1 , v2 + w2 , . . . , vn + wn )
= (w1 + v1 , w2 + v2 , . . . , wn + vn ) = w + v

2. Segue dalla proprietà associativa della somma di due numeri reali:

(u + v) + w = (u1 + v1 , u2 + v2 , . . . , un + vn ) + (w1 , w2 , . . . , wn )

= (u1 + v1 ) + w1 , (u2 + v2 ) + w2 , . . . , (un + vn ) + wn

= u1 + (v1 + w1 ), u2 + (v2 + w2 ), . . . , un + (vn + wn )
= (u1 , u2 , . . . , un ) + (v1 + w1 , v2 + w2 , . . . , vn + wn )
= u + (v + w)

3. v + 0Rn = (v1 + 0, v2 + 0, . . . , vn + 0)
= (v1 , v2 , . . . , vn ) = v

4. v + (−v) = (v1 − v1 , v2 − v2 , . . . , vn − vn ) = (0, 0, . . . , 0) = 0Rn

Slide 7/17

lezione 02


5. (k + k 0 )v = (k + k 0 )v1 , (k + k 0 )v2 , . . . , (k + k 0 )vn
= (kv1 + k 0 v1 , kv2 + k 0 v2 , . . . , kvn + k 0 vn )
= (kv1 , kv2 , . . . , kvn ) + (k 0 v1 , k 0 v2 , . . . , k 0 vn )
= kv + k 0 v

6. k(v + w) = k(v1 + w1 ), k(v2 + w2 ), . . . , k(vn + wn )
= (kv1 + kw1 , kv2 + kw2 , . . . , kvn + kwn )
= (kv1 , kv2 , . . . , kvn ) + (kw1 , kw2 , . . . , kwn )
= kv + kw

7. k(k 0 v) = k(k 0 v1 ), k(k 0 v2 ), . . . , k(k 0 vn )

= (kk 0 )v1 , (kk 0 )v2 , . . . , (kk 0 )vn
= (kk 0 )v

8. 1v = (1 · v1 , 1 · v2 , . . . , 1 · vn )
= (v1 , v2 , . . . , vn ) = v 

Slide 8/17
lezione 02

Somma e prodotto per uno scalare: matrici


Definizione (Es. 4.1.5)
Siano A = (aij ) e B = (bij ) due matrici m × n (con i = 1, . . . , m e j = 1, . . . , n).
Somma ed la moltiplicazione per uno scalare k ∈ R sono date da:

A + B := (aij + bij ) , kA := (kaij ) .

Chiamiamo matrice nulla di tipo m × n la matrice:


 
0 0 ... 0
0 0 ... 0
 
0Rm,n := 
 .. . . .
. . .
. .
0 0 ... 0

Chiamiamo opposta di A la matrice −A := (−aij ).

Esempio
" # " # " # " #
"√ √ #
1 7 12 0 13 7 √ 1 1
4
3 4
3
+ √ = √ 3· = √ √
2 π 3 −5 2+ 3 π−5 2 π 2 3 π 3

Slide 9/17

lezione 02

Proprietà delle matrici


Proposizione
Valgono le seguenti proprietà:

i) ∀ A, B, C ∈ Rm,n si ha

1. A + B = B + A (proprietà commutativa di +)
2. (A + B) + C = A + (B + C) (proprietà associativa di +)
3. A + 0Rm,n = A (0Rn è elemento neutro)
4. A + (−A) = 0Rm,n (esistenza dell’opposto)

ii) ∀ k, k 0 ∈ R e ∀ A, B ∈ Rm,n si ha

5. (k + k 0 )A = kA + k 0 A (proprietà distributiva I)
6. k(A + B) = kA + kB (proprietà distributiva II)
7. k(k 0 A) = (kk 0 )A
8. 1 · A = A

( . . . analogue a quelle dei vettori riga, che si riottengono come caso particolare per m = 1)

Slide 10/17
lezione 02

Prodotto di due matrici (§10.1)


Siano  
b1
 b2 
 
A = (a1 , a2 , . . . , an ) B = t (b1 , b2 , . . . , bn ) =  . 
 . 
 . 
bn
Il loro prodotto è per definizione il numero reale dato da:

A · B := a1 b1 + a2 b2 + . . . + an bn

Esempio
Se A = (−1, 7, 3) e B = t (9, 2, 5) si ha

A · B = −1 · 9 + 7 · 2 + 3 · 5 = −9 + 14 + 15 = 20 .

Più in generale date due matrici A = (aij ) ∈ Rm,n e B = (bij ) ∈ Rn,p , il loro prodotto
C = A · B è la matrice che in posizione (i, k) ha l’elemento
Xn
cik = Ri · Sk = aij bjk
j=1

in cui Ri è la i-esima riga di A e Sk la k-esima colonna di B.


Slide 11/17

lezione 02

B : n righe, p colonne
 
 b11 ... b1k ... b1p 
 
 
 
 
 .. .. .. .. .. 
 . . . . . 
 
 
 
 bj1 ... bjk ... bjp 
 
 
1k
·b

 
 
1
ai

 .. .. .. .. .. 
+

 
..

. . . . .
 
.+

 
jk

 
·b

 bn1 ... bnk ... bnp 


j
ai

+
..
.+

k
·b
n
n
ai
   
 a11 ... a1j ... a1n   c11 ... c1k ... c1p 
   
   
   
 .. .. .. .. ..   .. .. .. .. .. 
 .   . 
 . . . .   . . . . 
   
   
 ai1 ... aij ... ain   ci1 ... cik ... cip 
   
   
   
   
 .. .. .. .. ..   .. .. .. .. .. 
 . . . . .   . . . . . 
   
   
   
 am1 ... amj ... amn   cn1 ... cnk ... cnp 

A : m righe, n colonne C = AB : m righe, p colonne


Slide 12/17
lezione 02

Esercizio 10.1.2
Date  
" # 1 2
1 2 −1  
A= , B = 3 1 ,
3 0 1
2 4
calcolare le matrice A · B.

Soluzione.
" # " #
1·1+2·3−1·2 1·2+2·1−1·4 5 0
A·B= =
3·1+0·3+1·2 3·2+0·1+1·4 5 10
X

Slide 13/17

lezione 02

Esercizio (da 5.2.3)


Date le matrici " # " #
0 1 0 0
A= , B= ,
0 0 1 0
calcolare A · B e B · A.

Soluzione. " # " #


1 0 0 0
AB = BA =
0 0 0 1
X

Nota: AB 6= BA =⇒ per il prodotto fra matrici non vale la proprietà commutativa.

Slide 14/17
lezione 02

Esercizi (Alla Lavagna)

Esercizio (C. Carrara, es. 1.1)


Date le matrici " # " #
1 2 3 0
A= B=
3 −1 −1 4
calcolare: AB, BA, A + B, B − A, 5A + 2B.

Esercizio
Data la matrice " #
2 4
A=
−1 −2
calcolare A2 = A · A.

Slide 15/17

lezione 02

Esercizi (Alla Lavagna)

Esercizio (da C. Carrara, es. 1.3)


Date le seguenti matrici:
 
5 0  
" # −2 4 1
0 −2 5 −1 2
   
A1 = A2 =   A3 = −4 4 4
4 −3 2  4 5
0 0 0
5 −1

calcolare, quando possibile, i prodotti Ai · Aj (per i, j = 1, 2, 3).

Slide 16/17
lezione 02

Esercizi (Alla Lavagna)


Esercizio (C. Carrara, es. 1.4)
Date le seguenti matrici:
 
1 0 0 0
h i 0 1 0 0
 
A= 1 2 3 4 I4 =  
0 0 1 0
0 0 0 1

calcolare A · I4 .

Esercizio (C. Carrara, es. 1.5)


Date le seguenti matrici:
h i h i
1 2
A = −2 2
3 1 B = 1 −3 3
1

calcolare A · t B.

Slide 17/17
lezione 03

Proprietà del prodotto fra matrici (§10.2)


Il prodotto di A = (aij ) ∈ Rm,n e B = (bjk ) ∈ Rn,p si ottiene “contraendo” l’indice di
colonna di aij con l’indice di riga di bjk . L’elemento in posizione (i, k) di AB è:
Xn
aij bjk
j=1

Proposizione 10.2.1 (Associatività)


Per ogni A = (aij ) ∈ Rm,n , B = (bjh ) ∈ Rn,p e C = (chk ) ∈ Rp,q si ha
A(BC) = (AB)C .

Dimostrazione. L’elemento di matrice in posizione (i, k) di A(BC) è dato da


Xn Xp  X
aij bjh chk = aij bjh chk ,
j=1 h=1
j=1,...,n
h=1,...,p

l’elemento di matrice in posizione (i, k) di (AB)C è dato da


Xp Xn  X
h=1 j=1
aij bjh chk = aij bjh chk . 
j=1,...,n
h=1,...,p
Slide 1/20

lezione 03

Proposizione 10.2.3 (Bilinearità del prodotto)


Per ogni λ ∈ R, A, A 0 ∈ Rm,n e B, B 0 ∈ Rn,p valgono le proprietà:

i) (A + A 0 )B = AB + A 0 B;

ii) A(B + B 0 ) = AB + AB 0 ;

iii) (λA)B = A(λB) = λ(AB).

Dimostrazione. Verifichiamo solo la (i). Usando la definizione, l’elemento (i, k) della


matrice (A + A 0 )B è dato da
Xn Xn Xn Xn
0 0 0
(aij + aij )bjk = (aij bjk + aij bjk ) = aij bjk + aij bjk
j=1 j=1 j=1 j=1

Nel membro di destra riconosciamo l’elemento (i, k) della matrice AB + A 0 B. 

Slide 2/20
lezione 03

Ricordiamo che t A si ottiene da A “scambiando” indice di riga e indice di colonna.

Proposizione 10.2.5 (Proprietà della trasposizione)


Per ogni A, A 0 ∈ Rm,n , B ∈ Rn,p e λ ∈ R si ha

i) t
(A + A 0 ) = t A + t A 0 ;
ii) t
(AB) = ( t B) · ( t A) ;
iii) t
(λA) = λ( t A) .

Dimostrazione. Verifichiamo la (ii). L’elemento in posizione (i, k) di t (AB) è l’elemento


in posizione (k, i) di AB, ovvero:
Xn
akj bji
j=1

L’elemento in posizione (i, j) di t B è bji , l’elemento in posizione (j, k) di tA è akj ,


l’elemento in posizione (i, k) di t B · tA è
Xn
bji akj 
j=1

Slide 3/20

lezione 03

Definizione
Elementi di Rn,n si dicono matrici quadrate. Notazione alternativa: Mn (R).
Se A = (aij ) ∈ Mn (R) è una matrice quadrata, gli elementi aii (1 6 i 6 n) si dice
che formano la diagonale principale di A.

Esempio (gli elementi sulla diagonale principale sono in rosso):


 
3 7 1
 
1 0 2
3 2 5

Chiamiamo matrice identica di ordine n, la matrice n × n seguente:


 
1 0 0 ... 0
 
0 1 0 ... 0
 
 0
In := 0 0 1 ... 
. .. .. .. 
. 
. . . .
0 0 0 ... 1

Slide 4/20
lezione 03

Proposizione 10.2.2
Per ogni A ∈ Rm,n si ha
Im A = AIn = A .
Diciamo che In è elemento neutro rispetto al prodotto di matrici.

Esercizio
Date " # " #
3 1 2 −1
A= , B= ,
5 2 −5 3
calcolare i prodotti AB e BA.

Definizione (§10.3)
Una matrice A ∈ Mn (R) si dice invertibile se esiste B ∈ Mn (R) tale che

A · B = B · A = In .

La matrice B si dirà inversa di A e sarà indicata con il simbolo A−1 .

Slide 5/20

lezione 03

Sistemi di equazioni lineari (§3)


Esempi:

x+y=0
3x = 6 2x + y = 13
x−y=5
I coefficienti possono assumere qualsiasi valore reale, incluso lo zero. Esempi:

0x = 2 3x + 0y = 7

Alcune applicazioni:
Circuiti elettrici. Leggi di Kirkoff (e Ohm: V = RI):
X X
Ie − Iu = 0 (la somma algebrica delle correnti in un nodo è zero)
X
Vi = 0 (la somma algebrica delle tensioni lungo una linea chiusa è zero)

Chimica. Bilanciamento di un’equazione chimica.


Economia. Sistema di input-output (modello che descrive le relazioni tra le
quantità di beni prodotte e consumate in un certo sistema economico).
Wassily Wassilyovich Leontief, Premio Nobel per l’Economia (1973).
Slide 6/20
lezione 03

Generalità sui sistemi lineari (§3.2)

Una equazione in n incognite x1 , . . . , xn a coefficienti in R si dice lineare se è della


forma:
a1 x1 + a2 x2 + . . . + an xn = b , (∗)

con a1 , a2 , . . . , an , b ∈ R. I numeri ai si dicono coefficienti e b è detto termine noto.

Una n-upla
v = (v1 , . . . , vn ) ∈ Rn

si dice soluzione dell’equazione (∗) se sostituendo vi ad xi in (∗), per ogni 1 6 i 6 n,


l’equazione si riduce ad una identità fra numeri reali.

Esempio 3.2.1
(4, 1, 6) ∈ R3 è una soluzione dell’equazione 3x1 + x2 − 2x3 = 1.

Slide 7/20

lezione 03

Un sistema di m equazioni lineari in n incognite è un insieme di equazioni




 a11 x1 + a12 x2 + ... + a1n xn = b1


 a21 x1 + a22 x2 + ... + a2n xn = b2
Σ: .. .. .. .. ..

 . . . . .



am1 x1 + am2 x2 + ... + amn xn = bm

con aij ∈ R e bi ∈ R. Una soluzione del sistema è una n-upla (v1 , . . . , vn ) ∈ Rn


che risolve simultaneamente tutte le m equazioni.

Esercizio 3.2.2
Si verifichi che le triple

(1, 0, 0) (3, 1, 0) (1, −1, 0) (5, 2, 0)

sono soluzioni del sistema



x1 − 2x2 + x3 = 1
2x1 − 4x2 = 2

Slide 8/20
lezione 03

Chiamiamo soluzione generale di un sistema Σ l’insieme di tutte le sue soluzioni.


La soluzione generale di un sistema Σ è quindi un sottoinsieme SΣ ⊆ Rn .

Un sistema si dice compatibile (o risolubile) se ammette soluzioni, ovvero SΣ 6= ∅; se


non ha soluzioni, il sistema si dirà incompatibile.

Esempio 3.2.3
Si considerino i tre sistemi

x1 + 3x2 = 0 x1 − x2 = 0 x1 + x2 = 0
x1 + 3x2 = 1 x1 + x2 = 2 2x1 + 2x2 = 0

Il primo è incompatibile; il secondo ammette (1, 1) come unica soluzione; qualunque


coppia (t, −t) è soluzione del terzo sistema, per ogni valore del parametro reale t ∈ R.

Dato un sistema Σ, possono verificarsi solo tre casi (come dimostreremo più avanti):
1. non esistono soluzioni;
2. una soluzione esiste ed è unica;
3. esistono infinite soluzioni.

Slide 9/20

lezione 03

Sistemi lineari omogenei (§3.2)


Un sistema si dice omogeneo se i termini noti sono tutti zero.
Un sistema omogeneo di m equazioni (lineari) in n incognite ha quindi la forma:


 a11 x1 + a12 x2 + ... + a1n xn = 0


 a21 x1 + a22 x2 + ... + a2n xn = 0
 .. .. .. .. ..

 . . . . .


am1 x1 + am2 x2 + ... + amn xn = 0

con aij ∈ R.

Un sistema omogeneo è sempre compatibile!


Infatti ammette almeno la soluzione nulla (0, 0, . . . , 0) ∈ Rn .

Dato un sistema omogeneo, possono quindi verificarsi solo due casi:


1. il sistema ammette come unica soluzione quella nulla;
2. il sistema ammette infinite soluzioni.

Slide 10/20
lezione 03

Sistemi lineari e matrici (§3.3)

Dato un sistema lineare con coefficienti aij e termini noti bi , definiamo:


   
a11 a12 ... a1n b1
a a22 ... a2n  b 
 21   2
A := 
 .. .. .. 
 B :=  
 .. 
 . . .   . 
am1am2 . . . amn bm
 
a11 a12 . . . a1n b1
 
 a21 a22 . . . a2n b2 
 
(A|B) =  . .. .. .. 
 .. . . . 
 
am1 am2 . . . amn bm

A è detta matrice dei coefficienti, B è detta colonna dei termini noti, (A|B) è detta
matrice completa del sistema.

Slide 11/20

lezione 03

Esercizio 3.3.1
Si scriva la matrice completa del sistema:

x1 − 2x2 + x3 = 1
2x1 − 4x2 = 2

Esercizio 3.3.2
Scrivere il sistema di equazioni lineari la cui matrice completa è:
 
1 1 2 4
 
(A|B) = 
0 1 −2 −3 

0 0 1 2

Slide 12/20
lezione 03

Sistemi lineari e matrici (§14.1)


Possiamo disporre le incognite in una matrice n × 1:

X = t (x1 , x2 , . . . , xn )

Sia A = (aij ) ∈ Rm,n e B = (bi ) ∈ Rm,1 . Risolvere un sistema lineare di matrice


completa (A|B), equivale a trovare tutti i vettori colonna X tali che:

A·X=B (prodotto righe per colonne)

Infatti:
    
a11 a12 ... a1n x1 a11 x1 + a12 x2 + . . . + a1n xn
a a22 ... a2n     
 21   x2   a21 x1 + a22 x2 + . . . + a2n xn 
A·X=
 .. .. ..    
  ..  = 


 . . .  .   ... 
am1 am2 ... amn xn am1 x1 + am2 x2 + . . . + amn xn

Slide 13/20

lezione 03

SΣ è un insieme convesso
Nelle notazioni della slide precedente, siano v = (v1 , . . . , vn ) e w = (w1 , . . . , wn ) due
soluzioni distinte ( v 6= w ) del sistema

A·X=B, (†)

ovvero due n-uple di numeri reali tali che valgano le identità fra vettori colonna

A · tv = B , A · tw = B .

Allora per ogni scalare λ ∈ R, anche la n-upla

λv + (1 − λ)w (∗)

è soluzione di (†). Sia infatti uλ := λv + (1 − λ)w, e t uλ = λ t v + (1 − λ) t w. Allora:

A · t u = λ(A · t v) + (1 − λ)(A · t w) = λB + (1 − λ)B = λB + B − λB = B .

Per 0 6 λ 6 1, l’espressione (∗) si dice combinazione convessa di v e w, e quello che


abbiamo appena verificato è che l’insieme delle soluzioni di un sistema di equazioni
lineari è un insieme convesso. Se un sistema ammette due soluzioni v e w distinte,
allora ne ammette necessariamente infinite, date da (∗) al variare di λ ∈ R
(attenzione: queste non sono necessariamente tutte le soluzioni del sistema).
Slide 14/20
lezione 03

Una equazione in una incognita (§3.5)



 (1) se a 6= 0 la soluzione esite, è unica ed è data da x = a−1 b.









 

 

 
 (2 0 ) se b 6= 0 il sistema è incompatibile


ax = b =⇒ 


 




 (2) se a = 0 allora

 
 (2 00 ) se b = 0, l’equazione è 0x = 0 e am-

 


 
 mette infinite soluzioni: x = t è soluzione

 


 
per ogni t ∈ R.

Nel caso (2 00 ) le soluzioni sono in corrispondenza biunivoca con gli elementi di R.

Slide 15/20

lezione 03

Esempio: una equazione in due incognite


Consideriamo la seguente equazione nelle incognite x e y:

2x + 3y = 8

Assegnando un valore arbitrario ad una variabile, diciamo x = t con t ∈ R, si ricava

y = − 23 x + 8
3
= − 23 t + 8
3

La soluzione generale è l’insieme delle coppie (t, − 32 t + 83 ), con t ∈ R.

(−2, 4)
(1, 2)

Slide 16/20
lezione 03

Una equazione in n incognite, n > 2 (§3.5)


Consideriamo l’equazione

a1 x1 + a2 x2 + . . . + an xn = b .

Se almeno un coefficiente è diverso da zero, diciamo a1 , possiamo assegnare alle


incognite xi , i 6= 1, dei valori ti ∈ R arbitrary, e ricavare:

x1 = a−1 −1
1 b − a1 (a2 t2 + a3 t3 + . . . + an tn ) .

Le soluzioni sono in corrispondenza biunivoca con elementi (t2 , t3 , . . . , tn ) ∈ Rn−1 .


In questo caso, le incognite x2 , . . . , xn si dicono libere.



 (1) se (a1 , . . . , an ) 6= (0, . . . , 0) le soluzioni in corrispondenza biunivoca con Rn−1 .



 

 
 (2 0 ) se b 6= 0 il sistema è incompatibile.





 (2) se (a1 , . . . , an ) = (0, . . . , 0) allora (2 00 ) se b = 0 ogni n-upla (t , . . . , t ) di

 
 1 n

 
 R è una soluzione.
n

Slide 17/20

lezione 03

Esercizi (§3.6)
Esercizio 3.6.1
Scrivere l’equazione 1 − x = 3x + x nella “forma normale” ax = b .

Esercizio 3.6.2
Si scriva in forma normale l’equazione x + 2x = 3x .

Esercizio

Si scriva in forma normale l’equazione x + 7y = 2y + π x − 2.

Esercizio
Si consideri la matrice completa:
 
6 −4 0 3 2
 
(A|B) = 
0 0 0 0 2 

1 0 1 2 11

Dire se il sistema lineare associato è compatibile.


Slide 18/20
lezione 03

Esercizio (“sostituzione dall’alto verso il basso”)


Risolvere il sistema


 5x1 = 10
3x1 + x2 = 5


−x1 − x2 + x3 = 2

Soluzione. Dalla prima equazione si ricava x1 = 2. Sostituendo questo valore nella seconda
equazione si elimina l’incognita x1 e l’equazione si riduce a 6 + x2 = 5, ovvero x2 = −1.
Sostituendo nell’ultima equazione i valori trovati, si ottiene infine −2 − (−1) + x3 = 2, ovvero
x3 = 3. La soluzione del sistema esiste, è unica e data dalla terna (x1 , x2 , x3 ) = (2, −1, 3). X

Esercizio 3.6.4 (“sostituzione dal basso verso l’alto”)


Risolvere il sistema


 3x1 + x2 + 2x3 = 7
x2 − x3 = 1


x3 = 5

Soluzione. Come l’esercizio precedente, ma si inizia dall’ultima equazione. X

Slide 19/20

lezione 03

Esercizio (“Metodo di sostituzione delle incognite”)


Risolvere il sistema


 x1 − x2 − x3 = 2
2x1 + x2 + x3 = 1


3x1 + 2x2 − 2x3 = 1

Soluzione. Dalla prima equazione ricaviamo


x1 = x2 + x3 + 2 (†)
Sostituendo questa espressione nelle equazioni rimanenti, otteniamo un sistema di due equazioni
in due incognite
 
2(x2 + x3 + 2) + x2 + x3 = 1 3x2 + 3x3 = −3
⇐⇒
3(x2 + x3 + 2) + 2x2 − 2x3 = 1 5x2 + x3 = −5
Dalla prima equazione si ricava
x2 = −x3 − 1 (‡ )
che sostituita nell’ultima equazione permette di ottenere una equazione in una sola incognita,
−5x3 − 5 + x3 = −5, la cui unica soluzione è x3 = 0. Sostituendo questo valore in (‡) si ricava
x2 = −1; sostituendo i valori trovati per x2 e x3 in (†) si ricava x1 = 1. Il sistema ammette
quindi un’unica soluzione, data da (x1 , x2 , x3 ) = (1, −1, 0). X

Slide 20/20
lezione 04

Cenni sul determinante


Ad ogni matrice quadrata è possibile associare uno scalare detto “determinante” della
matrice stessa (poichè, fra le altre cose, serve a “determinare” se un sistema di n
equazioni lineari in n incognite ammette un’unica soluzione, cf. teorema di Cramer).

Sia A = (aij ) ∈ Mn (R). Il determinante di A, indicato con |A| o det A , è definito


come segue. Se n = 1, |A| := a11 . Se n = 2,

|A| := a11 a22 − a12 a21

Se n = 3,

|A| := a11 a22 a33 + a13 a21 a32 + a12 a23 a31 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33

Al crescere di n la definizione esplicita è sempre più complicata. Per n > 4,

|A| := (a11 a22 a33 a44 · · · ann ) − (a12 a21 a33 a44 · · · ann ) + (a12 a23 a31 a44 · · · ann ) + . . .

è una somma di n! monomi di grado n negli elementi di A.


Non darò la definizione generale, ma spiegherò dei metodi di calcolo.
Slide 1/10

lezione 04

Determinante di matrici 2 × 2 (§5.2)

Esempio 3.5.1

+ − 1 7
= 5 − (−14) = 19
−2 5
a11 a12

= a11 a22 − a12 a21 0 4
= 0 · 3 − 4 · 1 = −4
a21 a22 1 3

2 3
=6−3=3
1 3

Osservazione: non vale la proprietà |A| + |B| = |A + B| . Controesempio:


   
1 0 −1 0
A= , B= .
0 1 0 −1

Si ha A + B = 0R2,2 , quindi |A + B| = 0 . Ma |A| = |B| = 1 e |A| + |B| = 2 .

Slide 2/10
lezione 04

Esercizio 5.2.1
Calcolare il determinante delle matrici:
   
2 1 5 5
A= , B= .
4 7 2 4

Esercizio 10.2.7
Siano    
2 7 5 3
A= , B= .
−1 4 2 1
Verificare che |AB| = |A| · |B|.

Enunciamo senza dimostrazione:

Teorema di Binet
Il determinante di un prodotto è il prodotto dei determinanti:

|AB| = |A| · |B| ∀ A, B ∈ Mn (R)

Slide 3/10

lezione 04

Regola di Sarrus (§5.3)

+ + + − − −
a11 a12 a13 a11 a12

a21 a22 a23 a21 a22

a31 a32 a33 a31 a32

Esercizio 5.3.1
Si calcoli il determinante delle seguenti matrici:
     
1 2 1 1 2 3 3 0 0
     
A= 3 1 4 , B = 3 1 3 , C = 0 2 0 .
−3 5 −1 1 2 3 0 0 −7

Slide 4/10
lezione 04

Sviluppo di Laplace (§5.4)


Sia A = (aij ) ∈ Mn (R) e indichiamo con Ahk ∈ Mn−1 (R) la matrice che si ottiene da
A eliminando la riga h e la colonna k.

Definizione
La matrice Ahk si dice minore complementare dell’elemento ahk , e lo scalare

Γhk = (−1)h+k |Ahk |

è detto complemento algebrico dell’elemento ahk .

Enunciamo senza dimostrazione:

Sviluppo di Laplace per righe Sviluppo di Laplace per colonne


Per ogni 1 6 i 6 n fissato, si ha: Per ogni 1 6 j 6 n fissato, si ha:
n
X n
X
|A| = aij Γij |A| = aij Γij
j=1 i=1

Slide 5/10

lezione 04

Esercizio 5.4.3
Calcolare il determinante della matrice
 
0 1 2 0
4 0 1 2
 
A= 
3 1 1 0
0 2 1 4

Soluzione. Con lo sviluppo di Laplace rispetto alla prima colonna si trova:



0 1 2 1 2 0 1 2 0 1 2 0


|A| = 0 1 1 0 − 4 1 1 0 + 3 0 1 2 − 0 0 1 2

2 1 4 2 1 4 2 1 4 1 1 0

sviluppando il 2◦ e 3◦ determinante rispetto alla terza colonna:



1 2 1 2 1 2
= −4 · 4 + 3 · (−2)
2 + 3 · 4
0
1 1 1 1
= −4 · 4 · (1 − 2) + 3 · (−2) · (1 − 4) + 3 · 4 · 1
= 16 + 18 + 12 = 46 . X
Slide 6/10
lezione 04

Inversa di una matrice (§10.3)

Definizione 10.3.2
Sia A = (aij ) ∈ Mn (R). Chiamiamo matrice dei cofattori di A, indicata con A∗ , la
matrice n × n che si ottiene da A sostituendo l’elemento aij con il suo complemento
algebrico Γij :
A∗ := (Γij )

Enunciamo senza dimostrazione:

Teorema 10.3.3 (Teorema di Laplace)


A ∈ Mn (R) è invertibile se e solo se |A| 6= 0, ed in tal caso l’inversa è data da
1 t ∗
A−1 = (A )
|A|

Slide 7/10

lezione 04

Esercizio 10.3.4
Calcolare la matrice dei cofattori di
 
3 1 5
 
A = 0 4 1
2 3 1

Soluzione.
 
4 1 0 1 0 4

+ − + 
 3 1 2 1 2 3   
  1 2 −8
 
 1 5 3 5 3 
1    
A∗ = 
 − 3 + − =  14 −7 −7 
 1 2 1 2 3 

  −19 −3 12
 
 1 5 3 5 3 1 
+ − +
4 1 0 1 0 4
X

Slide 8/10
lezione 04

Regola di Cramer (o Teorema di Cramer)


Teorema 14.3.3
Un sistema di n equazioni lineari in n incognite AX = B ammette un’unica soluzione
se (e solo se) |A| 6= 0, ed in tal caso la soluzione X = t (x1 , . . . , xn ) è data da:

a11 ... a1,i−1 b1 a1,i+1 ... a1,n

a ... a2,i−1 b2 a2,i+1 ... a2,n
21
. .. .. .. ..
.
. . . . .

a ... an,i−1 bn an,i+1 ... an,n
n1
xi = ∀ i = 1, . . . , n (?)
|A|

Dimostrazione (⇐). Per il Teorema di Laplace, poiché |A| 6= 0 esiste A−1 .


Moltiplicando da sinistra per A−1 ambo i membri dell’equazione AX = B , il membro a
sinistra dell’uguaglianza diventa A−1 (AX) = (A−1 A)X = In X = X . Quindi:

1 t ∗
−1 1 Xn
X=A B= (A )B ovvero xi = Γji bj
|A| |A| j=1

che è esattamente lo sviluppo di Laplace di (?) rispetto alla colonna i. 


Slide 9/10

lezione 04

Esercizio 14.3.3
Risolvere il sistema: 

 x1 + x3 = 3
2x1 + x2 − x3 = 0


−x1 + x2 =3

Soluzione. Il determinante della matrice dei coefficienti è:



1 0 1


|A| = 2 1 −1 = 4 6= 0

−1 1 0

Applicando la regola di Cramer si ricava:



3 0 1 1 3 1 1 0 3


0 1 −1 2 0 −1 2 1 0

3 1 0 0 −1 3 0 12 −1 1 3 12
x1 = = x2 = = x3 = =
|A| 4 |A| 4 |A| 4

La soluzione è quindi x1 = 0, x2 = 3, x3 = 3 .

Slide 10/10
lezione 05

Sistemi equivalenti (§3.4)

Definizione 3.4.1
Due sistemi Σ e Σ 0 si dicono equivalenti, e si indica con Σ ∼ Σ 0 , se hanno le stesse
soluzioni. Quindi:
Σ ∼ Σ 0 ⇐⇒ SΣ = SΣ 0 .

Esempio
I due sistemi seguenti sono equivalenti:

x+y=0 x−y=1
x−y=1 x+y=0

Esempio
I due sistemi seguenti sono equivalenti:

x+y=1 2x + 2y = 2

Slide 1/16

lezione 05

Operazioni elementari (§3.4)


Le seguenti operazioni elementari trasformano qualsiasi sistema in uno equivalente:

SISTEMA LINEARE MATRICE COMPLETA

(I) Scambiare di posto due equazioni: Scambiare di posto due righe:

Ei ↔ Ej Ri ↔ Rj

(II) Moltiplicare un’equazione per λ 6= 0: Moltiplicare una riga per λ 6= 0:

Ei −→ λEi Ri −→ λRi

(III 0 ) Sostituire un’equazione Ei con quel- Sostituire una riga Ri con quella otte-
la ottenuta sommando ad essa un nuta sommando ad essa un multiplo di
multiplo di un’altra equazione Ej : un’altra riga Rj :

Ei −→ Ei + λEj Ri −→ Ri + λRj

Slide 2/16
lezione 05

Matrici triangolari (§11.1)


Definizione 11.1.1
Una matrice A = (aij ) ∈ Rm,n si dice
• triangolare superiore se aij = 0 per ogni i > j;
• triangolare inferiore se aij = 0 per ogni i < j.
Una matrice triangolare si dice completa se aii 6= 0 per ogni i.

Una matrice triangolare superiore ha quindi la forma:


  
a11 a12 a13 ... a1n 
  

 0 a22 a23 ... a2n  

a11 a12 a13 ... a1m ... a1n   

   
 0 a22 a23 ... a2m ... a2n   0 0 a33 ... a3n  n
   . . . .  
 0  . . . .. .  
 0 a33 ... a3m ... a3n 
  . . . . .  

  

 . . . .. . .   0 
 .
 .
.
.
.
. . .
.
. 
.   0 0 ... ann 

  
 0 0 0 ... 0  
0 0 0 ... amm ... amn  . . . .  
 . . . . 
 . . . .  m−n
| {z } | {z } 

m n−m 0 0 0 ... 0
(se m 6 n) (se m > n)
Slide 3/16

lezione 05

Determinante di una matrice triangolare (§11.1)

Se A ∈ Mn (R) è triangolare superiore, ripetendo n volte lo sviluppo di Laplace


rispetto alla prima colonna si ottiene:

a22 a23 a24 ... a2n
a33 a34 ... a3n

0 a33 a34 ... a3n 0



a44 ... a4n
|A| = a11 0 0 a44 ... a4n = a11 a22 .
. .. .. ..
. .. .. .. .. . . . .
. .
. . . . 0

0

0 ... ann
0 0 ... ann

a44 ... a4n

.. ..
= a11 a22 a33 0 . . = . . . = a11 a22 a33 · · · ann .

0 ... ann

Si ha |A| 6= 0, ovvero A è invertibile, se e solo se aii 6= 0 ∀ i, ovvero se e solo se A è


una matrice triangolare completa.

Slide 4/16
lezione 05

Metodo di eliminazione di Gauss (§11.2)


Proposizione 5.4.4 (senza dimostrazione)
Sia A ∈ Mn (R). Allora:

1 se B è una matrice ottenuta da A scambiando fra di loro due righe (o due


colonne), allora |B| = −|A|; Operazione (I)
2 se B è ottenuta da A moltiplicando per λ ∈ R gli elementi di una sua riga (o
colonna), allora |B| = λ|A|; Operazione (II)

3 se B è ottenuta da A sommando a una sua riga (o colonna) un multiplo di un’altra


riga (o colonna), allora |B| = |A|. Operazione (III 0 )

Il metodo di eliminazione di Gauss permette di trasformare una matrice A = (aij ) in


una triangolare superiore B usando le operazioni elementari (I) e (III 0 ):

Ri ←→ Rj Ri −→ Ri + λRj (i 6= j)

Se A è una quadrata, |B| = ±|A| ed il segno è positivo se si è usata la trasformazione


(I) un numero pari di volte, altrimenti è negativo.

Slide 5/16

lezione 05

Metodo di eliminazione di Gauss (§11.2)

Primo passo:

1. Riordinare le righe in modo che sia a11 6= 0; se ai1 = 0 ∀ i, l’algoritmo è finito.


2. Per ogni i > 1, effettuare la sostituzione
ai1
Ri → Ri − R1
a11

Risultato:

   
a11 a12 a13 ... a1n 0
a11 0
a12 0
a13 ... 0
a1n
   
 a21 a22 a23 ... a2n   0 0 0 
   0 a22 a23 ... a2n 
a  
A= 31 a32 a33 ... a3n 
 −−−−→ 0 
A = 0 0
a23 0
a33 0
. . . a3n 

   
 . .. .. ..   .. .. .. .. 
 .   . . . . 
 . . . .   
0 0 0
am1 am2 am3 ... amn 0 am2 am3 . . . amn

Slide 6/16
lezione 05

Metodo di eliminazione di Gauss (§11.2)

Secondo passo:

1. Riordinare le righe in modo che sia a22


0
6= 0; se ai2
0
= 0 ∀ i, l’algoritmo è finito.
2. Per ogni i > 2, effettuare la sostituzione
0
ai2
Ri → Ri − 0 R2
a22
Risultato:
   
0 0 0 0 00 00 00 00
 a11 a12 a13 ... a1n   a11 a12 a13 ... a1n 
 0 0 0   000 000 000 
 0 a22 a23 ... a2n   0 a22 a23 ... a2n 
   
0  0 0
a23 0
a33 0
. . . a3n  00  0 0 000
a33 000
. . . a3n 
A −→ A =   −→ A =  
 .. .. .. ..   .. .. .. .. 
   
 . . . .   . . . . 
   
0 0 0 000 000
0 am2 am3 . . . amn 0 0 am3 . . . amn

Andare avanti fino ad ottenere una matrice triangolare superiore. . .

Slide 7/16

lezione 05

Esercizio
Usando il metodo di Gauss calcolare il determinante della matrice:
 
0 3 −3
 
A = 2 8 2
3 9 6

Soluzione. Primo passo:


     
3 9 6 3 9 6 3 9 6
R1 ↔R3   R2 →R2 − 23 R1    
A −−−−→ 2 8 2 −−−−−−−−→ 2 − 32 3 8 − 23 9 2 − 23 6 = 0 2 −2
0 3 −3 0 3 −3 0 3 −3

Secondo passo:
   
3 9 6 3 9 6
  R3 →R3 − 32 R2  
0 2 −2 −−−−−−−−→ 0 2 −2 =: B
0 3 −3 0 0 0

Siccome abbiamo effettuato 1 scambio di righe, si ha |A| = −|B| = 0 . X


Slide 8/16
lezione 05

Esercizio 11.2.3
Usando il metodo di Gauss calcolare il determinante della matrice:
 
1 2 4
 
A = 2 2 5
4 3 8

Soluzione. Primo passo:


   
1 2 4 1 2 4
R2 →R2 −2R1    
A −−−−−−−→ 2 − 2 · 1 2−2·2 5 − 2 · 4 = 0 −2 −3
R3 →R3 −4R1
4−4·1 3−4·2 8−4·4 0 −5 −8

Secondo passo:
     
1 2 4 1 2 4 1 2 4
  R3 →R3 − 25 R2    
 0 −2 −3  −−−−−−−−→ 0 −2 −3  = 0 −2 −3 =: B
0 −5 −8 0 −5 − 52 (−2) −8 − 52 (−3) 0 0 − 12

Siccome abbiamo effettuato 0 scambi di righe, si ha |A| = +|B| = 1 . X


Slide 9/16

lezione 05

Esercizio 11.2.5
Calcolare il determinante della matrice dipendente da tre parametri reali a, b, c ∈ R:
 
1 a a2
 
A = 1 b b2  .
1 c c2

Soluzione.
   
1 a a2 1 a a2
R2 →R2 −R1    
A −−−−−−−→ 0 b−a b2 − a2  = 0 b−a (b − a)(b + a)
R3 →R3 −R1
0 c−a c2 − a2 0 c−a (c − a)(c + a)
Usando la proprietà 2 della proposizione 5.4.4, si trova:

1 a a2 1 a a2


|A| = (c − a) 0 b−a (b − a)(b + a) = (c − a)(b − a) 0 1 b + a

0 1 c+a 0 1 c + a
Facciamo ora lo sviluppo di Laplace rispetto alla prima colonna, e otteniamo:

1 b + a
|A| = (c − a)(b − a) = (c − a)(b − a)(c − b)
1 c+a
Notiamo che |A| = 0 se e solo se almeno due dei tre parametri a, b, c sono uguali. X
Slide 10/16
lezione 05

Matrici ridotte per righe (§11.3)

Definizione 11.3.1

• Una matrice si dice ridotta per righe se Esempio


ogni riga non nulla ha un elemento non  
1 7 −1 9
nullo sotto il quale ci sono solo zeri (o  √ 
A = 3 2 0 11
meglio, sotto il quale non ci sono elementi
0 5 0 π
diversi da zero).

• Data una riga di una matrice ridotta, chiamiamo elemento speciale o pivot il
primo elemento non nullo (da sinistra) sotto il quale ci sono solo zeri.

• Un sistema di equazioni lineari si dice ridotto se la matrice dei coefficienti è


ridotta per righe.

• Un sistema di equazioni lineari si dice a scala se la matrice dei coefficienti è


triangolare superiore completa (TSC).

Slide 11/16

lezione 05

Osservazione 11.3.2
Una matrice è ridotta per righe se e solo se eliminando le righe nulle e riordinando
opportunamente le colonne si ottiene una matrice triangolare superiore completa.

Esempio:  
0 7 5 0 0 3
 
1 3 2 4 0 0
 
A=
0 0 0 0 0 0
 
0 4 11 13 0 0
0 0 0 1 0 0
Eliminando le righe nulle (3a riga) e riordinando le colonne in modo che i pivot vadano
a finire sulla diagonale principale, si ottiene:
   
0 7 5 0 0 3 3 0 7 0 5 0
1 3 2 4 0 0 0 1 3 4 2 0
  0  
A −→   −→ A = 
0 4 11 13 0 0 0 0 4 13 11 0
0 0 0 1 0 0 0 0 0 1 0 0

Slide 12/16
lezione 05

Sistemi ridotti e a scala

MATRICE COMPLETA SISTEMA LINEARE

Matrice dei coefficienti ridotta: Sistema ridotto corrispondente:


  
1 7 8 9 
 x1 + 7x2 + 8x3 = 9
 
(A|B) = 
 3 2 0 −5 
 3x1 + 2x2 = −5


0 5 0 3 5x2 = 3

Matrice TSC associata: Sistema a scala corrispondente:


  
8 1 7 9 
 8x3 + x1 + 7x2 = 9
 
0 3 2 −5  3x1 + 2x2 = −5
  

0 0 5 3 5x2 = 3

Slide 13/16

lezione 05

Soluzione di un sistema a scala


Consideriamo un sistema di matrice completa (A|B) con A ∈ Rm,n TSC. Tre casi:

1. m 6 n.
2. m > n e bn+1 = bn+2 = . . . = bm = 0.
3. m > n ed i coefficienti bn+1 , bn+2 , . . . , bm non sono tutti nulli: in questo caso il
sistema è incompatibile in quanto almeno una equazione è del tipo 0x = bi 6= 0.

Nei primi due casi il sistema è compatibile. A meno di eliminare equazioni del tipo
0 = 0, possiamo assumere che sia m 6 n. Il sistema ha quindi la forma:


 a11 x1 + a12 x2 + a13 x3 + . . . + a1m xm + . . . + a1n xn = b1





 a22 x2 + a23 x3 + . . . + a2m xm + . . . + a2n xn = b2

a33 x3 + . . . + a3m xm + . . . + a3n xn = b3



 .. .. .. ..

 . . . .



amm xm + . . . + amn xn = bn

con aii 6= 0 ∀ i = 1, . . . , m. Si risolve per sostituzione dal basso verso l’alto, con
xm+1 , xm+2 , . . . , xn variabili libere.
Slide 14/16
lezione 05

Soluzione di un sistema ridotto


Esercizio 11.3.5
Risolvere il sistema 

 2x1 + x2 + 2x3 + 1x4 = 1

2x1 + 3x2 − x3 = 3


 1x + x3 = 0
1

Soluzione. Risolviamo dal basso verso l’alto rispetto all’incognita che moltiplica il pivot.
Si ha x1 = −x3 (3a eq.) che sostito nelle rimanenti due dà:

−2x3 + x2 + 2x3 + 1x4 = 1 x2 + 1x4 = 1
⇐⇒
−2x3 + 3x2 − x3 = 3 3x2 − 3x3 = 3

Dalla 2a equazione si ricava x2 = x3 + 1, che sostituita nella 1a dà x3 + 1 + 1x4 = 1,


ovvero x4 = −x3 . Poniamo x3 = t (parametro libero), e otteniamo:

(x1 , x2 , x3 , x4 ) = (−t, t + 1, t, −t) ∀t∈R


X

Slide 15/16

lezione 05

Osservazioni sui sistemi ridotti

Poiché un sistema ridotto differisce da uno a scala solo per l’ordinamento delle
colonne, possiamo affermare che:

I Un sistema ridotto è compatibile se e solo se non ha equazioni del tipo

0x1 + 0x2 + . . . + 0xn = b

in cui b è un termine noto diverso da zero.

I Le incognite che non moltiplicano (in nessuna delle righe) un pivot sono libere.

I Un sistema ridotto si può risolvere per sostituzione dal basso verso l’alto rispetto
alle incognite che moltiplicano i pivot.

I Sia n il numero di incognite e k il numero di righe non nulle della matrice dei
coefficienti (che è anche il numero di pivot). Se il sistema è compatibile, la
soluzione generale dipenderà da n − k parametri.

Slide 16/16
lezione 06

Riduzione per righe (§12.1)

I Qualunque matrice A = (aij ) ∈ Rm,n può essere trasformata in una matrice


ridotta per righe utilizzando l’operazione elementare
(III 0 ) “ Ri → Ri + λRj ”
un numero opportuno di volte.

I Per ottenere una matrice ridotta, si parte dalla prima riga non nulla di A, sia essa
la j-esima, e si sceglie un qualunque elemento ajk diverso da zero. Quindi si usa
(III 0 ) sulle righe successive, e si somma ad esse un multiplo opportuno di Rj ,
scelto in modo tale da ottenere tutti zeri sotto ajk . In formule:
aik
∀ i > j, Ri → Ri − Rj
ajk

L’elemento ajk sarà un pivot per la matrice ottenuta in questo modo.

I Si ripete il procedimento per tutte le righe non nulle, fino a che in ogni riga non
nulla non ci sia un pivot.

Slide 1/16

lezione 06

Esercizio 12.1.2
Ridurre per righe la matrice
 
0 1 −2 1
3 −1 1 −9
 
A= 
0 4 −8 7
4 −3 6 5

Soluzione. Il primo elemento non nullo nella prima riga è quello in posizione (1, 2).
Usiamo (III 0 ) per ottenere tutti zeri sotto di esso:
 
0 1 −2 1
R2 →R2 + R1
3 0 −1 −8
R3 →R3 −4R1  
A −−− −−−−−−→ A 0 :=  
R4 →R4 +3R1 0 0 0 3
4 0 0 8
Possiamo saltare la 2a riga. Usiamo (III 0 ) per ottenere zero sotto a34
0
:
 
0 1 −2 1
 0 −1 −8
R4 →R4 − 38 R3 3 
A 0 −−−−−−−− −→ A 00 :=  
0 0 0 3
4 0 0 0 X
Slide 2/16
lezione 06

Risolvere un sistema per riduzione (§12.2)

Un sistema AX = B di matrice completa (A|B) può essere risolto come segue:


I Usando le tre operazioni elementari si trasforma (A|B) in una nuova matrice
(A 0 |B 0 ) tale che A 0 è ridotta per righe.
I Il sistema ridotto A 0 X = B 0 è equivalente a quello di partenza e si può risolvere
per sostituzione.

Osservazione 12.2.1
Attenzione: è la matrice A 0 che deve essere ridotta per righe, non (A 0 |B 0 ).
Se (A 0 |B 0 ) è ridotta per righe, A 0 non è necessariamente ridotta per righe. Esempio:
" # " #
0 1 1 0 1
(A 0 |B 0 ) = A0 =
1 1 0 1 1

Nell’esempio (A 0 |B 0 ) è ridotta per righe, ma A 0 non lo è (nessun pivot nella 1a riga).

Slide 3/16

lezione 06

Esempio 12.2.2
Ridurre il sistema di matrice completa:
 
0 1 −2 1
 
 3 −1 1 −9 
(A|B) = 
0

 4 −8 7
4 −3 6 5

Soluzione.
 
0 1 −2 1
R2 →R2 + R1 
R3 →R3 −4R13 0 −1 −8 
(A|B) −−−−−−−−→   =: (A 0 |B 0 )
R4 →R4 +3R1  0 0 0 3
 
4 0 0 8
X
Osservazioni:
I la matrice è la stessa dell’esercizio 12.1.2, ma stavolta ci siamo fermati al primo passo
perché interessati a ridurre solo la matrice dei coefficienti, e non la quella completa;
I notiamo che A 0 è ridotta, ma (A 0 |B 0 ) non lo è.

Slide 4/16
lezione 06

Esercizio
Risolvere il sistema


 x1 − x3 = −1
2x1 + x2 + 2x3 = 3


x2 + 3x3 = 3

Soluzione.
   
1 0 −1 −1 1 0 −1 −1
  R2 →R2 −2R1  
(A|B) =  2 1 2 3  −−−−−−−−→  0 1 4 5
0 1 3 3 0 1 3 3
 
1 0 −1 −1
R →R −R2  
−−3−−−3−−→ 0 1 4 5  =: (A 0 |B 0 )
0 0 −1 −2
Il sistema di matrice completa (A |B ) è:
0 0

 

 x1 − x3 = −1 
 x1 = −1 + x3 = −1 + 2 = 1
x2 + 4x3 = 5 =⇒ x2 = 5 − 4x3 = 5 − 8 = −3

 

−x3 = −2 x3 = 2
Slide 5/16

lezione 06

Esercizio (Esame del 19/12/2011)


Discutere il sistema di equazioni lineari dipendente da un parametro λ ∈ R:


 x1 + 2x2 + 3x3 = 4
λx1 − 2x2 − 3x3 = −4


x1 − 2λx2 + 3x3 = 4

Soluzione.
   
1 2 3 4 1 2 3 4
  R2 →R2 −λR1  
(A|B) =  λ −2 −3 −4  −−−−−−−−→  0 −2(λ + 1) −3(λ + 1) −4(λ + 1) 
R3 →R3 −R1
1 −2λ 3 4 0 −2(λ + 1) 0 0

Se λ 6= −1, dividendo la seconda riga per −(λ + 1) e la terza per −2(λ + 1) si ha:
 

 x1 + 2x2 + 3x3 = 4 
 x1 = 0
2x2 + 3x3 = 4 =⇒ x2 = 0

 

x2 = 0 x3 = 34

Se λ = −1, il sistema è equivalente alla singola equazione x1 + 2x2 + 3x3 = 4 .

Slide 6/16
lezione 06

Esercizio
Si consideri il sistema di equazioni lineari dipendente da un parametro λ ∈ R:


 x1 + x2 + x3 = 0
2x1 + x2 + x3 = 1


x1 + 2x2 + 2x3 = λ

a) Stabilire per quali λ ∈ R il sistema è compatibile.


b) Nei casi in cui il sistema è compatibile, determinare la soluzione generale.

Soluzione.
     
1 1 1 0 1 1 1 0 1 1 1 0
  R2 →R2 −2R1   R3 →R3 +R2  
(A|B) =  2 1 1 1  −−−−−−−→  0 −1 −1 1  −−−−−−−→  0 −1 −1 1 
R3 →R3 −R1
1 2 2 λ 0 1 1 λ 0 0 0 λ+1

(a) Il sistema è compatibile se e solo se λ = −1. (b) Se λ = −1, si ha:



x1 + x2 + x3 = 0
=⇒ (x1 , x2 , x3 ) = (1, −t − 1, t) ∀ t ∈ R
−x2 − x3 = 1

Slide 7/16

lezione 06

Matrici fortemente ridotte e metodo di Gauss-Jordan


Una matrice si dice fortemente ridotta per righe se
1 è ridotta per righe;
2 tutti i pivot sono uguali ad 1;
3 sopra a ciascun pivot non sono presenti elementi diversi da zero.
( Nota: le colonne contenenti i pivot hanno tutti gli elementi nulli tranne uno, il pivot! )

Esempio
La prima matrice è ridotta ma non fortemente ridotta, la seconda è fortemente ridotta:
   
1 7 9 −1 9 0 0 9 1 9
   
A = 3 2 4 0 3 B = 1 0 4 0 3
0 5 5 0 1 0 1 5 0 1

Metodo di Gauss-Jordan. Usando le tre operazioni elementari, ogni matrice può


essere trasformata in una fortemente ridotta: prima si riduce la matrice; poi si usa
l’operazione (II) avere tutti pivot uguali ad 1; infine si usa l’operazione (III 0 ) per
annullare tutti gli elementi sopra i pivot.
Slide 8/16
lezione 06

Esempio
Applichiamo il metodo di Gauss-Jordan alla matrice
 
1 1 1 0
 
A = 2 2 0 −4
1 2 −1 −1

Soluzione. Riduzione:
   
1 1 1 0 1 1 1 0
R3 →R3 +R1   3 3 2 
R →R −R 
A −−−−−−−→ 2 2 0 −4 −−−−−−−→ 2 2 0 −4
2 3 0 −1 0 1 0 3
Pivot uguali ad 1:    
1 1 1 0 1 1 1 0
  R2 → 12 R2  
2 2 0 −4 −−−−−−→ 1 1 0 −2
0 1 0 3 0 1 0 3
Tutti zeri sopra i pivot:
     
1 1 1 0 0 0 1 2 0 0 1 2
  R1 →R1 −R2   R2 →R2 −R3  
1 1 0 −2 −−−−−−−→ 1 1 0 −2 −−−−−−−→ 1 0 0 −5
0 1 0 3 0 1 0 3 0 1 0 3
Slide 9/16

lezione 06

Esercizio
Usando il metodo di Gauss-Jordan risolvere il sistema:


 x1 + x2 + x3 = 0

2x1 + 2x2 = −4


 x1 + 2x2 − x3 = − 1

Soluzione. La matrice completa è la stessa dell’esercizio precedente. Si ha


   
1 1 1 0 0 0 1 2
  Gauss-Jordan  
2 0 −4   0 −5 
 2  −−−−−−−−→  1 0 
1 2 −1 − 1 0 1 0 3

Il nuovo sistema, equivalente a quello di partenza, è:




 x3 = 2
x1 = −5


x2 = 3
X

Slide 10/16
lezione 06

Invertire una matrice con il metodo di Gauss-Jordan

Sia A ∈ Mn (R) una matrice invertibile. Determinare l’inversa di A equivale a


determinare una matrice X = (xij ) ∈ Mn (R) soluzione dell’equazione

AX = In
(n2 equazioni in n2 incognite)

Se A è invertibile, la soluzione si può determinare con il metodo di Gauss-Jordan.

Possiamo trasformare la matrice completa del sistema (A|In ) in una matrice della
forma (In |B). Il nuovo sistema, equivalente a quello di partenza, sarà:

In X = B

cioé X = B è proprio la matrice cercata (l’inversa di A).

Slide 11/16

lezione 06

Esercizio
Usando il metodo di Gauss-Jordan invertire la matrice:
 
1 0 2
 
A = 2 3 6
2 2 5

Soluzione. Primo passo: Gauss. Come primo passaggio, applichiamo il metodo di


Gauss e trasformiamo A in una matrice triangolare superiore:
   
1 0 2 1 0 0 1 0 2 1 0 0
  R2 →R2 −2R1  
(A|I3 ) =  2 3 6 0 1 0  −−−−−−−→  0 3 2 −2 1 0
R3 →R3 −2R1
2 2 5 0 0 1 0 2 1 −2 0 1
 
1 0 2 1 0 0
R3 →R3 − 2 R2  
−−−−−−−3−→  0 3 2 −2 1 0  =: (A 0 |B 0 )
0 0 − 13 − 23 − 32 1

Chiamiamo (A 0 |B 0 ) la matrice trovata. Notiamo che A 0 è triangolare superiore


completa, quindi |A| = |A 0 | 6= 0 e la matrice A è invertibile.

Slide 12/16
lezione 06

Secondo passo: Jordan. Moltiplichiamo ciascuna riga di (A 0 |B 0 ) per uno scalare, in


modo da avere tutti i pivot uguali ad 1. Quindi usando la terza operazione, facciamo
comparire degli zeri sopra a ciascun pivot. Si ha:
   
1 0 2 1 0 0 1 0 2 1 0 0
0 0   R2 → 31 R2  2 
(A |B ) =  0 3 2 −2 1 0  −−−−−−→  0 1 3
− 23 1
3
0
R3 →−3R3
0 0 − 13 − 23 − 23 1 0 0 1 2 2 −3
 
1 0 0 −3 −4 6
R1 →R1 −2R3  
−−−−−−−−→  0 1 0 −2 −1 2
R2 →R2 − 23 R3
0 0 1 2 2 −3

La matrice inversa di A è quindi:


 
−3 −4 6
−1  
A =  −2 −1 2
2 2 −3
X

Slide 13/16

lezione 06

Esercizio (Esame del 03/09/2012)


Si consideri il sistema di equazioni lineari dipendente da un parametro λ ∈ R:


 2x1 + λx2 + 2x3 = 3

5x1 + x2 + (λ + 2)x3 = 1


 3x1 + x2 + λx3 = 1

a) Stabilire per quali λ ∈ R il sistema è compatibile.


b) Nei casi in cui il sistema è compatibile, determinare la soluzione generale.

Soluzione. Semplifichiamo la matrice completa usando le tre operazioni elementari:


     
2 λ 2 3 2 λ 2 3 2 λ 2 3
  R2 →R2 −R3   R2 → 21 R2  
(A|B) =  5 1 λ + 2 1  −−−−−−−→  2 0 2 0  −−−−−→  1 0 1 0 
3 1 λ 1 3 1 λ 1 3 1 λ 1
   
0 λ 0 3 1 0 1 0
R1 →R1 −2R2   R1 ↔R2 ↔R3  
−−−−−−−→  1 0 1 0  −−−−−−−→  0 1 λ − 3 1  =: (A 0 |B 0 )
R3 →R3 −3R2
0 1 λ−3 1 0 λ 0 3

Slide 14/16
lezione 06

Il sistema di matrice completa


 
1 0 1 0
 
(A 0 |B 0 ) =  0 1 λ−3 1
0 λ 0 3

è equivalente a quello di partenza.

Se λ = 0 , la terza equazione non ammette soluzione, quindi il sistema è incompatibile.

Se λ ∈
/ {0, 3} la matrice A 0 è ridotta per righe (per definizione, un pivot è un elemento
non nullo). Poiché non contiene equazioni del tipo 0 = b 6= 0, il sistema è compatibile.
Risolvendo per sostituzione si ottiene


 1x1 + x3 = 0  
1 3 1
x2 + (λ − 3)x3 = 1 ⇐⇒ (x1 , x2 , x3 ) = − , ,

 λ λ λ
λx2 = 3

Come ci aspettavamo la soluzione è unica (in un sistema ridotto con n = 3 incognite e


k = 3 equazioni non nulle, il numero di parametri liberi è n − k = 0).
Slide 15/16

lezione 06

Rimane da studiare il caso λ = 3 . In questo caso la matrice completa diventa


 
1 0 1 0
0 0  
(A |B ) =  0 1 0 1
0 3 0 3

e non è ridotta per righe (nella seconda riga non c’è nessun pivot). Possiamo ridurla
come segue:
 
1 0 1 0
0 0 
R3 →R3 −3R2 
(A |B ) −−−−−−−→  0 1 0 1
0 0 0 0

e otteniamo un sistema ridotto di k = 2 equazioni in n = 3 incognite, la cui soluzione


dipenderà da n − k = 1 parametro reale. Si ha

1x1 + x3 = 0
⇐⇒ (x1 , x2 , x3 ) = ( −t , 1 , t ) ∀ t ∈ R
1x2 = 1
X

Slide 16/16
lezione 07

Strutture algebriche (§2.1 e Lomonaco, cap. 1)

Definizione 2.2.1
Una operazione interna (binaria) di un insieme S è una legge che associa ad ogni coppia
di elementi di S un terzo elemento di S che chiameremo “risultato dell’operazione”.

Osservazioni:
I Una operazione interna di S è una applicazione con dominio S × S e codominio S.

I Le operazioni tipicamente si indicano non con delle lettere ma con dei simboli:

∗, +, ·, ×, ÷, ∩, ∪, r etc.

I Se ∗ è una operazione interna di S, l’immagine di una coppia (a, b) ∈ S × S del


dominio verrà indicata con a ∗ b .
(Se il simbolo scelto per l’operazione è + , scriveremo l’immagine di (a, b) come
a + b , se il simbolo è ÷ scriveremo a ÷ b , etc.)

Slide 1/18

lezione 07

Esempi
Operazioni aritmetiche:
I Somma e prodotto fra numeri naturali, interi, razionali, reali, complessi sono
operazioni interne rispettivamente di N, Z, Q, R, C.
I La sottrazione è una operazione interna di Z, Q, R, ma non è una operazione
interna di N, poiché la differenza fra due numeri naturali non è sempre un numero
naturale (esempio: 2 − 7 = −5 è un intero negativo).
I La divisione non è una operazione interna di N o di Z (il rapporto fra due numeri
naturali/interi non è sempre un numero naturale/intero), né di Q o R (non si può
dividere per 0). E’ una operazione, ad esempio, di Q r {0} ed R r {0}.

Operazioni fra matrici:


I La somma di matrici reali è una operazione interna di Rm,n , per ogni m, n > 1.
I Il prodotto righe per colonne è una operazione interna di Mn (R), per ogni n > 1.

Operazioni insiemistiche:
I Sia S un insieme e indichiamo con P(S) la collezione dei sottoinsiemi di S, detto
insieme delle parti di S; intersezione e unione sono operazioni interne di P(S).
Slide 2/18
lezione 07

Tavole di Cayley
Dato un insieme S con un numero finito n di elementi (n > 2), possiamo definire una
operazione interna ∗ di S elencando per ogni coppia di elementi a, b ∈ S il risultato
a ∗ b dell’operazione. Graficamente, si può usare una tavola di Cayley.

Detti s1 , s2 , . . . , sn gli elementi di S, scriviamo:

∗ s1 s2 ... sn
s1 s1 ∗ s1 s1 ∗ s2 ... s 1 ∗ sn
s2 s2 ∗ s1 s2 ∗ s2 ... s 2 ∗ sn
.. .. .. ..
. . . .
sn sn ∗ s1 sn ∗ s2 ... s n ∗ sn

I In alto a sinistra scriviamo il simbolo scelto per indicare l’operazione (∗, +, ÷, etc.).
I Nella prima riga e nella prima colonna elenchiamo gli elementi di S.
I Il risultato x ∗ y dell’operazione fra due elementi x e y di S si ricava dalla tabella
selezionando x nella prima colonna, y nella prima riga, ed andando a leggere nella tabella
l’elemento nell’intersezione fra la riga di x e la colonna di y.

Slide 3/18

lezione 07

Insiemi di due elementi


I Sia S = {0, 1} ⊂ Z. Le tavole di Cayley di somma e prodotto sono date da:
+ 0 1 · 0 1
0 0 1 0 0 0
1 1 2 1 0 1
La moltiplicazione è una operazione interna di S, l’addizione no (1 + 1 ∈
/ S).
I Sia S = {PARI, D ISPARI} l’insieme che ha per elementi la classe dei numeri pari e
quella dei numeri dispari. Somma e prodotto inducono due operazioni interne di S:
+ PARI D ISPARI · PARI D ISPARI

PARI PARI D ISPARI PARI PARI PARI


D ISPARI D ISPARI PARI D ISPARI PARI D ISPARI

I Congiunzione e disgiunzione logica danno due operazioni interne dell’insieme


S = {FALSO, V ERO} , le cui tavole sono:
OR FALSO V ERO A ND FALSO V ERO
FALSO FALSO V ERO FALSO FALSO FALSO
V ERO V ERO V ERO V ERO FALSO V ERO
Slide 4/18
lezione 07

Definizione 2.1.5
Siano K e S due insiemi. Una operazione esterna di S ad operatori in K è una
applicazione
K×S→S.

L’immagine di una coppia (λ, a) ∈ K × S si indica semplicemente con λa.

Esempio:
I Il prodotto di una matrice reale m × n per uno scalare λ ∈ R è una operazione
esterna di Rm,n ad operatori in R.

Definizione
Un insieme con delle operazioni (interne o esterne) è detto struttura algebrica.

Esempi:
I (N, +, · ) è una struttura algebrica con due operazioni (entrambe interne).
I L’insieme {FALSO, V ERO} con le operazioni O R e A ND è una struttura algebrica detta
algebra di Boole (alla base, fra le altre cose, del funzionamento dei computer).
Slide 5/18

lezione 07

Proprietà delle operazioni interne (§2.1)


Definizione 2.1.3
Una operazione interna ∗ di un insieme S si dice commutativa se ∀ a, b ∈ S si ha

a∗b=b∗a,

e si dice associativa se per ogni a, b, c ∈ S si ha

a ∗ (b ∗ c) = (a ∗ b) ∗ c .

In tal caso scriveremo semplicemente a ∗ b ∗ c per indicare il risultato dell’operazione.

Esempi:
Commutativa Associativa
Somma di due numeri / n-uple / matrici X X
Unione e intersezione X X
Prodotto di due numeri X X
Prodotto fra matrici × X
Differenza fra insiemi × ×
Divisione × ×

Slide 6/18
lezione 07

Elemento neutro (§2.1)


Definizione 2.1.6
Sia (G, ∗) un insieme con una operazione interna. Un elemento e ∈ G è detto elemento
neutro rispetto all’operazione considerata se:
∀ a ∈ G, a∗e=e∗a=a.

Esempi:
I il numero intero 0 è elemento neutro rispetto alla somma di due numeri;
I il numero intero 1 è elemento neutro rispetto al prodotto di due numeri;
I la matrice nulla 0Rm,n è elemento neutro rispetto alla somma di matrici m × n;
I la matrice identica In è elemento neutro rispetto al prodotto di matrici n × n.

Proposizione 2.1.8
Se (G, ∗) ha un elemento neutro, questo è unico. [. . . corollari]

Dimostrazione (per assurdo). Siano e ed e 0 due elementi neutri. Allora e ∗ e 0 = e 0 poiché e è


elemento neutro; ma e ∗ e 0 = e poiché anche e 0 è elemento neutro. Quindi e = e 0 . X

Slide 7/18

lezione 07

Elementi simmetrizzabili (§2.1)


Sia (G, ∗, e) un insieme con una operazione interna ed un elemento neutro.

Definizione 2.1.9
Un elemento a ∈ G si dice simmetrizzabile (o invertibile) in (G, ∗, e) se esiste un
elemento b ∈ G tale che
a∗b=b∗a=e.
In tal caso b si dice simmetrico (o inverso) di a.

Esempi:
I Ogni elemento n di (Z, +, 0) è simmetrizzabile, ed il simmetrico è il suo opposto −n .

I Ogni elemento non nullo x di (Q, · , 1) è simmetrizzabile, ed il suo simmetrico è l’inverso


x−1 . L’elemento 0 ∈ Q non è simmetrizzabile (rispetto al prodotto).
I Ogni elemento A ∈ Rm,n è simmetrizzabile rispetto alla somma, ed il simmetrico è dato
dalla matrice opposta −A.
I Se A ∈ Mn (R) è una matrice invertibile, il suo simmetrico rispetto al prodotto è A−1 .

Slide 8/18
lezione 07

Definizione
Sia (G, ∗, e) un insieme con una operazione associativa ed un elemento neutro. Una
struttura algebrica di questo tipo è detta monoide.

Proposizione (Unicità dell’inverso)


In un monoide, se un elemento è simmetrizzabile allora il suo simmetrico è unico.

Dimostrazione. Indichiamo con (G, ∗, e) il monoide. Sia a ∈ G e supponiamo che


b, b 0 ∈ G siano due inversi di a. Per definizione di inverso si ha

a∗b=e b0 ∗ a = e

Per definizione di elemento neutro si ha

b 0 ∗ (a ∗ b) = b 0 ∗ e = b 0 (b 0 ∗ a) ∗ b = e ∗ b = b

Dall’associatività dell’operazione si evince che

b 0 = b 0 ∗ (a ∗ b) = (b 0 ∗ a) ∗ b = b ,

ovvero b e b 0 sono uguali. X


Slide 9/18

lezione 07

Gruppi (§2.2)

Definizione 2.2.1
Un insieme G con una operazione interna ∗ ed elemento neutro e si dice gruppo se:

i) l’operazione ∗ è associativa;

ii) ogni elemento di G è invertibile.

Se l’operazione ∗ è commutativa, diremo che (G, ∗, e) è un gruppo commutativo.

Osservazione: un gruppo è un monoide in cui ogni elemento è simmetrizzabile.

Esempi:
I (Z, +, 0) e (Q r {0}, · , 1) sono gruppi commutativi.
I (Rm,n , +, 0Rm,n ) è un gruppo commutativo.
I L’insieme delle matrici reali n × n invertibili, con operazione data dal prodotto
righe per colonne, è un gruppo indicato con GL(n, R). E’ non commutativo se
n > 2. L’elemento neutro è In .
Slide 10/18
lezione 07

Anelli (§2.2)
Definizione 2.2.3
Sia A un insieme dotato di due operazioni interne, che chiameremo “somma” (indicata
con +) e “prodotto” (indicato con · ), e di due elementi 0A e 1A . La struttura algebrica
(A, +, 0A , · , 1A ) si dice anello (con unità) se le seguenti proprietà sono soddisfatte:
1. (A, +, 0A ) è un gruppo commutativo;

2. il prodotto è associativo;

3. 1A è elemento neutro rispetto al prodotto;

4. per ogni a, b, c ∈ A si ha (proprietà distributiva):

a · (b + c) = a · b + a · c (a + b) · c = a · c + b · c

Un anello si dice commutativo se il prodotto è commutativo.

Esempi:
I (Z, +, 0, · , 1) è un anello commutativo;
I per n > 2, le matrici n × n formano un anello non commutativo.

Slide 11/18

lezione 07

Campi (§2.2)

(Q, +, 0, · , 1) è un altro esempio di anello commutativo. Rispetto a Z gode di una


proprietà aggiuntiva: ogni elemento non nullo di Q è invertibile rispetto al prodotto.

Definizione 2.2.4
Un anello commutativo (con unità) K si dice campo se ogni elemento diverso da zero è
invertibile rispetto al prodotto.

Gli insiemi Q, R, C con le usuali operazioni sono campi.


Gli insiemi Z e Mn (R) (con n > 2) sono anelli, ma non sono campi.

Osservazione
Si possono considerare matrici con elementi in un campo K qualsiasi, e sistemi di equa-
zioni lineari con coefficienti in un campo K arbitrario. I teoremi enunciati sono validi nel
caso in cui invece di R si consideri un campo K arbitrario (ad esempio K = C o K = Q).

Slide 12/18
lezione 07

L’anello dei polinomi K[x] (§A.3)

Definizione
Un polinomio di grado n > 0 in una variabile x e a coefficienti in un campo K è una
espressione del tipo

P(x) = an xn + an−1 xn−1 + . . . + a1 x + a0

con ai ∈ K per ogni i = 0, . . . , n, e an 6= 0.


Un elemento r ∈ K è detto radice del polinomio considerato se P(r) = 0.
Una equazione del tipo P(x) = 0 è detta algebrica o polinomiale di grado n in x.

L’insieme dei polinomi (di grado arbitrario) in una variabile x e a coefficienti in un


campo K viene indicato con K[x]. A noi interesserà il caso K = R.

Osservazione: K[x] è un anello commutativo (con unità).

Slide 13/18

lezione 07

Un polinomio reale può non avere radici reali. Esempio: P(x) = x2 + 1 non ha radici
reali; ammette però due radici complesse. Diciamo che C è algebricamente chiuso,
poiché ogni equazione algebrica in C (di grado n > 1) ammette soluzioni.

Teorema fondamentale dell’algebra


Un polinomio di grado n > 1 a coefficienti in C può sempre essere scritto nella forma

P(x) = c(x − r1 )(x − r2 ) . . . (x − rn ) ,

dove r1 , . . . , rn ∈ C sono le radici e c ∈ C un coefficiente non nullo.

Le radici di un polinomio non sono necessariamente tutte distinte. Ad esempio


x2 − 6x + 9 = (x − 3)2 ha due radici, entrambe uguali a 3 .

Indicando con µ1 , . . . , µk le radici distinte del polinomio P(x) (k 6 n), si avrà

P(x) = c(x − µ1 )m1 (x − µ2 )m2 . . . (x − µk )mk ,

dove mi > 1 è detto molteplicità della radice µi , e si ha m1 + m2 + . . . + mk = n .

Slide 14/18
lezione 07

Equazioni algebriche (§A.4)


Formula risolutiva per l’equazione di 2◦ grado (a 6= 0):

−b ± b2 − 4ac
ax2 + bx + c = 0 ⇐⇒ x= .
2a
La formula vale sia quando i coefficienti sono reali, sia quando sono complessi.

Se a, b, c ∈ R, si possono verificare tre casi, che dipendono dal segno della


grandezza ∆ = b2 − 4ac , detta discriminante:
• se ∆ > 0 si hanno due soluzioni reali distinte;
• se ∆ = 0 si ha una sola soluzione ed è reale (di molteplicità 2);
• se ∆ < 0 si hanno due soluzioni complesse coniugate.

Per le equazioni di 3◦ e 4◦ grado esiste una formula risolutiva (vedere §A.5 e §A.6).

Per equazioni di grado superiore al quarto è noto che non esistono formule risolutive
esprimibili tramite radicali (Teorema di Abel-Ruffini).

Slide 15/18

lezione 07

Teorema delle radici razionali (§A.7)


Consideriamo un polinomio (an 6= 0)

P(x) = an xn + an−1 xn−1 + . . . + a1 x + a0

a coefficienti interi. Se un numero razionale r = p/q è una radice di P(x), allora


i) p divide a0 ;
ii) q divide an .
Le radici razionali si possono determinare considerando tutte i possibili valori di p/q,
con p divisore di a0 e q divisore di an , e verificando per sostituzione quali sono radici.

Esempio
Sia P(x) = x3 − 2x2 − 5x + 6 .
I divisori di a0 = 6 sono ±1, ±2, ±3, ±6; i divisori di a3 = 1 sono ±1; quindi

p/q ∈ {±1, ±2, ±3, ±6} .


Per sostituzione si verifica che le radici sono 1, 3 e −2, quindi:
P(x) = (x − 1)(x − 3)(x + 2) .
Slide 16/18
lezione 07

Regola di Ruffini (§A.7)


Dato uno scalare r e un polinomio P(x) di grado n:

P(x) = an xn + an−1 xn−1 + . . . + a1 x + a0

con an 6= 0, la regola di Ruffini permette di decomporre P(x) nella forma

P(x) = (x − r)Q(x) + R

in cui
Q(x) = bn−1 xn−1 + . . . + b1 x + b0

è il quoziente della divisione ed R è una costante, detta resto. Si procede come segue:

an an−1 an−2 ... a2 a1 a0


r bn−1 r bn−2 r ... b2 r b1 r b0 r
an an−1 + bn−1 r an−2 + bn−2 r ... a2 + b2 r a1 + b1 r a0 + b0 r
= bn−1 = bn−2 = bn−3 ... = b1 = b0 =R

Se r è una radice di P(x), allora il resto è R = 0.

Slide 17/18

lezione 07

Data una equazione di 3◦ grado, la regola di Ruffini permette di ridurla ad una di 2◦


grado se almeno una soluzione è nota a priori.

Esempio Esempio A.7.4


Sia Sia

P(x) = 2x3 + x2 − 4x − 2 . P(x) = 2x3 + 2x2 − x − 3 .

Usando il teorema delle radici razionali, Usando il teorema delle radici razionali,
scopriamo che una radice è r = − 12 . scopriamo che una radice è r = 1 .
Dividendo P(x) per x − r si ottiene: Dividendo P(x) per x − r si ottiene:

2 1 −4 −2 2 2 −1 −3
− 21 −1 0 2 1 2 4 3
2 0 −4 0 2 4 3 0
= b2 = b1 = b0 =R = b2 = b1 = b0 =R

Quindi: Quindi:

P(x) = (x + 12 )(2x2 − 4) . P(x) = (x − 1)(2x2 + 4x + 3) .

Slide 18/18
lezione 08

Spazi vettoriali (§4.1)

Definizione 4.1.2
Un insieme non vuoto V è detto spazio vettoriale (reale) se in V sono definite una
operazione interna di “somma”:

s:V ×V →V , s(v, v 0 ) = v + v 0 ,
ed una operazione esterna di “prodotto per uno scalare”:

p:R×V →V , p(k, v) = kv ,
soddisfacenti le seguenti proprietà:

i) (V, +, 0V ) è un gruppo commutativo, ii) ∀ k, k 0 ∈ R e ∀ v, w ∈ V si ha


ovvero ∀ u, v, w ∈ V si ha: 5. (k + k 0 )v = kv + k 0 v
1. v + w = w + v
6. k(v + w) = kv + kw
2. (u + v) + w = u + (v + w)
7. k(k 0 v) = (kk 0 )v
3. v + 0V = v
4. v + (−v) = 0V 8. 1 · v = v

Slide 1/12

lezione 08

Dato uno spazio vettoriale V :


• Chiamiamo vettori gli elementi di V .
• L’elemento neutro rispetto alla somma è indicato con 0V , o semplicemente con 0
quando questo non generi confusione, ed è detto vettore nullo.
• L’opposto di un vettore v (il simmetrico rispetto all’operazione di somma) sarà
indicato con −v. Scriveremo

v − v 0 = v + (−v 0 )

per indicare la somma di un vettore v con l’opposto di un secondo vettore v 0 .


• Dalla definizione di spazio vettoriale segue che (−1)v = −v ∀ v ∈ V .
• La definizione di spazio vettoriale si può dare sostituendo ad R un qualsiasi
campo K. Per semplicità ci limitiamo al caso K = R.

Esempi:
• le n-uple reali formano uno spazio vettoriale (reale), indicato con Rn ;
• le matrici reali m × n formano uno spazio vettoriale (reale), indicato con Rm,n ;
• i polinomi in x a coefficienti in R formano uno spazio vettoriale, indicato con R[x].

Slide 2/12
lezione 08

Legge di semplificazione della somma (§4.2)

Sia V uno spazio vettoriale arbitrario. . .

Proposizione 4.2.1
Per ogni v, v 0 , v 00 ∈ V si ha

(i) v + v 0 = v + v 00 ⇐⇒ (ii) v 0 = v 00 .

Dimostrazione. L’implicazione (i) ⇐ (ii) è ovvia. Dimostriamo che (i) ⇒ (ii).

Per definizione di spazio vettoriale ogni v ∈ V possiede un opposto −v.


Da (i) segue che
−v + (v + v 0 ) = −v + (v + v 00 )
Usando l’associatività della somma e la definizione di opposto si ottiene:

0 + v 0 = 0 + v 00

ovvero v 0 = v 00 (per definizione di elemento neutro). 


Slide 3/12

lezione 08

Legge di annullamento del prodotto (§4.2)


Proposizione 4.2.2
kv = 0 ⇐⇒ k=0 o v=0.

Dimostrazione. In tre parti:


1 0v = 0 ∀ v ∈ V ,
Dalla proprietà distributiva segue che:

0v = (0 + 0)v = 0v + 0v .
Aggiungendo 0 (elemento neutro) al primo membro, si ottiene 0v + 0 = 0v + 0v .
Dalla legge di semplificazione della somma segue che 0 = 0v .

2 k0 = 0 ∀ k ∈ R,

Simile al punto 1, si fa uso dell’identità k0 = k(0 + 0) = k0 + k0.

3 {k 6= 0} ∧ {v 6= 0} ⇒ kv 6= 0 . (ossia: ∀ k 6= 0, kv = 0 ⇒ v = 0)

Per ogni k 6= 0 si ha: v = 1v = (k−1 k)v = k−1 (kv) .


(punto 2)
Ne deduciamo che, se kv = 0, allora: v = k−1 (kv) = k−1 0 = 0. 
Slide 4/12
lezione 08

Sottospazi vettoriali (§4.3)

Definizione 4.3.2/Proposizione 4.3.3


Sia V uno spazio vettoriale e W ⊆ V un sottoinsieme non vuoto. Le seguenti condizioni
sono equivalenti:

a) W è uno spazio vettoriale rispetto alle operazioni di somma e prodotto di V .

b) ∀ k ∈ R e ∀ w, w 0 ∈ W si ha

b1) w + w 0 ∈ W , (W è stabile rispetto alla somma)

b2) kw ∈ W . (W è stabile rispetto alla moltiplicazione per uno scalare)

c) ∀ k, k 0 ∈ R e ∀ w, w 0 ∈ W si ha kw + k 0 w 0 ∈ W .

Se una qualsiasi di queste tre condizioni è soddisfatta, diremo che W è un sottospazio


vettoriale di V (o, semplicemente, un sottospazio).

Le condizioni b) e c) forniscono due criteri pratici per stabilire se un sottoinsieme


W ⊆ V di un determinato spazio vettoriale V è un sottospazio.

Slide 5/12

lezione 08

Dimostrazione (in tre parti).

a) ⇒ c) è elementare. Per definizione di spazio vettoriale, per ogni w, w 0 ∈ W e


k, k 0 ∈ R il risultato delle operazioni kw e k 0 w 0 deve essere ancora elemento di W .
Per lo stesso motivo, la somma di due elementi di W deve essere ancora elemento di
W , quindi kw + k 0 w 0 ∈ W .

c) ⇒ b) Ponendo k = k 0 = 1 da c) si ottiene b1); ponendo k 0 = 0 si ottiene b2).

b) ⇒ a) La somma s : V × V → V ed il prodotto per uno scalare p : R × V → V , per


b1) e b2) rispettivamente, inducono delle operazioni W × W → W e R × W → W .
Tutte le proprietà di spazio vettoriale (def. 4.1.2), poichè valgono in V , valgono anche
in W . Dobbiamo solo verificare che 0V ∈ W .
Anche questo è elementare: sostituendo k = 0 in b2), per la legge di annullamento del
prodotto abbiamo
0w = 0V ∈ W . 

Slide 6/12
lezione 08

Osservazione
Uno spazio vettoriale V possiede sempre almeno due sottospazi: il primo è V stesso
(V ⊆ V ), il secondo è dato dal sottoinsieme { 0V } .

Dimostrazione. Proviamo che W = { 0V } soddisfa il criterio c) della prop. 4.3.3.


Chiaramente se w, w 0 ∈ W allora w = w 0 = 0V . Dalla legge di annullamento del
prodotto segue che kw + k 0 w 0 = 0V ∈ W , per ogni k, k 0 ∈ R. 

Proposizione 4.3.6
Sia SΣ ⊆ Rn l’insieme delle soluzioni di un sistema lineare Σ di matrice completa
(A|B) ∈ Rm,n+1 . SΣ è un sottospazio di Rn ⇐⇒ il sistema è omogeneo.

Dimostrazione. “⇒” Se SΣ è un sottospazio, deve contenere 0 Rn . Se il vettore nullo è


soluzione, allora B = A · 0 Rn,1 = 0 Rm,1 ed il sistema è omogeneo.
“⇐” Viceversa, sia B = 0 Rm,1 e X, X 0 ∈ Rn,1 due soluzioni, ovvero AX = 0 Rm,1 e
AX 0 = 0 Rm,1 . Dalle proprietà del prodotto righe per colonne segue:
A(kX + k 0 X 0 ) = k(AX) + k 0 (AX 0 ) = 0 Rm,1
Quindi kX + k 0 X 0 ∈ SΣ , e il criterio c) della prop. 4.3.3 è quindi soddisfatto. 
Slide 7/12

lezione 08

Sottospazi di R2
E’ un utile esercizio studiare i sottospazi di R2 , che possono essere visualizzati
graficamente usando un sistema di riferimento cartesiano.

Sia allora V = R2 . Il sottospazio banale { 0V } è un insieme con un solo punto: l’origine


del sistema di riferimento.

Dati a, b ∈ R, l’insieme dei punti (x, y) ∈ R2 soluzione dell’equazione omogenea:

ax + by = 0

è un sottospazio di R2 (prop. 4.3.6). Se (a, b) 6= (0, 0), l’equazione descrive una retta
passante per l’origine degli assi.

Vedremo più avanti che sono sottospazi di R2 solamente R2 stesso (l’intero piano),
{0R2 } (l’origine), e le rette passanti per l’origine del sistema di riferimento.

Sottospazi dello spazio tridimensionale sono quelli banali (l’origine e tutto lo spazio), e
rette e piani contenenti l’origine degli assi.
Slide 8/12
lezione 08

Esercizi
Esercizio 5.1.1
Dire quali dei seguenti insiemi sono sottospazi di R2 :

I W1 = (x, y) ∈ R2 | x + y = 0

I W2 = (x, y) ∈ R2 | y = 4

I W3 = (x, y) ∈ R2 | x2 − y = 0

I W4 = (x, y) ∈ R2 | x − y = 0

I W5 = (x, y) ∈ R2 | x ∈ Z

Esercizio (da C. Carrara, 3.6)


Verificare che l’insieme Rn [x] dei polinomi di grado non superiore ad n è un sottospazio
dello spazio vettoriale R[x].

Soluzione. La somma di due polinomi di grado 6 n è ancora un polinomio di grado 6 n, il


prodotto di un polinomio di grado 6 n per uno scalare è ancora un polinomio di grado 6 n.
Rn [x] ⊂ R[x] è stabile rispetto alle due operazioni, quindi è un sottospazio. X
Slide 9/12

lezione 08

Esercizio (da M. Brunetti, 1.1.3)


Dire quali dei seguenti insiemi sono sottospazi di R2 :

I U = (2x6 , x6 ) | x ∈ R

I V = (2x3 , x3 ) | x ∈ R

∗∗∗

Osservazione: se uno spazio V ha almeno un elemento v diverso da 0, allora ha un


numero infinito di elementi (poiché kv ∈ V ∀ k ∈ R).

Esercizio (da M. Brunetti, 1.1.2)


Stabilire quale dei seguenti insiemi è un sottospazio di M2 (R):
" # " #
1 2 0 0 
S= , , U = A = (aij ) ∈ M2 (R) : a12 6= 0 , W = U ∪ {0} .
3 π 0 0

Slide 10/12
lezione 08

Esercizio
Dire quali dei seguenti sottoinsiemi di M2 (R) sono sottospazi vettoriali:
" # 
a11 a12
W1 := : a11 , a12 , a22 ∈ R
0 a22

" # 
a11 a12
W2 := ∈ M2 (R) : a21 = 0
a21 a22

" # 
a11 a12
W3 := : a11 , a12 , a22 ∈ R
5 a22

" # 
a11 a12
W4 := ∈ M2 (R) : a21 = 5
a21 a22

Le matrici m × n triangolari superiori formano un sottospazio di Rm,n ?


E quelle triangolari superiori complete?

Slide 11/12

lezione 08

Esercizio
In R2 si considerino i sottospazi vettoriali
 
U = (x, y) ∈ R2 : x = 0 , W = (x, y) ∈ R2 : y = 0 .

Si verifichi che U ∪ W non è un sottospazio di R2 .

Soluzione. Poichè (0, 1) ∈ U ⊆ U ∪ W e (1, 0) ∈ W ⊆ U ∪ W , se U ∪ W fosse un


sottospazio di R2 dovrebbe contenere il vettore

(0, 1) + (1, 0) = (1, 1)

Ma (1, 1) non è contenuto né in U né in W , quindi (1, 1) ∈


/ U ∪ W e l’insieme U ∪ W non è
un sottospazio (non è stabile rispetto alla somma). X

Esercizio
Sia V uno spazio vettoriale. Dimostrare che (−1)v = −v per ogni v ∈ V .

Soluzione. Sia w = (−1)v. Per l’unicità dell’opposto, basta provare che v + w = 0. Dalle
proprietà 5 e 8 della definizione di spazio vettoriale, e dalla legge di annullamento del prodotto,
segue la tesi:
v + w = 1v + (−1)v = (1 − 1)v = 0v = 0 X
Slide 12/12
lezione 09

Esercizi
Esercizio
In R2 si considerino i sottospazi vettoriali
 
U = (x, y) ∈ R2 : x = 0 , W = (x, y) ∈ R2 : y = 0 .

Si verifichi che U ∪ W non è un sottospazio di R2 .

Esercizio
In R3 si considerino i sottospazi vettoriali
 
U = (x, y, z) ∈ R3 : x + y = 4z , W = (a, 2b, 0) ∈ R3 : a, b ∈ R .

Si verifichi che U ∪ W non è un sottospazio di R3 .

Soluzione. Consideriamo i vettori u = (2, 2, 1) ∈ U e w = (−2, −2, 0) ∈ W . Il vettore


u + w = (0, 0, 1) non appartiene a U, poiché x + y = 0 6= 4z = 4 , e non appartiene a
W , poiché la terza componente è diversa da zero. Quindi u + w ∈
/ U ∪ W , e questo
prova che U ∪ W non è un sottospazio di R3 . X
Slide 1/14

lezione 09

Operazioni su sottospazi (§4.4)

Siano W1 e W2 sottospazi di V . Usando i criteri della prop. 4.3.3 si verifica che:

1 W1 ∩ W2 è un sottospazio di V .

2 W1 + W2 := v = w 1 + w 2 : w 1 ∈ W1 , w 2 ∈ W2 è un sottospazio di V .

W1 + W2 è detto somma di W1 e W2 . L’unione W1 ∪ W2 non è necessariamente uno


spazio vettoriale. Il più piccolo sottospazio di V che contiene W1 ∪ W2 è W1 + W2 .

Esempio 4.4.3
Siano V = R2 , W1 = {(x, y) ∈ R2 : y = 0}, W2 = {(x, y) ∈ R2 : x = 0}.
W1 e W2 sono sottospazi di R2 (asse orizzontale ed asse verticale).
W1 ∩ W2 = {(0, 0)} è l’origine degli assi. Dall’identità:

(x, y) = (x, 0) + (0, y)

segue che ogni vettore (x, y) ∈ R2 è la somma di un vettore (x, 0) ∈ W1 ed un vettore


(0, y) ∈ W2 . Quindi W1 + W2 = R2 .
Slide 2/14
lezione 09

Combinazioni lineari (§6.1)


Sia V uno spazio vettoriale e v 1 , v 2 , . . . , v n dei vettori di V . Diremo che un vettore
w ∈ V è combinazione lineare dei vettori v 1 , . . . , v n se si può scrivere somma

w = a1 v 1 + a2 v 2 + . . . + an v n , ai ∈ R.

Esempi
I In R2 , le coppia (2, 5) è combinazione lineare dei vettori (0, 1) e (1, 1). Infatti:
(2, 5) = 3(0, 1) + 2(1, 1) .
I Lo stesso vettore (2, 5) è anche combinazione lineare di (1, 1) e (1, −2). Infatti:
(2, 5) = 3(1, 1) − (1, −2) .
I Siano A, B, C ∈ R2,3 le matrici
" # " # " #
6 0 −12 4 2 −7 0 6 3
A= , B= , C= .
4 8 −5 3 5 −2 1 −1 4

Allora A è combinazione lineare di B e C, infatti: A = 32 B − 21 C .

Slide 3/14

lezione 09

Sia I = {v 1 , v 2 , . . . , v n } un insieme di vettori di V . L’insieme di tutte le combinazioni


lineari dei vettori di I verrà indicato con il simbolo L(v 1 , . . . , v n ) oppure L(I). Quindi:

L(I) = L(v 1 , . . . , v n ) := w ∈ V : w = a1 v 1 + . . . + an v n , con a1 , . . . , an ∈ R .

Esercizio
Dire se il vettore w = (1, 2, 3) di R3 è combinazione lineare dei vettori

v 1 = (1, 1, 1) v 2 = (3, 2, 1)

(= “Dire se w ∈ L(v 1 , v 2 ).” = “Dire se esistono a1 , a2 ∈ R tali che w = a1 v 1 + a2 v 2 .”)

Esercizio 7.2.3
Dire se
 
1 (3, 2) ∈ L (0, 0), (2, 2) 3 (0, 0) ∈ L (1, −1), (2, 2)
 
2 (3, 2) ∈ L (1, −1), (2, 2) 4 (3, 2) ∈ L (1, 1), (2, 2)

Slide 4/14
lezione 09

Esempi [cf. equazioni (6.1) e (6.2)]


I Ogni vettore (x, y) ∈ R2 , si può scrivere nella forma

(x, y) = x · (1, 0) + y · (0, 1)



Da cui: L (1, 0), (0, 1) = R2 .

I Ogni vettore (x, y) ∈ R2 , si può scrivere nella forma


x+y x−y
(x, y) = · (1, 1) + · (1, −1)
2 2

Da cui: L (1, 1), (1, −1) = R2 .

I In M2 (R) si considerino le matrici


" # " # " # " #
1 0 0 1 0 0 0 0
E11 := , E12 := , E21 := , E22 := .
0 0 0 0 1 0 0 1

Mostrare che L(E11 , E12 , E21 , E22 ) = M2 (R) .

Slide 5/14

lezione 09

Proposizione 6.1.1
Sia I = {v 1 , v 2 , . . . , v n } ⊂ V . L’insieme L(I) è un sottospazio di V , e si dice “spa-
zio generato dai vettori v 1 , . . . , v n ”, ovvero “spazio generato dall’insieme I”. I vettori
v 1 , . . . , v n si diranno suoi generatori.

Dimostrazione. Usiamo il criterio c) della Prop. 4.3.3. Siano:

w = a1 v 1 + a2 v 2 + . . . + an v n w 0 = a10 v 1 + a20 v 2 + . . . + an0 v n

due vettori di L(I), e siano k, k 0 ∈ R. Si ha:

kw + k 0 w 0 = (ka1 + k 0 a10 )v 1 + (ka2 + k 0 a20 )v 2 + . . . + (kan + k 0 an0 )v n .

Quindi kw + k 0 w 0 ∈ L(I) , essendo combinazione lineare dei vettori v 1 , . . . , v n , e


questo conclude la dimostrazione. 

Esercizio 6.1.2
Siano v 1 = (1, 0, −1) e v 2 = (2, 0, 0). Provare che L(v 1 , v 2 ) ( R3 .

Soluzione. Qualunque combinazione lineare di v 1 e v 2 ha la seconda componente


uguale a zero. Quindi, ad esempio, (0, 1, 0) ∈ R3 non appartiene a L(v 1 , v 2 ). X
Slide 6/14
lezione 09

Esempio
Sia V = R[x] e sia I = {1, x, x2 , x3 , . . . , xn } l’insieme dei monomi di grado 6 n in x.
Allora:

L(I) = a0 + a1 x + a2 x2 + a3 x3 + . . . + an xn : a0 , a1 , . . . , an ∈ R

è l’insieme di tutti i polinomi in x di grado 6 n.

Uno spazio vettoriale V si dice finitamente generato se ammette un numero finito di


generatori, ossia se esistono v 1 , . . . , v n ∈ V tali che

L(v 1 , . . . , v n ) = V .

Esempio: R2 e M2 (R) sono finitamente generati (equazioni (6.1) e (6.2)).

Teorema (Esempio 6.1.3)


Lo spazio R[x] non è finitamente generato.

Dimostrazione. Per assurdo, sia I = {P1 (x), P2 (x) . . . , Pn (x)} un insieme finito di generatori,
e sia d il grado del polinomio Pi (x) di grado più alto, per 1 6 i 6 n. Allora xd+1 ∈
/ L(I) ed
L(I) è un sottoinsieme proprio di R[x], contraddicendo l’ipotesi che I generi R[x]. 

Slide 7/14

lezione 09

Insiemi liberi e legati (§6.1)


Osservazione 6.1.4: Aggiungendo ad un insieme I di vettori di V una qualsiasi loro
combinazione lineare non si cambia lo spazio da essi generato:

v ∈ L(I) ⇒ L I ∪ {v} = L(I) .

E’ naturale cercare un insieme minimo di generatori. A questo scopo è introdotta la


nozione di dipendenza/indipendenza lineare.

Definizione 6.1.5
Un insieme I = {v 1 , . . . , v n } ⊂ V si dice libero, ed i suoi vettori si dicono linearmente
indipendenti, se

a1 v 1 + a2 v 2 + . . . + an v n = 0 ⇐⇒ a1 = a2 = . . . = an = 0 ,

ovvero se l’unica loro combinazione lineare che dà il vettore nullo è quella banale, con
tutti i coefficienti uguali a zero. In caso contrario, l’insieme I si dirà legato ed i sui vettori
si diranno linearmente dipendenti.

Slide 8/14
lezione 09

Esempio
In R3 , siano

v 1 = (1, −4, 6) , v 2 = (9, −1, −1) , v 3 = (3, 2, −4) .

L’insieme I = {v 1 , v 2 , v 3 } è legato, infatti 3v 1 − 2v 2 + 5v 3 = 0 R3 .

Esempio
In R2,3 , consideriamo matrici:
" # " # " #
6 0 −12 4 2 −7 0 6 3
A= , B= , C= .
4 8 −5 3 5 −2 1 −1 4

L’insieme I = {A, B, C} è legato, in quanto: 2A − 3B + C = 0 R2,3 .

Esempio
In R[x], consideriamo i polinomi:

P1 (x) = x3 + 7x2 + 9x + 3 , P2 (x) = 4x3 + x − 2 , P3 (x) = 6x3 − 2x2 − x − 4 .

L’insieme I = {P1 (x), P2 (x), P3 (x)} è legato, in quanto: 2P1 (x) − 11P2 (x) + 7P3 (x) = 0 .
Slide 9/14

lezione 09

Osservazioni 6.1.6
I se 0 ∈ I, allora I è legato (infatti a1 0 + 0v 1 + 0v 2 + . . . + 0v n = 0 anche se a1 6= 0);
I se I è libero e I 0 ⊆ I, allora I 0 è libero;
I se I è legato e I 0 ⊇ I, allora I 0 è legato.

Iniziamo a studiare i casi più semplici. Sia I = {v 1 } un insieme formato da un solo


vettore v 1 ∈ V . Se v 1 = 0 l’insieme è legato. Se v 1 6= 0 , per la legge di annullamento
del prodotto a1 v 1 = 0 implica a1 = 0, quindi I è libero.

I = {v 1 } è legato se e solo se v 1 = 0 .

Definizione/Osservazione.
Due vettori v, w ∈ V si dicono proporzionali se esiste k ∈ R tale che v = kw oppure
w = kv . Il vettore nullo è proporzionale ad ogni altro vettore ( 0 = 0v ∀ v ∈ V ).

Sia I = {v 1 , v 2 } un insieme di due vettori di V . Allora:

I = {v 1 , v 2 } è legato ⇐⇒ i due vettori sono proporzionali.

Questo è un caso particolare della proposizione seguente. . .


Slide 10/14
lezione 09

Proposizione 6.1.7
Sia n > 2. Un insieme I = {v 1 , . . . , v n } è libero se e solo se nessun suo elemento si
può scrivere come combinazione lineare dei rimanenti vettori di I.

Dimostrazione. Se I è legato, allora esistono a1 , . . . , an ∈ R non tutti nulli tali che


a1 v 1 + a2 v 2 + . . . + an v n = 0 . Da questo ricaviamo, se a1 6= 0:
1 
v1 = − a2 v 2 + . . . + an v n .
a1
Più in generale se ai 6= 0, v i si può scrivere come combinazione dei rimanenti vettori
di I. Siccome almeno un coefficiente è non nullo per ipotesi, questo prova “⇐” .

Viceversa, immaginiamo per ipotesi che un vettore di I si possa scrivere come


combinazione lineare dei rimanenti, sia esso ad esempio v 1 :

v 1 = b2 v 2 + b3 v 3 + . . . + bn v n , con b2 , . . . , bn ∈ R .

Allora posto a1 = 1 e ai = −bi ∀ i > 2, si ha

a1 v 1 + a2 v 2 + . . . + an v n = 0 .

Poichè almeno un coefficiente è non nullo (a1 = 1), l’insieme I è legato. 


Slide 11/14

lezione 09

Esercizio
Dire se i seguenti vettori di R3 sono linearmente indipendenti:

v 1 = (1, −5, −2) v 2 = (3, 5, 4) v 3 = (6, 0, 3)

In caso negativo, esprimere uno di essi come combinazione lineare degli altri due.

Esercizio
Studiare la dipendenza/indipendenza lineare dei seguenti vettori di R2 :

v 1 = (2, 1) , v 2 = (1, −1) , v 3 = (4, 2) .

Se risultano linearmente dipendenti esprimere, quando è possibile,


• v 1 come combinazione lineare di v 2 e v 3 ;
• v 2 come combinazione lineare di v 1 e v 3 ;
• v 3 come combinazione lineare di v 1 e v 2 .

Slide 12/14
lezione 09

Teorema 6.1.8
I = {v 1 , . . . , v n } è libero ⇐⇒ v 1 6= 0 e, ∀ 2 6 i 6 n, si ha v i ∈
/ L(v 1 , v 2 , . . . , v i−1 ) .

Dimostrazione. L’implicazione “⇒” è un corollario della Prop. 6.1.7. Dimostriamo “⇐”.


Per assurdo, immaginiamo si possano scegliere a1 , . . . , an non tutti nulli tali che

a1 v 1 + a2 v 2 + . . . + an v n = 0 . (?)

Se an 6= 0, possiamo scrivere v n come combinazione lineare dei primi n − 1 vettori,


contraddicendo l’ipotesi. Deve essere quindi an = 0, e da (?) si ricava

a1 v 1 + a2 v 2 + . . . + an−1 v n−1 = 0 .

Ripetendo lo stesso ragionamento, siccome v n−1 non può essere combinazione


lineare primi n − 2 vettori, deve essere necessariamente an−1 = 0, e:

a1 v 1 + a2 v 2 + . . . + an−2 v n−2 = 0 .

Iterando il ragionamento, si dimostra che a2 = a3 = . . . = an = 0 e che a1 v 1 = 0 .


Siccome per ipotesi v 1 6= 0 , per la legge di annullamento del prodotto anche a1 = 0.
L’insieme I è quindi libero. 
Slide 13/14

lezione 09

Esercizi
Esercizio
Siano " # " # " #
0 1 1 2 2 3
A= , B= , C= .
2 3 3 4 4 5
Dire se A ∈ L(B, C) (“A è combinazione lineare di B e C”).

Esercizio
Siano A e B le matrici
 
" # 0 1 1
1 2 3  
A= B = 2 0 −3
0 4 6
2 3 0
a) Dire se le righe di A sono vettori linearmente indipendenti di R3 .
b) Dire se le colonne di A sono vettori linearmente indipendenti di R2 .
c) Dire se le righe di B sono vettori linearmente indipendenti di R3 .
d) Dire se le colonne di B sono vettori linearmente indipendenti di R3 .
Slide 14/14
lezione 10

Basi e componenti (§6.2)


Definizione 6.2.1
Una base B = (v 1 , . . . , v n ) di V è un insieme libero e ordinato di generatori.

Esempio 6.2.2
Per ogni 1 6 i 6 n, sia i−1 volte n−i volte
z }| { z }| {
e i = ( 0, . . . , 0 , 1, 0, . . . , 0 )
la n-upla con i-esima componente uguale a 1 e tutte le altre uguali a zero. Per ogni
v = (v1 , . . . , vn ) ∈ Rn vale l’identità
Xn
v= vi e i . (?)
i=1

Questo prova che i vettori e i sono generatori di Rn . Inoltre la combinazione lineare (?)
è nulla solo se v1 = v2 = . . . = vn = 0, quindi i vettori formano una base

B = (e 1 , e 2 , . . . , e n )

detta base canonica di Rn .


Slide 1/14

lezione 10

Osservazione: lo spazio V = {0} che ha come unico elemento il vettore nullo non
possiede nessuna base (ogni sottoinsieme non vuoto di V è legato).

Esempio 6.2.3
Per ogni 1 6 i 6 m e 1 6 j 6 n, sia

Eij ∈ Rm,n

la matrice che ha 1 in posizione (i, j) e tutti gli altri elementi uguali a zero. Per ogni
A = (aij ) ∈ Rm,n vale l’identità
X
A= aij Eij . (??)
i=1,...,m
j=1,...,n

Questo prova che le matrici Eij sono generatori di Rm,n . Inoltre la combinazione
lineare (??) è nulla solo se aij = 0 per ogni i, j. Quindi le matrici Eij formano una base

B = (E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn )

detta base canonica di Rm,n .


Slide 2/14
lezione 10

Esempio 6.2.4
L’insieme
B = (1, x, x2 , . . . , xn )
è una base per lo spazio dei polinomi in x di grado non superiore ad n.

Esempio 6.2.6
Siano v 1 = (1, 1), v 2 = (1, 0) e v 3 = (0, 1). L’insieme (v 1 , v 2 , v 3 ) contiene la base
canonica, quindi genera R2 . Non è però una base, in quanto v 1 = v 2 + v 3 ed i vettori
non sono linearmente indipendenti.

Esempio
Abbiamo visto che i vettori v 1 = (1, 1) e v 2 = (1, −1) generano R2 . Siccome nessuno
dei due è proporzionale all’altro, l’insieme

B = v1, v2
è una base di R2 .

Osservazione (Esempio 6.2.5)


Per definizione, un insieme libero ordinato I = (v 1 , . . . , v n ) è una base di L(I).

Slide 3/14

lezione 10

Teorema 6.2.7
B = (v 1 , . . . , v n ) è una base di V se e solo se ogni v ∈ V si può scrivere in un unico
modo come combinazione lineare

v = a1 v 1 + a2 v 2 + . . . + an v n (†)

dei vettori di B.

Definizione/Osservazione
Il coefficiente ai in (†) si dice componente i-esima di v nella base B.
Fissata una base ogni vettore è univocamente determinato dalle sue componenti.

Esempio 6.2.8
Siano
v = (v1 , . . . , vn ) ∈ Rn , A = (aij ) ∈ Rm,n .
Allora vi è la è la i-esima componente di v nella base canonica di Rn , mentre aij sono
le componenti di A nella base canonica di Rm,n .

Slide 4/14
lezione 10

Dimostrazione del Teorema 6.2.7.


“⇒” Sia B = (v 1 , . . . , v n ) una base di V . Se

v = a1 v 1 + a2 v 2 + . . . + an v n
= a10 v 1 + a20 v 2 + . . . + an0 v n ,

allora
(a1 − a10 )v 1 + (a2 − a20 )v 2 + . . . + (an − an0 )v n = v − v = 0 .

Per definizione di base, v 1 , . . . , v n sono linearmente indipendenti, e quindi deve


essere a1 − a10 = a2 − a20 = . . . = an − an0 = 0. Se ne deduce che v si può scrivere in
un unico modo come combinazione lineare dei vettori v 1 , . . . , v n .

“⇐” Supponiamo che ogni v ∈ V si possa scrivere in uno e un solo modo come
combinazione lineare dei vettori v 1 , . . . , v n . Allora B genera V . Inoltre

b1 v 1 + b2 v 2 + . . . + bn v n = 0

se e solo se b1 = b2 = . . . = bn = 0, altrimenti si avrebbero due modi differenti di


scrivere 0 come combinazione lineare dei vettori v 1 , . . . , v n , contraddicendo l’ipotesi
di partenza. Se ne deduce che B è libero, e quindi una base. 
Slide 5/14

lezione 10

Esercizio
In R2 , detti
v 1 = (1, 1) , v 2 = (1, −1) ,
determinare le componenti del vettore u = (2, 1) nella base B = (v 1 , v 2 ).

Soluzione. Per definizione le componenti a1 , a2 ∈ R del vettore u nella base B si


ottengono imponendo l’identità

u = a1 v 1 + a2 v 2

ovvero scrivendo i vettori in colonna


     
2 1 1
= a1 + a2
1 1 −1

Si ottiene un sistema di due equazioni nelle incognite a1 , a2 , la cui soluzione è unica e


data da
3 1
a1 = , a2 = .
2 2
X

Slide 6/14
lezione 10

Lemma di Steinitz
Sia A = {v 1 , v 2 , . . . , v n } un insieme di generatori di V e B = {w 1 , w 2 , . . . , w k } un
insieme libero. Allora k 6 n.

Dimostrazione (per assurdo). Supponiamo k > n. Dato che A è un insieme di


generatori di V , w 1 si può scrivere come combinazione lineare dei vettori di A:

w 1 = a1 v 1 + a2 v 2 + . . . + an v n

I coefficienti ai non possono essere tutti nulli, poichè B è libero e quindi w 1 6= 0 .


Senza perdere generalità, supponiamo a1 6= 0. Allora

v 1 = a−1
1 (w 1 − a2 v 2 − . . . − an v n ) .

Pertanto anche A1 = {w 1 , v 2 , . . . , v n } è un insieme di generatori di V . Possiamo


scrivere w 2 come combinazione lineare dei vettori di A1 :

w 2 = b1 w 1 + b2 v 2 + b3 v 3 + . . . + bn v n

ed i coefficienti b2 , . . . , bn non possono essere tutti zero, perché altrimenti w 2 sarebbe


proporzionale ad w 1 , contraddicendo l’ipotesi che B è un insieme libero.
. . . continua.
Slide 7/14

lezione 10

Lemma di Steinitz
Sia A = {v 1 , v 2 , . . . , v n } un insieme di generatori di V e B = {w 1 , w 2 , . . . , w k } un
insieme libero. Allora k 6 n.

Dimostrazione (2a parte). Senza perdere generalità, supponiamo b2 6= 0. Allora

v 2 = b−1
2 (w 2 − b1 w 1 − b3 v 3 − . . . − bn v n ) .

Pertanto anche A2 = {w 1 , w 2 , v 3 , . . . , v n } è un insieme di generatori di V .

Con lo stesso ragionamento, dopo n passi, si arriva a sostituire v 3 con w 3 , v 4 con w 4 ,


. . . , v n con w n . Si dimostra in questo modo che i primi n vettori dell’insieme libero B
danno un insieme An = {w 1 , w 2 , . . . , w n } di generatori di V .

Se k > n, i restanti vettori w n+1 , . . . w k si possono scrivere come combinazione


lineare dei vettori di An , contraddicendo l’ipotesi che B è un insieme libero.
Deve essere quindi k 6 n. 

Slide 8/14
lezione 10

Equipotenza delle basi (Teorema 7.1.2, punto 1)


Se B = (v 1 , v 2 , . . . , v n ) e B 0 = (w 1 , w 2 , . . . , w k ) sono due basi di uno stesso spazio
vettoriale V , allora k = n.

Dimostrazione. Per ipotesi, B ed B 0 sono basi, ovvero insiemi liberi di generatori.

Siccome B 0 è libero e B genera V dal lemma di Steinitz segue che k 6 n.

Siccome B è libero e B 0 genera V dal lemma di Steinitz segue che n 6 k.

Quindi k = n. 

Osservazione: tutte le basi di V hanno lo stesso numero di elementi; tale numero è


detto dimensione di V ed indicato con “ dim(V) ”. Per convenzione dim({0}) = 0.

Esempi: dim(Rn ) = n e dim(Rm,n ) = m · n , come si evince contando il numero di


elementi delle basi canoniche (esempi 6.2.2 e 6.2.3).

Slide 9/14

lezione 10

A partire da un insieme di generatori di uno spazio vettoriale V è sempre possibile di


estrarre una base. Più precisamente, se

I = u1, . . . , uk

è un insieme di generatori di V , possiamo trovare una base B ⊆ I utilizzando il

Metodo degli scarti successivi (§7.1)


Sia I1 l’insieme ottenuto da I rimuovendo eventuali vettori nulli.
Se u 2 ∈ L(u 1 ) chiamiamo I2 = I1 r {u 2 }, altrimenti I2 = I1 .
Se u 3 ∈ L(u 1 , u 2 ) chiamiamo I3 = I2 r {u 3 }, altrimenti I3 = I2 .
Iterando il procedimento (controllando tutti i vettori di I fino all’ultimo) si costruisce una sequenza

I ⊇ I 1 ⊇ I 2 ⊇ . . . ⊇ Ih

dove h 6 k è il numero di vettori non nulli di I, Ii = Ii−1 r {u i } se u i ∈ L(u 1 , . . . , u i−1 ) e


Ii = Ii−1 in caso contrario. Per l’osservazione 6.1.4, si ha

V = L(I) = L(I1 ) = L(I2 ) = . . . = L(Ih ) .

Ih genera V ed è un insieme libero per il teorema 6.1.8, i suoi vettori formano quindi una base.

Slide 10/14
lezione 10

Esempio 7.1.3
Sia

I = v 1 = (1, 1) , v 2 = (1, 0) , v 3 = (0, 1)
Abbiamo visto (esempio 6.2.6) che I genera R2 ma non è libero. Applicando il metodo
degli scarti successivi si vede che v 1 6= 0 e v 2 ∈
/ L(v 1 ), quindi I2 = I1 = I. Poiché
v 3 = v 1 − v 2 , allora I3 = I r {v 3 } ed una base estratta da I è B = (v 1 , v 2 ).

Osservazione
Notiamo che cambiando l’ordine dei vettori dell’insieme I di partenza, cambia la ba-
se estratta. Nel precedente esempio, applicando il metodo degli scarti successivi
all’insieme (v 2 , v 3 , v 1 ) la base estratta è quella canonica B = (v 2 , v 3 ).

Esercizio
Sia W = L(v 1 , v 2 , v 3 ) il sottospazio di R3 generato dai vettori

v 1 = (0, 1, 1) , v 2 = (1, 0, 3) , v 3 = (1, −3, 0) .

Estrarre una base di W dall’insieme I = (v 1 , v 2 , v 3 ). Determinare la dimensione di W .

Slide 11/14

lezione 10

Metodo del completamento ad una base

Sia B = (v 1 , . . . , v n ) una base di uno spazio vettoriale V e I = {u 1 , . . . , u k } un


insieme libero. Applicando il metodo degli scarti successivi all’insieme di generatori

I 0 = (u 1 , . . . , u k , v 1 , . . . , v n )

i primi k vettori non vengono eliminati, perché linearmente indipendenti. Come


risultato, si ottiene una nuova base B 0 contenente tutti i vettori dell’insieme I.

Esercizio

Completare ad una base di R2 l’insieme I = u 1 = (3, 5) .

Esercizio

Completare ad una base di R3 l’insieme I = u 1 = (1, 1, 1) , u 2 = (0, 1, 1) .

Slide 12/14
lezione 10

Proprietà della dimensione


Corollario 7.1.5
Sia V uno spazio finitamente generato e W ⊆ V un sottospazio. Allora
dim(W) 6 dim(V)
e si ha l’uguaglianza se e solo se W = V .

Dimostrazione. Una base I = (u 1 , . . . , u k ) di W è un insieme libero di V . Dal Lemma


di Steinitz segue che dim(W) = k 6 dim(V).
Si può completare I ad una base B di V . Se dim(W) = k = dim(V), B ha lo stesso
numero di elementi di I. Quindi B = I e W = L(I) = L(B) = V . 

Osservazione 7.1.6
Sia V uno spazio di dimensione n. Una conseguenza del corollario 7.1.5 è che:
• ogni insieme libero di n elementi è una base di V ;
• ogni insieme di n generatori è una base di V .

Slide 13/14

lezione 10

Esercizio
Dall’insieme
 
I = v 1 = (0, 0, 0), v 2 = (0, 1, 1), v 3 = (−1, −1, 1), v 4 = (0, 0, 1), v 5 = (1, 0, 0) .

estrarre una base dello spazio L(I). Chi è il sottospazio L(I) ⊆ R3 ?

Suggerimento: si può verificare che L(I) ha dimensione 3, da cui segue L(I) = R3 .

Esercizio
Dati (a, b) 6= (0, 0), si consideri il sottospazio di R2 :

W = (x, y) ∈ R2 ax + by = 0 .

Quale è la dimensione di W ?

Suggerimento: si può verificare che W = L (b, −a) . Quindi dim(W) = 1 .

Esercizio
Sia V uno spazio vettoriale di dimensione 1. Elencare tutti i sottospazi di V .

Suggerimento: W ⊆ V è un sottospazio se e solo se W = V oppure W = {0 V }.


Slide 14/14
lezione 11

Determinare una base per riduzione (§12.4)


Proposizione (Corollario 12.4.2)
Le righe non nulle di una matrice ridotta per righe sono linearmente indipendenti.

Dimostrazione.
I Sia A ∈ Rk,n ridotta per righe. E’ sufficiente dare la dimostrazione quando tutte le
righe di A sono non nulle. Siano v 1 , v 2 , . . . , v k ∈ Rn le righe di A numerate dal
basso verso l’alto: v k la prima, v k−1 la seconda, etc.
I Per assurdo, immaginiamo che

v k = b1 v 1 + b2 v 2 + . . . + bk−1 v k−1 , b1 , . . . , bk−1 ∈ R. (?)

Sia a1p il pivot della prima riga (1 6 p 6 n). Allora la componente p-esima di v k è
a1p , e la componente p-esima di v i è zero ∀ 1 6 i 6 k − 1. Da (?) segue che
a1p = b1 0 + b2 0 + . . . + bk−1 0 = 0
contraddicendo l’ipotesi che a1p fosse un pivot. Quindi v k ∈
/ L(v 1 , . . . , v k−1 ).
I Poichè eliminando la riga v k da A si ottiene una matrice ancora ridotta per righe,
con righe v 1 , v 2 , . . . , v k−1 tutte non nulle. Per induzione si prova che, ∀ 2 6 i 6 k,
si ha v i ∈
/ L(v 1 , . . . , v i−1 ). Quindi l’insieme I = {v 1 , v 2 , . . . , v k } è libero. 
Slide 1/16

lezione 11

Il metodo di riduzione di una matrice può essere usato per trovare una base a partire
da un insieme di generatori:

1 Dati v 1 , . . . , v k ∈ Rn , si scrivono i vettori come righe di una matrice A ∈ Rk,n .

2 Si può trasformare A in una matrice ridotta per righe A 0 usando l’operazione


elementare (III 0 ). Le righe di A e di A 0 generano lo stesso sottospazio
W = L(v 1 , . . . , v k ) di Rn .

3 La righe non nulle di A 0 , essendo linearmente indipendenti, formeranno una base


del sottospazio W .

4 La dimensione di W è data dal numero di righe non nulle di A 0 .

Slide 2/16
lezione 11

Esercizio 12.4.3
Determinare una base del sottospazio W ⊆ R3 generato dai vettori

v 1 = (1, 0, −2) , v 2 = (−1, 1, 3) , v 3 = (2, 1, −3) .

Soluzione. Scriviamo la matrice


   
v1 1 0 −2
   
A =  v 2  = −1 1 3
v3 2 1 −3

e riduciamola per righe. Si ottiene:


   
1 0 −2 1 0 −2
R2 →R2 +R1   R3 →R3 −R2  
A −−−−−−−−→ 0 1 1 −−−−−−−→ 0 1 1 = A 0
R3 →R3 −2R1
0 1 1 0 0 0

Una base di W è data dalle righe non nulle di A 0 , quindi

w 1 = (1, 0, −2) , w 2 = (0, 1, 1) . X

Slide 3/16

lezione 11

Esercizio d’esame
Nello spazio vettoriale R4 si considerino i seguenti sottospazi:

V := L (1, 1, 3, −1) , (3, 2, 6, 0) , (6, 2, 6, 6) , (5, 2, 6, 4) ,

W := (x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 − x3 = x1 − x3 + x4 = 0 .
Si determini una base per ciascuno dei sottospazi: V , W , V + W , V ∩ W .

Soluzione: 1a parte, base di V .


Scrivendo i generatori di V come righe di una matrice e riducendo per righe si ottiene:
     
1 1 3 −1 1 1 3 −1 1 1 3 −1
3 2 6 0  0  6 0
  R3 →R3 +6R1  3 2 6  R3 →R3 −4R2 3 2 
  −−−−−−−−→   −−−−−−−−→  
6 2 6 6 R4 →R4 +4R1 12 8 24 0 R4 →R4 −3R2 0 0 0 0
5 2 6 4 9 6 18 0 0 0 0 0

Le righe non nulle della matrice trovata formano una base di V , che conviene però
semplificare ulteriormente usando le tre operazioni elementari (questo faciliterà la
soluzione dell’ultimo quesito, base di V ∩ W ).

Slide 4/16
lezione 11

Esercizio d’esame
Nello spazio vettoriale R4 si considerino i seguenti sottospazi:

V := L (1, 1, 3, −1) , (3, 2, 6, 0) , (6, 2, 6, 6) , (5, 2, 6, 4) ,

W := (x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 − x3 = x1 − x3 + x4 = 0 .
Si determini una base per ciascuno dei sottospazi: V , W , V + W , V ∩ W .

Soluzione: 1a parte, base di V .


Trasformiamo la matrice trovata in una fortemente ridotta:
     
1 1 3 −1 1 1 3 −1 0 1 3 −3
3 2 6 0  0 0 2  0 0 2
  R2 →R2 −2R1 1  R1 →R1 −R2 1 
  −−−−−−−−→   −−−−−−−→  
0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0

Una base di V è quindi data dai tre vettori

v 1 = (0, 1, 3, −3) , v 2 = (1, 0, 0, 2) .

Slide 5/16

lezione 11

Esercizio d’esame
Nello spazio vettoriale R4 si considerino i seguenti sottospazi:

V := L (1, 1, 3, −1) , (3, 2, 6, 0) , (6, 2, 6, 6) , (5, 2, 6, 4) ,

W := (x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 − x3 = x1 − x3 + x4 = 0 .
Si determini una base per ciascuno dei sottospazi: V , W , V + W , V ∩ W .

Soluzione: 2a parte, base di W .


Risolviamo per eliminazione il sistema che definisce W :
  
x1 + x2 − x3 = 0 E →E −E x1 + x2 − x3 = 0 x3 = x1 + x2
−−2−−−2−−→
1
=⇒
x1 − x3 + x4 = 0 −x2 + x4 = 0 x4 = x2

La soluzione generale dipende quindi da due parametri t1 , t2 ∈ R:

(x1 , x2 , x3 , x4 ) = (t1 , t2 , t1 + t2 , t2 ) = t1 (1, 0, 1, 0) + t2 (0, 1, 1, 1) .

I due vettori (ottenuti scegliendo rispettivamente (t1 , t2 ) = (1, 0) e (t1 , t2 ) = (0, 1)):

w 1 = (1, 0, 1, 0) , w 2 = (0, 1, 1, 1) ,

generano W , ed essendo linearmente indipendenti formano una base.


Slide 6/16
lezione 11

Esercizio d’esame
Nello spazio vettoriale R4 si considerino i seguenti sottospazi:

V := L (1, 1, 3, −1) , (3, 2, 6, 0) , (6, 2, 6, 6) , (5, 2, 6, 4) ,

W := (x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 − x3 = x1 − x3 + x4 = 0 .
Si determini una base per ciascuno dei sottospazi: V , W , V + W , V ∩ W .

Soluzione: 3a parte, base di V + W .


Lo spazio V + W è generato dai vettori v 1 , v 2 , w 1 , w 2 . Per riduzione si ottiene:
     
w1 1 0 1 0 1 0 1 0
 w  0 1 1 1  
 2   R4 →R4 −R1 0 1 1 1
 =  −−−−−−−→  
 v 1  0 1 3 −3 0 1 3 −3
v2 1 0 0 2 0 0 −1 2
   
1 0 1 0 1 0 1 0
 1 1 1  1 1
R3 →R3 −R2 0  R4 →R4 + 12 R3 0 1 
−−−−−−−→   −−−−−−−−→  
0 0 2 −4 0 0 2 −4
0 0 −1 2 0 0 0 0
Una base di V + W è quindi data dai tre vettori (1, 0, 1, 0), (0, 1, 1, 1), (0, 0, 2, −4).
Slide 7/16

lezione 11

Esercizio d’esame
Nello spazio vettoriale R4 si considerino i seguenti sottospazi:

V := L (1, 1, 3, −1) , (3, 2, 6, 0) , (6, 2, 6, 6) , (5, 2, 6, 4) ,

W := (x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 − x3 = x1 − x3 + x4 = 0 .
Si determini una base per ciascuno dei sottospazi: V , W , V + W , V ∩ W .

Soluzione: 4a parte, base di V ∩ W . Un vettore u appartiene a V se e solo se è


combinazione lineare dei suoi vettori di base v 1 e v 2 , quindi

u = y1 v 1 + y2 v 2 = ( y2 , y1 , 3y1 , −3y1 + 2y2 ) .

Si ha u ∈ W se e solo le componenti di u risolvono le equazioni di W . Sostituendo


(x1 , x2 , x3 , x4 ) ( y2 , y1 , 3y1 , −3y1 + 2y2 ) nel sistema, si ottengono le condizioni

x1 + x2 − x3 = −2y1 + y2 = 0
x1 − x3 + x4 = −6y1 + 3y2 = 0

la cui soluzione è y2 = 2y1 . Scegliendo y1 = 1 si ottiene una base di V ∩ W , data dal


vettore u = v 1 + 2v 2 = (2, 1, 3, 1). X
Slide 8/16
lezione 11

Vettori geometrici (Orecchia, cap. 2)

I Due rette del piano si dicono parallele se non hanno punti in comune. Due rette
dello spazio tridimensionale si dicono parallele se sono contenute in un piano e
non hanno punti in comune.

I Dati due punti A e B distinti (del piano o dello spazio), orientare il segmento AB
vuol dire scegliere quale dei due estremi precede l’altro nel segmento. Il primo
estremo verrà detto punto di applicazione, il secondo verrà detto estremo libero.

I
# »
Esistono esattamente due segmenti orientati di estremi A e B, indicati con AB (A
# »
precede B) e BA (B precede A) rispettivamente. Un segmento orientato è anche
detto vettore geometrico applicato.

I La lunghezza del segmento AB è detta modulo o norma del vettore, ed è indicata


# » # » # »
con kABk (chiaramente AB e BA hanno la stessa norma).

I
# » # »
Diciamo che due vettori AB e CD hanno la stessa direzione se giacciono sulla
# » # »
stessa retta oppure in rette parallele (AB e BA hanno la stessa direzione).

Slide 9/16

lezione 11

Orientamento
I
# » # »
Siano AB e CD giacenti in rette parallele (distinte). La retta r passante per A e C
# » # »
divide il piano che contiene i vettori in due semipiani. Si dice che AB e CD hanno
lo stesso verso se gli estremi liberi B e D appartengono entrambi allo stesso
semipiano. Altrimenti si dice che i vettori hanno verso opposto.

A A
# » # »
AB AB
r r D
B # » C B
CD # »
CD
C
D
# » # »
# » # »
AB e CD hanno lo stesso verso. AB e CD hanno verso opposto.

I
# » # »
Siano AB e CD due vettori che giacciono sulla stessa retta. Sia s la semiretta
uscente da A e contenente B, ed s 0 la semiretta uscente da C e contenente D.
Se s ⊆ s 0 oppure s 0 ⊆ s diciamo che i due vettori hanno lo stesso verso, altrimenti
diciamo che hanno verso opposto.
Slide 10/16
lezione 11

Vettori liberi
I E’ utile considerare anche vettori di lunghezza nulla, i cui estremi coincidono. Un
# »
vettore nullo AA è caratterizzato dal solo punto di applicazione A.
I
# » # »
Due vettori AB e CD (del piano o dello spazio) si dicono equipollenti se sono
entrambi nulli oppure hanno uguale direzione, modulo e verso.
I
# » # »
Dato AB, l’insieme v di tutti i vettori applicati equipollenti ad AB è detto vettore
# »
libero rappresentato da AB, e viene indicato con v := B − A .
Se A = B si ottiene il vettore libero nullo, v = 0 .
( L’equipollenza è una relazione di equivalenza, e v := B − A è la classe di
# »
equivalenza di tutti i vettori equipollenti ad AB. )
I Un vettore libero non nullo è univocamente determinato da modulo, direzione e
verso. Il vettore nullo ha modulo zero, e direzione e verso indefiniti.
I [Partendo dagli assiomi della geometria euclidea, si dimostra che. . . ]
dato un vettore libero v ed un punto A qualsiasi, esiste uno ed un solo punto B
tale che v = B − A (cioè: ogni vettore libero v si può rappresentare con un
vettore applicato in un punto scelto a piacere).
Slide 11/16

lezione 11

Gli spazi vettoriali V2 e V3

Indichiamo con V2 l’insieme di tutti i vettori liberi del piano, e con V3 l’insieme di tutti i
vettori liberi dello spazio tridimensionale.

D
Definizione (regola del parallelogramma)
In V2 (risp. V3 ) è definita una operazione interna
come segue. Dati due vettori liberi u = B − A e C v
u+v
v = D − B (scegliamo due rappresentanti in modo
B
che il punto di applicazione del primo sia l’estremo
libero del secondo), la loro “somma” è data da: u
A
u + v := D − A
(Notiamo che v = C − A )

Si dimostra usando gli assiomi della geometria euclidea che la definizione è ben posta
(il risultato non dipende dai segmenti orientati scelti come rappresentanti dei vettori).

Slide 12/16
lezione 11

Gli spazi vettoriali V2 e V3

Definizione (moltiplicazione per uno scalare)


In V2 (risp. V3 ) è definita una operazione esterna come segue. Se u è un vettore libero
non nullo e k ∈ R è diverso da zero, allora ku è per definizione il vettore di modulo
|k| kuk, direzione uguale a quella di u , e verso uguale ad u se k > 0 oppure opposto
se k < 0. Se k = 0 o u = 0 si pone ku = 0 .

Partendo dagli assiomi della geometria euclidea si può verificare che:

Teorema
V2 e V3 sono spazi vettoriali reali.

Osservazione: l’opposto del vettore libero u = B − A è il vettore −u = A − B.

Slide 13/16

lezione 11

Identificazione fra V2 ed R2
Dato un sistema di riferimento bidimensionale (che, per semplicità, assumiamo sia
ortogonale), ogni coppia (x, y) ∈ R2 si può identificare con un punto P del piano di cui
x è l’ascissa e y l’ordinata. In particolare, 0 R2 = (0, 0) corrisponde all’origine O.

Ogni vettore libero v = P − O è rappresentato da uno e un solo vettore geometrico



OP applicato nell’origine, e quest’ultimo è univocamente determinato dalle coordinate
(x, y) del suo estremo libero P.

Ci si può convincere facilmente che la somma in V2 fatta con la regola del


parallelogramma è equivalente alla somma per componenti di R2 , e che il prodotto per
uno scalare in V2 è equivalente al prodotto per uno scalare in R2 . Si dice che V2 ed R2
sono spazi vettoriali “isomorfi” (“con la stessa forma”).

Anche gli spazi vettoriali V3 ed R3 possono essere identificati (sono “isomorfi”).

Studiamo il primo caso più in dettaglio. . .

Slide 14/16
lezione 11

Identificazione fra V2 ed R2
Come già notato, esiste una corrispondenza biunivoca fra V2 ed R2 che associa ad
ogni vettore libero v = P − O la coppia (x, y) di coordinate del punto P. Scriveremo
semplicemente v = (x, y) identificanto vettori liberi e coppie di numeri reali.

La somma per componenti e la regola del parallelogramma danno lo stesso risultato:

v + v 0 = (x + x 0 , y + y 0 )

v = (x, y)

y
−x
v 0 = (x 0 , y 0 )
y0

x x0

Slide 15/16

lezione 11

Identificazione fra V2 ed R2

Se v = P − O è un vettore libero non nullo e P ha coordinate (x, y), allora


kv = P 0 − O dove P 0 è il punto di coordinate (kx, ky). In figura, k = 2.

(kx, ky)

(x, y)

(−x, −y)

Poichè le operazioni di V2 corrispondono a quelle di R2 , e poichè R2 è uno spazio


vettoriale, questo prova indirettamente che V2 è esso stesso uno spazio vettoriale.

Slide 16/16
lezione 12

Lunghezze, angoli e proiezioni in R2 (§8.1)

Abbiamo visto che una coppia x = (x1 , x2 )


di R2 può essere identificata con il segmento P

orientato OP che ha per estremo libero il punto
P di coordinate (x1 , x2 ). Tale segmento è la x2
diagonale di un rettangolo di base x1 ed altezza
#» α
x2 , e la sua lunghezza, indicata con kOPk O x1
oppure con kxk, è data dal teorema di Pitagora:
q
kxk = x21 + x22 .

Se x 6= (0, 0), l’angolo α in figura è determinato dalle equazioni:


x1 x1 x2 x2
cos α = p 2 = , sin α = p 2 = . (8.1)
x1 + x22 kxk x1 + x22 kxk

Slide 1/14

lezione 12

Consideriamo ora due vettori non nulli x = (x1 , x2 ) e y = (y1 , y2 ). L’angolo ϑ in figura
è detto angolo convesso fra x e y (scegliamo
0 6 ϑ 6 180◦ ). Dalle formule di addizione x = (x1 , x2 )
di seno e coseno ricaviamo:
y = (y1 , y2 )
cos ϑ = cos(α − β)
= cos α cos β + sin α sin β ϑ
x1 y1 + x2 y2 α β
= ,
kxk kyk

dove nell’ultimo passaggio abbiamo usato


(8.1) per esprimere cos α e sin α in funzione di x1 e x2 , ed una formula analoga per
esprimere cos β e sin β in funzione di y1 e y2 .

Slide 2/14
lezione 12

Dati due vettori x, y ∈ R2 arbitrari, il loro prodotto scalare canonico, indicato con
hx, yi, è la grandezza:

hx, yi := x1 y1 + x2 y2 ≡ x · t y .

Notiamo che hx, yi è il prodotto righe per colonne del vettore riga x per il vettore
colonna t y . La norma è legata al prodotto scalare dalla formula:
p
kxk = hx, xi .

Se x e y sono entrambi non nulli, l’angolo convesso fra i due vettori è dato da:

hx, yi
cos ϑ = .
kxk kyk

I vettori x e y sono: ortogonali ⇐⇒ hx, yi = 0.

Esercizio 8.1.1
Provare che x è ortogonale ad y 6= 0 se e solo se x = k(y2 , −y1 ) per qualche k ∈ R.

Slide 3/14

lezione 12

Dato un vettore y non nullo, ed un vettore x


arbitrario (anche zero) indichiamo con pr y (x)
x = (x1 , x2 )
la proiezione ortogonale di x in direzione di y ,
ovvero il vettore rosso in figura.
y = (y1 , y2 )
Proposizione
La proiezione ortogonale di x su y è data da: ϑ pr y (x)
hx, yi
pr y (x) = y
kyk2

Dimostrazione. Essendo v := pr y (x) parallelo ad y , si ha v = ky per qualche k ∈ R.


Se 0 6 ϑ 6 90◦ , y e v hanno lo stesso orientamento e k > 0; altrimenti k < 0.
Assumiamo che sia 0 6 ϑ 6 90◦ , ovvero k > 0 (la dimostrazione per k < 0 è analoga).
Vediamo dalla figura che la lunghezza di v è pari a cos ϑ · kxk ; ma è anche uguale a
p
kkyk = (ky1 )2 + (ky2 )2 = kkyk .

Quindi:
kxk hx, yi kxk hx, yi
k = cos ϑ · = = .
kyk kxk kyk kyk kyk2 
Slide 4/14
lezione 12

Disuguaglianza triangolare

Un ben noto teorema della geometria euclidea è la disuguaglianza triangolare, la quale


afferma che:
in un triangolo la lunghezza di un qualsiasi suo lato non può essere
superiore alla somma delle lunghezze degli altri due.

Applicata al triangolo in blu in figura, x+y


poiché i tre lati del triangolo hanno
lunghezza kxk, kyk e kx + yk, nel
x y
linguaggio dei vettori la disuguaglianza si
traduce nella disuguaglianza:
O
kx + yk 6 kxk + kyk .

Slide 5/14

lezione 12

Spazi metrici (§8.3)


Definizione 8.3.1
Sia V uno spazio vettoriale (reale). Una applicazione

V ×V →R

che associa ad ogni coppia di vettori v e w un numero reale, che indichiamo con hv, wi,
è detta un prodotto scalare o prodotto interno di V se è:

i) simmetrica, ovvero ∀ v, w ∈ V ,

hv, wi = hw, vi .

ii) lineare, ovvero ∀ a, b ∈ R , u, v, w ∈ V si ha:

hau + bv, wi = a hu, wi + b hv, wi .

iii) definita positiva, ovvero


hv, vi > 0 ∀ v 6= 0 .

Uno spazio vettoriale dotato di un prodotto scalare si dice spazio metrico.


Slide 6/14
lezione 12

Definizione
Due vettori v e w di uno spazio metrico V si dicono ortogonali se
hv, wi = 0 .

Proposizione 8.3.2
Un prodotto scalare di V soddisfa:

iv) h0, vi = 0 ∀ v ∈ V ;
v) hw, au + bvi = a hw, ui + b hw, vi ∀ a, b ∈ R , u, v, w ∈ V .

Dimostrazione. La proprietà iv) segue da ii). Infatti:


(ii)
h0, vi = h0 + 0, vi = h0, vi + h0, vi ,

e sottraendo h0, vi ambo i membri si ottiene h0, vi = 0 per ogni v ∈ V .


Usando prima i), poi ii), e quindi ancora i) si dimostra che:
(i) (ii) (i)
hw, au + bvi = hau + bv, wi = a hu, wi + b hv, wi = a hw, ui + b hw, vi

per ogni a, b ∈ R e per ogni u, v, w ∈ V . 


Slide 7/14

lezione 12

Definizione 8.3.3
Chiamiamo norma di v ∈ V la grandezza
p
kvk := hv, vi .

Definizione (Esempio 8.3.4)


Siano v = (v1 , . . . , vn ) e w = (w1 , . . . , wn ). Un prodotto scalare di Rn è dato da

hv, wi := v1 w1 + v2 w2 + . . . + vn wn = v · t w ,

ed è detto prodotto scalare canonico di Rn . La norma associata è


p q
||v|| = hv, vi = v21 + v22 + . . . + v2n .

Esercizio
Dire quali delle seguenti applicazioni sono prodotti scalari di R2 :
1 hv, wi = v21 + w21 + v1 w1 + v2 w2 , 4 hv, wi = 3v1 w1 ,
2 hv, wi = 3v1 w1 + 7v2 w2 , 5 hv, wi = 3v1 w1 + 7,
3 hv, wi = 3v1 w1 − 7v2 w2 , 6 hv, wi = v1 w31 + v2 w32 .
Slide 8/14
lezione 12

Proprietà del prodotto scalare e della norma (§8.3)


Proposizione 8.3.6
Per ogni a ∈ R e u, v ∈ V si ha:

1. kavk = |a| kvk ;

2. kvk = 0 ⇐⇒ v = 0 ;

3. ku + vk2 = kuk2 + 2 hu, vi + kvk2 .

Dimostrazione. Usando le proprietà (ii) e (v) del prodotto scalare, si ricava:


p p
kavk = hav, avi = a2 hv, vi = |a| kvk .

Usando le proprietà (iii) e (iv) si ricava:


p
kvk = hv, vi = 0 ⇐⇒ v = 0 .

Per finire, dalle proprietà (ii) e (v) si ricava:

ku + vk2 = hu + v, u + vi = hu, ui + 2 hu, vi + hv, vi = kuk2 + 2 hu, vi + kvk2 .



Slide 9/14

lezione 12

Teorema 8.3.7 (Disuguaglianza di Cauchy-Schwarz)


Per ogni v, w ∈ V , si ha:
|hv, wi| 6 kvk kwk .

Dimostrazione. Se w = 0 la disuguaglianza si riduce ad un banale 0 6 0. Assumiamo


allora che w 6= 0 . Per ogni λ ∈ R, dal punto 3 della proposizione 8.3.6, applicato alla
coppia di vettori v e −λw , si ottiene

0 6 kv − λwk2 = kvk2 − 2λ hv, wi + λ2 kwk2 ,

In particolare scegliendo λ = hv, wi /kwk2 si ottiene

hv, wi2 hv, wi2 hv, wi2


0 6 kvk − 2
2
+ 2
= kvk − ,
kwk2 kwk2 kwk2
2
ovvero hv, wi 6 kvk2 kwk2 . Prendendo la radice quadrata di ambo i membri della
disuguaglianza, si dimostra la tesi. 

Slide 10/14
lezione 12

Corollario 8.3.8 (Disuguaglianza triangolare)


Per ogni v, w ∈ V , si ha
kv + wk 6 kvk + kwk

Dimostrazione. Dalla Prop. 8.3.6 (pt. 3) e dalla disuguaglianza di Cauchy-Schwarz:


2
kv + wk2 = kvk2 + 2 hv, wi + kwk2 6 kvk2 + 2kvk kwk + kwk2 = kvk + kwk

Estraendo la radice, si ricava la disuguaglianza triangolare. 

Proposizione 8.3.9 (Teorema di Pitagora)


Due vettori v, w ∈ V soddisfano

kv + wk2 = kvk2 + kwk2

se e solo se sono ortogonali.

Dimostrazione. Dal punto 3 della proposizione 8.3.6:

kv + wk2 − kvk2 − kwk2 = 2 hv, wi

si annulla se e solo se hv, wi = 0. 


Slide 11/14

lezione 12

Esercizio (C. Carrara, es. 10.1 e 10.2)


Dati i seguenti vettori di R2 si calcoli il prodotto scalare hv i , v j i per i, j = 1, 2, 3, 4 e si
dica quali vettori sono ortogonali tra loro:
v 1 = (6, 3) v 2 = (−1, 0) v 3 = (1, −2) v 4 = (−2, 0)

Nota: quando non è specificato il prodotto scalare, si intende sempre quello canonico.

Esercizio (C. Carrara, es. 10.3)


Dati i seguenti vettori di R3 si calcoli il prodotto scalare hv i , v j i per i, j = 1, 2, . . . , 6 e
dica quali vettori sono ortogonali tra loro:
v 1 = (1, 3, 4) v 2 = (0, −1, 2) v 3 = (1, 2, 1)
v 4 = (−2, 3, 0) v 5 = (1, 1, 1) v 6 = (1, −3, 2)

Esercizio (C. Carrara, es. 10.4)


Si calcoli la norma dei seguenti vettori di R2 ed R3 :
v 1 = (−2, 5, 1) v 2 = (1, 0, −2) v 3 = (7, 1, 1)
v 4 = (4, 1) v 5 = (10, 1) v 6 = (−1, −3)
Slide 12/14
lezione 12

Esercizio d’esame
Si consideri il seguente sistema lineare dipendente da un parametro λ ∈ R:


 x1 − x2 + 2x3 + x4 =0

 x1 − x2 − 2λx3 − λx4 = −λ − 1

 x1 + λx2 + 2x3 − λx4 =0


(λ + 1)x1 − x2 + 2x3 + x4 =0

a) Stabilire per quali valori di λ il sistema è compatibile.


b) In tutti i casi in cui il sistema è compatibile, determinare la soluzione generale.

Soluzione. Riduciamo il sistema. Scriviamo la 2a equazione cambiata di segno:


   
1 −1 2 1 0 1 −1 2 1 0
R2 →R2 +R1
 −1 1 2λ λ λ + 1  0 0 2(λ + 1) λ+1 λ + 1
  R3 →R3 +λR1  
  −−−−−−−−→  
 1 λ 2 −λ 0  R4 →R4 −R1 λ + 1 0 2(λ + 1) 0 0 
λ + 1 −1 2 1 0 λ 0 0 0 0

Chiamiamo (A 0 |B 0 ) la matrice trovata e studiamo il sistema ridotto A 0 X = B 0 .


Dobbiamo distinguere i casi λ = 0, λ = −1 e λ 6= 0, −1.
. . . continua.
Slide 13/14

lezione 12

Se λ = −1 la 2a e la 3a equazione scompaiono. Dalla quarta si ricava x1 = 0, che


sostituito nella 1a equazione dà:
−x2 + 2x3 + x4 = 0 ⇒ (x1 , x2 , x3 , x4 ) = (0, 2t1 + t2 , t1 , t2 ) ∀ t1 , t2 ∈ R .
Se λ 6= −1 possiamo semplificare la 2a e la 3a riga dividendole per λ + 1 ed ottenere:
   
1 −1 2 1 0 0 −1 0 1 0
1    1
λ+1 2  0 0 2 1 1 R1 →R1 −R3 0 0 2 1
R2 → R 
(A 0 |B 0 ) −−−−−−−→  −−−−−−−− →   
R3 →
1
R 1 0 2 0 0 semplificazione
ulteriore 1 0 2 0 0
λ+1 3
λ 0 0 0 0 λ 0 0 0 0
Il sistema associato è
 

 −x2 + x4 =0 
 x2 = x4 = 1 − 2x3

 

2x3 + x4 =1 x4 = 1 − 2x3
=⇒

 x1 + 2x3 =0 
 x1 = −2x3

 

λx1 =0 λx1 =0
Se λ = 0 il sistema ammette infinite soluzioni, date da (poniamo x3 = t):
(x1 , x2 , x3 , x4 ) = (−2t, −2t + 1, t, −2t + 1) ∀ t ∈ R
Se λ 6= 0, −1 il sistema ammette un’unica, data da:
(x1 , x2 , x3 , x4 ) = (0, 1, 0, 1) X
Slide 14/14
lezione 13

Insiemi ortonormali (§9.1)


Definizione 9.1.2
Un insieme {u 1 , u 2 , . . . , u k } di vettori di uno spazio metrico V si dice ortogonale se

i) hu i , u j i = 0 per ogni i 6= j (1 6 i, j 6 k);

se in aggiunta

ii) ku i k = 1 per ogni i = 1, . . . , k.

allora l’insieme si dice ortonormale.

Esempi
I Sia V = R2 con prodotto scalare canonico. Se u 1 = (1, 1) e u 2 = (1, −1), l’insieme
{u 1 , u 2 } è ortogonale. Quindi B = (u 1 , u 2 ) è una base ortogonale di R2 .
I Sia V = R3 con prodotto scalare canonico. Se u 1 = (1, 0, 1) e u 2 = (1, 0, −1),
l’insieme {u 1 , u 2 } è ortogonale (non è una base, poiché R3 ha dimensione 3).
I La base canonica di Rn è ortonormale rispetto al prodotto scalare canonico.

Slide 1/16

lezione 13

Proposizione 8.4.3
Un insieme I = {v 1 , . . . , v m } ⊂ V ortogonale è libero se e solo se 0 ∈
/ I.

Dimostrazione. Dobbiamo dimostrare l’implicazione “ ⇐ ”. Sia

u := a1 v 1 + a2 v 2 + . . . + am v m .

Per la linearità del prodotto scalare:

hu, v i i = a1 hv 1 , v i i + a2 hv 2 , v i i + . . . + am hv m , v i i .

Per ipotesi hv i , v j i = 0 ∀ i 6= j, quindi tutti i termini della somma escluso l’i-esimo


sono zero, e
hu, v i i = ai hv i , v i i = ai kv i k2 .

Per ipotesi v i 6= 0 , quindi ||v i || 6= 0 e

u=0 =⇒ hu, v i i = ai ||v i ||2 = 0 =⇒ ai = 0

per ogni i = 1, . . . , m. Questo prova che l’insieme I è libero. 

Slide 2/16
lezione 13

Osservazione 9.1.1
In uno spazio vettoriale di dimensione n, n vettori non nulli e ortogonali fra loro formano
una base (sono linearmente indipendenti e, per l’osservazione 7.1.6, in uno spazio di
dimensione n, n vettori linearmente indipendenti formano una base).

Definizione
In analogia con l’esempio di R2 (con prodotto scalare canonico), dati due vettori v e w
di uno spazio metrico V , il vettore
hw, vi
w
kwk2

si dice proiezione di v in direzione di w , e viene indicato con il simbolo “ pr w (v) ”.

Slide 3/16

lezione 13

Metodo di Gram-Schmidt (§9.2)


Sia (v 1 , v 2 , . . . , v n ) una base di uno spazio metrico V . E’ possibile ricavare da essa
una base ortonormale come illustrato nel seguito (metodo di Gram-Schmidt). Il primo
passo è definire dei vettori (w 1 , w 2 , . . . , w n ) in maniera ricorsiva, ponendo:

w 1 := v 1

e per ogni i = 2, . . . , n:

Xi−1 hv i , w j i Xi−1
w i := v i − wj = vi − pr w j (v i )
j=1 kw j k2 j=1

Lemma 9.2.1. L’insieme B = (w 1 , w 2 , . . . , w n ) è una base ortogonale di V .

Il secondo passo consiste nel “normalizzare” i vettori ottenuti. Chiamiamo


w1 w2 wn
u1 = , u2 = , ... un = .
kw 1 k kw 2 k kw n k

Corollario. L’insieme (u 1 , u 2 , . . . , u n ) è una base ortonormale di V .


Slide 4/16
lezione 13

Dimostrazione del Lemma 9.2.1. Per l’osservazione 9.1.1, è sufficiente dimostrare che
i vettori di B sono non nulli e ortogonali fra di loro.

Notiamo che w i ∈ L(v 1 , . . . , v i ). I vettori di B sono non nulli, infatti w 1 = v 1 6= 0 e


per i > 2, se per assurdo fosse w i = 0 , se ne dedurrebbe che
Xi−1 hv i , w j i
vi = wj
j=1 kw j k2

appartiene a L(v 1 , . . . , v i−1 ), contraddicendo l’ipotesi che (v 1 , . . . , v n ) è una base.

L’ortogonalità si dimostra per induzione. Chiaramente {w 1 } è un insieme ortogonale.


Sia 2 6 i 6 n. Per ipotesi induttiva, assumiamo che {w 1 , w 2 , . . . , w i−1 } siano a due
a due ortogonali, e mostriamo che w i ⊥ w k ∀ 1 6 k 6 i − 1. Per costruzione
 Xi−1 hv i , w j i  Xi−1 hv i , w j i
hw k , w i i = wk, vi − w j = hw k , v i i − hw k , w j i
j=1 kw j k2 j=1 kw j k2

Ma hw k , w j i = 0 ∀ j 6= k (ipotesi induttiva), quindi

hv i , w k i
hw k , w i i = hw k , v i i − hw k , w k i = 0
kw k k2 
Slide 5/16

lezione 13

Esercizio
Determinare una base ortonormale del sottospazio V ⊂ R4 generato dai tre vettori
(linearmente indipendenti) v 1 = (1, 1, 1, 0), v 2 = (0, 1, 2, 0) e v 3 = (5, 3, −5, 3).

Soluzione. Come primo passo calcoliamo i vettori

w 1 = v 1 = (1, 1, 1, 0) ,
h(1,1,1,0),(0,1,2,0)i
w 2 = v 2 − pr w 1 (v 2 ) = (0, 1, 2, 0) − k(1,1,1,0)k2
(1, 1, 1, 0)

= (0, 1, 2, 0) − 33 (1, 1, 1, 0) = (−1, 0, 1, 0) ,


w 3 = v 3 − pr w 1 (v 3 ) − pr w 2 (v 3 )
h(5,3,−5,3),(1,1,1,0)i h(5,3,−5,3),(−1,0,1,0)i
= (5, 3, −5, 3) − k(1,1,1,0)k2
(1, 1, 1, 0) − k(−1,0,1,0)k2
(−1, 0, 1, 0)

= (5, 3, −5, 3) − 33 (1, 1, 1, 0) + 10


2
(−1, 0, 1, 0) = (−1, 2, −1, 3) .
Normalizzando i vettori otteniamo una base ortonormale (u 1 , u 2 , u 3 ):
w1 w2
u1 = = √1 (1, 1, 1, 0) , u2 = = √1 (−1, 0, 1, 0) ,
kw 1 k 3 kw 2 k 2

w3
u3 = = √1 (−1, 2, −1, 3) .
kw 3 k 15
X
Slide 6/16
lezione 13

Proprietà delle basi ortonormali (§9.1)


Proposizione 9.1.4
Sia B = (u 1 , u 2 , . . . , u n ) una base ortonormale di V , e v ∈ V un vettore qualsiasi. La
componente i-esima di v nella base B è data da

hv, u i i .
Ovvero:
v = hv, u 1 i u 1 + hv, u 2 i u 2 + . . . + hv, u n i u n
= pr u 1 (v) + pr u 2 (v) + . . . + pr u n (v) .

Dimostrazione. Indichiamo con a1 , . . . , an ∈ R le componenti di v , ovvero

v = a1 u 1 + . . . + an u n .

Da (i) e (ii) della definizione 9.1.2 e dalla linearità del prodotto scalare segue che
X X
hv, u i i = ai hu i , u i i + aj hu j , u i i = ai ku i k2 + aj · 0 = ai
j6=i j6=i

cioè ai = hv, u i i , per ogni i = 1, . . . , n. 


Slide 7/16

lezione 13

Esercizio
Nello spazio vettoriale R2 con prodotto scalare canonico, si consideri la base
ortonormale formata dai vettori

u 1 = 15 (3, 4) u 2 = 15 (4, −3)

Determinare le componenti del vettore

v = (8, −1)
nella base B = (u 1 , u 2 ).

Soluzione. Dobbiamo determinare due numeri reali a1 , a2 tali che v = a1 u 1 + a2 u 2 .


Tipicamente, bisognerebbe risolvere due equazioni nelle incognite a1 , a2 . Siccome
però B è ortonormale, dalla Proposizione 9.1.4 segue che

a1 = hv, u 1 i = v · t u 1 = 15 (8 · 3 − 1 · 4) = 4

a2 = hv, u 2 i = v · t u 2 = 15 (8 · 4 + 1 · 3) = 7
X

Slide 8/16
lezione 13

Sottospazi ortogonali (§9.3)

Definizione 9.3.2
Sia V uno spazio metrico e W ⊆ V un sottospazio. L’insieme

W ⊥ := v ∈ V : hv, wi = 0 ∀ w ∈ W

è detto complemento ortogonale di W in V .

Proposizione 9.3.3
W ⊥ è un sottospazio vettoriale di V .

Dimostrazione. Per ogni a1 , a2 ∈ R, v 1 , v 2 ∈ W ⊥ , il vettore a1 v 1 + a2 v 2 soddisfa

ha1 v 1 + a2 v 2 , wi = a1 hv 1 , wi + a2 hv 2 , wi = 0

per ogni w ∈ W . Quindi a1 v 1 + a2 v 2 ∈ W ⊥ e per il criterio c) della proposizione 4.3.3


l’insieme W ⊥ è un sottospazio vettoriale di V . 

Slide 9/16

lezione 13

Lemma 9.3.1
Siano v, w 1 , w 2 , . . . , w k vettori di uno spazio metrico V . Se v è ortogonale a ciascuno
dei vettori w 1 , w 2 , . . . , w k , allora è ortogonale ad ogni loro combinazione lineare.

Dimostrazione. Per ipotesi hv, w i i = 0 ∀ 1 6 i 6 k. Dalla linearità del prodotto scalare


segue che

hv, a1 w 1 + a2 w 2 + . . . + ak w k i = a1 hv, w 1 i + a2 hv, w 2 i + . . . + ak hv, w k i = 0

per ogni a1 , . . . , ak ∈ R. 

Corollario (Osservazione 9.3.4)


Sia W = L(w 1 , w 2 , . . . , w k ) un sottospazio di V . Allora:

W ⊥ = v ∈ V : hv, w i i = 0 ∀ i = 1, . . . , k .

Esercizio

Sia W = L (1, 0, 1) , (1, 1, 1) ⊂ R3 . Determinare il complemento ortogonale W ⊥ .

Slide 10/16
lezione 13

Enunciamo senza dimostrazione:

Proposizione (Corollario 9.3.7)


Sia V uno spazio metrico finitamente generato e U, W ⊆ V due sottospazi. Allora:

1. {0}⊥ = V e V ⊥ = {0};
(ogni vettore è ortogonale a 0 , e 0 è l’unico vettore ortogonale a tutti i vettori di V )

2. W ∩ W ⊥ = {0}; W + W ⊥ = V ;

3. dim(W) + dim(W ⊥ ) = dim(V);

4. se U = W ⊥ , allora U⊥ = W .
(la relazione “essere il complemento ortogonale di” è simmetrica)

Slide 11/16

lezione 13

Osservazione sui sistemi lineari

Sia A = (aij ) ∈ Rm,n , ed a i = (ai1 , ai2 , . . . , ain ) ∈ Rn la sua i-esima riga.


Una soluzione di un sistema omogeneo di m equazioni in n incognite


 a11 x1 + a12 x2 + . . . + a1n xn = 0


 a21 x1 + a22 x2 + . . . + a2n xn = 0
Σ: .. ..

 . .



am1 x1 + am2 x2 + . . . + amn xn = 0

è un vettore x = (x1 , x2 , . . . , xn ) ∈ Rn ortogonale a tutti i vettori a i (rispetto al


prodotto scalare canonico):

ha i , xi = ai1 x1 + ai2 x2 + . . . + ain xn = 0 ∀16i6m.

Se W ⊆ Rn è lo spazio generato dalle righe di A, e SΣ lo spazio delle soluzioni del


sistema, allora
SΣ = W ⊥ .

Slide 12/16
lezione 13

Esempio
Sia

W = {(x, y) ∈ R2 : 2x + y = 0}

Una base di W è data dalla soluzione w = (1, −2) .


Il vettore u = (2, 1) , unica riga della matrice dei coefficienti, è una base di W ⊥ .

W
W⊥
u

Slide 13/16

lezione 13

Esercizio (esame del 04/07/2011)


Sia V il seguente sottospazio di R4 :

V := L (0, 1, 5, −1), (1, 1, 0, 1), (2, 1, 0, 0), (3, 3, 5, 0) .

a) Si determini, se esiste, una base di V .


b) Dire se il vettore w = (1, −2, 0, 1) appartiene al complemento ortogonale di V .

Soluzione. a) Riduciamo la matrice 4 × 4 che ha per righe i generatori di V :


       
2 1 0 0 2 1 0 0 2 1 0 0 v1
R2 →R2 −R1
1 1 0 1  0 0 1  0 0 1  
  R3 →R3 −3R1 −1  R4 →R4 +R2 −1  v2
  −−−−−−−→   −−−−−−−→  = 
3 3 5 0 R4 →R4 −R1 −3 0 5 0 −3 0 5 0  v 3 
0 1 5 −1 −2 0 5 −1 −3 0 5 0 ∗
Una base di V è data da B = (v 1 , v 2 , v 3 ).

b) Si ha:
hv 1 , wi = 2 · 1 + 1 · (−2) + 0 · 0 + 0 · 1 = 2−2=0
hv 2 , wi = −1 · 1 + 0 · (−2) + 0 · 0 + 1 · 1 = −1 + 1 = 0
hv 3 , wi = −3 · 1 + 0 · (−2) + 5 · 0 + 0 · 1 = −3 6= 0 =⇒ / V⊥
w∈ X
Slide 14/16
lezione 13

Esercizio (esame del 04/07/2011)


Si consideri il seguente sistema lineare dipendente da un parametro λ ∈ R:


 3x1 + λx3 = 0
x1 + (λ − 3)x2 + x3 = 0


λx1 + 3x3 = 0

a) dire per quali valori di λ il sistema ammette infinite soluzioni;


b) per i valori di λ trovati al punto a), scrivere una base per lo spazio delle soluzioni.

Soluzione. a) Calcoliamo il determinante della matrice dei coefficienti (con sviluppo di


Laplace rispetto alla 2a colonna):

3 0 λ 3 0 λ


|A| = 1 λ−3 1 = (λ − 3) 1 λ−3 1 = (λ − 3)(9 − λ2 )

λ 0 3 λ 0 3

Le soluzioni sono infinite se e solo se |A| = 0, ovvero

λ = ±3 .

Slide 15/16

lezione 13

b1) Sia Wλ lo spazio delle soluzioni. Per λ = 3 il sistema diventa:




 3x1 + 3x3 = 0
x1 + x3 = 0 =⇒ (x1 , x2 , x3 ) = (t1 , t2 , −t1 ) ∀ t1 , t2 ∈ R


3x1 + 3x3 = 0
Due generatori v 1 , v 2 di W3 si ottengono scegliendo (t1 , t2 ) = (1, 0) e (t1 , t2 ) = (0, 1):

v 1 = (1, 0, −1) v 2 = (0, 1, 0)

I due vettori sono linearmente indipendenti (verificare), quindi formano una base.

b2) Per λ = −3 il sistema diventa:


 

 3x1 − 3x3 = 0 
 3x1 − 3x3 = 0
E2 →E2 + 13 E1
x1 − 6x2 + x3 = 0 −−−−−−−−→ 2x1 − 6x2 = 0

 E3 →E3 +E1 

−3x1 + 3x3 = 0 0=0
La soluzione generale è

(x1 , x2 , x3 ) = (t, 13 t, t) ∀ t ∈ R .
Una base di W−3 è data da una qualsiasi soluzione non nulla, ad esempio scegliendo
t = 3 si ottiene il vettore (3, 1, 3). X
Slide 16/16
lezione 14

Applicazioni lineari (§13.1)


Definizione 13.1.1
Una applicazione f : V → W fra due spazi vettoriali V e W si dice lineare se per ogni
v 1 , v 2 ∈ V e λ1 , λ2 ∈ R si ha

f(λ1 v 1 + λ2 v 2 ) = λ1 f(v 1 ) + λ2 f(v 2 ) .

Nel caso in cui V = W , l’applicazione f è detta endomorfismo di V .

Osservazione
Una applicazione f : V → W è lineare se e solo se è:

i) additiva: f(v 1 + v 2 ) = f(v 1 ) + f(v 2 ) ∀ v 1 , v 2 ∈ V ;


ii) omogenea di 1◦ grado: f(λv) = λf(v) ∀ λ ∈ R, v ∈ V .

Esempi
1 f : R → R, f(x) = x è lineare. 3 f : R2 → R, f(x, y) = x + 2y è lineare.
2 f : R → R, f(x) = x2 non è lineare. 4 f : R → R2 , f(x) = (3x, x) è lineare.
Slide 1/18

lezione 14

Definizione (Esempio 13.1.7)


Ad ogni A ∈ Rk,n è associata una applicazione LA : Rn → Rk data da
 
a11 x1 + a12 x2 + . . . + a1n xn
a x + a x + ... + a x 
 21 1 22 2 2n n 
LA (x) = A · x = 
 .. 

 . 
ak1 x1 + ak2 x2 + . . . + akn xn

per ogni x = t (x1 , . . . , xn ) ∈ Rn . (Per comodità, scriviamo le n-uple in una colonna.)

Proposizione
Per ogni A ∈ Rk,n , l’applicazione LA è lineare.

Dimostrazione. Se v e w sono due vettori di Rn (scritti come vettori colonna) e


a, b ∈ R, allora dalla bilinearità del prodotto righe per colonne segue che

LA (av + bw) = A · (av + bw) = a(Av) + b(Aw) = a LA (v) + b LA (w)




Slide 2/18
lezione 14

Proposizione 13.1.9
Sia f : V → W una applicazione lineare. Allora:

1. f(0 V ) = 0 W .

2. per ogni n > 1, per ogni v 1 , . . . , v n ∈ V e per ogni λ1 , . . . , λn ∈ R, si ha

f(λ1 v 1 + λ2 v 2 + . . . + λn v n ) = λ1 f(v 1 ) + λ2 f(v 2 ) + . . . + λn f(v n ) .

Dimostrazione punto 1. Dall’omogeneità di 1◦ grado, applicata nel caso particolare in


cui λ = 0 e v = 0 V si ottiene

f(0 V ) = f(0 · 0 V ) = 0 · f(0 V ) = 0 W .



Esempio 13.1.10+
L’applicazione f : R → R data da f(x) = x + 2 non è lineare, in quanto f(0) 6= 0.
L’applicazione g : R2 → R3 data da
g(x, y) = (1, x, y + 1)
non è lineare, in quanto g(0, 0) = (1, 0, 1) 6= (0, 0, 0).

Slide 3/18

lezione 14

Proposizione 13.1.9
Sia f : V → W una applicazione lineare. Allora:

1. f(0 V ) = 0 W .

2. per ogni n > 1, per ogni v 1 , . . . , v n ∈ V e per ogni λ1 , . . . , λn ∈ R, si ha

f(λ1 v 1 + λ2 v 2 + . . . + λn v n ) = λ1 f(v 1 ) + λ2 f(v 2 ) + . . . + λn f(v n ) .

Dimostrazione punto 2. Si dimostra per induzione. L’affermazione per n = 1 è


semplicemente l’omogeneità di 1◦ grado dell’applicazione: f(λ1 v 1 ) = λ1 f(v 1 ).

Se (ipotesi induttiva) l’affermazione al punto 2 è vera per un qualche valore di n > 1,


allora è vera anche per n + 1. Detto infatti v 0 = λ1 v 1 + λ2 v 2 + . . . + λn v n si ha

f(λ1 v 1 + λ2 v 2 + . . . + λn v n + λn+1 v n+1 ) = f(v 0 + λn+1 v n+1 )

= f(v 0 ) + λn+1 f(v n+1 ) = λ1 f(v 1 ) + λ2 f(v 2 ) + . . . + λn f(v n ) + λn+1 f(v n+1 ) ,

dove la seconda uguaglianza segue dalla definizione 13.1.1 di applicazione lineare e


la terza dall’ipotesi induttiva. 
Slide 4/18
lezione 14

Proposizione
Per ogni app. lineare f : Rn → Rk esiste una (e una sola) matrice A ∈ Rk,n , detta
matrice rappresentativa di f rispetto alle basi canoniche di Rn ed Rk , tale che f = LA .

Dimostrazione. Per convenienza di notazione, scriviamo i vettori di Rn e di Rk in una


colonna. Sia (e 1 , . . . , e n ) la base canonica di Rn , ed (e 10 , . . . , e k0 ) la base canonica di
Rk (con un apice per distinguerla dalla prima). Per definizione di base, è possibile
scrivere (in un unico modo) f(e j ) ∈ Rk come combinazione lineare:

f(e j ) = a1j e 10 + a2j e 20 + . . . + akj e k0 ⇐=

Detta A ∈ Rk,n la matrice di elementi aij , per ogni n-upla


n
X
t
x = (x1 , x2 , . . . , xn ) = xj e j
j=1

di Rn , dalla linearità di f segue che:


 
a11 x1 + a12 x2 + . . . + a1n xn
Xn Xn Xk  a21 x1 + a22 x2 + . . . + a2n xn 
0
 
f(x) = xj f(e j ) = xj aij e i = 
 .  = LA (x) .

 . 
j=1 j=1 i=1 .
ak1 x1 + ak2 x2 + . . . + akn xn

Slide 5/18

lezione 14

Definizione
Siano V e W due spazi vettoriali, B = (v 1 , . . . , v n ) una base di V e B 0 = (w 1 , . . . , w k )
una base di W . Data una app. lineare f : V → W , chiamiamo matrice rappresentativa
di f rispetto alle basi B e B 0 la matrice A = (aij ) ∈ Rk,n determinata da

f(v j ) = a1j w 1 + a2j w 2 + . . . + akj w k ∀ j = 1, . . . , n

La j-esima colonna di A ha per elementi le componenti del vettore f(v j ) nella base B 0 .
Per definizione di base, la matrice rappresentativa di f è univocamente determinata.
Usando la linearità di f, si verifica facilmente che le componenti di un vettore

u = x1 v 1 + x2 v 2 + . . . + xn v n

e le componenti della sua immagine, qui indicate con yj :

f(u) = y1 w 1 + y2 w 2 + . . . + yk w k

sono legate dalla relazione


y = Ax ,
con x = t (x1 , . . . , xn ) e y = t (y1 , . . . , yk ).

Slide 6/18
lezione 14

Esercizio
Siano B = (v 1 , v 2 ) e B 0 = (w 1 , w 2 ) le basi di R2 formate dai vettori seguenti, ed
f = LA : R2 → R2 l’applicazione lineare associata alla matrice seguente:
" # " # " #
1 1 1 2
v1 = w1 = , v2 = w2 = , A= .
1 −1 3 4

Determinare la matrice rappresentativa, sia essa A 0 , di f rispetto alle basi B e B 0 .

Soluzione. " # " # " #


3 1 1
f(v 1 ) = A · v 1 = =5 −2 = 5v 1 − 2v 2
7 1 −1
" #
−1
f(v 2 ) = A · v 2 = = −1v 1 + 0v 2
−1
Quindi la matrice A 0 è data da
" #
5 −1
A0 =
−2 0
Notiamo che la stessa applicazione lineare f è rappresentata da matrici differenti (in
questo esempio A e A 0 ) in basi differenti. X
Slide 7/18

lezione 14

Esercizi

Esercizio (C. Carrara, es. 8.5)


Determinare una applicazione lineare f : R2 → R2 tale che

f(1, 1) = (1, 2) , f(0, 2) = (4, 4) .

Esercizio (C. Carrara, es. 8.3)


Stabilire se esiste una applicazione lineare f : R2 → R2 tale che

f(1, 2) = (3, 0) , f(2, 7) = (4, 5) , f(1, 5) = (1, 4) .

Esercizio (C. Carrara, es. 8.4)


Stabilire se esiste una applicazione lineare f : R2 → R2 tale che

f(1, 2) = (3, 0) , f(2, 4) = (5, 0) , f(0, 1) = (1, 1) .

Slide 8/18
lezione 14

Nucleo, immagine e loro proprietà (§13.2)


Se S ⊆ V è un sottoinsieme ed f : V → W una applicazione, indichiamo con f(S) il
sottoinsieme di W dei vettori che sono immagine di (almeno) un vettore di S:

f(S) := w = f(v) : v ∈ S .
In particolare l’insieme Im(f) = f(V) è detto immagine dell’applicazione f. L’insieme

N(f) := v ∈ V : f(v) = 0 W
è detto nucleo di f.

Esempio
Sia f : R2 → R2 l’applicazione f(x, y) := (x + y, x + y) .
Il nucleo di f è l’insieme delle coppie (x, y) che risolvono l’equazione x + y = 0. Quindi:
 
N(f) = (t, −t) : t ∈ R = L (1, −1)
L’immagine di f è l’insieme dei vettori di R2 che hanno la prima componente uguale alla
seconda. Quindi:
 
Im(f) = (t, t) : t ∈ R = L (1, 1)

Slide 9/18

lezione 14

Proposizione 13.2.1
Sia f : V → W una applicazione lineare. Allora:

1. N(f) è un sottospazio di V ;
2. se S ⊆ V è un sottospazio, allora anche f(S) ⊆ W è un sottospazio;
(f trasforma sottospazi in sottospazi; in particolare f(V) è un sottospazio di W )
3. se I è un insieme di generatori di S, allora f(I) è un insieme di generatori di f(S).
(f trasforma insiemi di generatori in insiemi di generatori)

Dimostrazione punto 1. Siano λ1 , λ2 ∈ R e v 1 , v 2 ∈ N(f), ovvero v 1 e v 2 sono vettori


di V che soddisfano
f(v 1 ) = f(v 2 ) = 0 W .
Dalla linearità di f segue che:

f(λ1 v 1 + λ2 v 2 ) = λ1 f(v 1 ) + λ2 f(v 2 ) = λ1 0 W + λ2 0 W = 0 W ,

ovvero
λ1 v 1 + λ2 v 2 ∈ N(f) .
Per il criterio c) della proposizione 4.3.3, N(f) è un sottospazio di V .
Slide 10/18
lezione 14

Proposizione 13.2.1
Sia f : V → W una applicazione lineare. Allora:

1. N(f) è un sottospazio di V ;
2. se S ⊆ V è un sottospazio, allora anche f(S) ⊆ W è un sottospazio;
(f trasforma sottospazi in sottospazi; in particolare f(V) è un sottospazio di W )
3. se I è un insieme di generatori di S, allora f(I) è un insieme di generatori di f(S).
(f trasforma insiemi di generatori in insiemi di generatori)

Dimostrazione punto 2. Sia S ⊆ V un sottospazio, w 1 , w 2 ∈ f(S) e λ1 , λ2 ∈ R.


Per definizione esistono v 1 , v 2 ∈ S tali che

w 1 = f(v 1 ) w 2 = f(v 2 )

Dalla linearità di f segue che

w := λ1 w 1 + λ2 w 2 = λ1 f(v 1 ) + λ2 f(v 2 ) = f(λ1 v 1 + λ2 v 2 ) .

Siccome S è per ipotesi un sottospazio, allora v = λ1 v 1 + λ2 v 2 ∈ S , e quindi


w = f(v) appartiene f(S) ( w è immagine tramite f di un vettore di S). Per il criterio c)
della proposizione 4.3.3, f(S) è un sottospazio di W .
Slide 11/18

lezione 14

Proposizione 13.2.1
Sia f : V → W una applicazione lineare. Allora:

1. N(f) è un sottospazio di V ;
2. se S ⊆ V è un sottospazio, allora anche f(S) ⊆ W è un sottospazio;
(f trasforma sottospazi in sottospazi; in particolare f(V) è un sottospazio di W )
3. se I è un insieme di generatori di S, allora f(I) è un insieme di generatori di f(S).
(f trasforma insiemi di generatori in insiemi di generatori)

Dimostrazione punto 3. Siano v 1 , v 2 , . . . , v n dei generatori di S. Per ogni w ∈ f(S)


esiste v ∈ S tale che f(v) = w . Possiamo scrivere v come combinazione lineare dei
generatori di S:
v = λ1 v 1 + λ2 v 2 + . . . + λn v n ,
con λ1 , . . . , λn ∈ R, e dalla linearità di f ricaviamo

w = λ1 f(v 1 ) + λ2 f(v 2 ) + . . . + λn f(v n ) .

Siccome questo vale per ogni w ∈ f(S), i vettori f(v 1 ), . . . , f(v n ) sono un insieme di
generatori di f(S). 
Slide 12/18
lezione 14

Osserviamo che per definizione f : V → W è suriettiva se e solo se Im(f) = W .

Proposizione 13.2.2
Una applicazione lineare f : V → W è iniettiva se e solo se N(f) = {0 V }.

Dimostrazione. Ricordiamo che f è iniettiva se f(v) = f(v 0 ) se e solo se v = v 0 .


Se N(f) contiene un vettore v non nullo, allora f(v) = 0 W = f(0 V ) ed f non è iniettiva.
Viceversa se N(f) = {0 V }, allora il vettore

f(v) − f(v 0 ) = f(v − v 0 )

è nullo se e solo se
v − v 0 = 0V ,
ovvero v = v 0 . Questo prova l’iniettività di f. 

Esempio
L’applicazione
f : R2 → R , f(x, y) = x + y
non è inettiva. Infatti il nucleo contiene vettori non nulli, come il vettore (1, −1).
Slide 13/18

lezione 14

Proposizione 13.2.3
Sia f : V → W applicazione lineare iniettiva. Se I = {v 1 , v 2 , . . . , v n } è un insieme

di vettori di V linearmente indipendenti, allora f(I) = f(v 1 ), f(v 2 ), . . . , f(v n ) è un
insieme di vettori di W linearmente indipendenti.
(una applicazione lineare iniettiva trasforma insiemi liberi in insiemi liberi)

Dimostrazione. Indichiamo con w i l’immagine del vettore v i (per ogni 1 6 i 6 n):

w i = f(v i )

Per assurdo, assumiamo che a1 w 1 + a2 w 2 + . . . + an w n = 0 W per qualche scelta


di coefficienti non tutti nulli. Dalla linearità di f segue:

f(a1 v 1 + . . . + an v n ) = a1 f(v 1 ) + . . . + an f(v n )


= a1 w 1 + . . . + an w n = 0 W ,

cioè a1 v 1 + . . . + an v n ∈ N(f) . Siccome N(f) = {0 V } (f è iniettiva), segue che

a1 v 1 + . . . + an v n = 0 V

contraddicendo l’ipotesi che I fosse un insieme libero. 


Slide 14/18
lezione 14

Una immediata conseguenza delle Proposizioni 13.2.1(3) e 13.2.3 è:

Corollario
Se f : V → W applicazione lineare iniettiva e B = (v 1 , v 2 , . . . , v n ) è una base di V ,

allora f(B) = f(v 1 ), f(v 2 ), . . . , f(v n ) è una base di Im(f) ⊆ W .
(una applicazione lineare iniettiva trasforma basi di V in basi di f(V))

In particolare, se V è finitamente generato ed f : V → W è una applicazione lineare


iniettiva, allora:
dim Im(f) = dim(V)

Se V 6= {0 V }, questa è una conseguenza del precedente corollario.


Se V = {0 V } (quindi, non esiste una base di V ), allora Im(f) = {0 W } e l’uguaglianza
diventa un banale 0 = 0.

Slide 15/18

lezione 14

Teorema 13.2.5 (Teorema della dimensione)


Se V è finitamente generato ed f : V → W è una applicazione lineare, allora:

dim N(f) + dim Im(f) = dim(V) .

Dimostrazione (1a parte). Se N(f) = {0 V }, la dimostrazione è banale: dim N(f) = 0 e,


poiché f è iniettiva, per quanto detto in precedenza dim Im(f) = dim(V) .
Supponiamo che N(f) 6= {0 V }. Indichiamo con n la dimensione di V , k la dimensione
di N(f) e sia (v 1 , . . . , v k ) una base di N(f). Usando il metodo del completamento ad
una base, possiamo completare tale insieme ad una base

(v 1 , . . . , v k , v k+1 , . . . , v n )

di V . Osserviamo che f si annulla sui primi k vettori di base, e

w 1 = f(v k+1 ) w 2 = f(v k+2 ) ... w n−k = f(v n )

sono generatori di Im(f). Facciamo ora vedere che sono linearmente indipendenti, da
cui segue che sono una base di Im(f), e quindi la tesi

dim Im(f) = n − k = dim(V) − dim N(f) .


Slide 16/18
lezione 14

Teorema 13.2.5 (Teorema della dimensione)


Se V è finitamente generato ed f : V → W è una applicazione lineare, allora:

dim N(f) + dim Im(f) = dim(V) .

Dimostrazione (2a parte). Dalla linearità di f segue che

a1 w 1 + a2 w 2 + . . . + an−k w n−k = f(a1 v k+1 + a2 v k+2 + . . . + an−k v n )

per ogni a1 , . . . , an ∈ R. La precedente combinazione lineare è nulla se e solo se


l’argomento di f è un vettore del nucleo. Poiché (v 1 , . . . , v k ) è una base di N(f)
questo vuol dire che esistono b1 , . . . , bk ∈ R tali che

a1 v k+1 + a2 v k+2 + . . . + an−k v n = b1 v 1 + b2 v 2 + . . . + bk v k .

Siccome i vettori v 1 , . . . , v n sono linearmente indipendenti, la precedente uguaglianza


si può verificare solo se tutti i coefficienti sono nulli:

a1 = a2 = . . . = an−k = b1 = b2 = . . . = bk = 0

Questo prova in particolare che i vettori w 1 , . . . , w n−k sono linearmente indipendenti. 


Slide 17/18

lezione 14

Corollari
Sia f : V → W una applicazione lineare fra due spazi finitamente generati. Allora:

1. f suriettiva =⇒ dim(V) > dim(W) ;


2. f iniettiva =⇒ dim(V) 6 dim(W) ;
3. f biunivoca =⇒ dim(V) = dim(W) .

Dimostrazione.
1. Se f è suriettiva (quindi Im(f) = W ), dal teorema della dimensione segue che

dim(V) = dim N(f) + dim(W) > dim(W)

2. Se f è iniettiva (quindi N(f) = 0), dal teorema della dimensione segue che

dim(V) = dim Im(f) 6 dim(W)

(l’ultima disuguaglianza segue dal fatto che Im(f) ⊆ W è un sottospazio)

3. Se f è sia iniettiva che suriettiva, chiaramente dim(V) = dim(W). 

Slide 18/18
lezione 15

Applicazioni e sistemi lineari (§14.1)


Sia A = (aij ) ∈ Rk,n ed LA : Rn → Rk l’applicazione lineare associata, data dal
prodotto righe per colonne

LA (x) := Ax ∀ x = t (x1 , . . . , xn ) ∈ Rn

Un vettore B = t (b1 , . . . , bk ) ∈ Rk è nell’immagine di LA ⇐⇒ ∃ x ∈ Rn tale che

Ax = B (?)

Quindi:
I B ∈ Im(LA ) ⇐⇒ il sistema di matrice completa (A|B) è compatibile.
I La soluzione generale di (?) è data dall’insieme di tutti i vettori di Rn che hanno
per immagine la colonna dei termini noti B.

Il nucleo di LA è l’insieme dei vettori x che hanno per immagine il vettore nullo:

Ax = 0

Slide 1/14

lezione 15

Proposizione 14.1.1
Data una soluzione u di un sistema compatibile

Ax = B , (†)

ogni altra soluzione di (†) si può ottenere aggiungendo ad u una soluzione del sistema
omogeneo associato Ax = 0 (ovvero un vettore di N(LA )).

Dimostrazione. Sia v un’altra soluzione del sistema. Dalla linearità del prodotto righe
per colonne segue che

A(v − u) = Av − Au = B − B = 0

ovvero v − u risolve il sistema omogeneo associato.


Viceversa se w è una soluzione del sistema omogeneo associato, cioè Aw = 0, allora
detto v = u + w si ha
Av = Au + Aw = B + 0 = B
ovvero v è soluzione del sistema lineare di matrice completa (A|B). 

Slide 2/14
lezione 15

Rango di una matrice (§14.2)


Sia A = (aij ) ∈ Rk,n e siano e i i vettori della base canonica di Rn (che qui scriviamo
come vettori colonna). E’ immediato verificare che l’immagine di e i tramite LA è data
dall’i-esima colonna della matrice A:
 
a1i
a 
 2i 
LA (e i ) =  . 
 .. 
aki

per ogni i = 1, . . . , n. Siccome una applicazione lineare trasforma generatori in


generatori, le colonne di A generano l’immagine di LA .

Indichiamo con ρcolonne (A) , detto rango per colonne di A, la dimensione dello spazio
generato dalle colonne di A; ovvero la dimensione dell’immagine di LA .

Indichiamo con ρrighe (A) = ρcolonne (tA) , detto rango per righe di A, la dimensione
dello spazio generato dalle righe di A; ovvero la dimensione dell’immagine di LtA .

Slide 3/14

lezione 15

Teorema 14.2.1
Il rango per righe è uguale al rango per colonne:

ρrighe (A) = ρcolonne (A)

per ogni A ∈ Rk,n . Tale numero sarà chiamato rango di A ed indicato con ρ(A).

Dimostrazione (1a parte). La dimensione dello spazio generato dalle righe di A si può
calcolare riducendo la matrice e contando le righe non nulle della matrice ridotta
ottenuta, sia essa A 0 e sia r il numero di righe non nulle. Quindi

ρrighe (A) = r .

. . . continua.

Slide 4/14
lezione 15

Teorema 14.2.1
Il rango per righe è uguale al rango per colonne:

ρrighe (A) = ρcolonne (A)

per ogni A ∈ Rk,n . Tale numero sarà chiamato rango di A ed indicato con ρ(A).

Dimostrazione (2a parte). Il sistema omogeneo Ax = 0 è equivalente ad A 0 x = 0 ,


e le soluzioni di quest’ultimo formano uno spazio di dimensione n − r (il numero di
parametri liberi è dato dal numero di incognite che non moltiplicano pivot). Quindi:

dim N(LA ) = n − r .

Per il teorema della dimensione,

dim N(LA ) + dim Im(LA ) = dim(Rn ) = n .

Ma per definizione dim Im(LA ) = ρcolonne (A). Quindi

ρcolonne (A) = n − dim N(LA ) = n − (n − r) = r = ρrighe (A) .



Slide 5/14

lezione 15

Corollario 14.2.2
Sia A ∈ Rm,n . La dimensione dello spazio delle soluzioni del sistema di equazioni
lineari omogeneo Ax = 0 è n − ρ(A).

Corollario 14.2.3
La soluzione generale di un sistema compatibile di matrice completa (A|B) ∈ Rm,n+1
si può scrivere nella forma

x = v 0 + t1 v 1 + t2 v 2 + . . . + tk v k

dove:

• k = n − ρ(A),
• v 0 è una soluzione particolare del sistema,
• (v 1 , . . . , v k ) è una base dello spazio delle soluzioni del sistema omogeneo Ax = 0 ,
• t1 , t2 , . . . , tk sono parametri reali.

Slide 6/14
lezione 15

Teorema 14.2.4 (Teorema di Rouché-Capelli)


Un sistema di matrice completa (A|B) ∈ Rm,n+1 è compatibile se e solo se

ρ(A|B) = ρ(A) .

Dimostrazione. Ricordiamo che un sistema di matrice completa (A|B) è compatibile se


e solo se il vettore colonna B appartiene all’immagine dell’applicazione LA .

Poiché la matrice (A|B) si ottiene da A aggiungendo una colonna. Si hanno due casi:

1. B è linearmente dipendente dalle colonne di A, ovvero B ∈ Im(LA ) (sistema


compatibile). In questo caso le colonne di A e quelle di (A|B) generano lo stesso
sottospazio di Rm e ρ(A|B) = ρ(A).

2. B è linearmente indipendente dalle colonne di A, ovvero B ∈


/ Im(LA ) (sistema
incompatibile). In questo caso lo spazio generato dalle colonne di (A|B) ha una dimen-
sione in più rispetto allo spazio generato dalle colonne di A, e ρ(A|B) = ρ(A) + 1. 

Osservazione: si ha sempre ρ(A) 6 ρ(A|B) 6 ρ(A) + 1.

Slide 7/14

lezione 15

Proprietà del rango (§14.3)

Osservazioni.
• Siccome ρrighe (A) = ρcolonne (tA) ed il rango per righe coincide con quello per
colonne, si ha ρ(A) = ρ(tA) per ogni matrice A.
• Se A è ridotta per righe, ρ(A) è dato dal numero di righe non nulle di A.
• Se A ∈ Rk,n è triangolare superiore completa, allora ρ(A) = min(k, n).

Proposizione 14.3.1
Se A ∈ Rk,n , allora
ρ(A) 6 min(k, n) .
Diremo che A ha rango massimo se ρ(A) = min(k, n).

Dimostrazione. Se A ∈ Rk,n , l’immagine di LA è contenuta in Rk ed ha dimensione al


più pari ad k. Quindi ρ(A) 6 k. Per lo stesso motivo, ρ(tA) 6 n. Da ρ(A) = ρ(tA)
segue la tesi. 

Slide 8/14
lezione 15

Esercizio 14.4.2
Determinare il rango della matrice:
 
0 1 2 1
0 1 1 1
 
A=  .
0 2 3 2
1 2 2 1

Soluzione (per riduzione).


Riducendo A si ottiene:
   
0 1 2 1 0 1 2 1
R2 →R2 −R1
 0 0 0
R3 →R3 −2R1 0 0 −1  R3 →R3 −R2 0  0 −1 
A −−−−−−−−→   −−−−−−−→ A =   .
R4 →R4 −R1 0 0 −1 0 0 0 0 0
1 1 0 0 1 1 0 0

Quindi ρ(A) = ρ(A 0 ) = 3. X

Slide 9/14

lezione 15

Teorema degli orlati

Definizione 14.3.4
Data una matrice A ∈ Rk,n , una matrice quadrata M ottenuta da A eliminando k − p
righe e n − p colonne si dirà minore di ordine p di A.

Enunciamo senza dimostrazione:

Teorema 14.3.5
A ∈ Rk,n ha rango p se e solo se esiste un minore M di ordine p il cui determinante è
non nullo, e tutti i minori di ordine p + 1 contenenti M hanno determinante nullo.

I minori di ordine p + 1 contenenti un minore M di ordine p si dicono orlati di M, da cui


il nome del teorema.

Slide 10/14
lezione 15

Esercizio
Determinare il rango della matrice
 
1 3 0 1
0 1 1 0
 
 
1 0 −3 1
2 1 −5 2

Soluzione (con il teorema degli orlati).


 
1 3 0 1
 
 0 1 1 0 
 
 
 1 0 −3 1 
 
2 1 −5 2

il minore evidenziato ha determinante diverso da zero e tutti i suoi orlati hanno


determinante nullo. Per il teorema degli orlati, si ha quindi ρ(A) = 2. X

Slide 11/14

lezione 15

Esercizio
Dire se i seguenti vettori di R4 sono linearmente indipendenti
v = (2, 1, −3, 5) , w = (6, 3, −6, 10) .

Soluzione. Scriviamo i due vettori come righe di una matrice 2 × 4:


" #  
v 2 1 −3 5
A := =  
w 6 3 −6 10

Per ogni A ∈ Rm,n si ha ρ(A) 6 min(m, n). In questo caso ρ(A) 6 2.

Siccome il minore evidenziato ha determinante diverso da zero (= −6 + 9 = 3), per il


teorema degli orlati ρ(A) = 2.

Conclusione: le righe di A generano uno spazio di dimensione 2, quindi sono linear-


mente indipendenti (n generatori di uno spazio di dimensione n formano una base). X

Slide 12/14
lezione 15

Esercizio
Dire se il vettore
u = (3, 3, 0)
di R3 è combinazione lineare dei vettori

v 1 = (−1, −4, 3) v 2 = (−3, −5, 2)

Soluzione. Si chiede se esistono dei coefficienti x1 , x2 ∈ R tali che x1 v 1 + x2 v 2 = u .


Riduciamo la matrice completa del sistema
   
h i −1 −3 3 −1 −3 3
t t t   R2 →R2 −4R1  
v1 v 2 u =  −4 −5 3  −−−−−−−→  0 7 −9 
R3 →R3 +3R1
3 2 0 0 −7 9
 
−1 −3 3
R →R +R2  
−−3−−−3−−→  0 7 −9  = (A 0 |B 0 )
0 0 0

Siccome ρ(A 0 ) = ρ(A 0 |B 0 ) = 2, il sistema è compatibile (teorema di Rouché-Capelli).


Quindi u è combinazione lineare dei vettori v 1 e v 2 . X
Slide 13/14

lezione 15

Esercizio (Esame del 30/01/2012)


Si consideri l’applicazione lineare f : R3 → R3 data da:

f(x1 , x2 , x3 ) := ( x1 + x2 , x1 + 2x2 + x3 , x2 + x3 )

a) Determinare la dimensione di nucleo e immagine di f.


b) Il vettore v = (5, 2, −3) è nel nucleo di f? E’ nell’immagine?

Soluzione. Detta A la matrice rappresentativa:


   
1 1 0 5 1 1 0 5
   R2 →R2 −R1  
A| t v =  1 2 1 2  −−−−−−−→  0 1 1 −3  =: (A 0 |B 0 )
0 1 1 −3 0 1 1 −3

ρ(A 0 |B 0 ) = ρ(A 0 ) = 2 ⇒ il sistema è compatibile (Rouché-Capelli) ⇒ v ∈ Im(f).


L’immagine è generata dalle colonne di A. Dall’uguaglianza fra rango per righe e rango
per colonne segue che: dim Im(f) = ρ(A 0 ) = 2 .
Per il teorema della dimensione, dim N(f) = 3 − ρ(A 0 ) = 1 .
Per finire, f(v) = (7, 6, −1) 6= 0 , quindi v ∈
/ N(f) . X
Slide 14/14
lezione 16

Autovalori ed autovettori (§17.1)


Definizione 17.1.1
Sia f : V → V un endomorfismo e v ∈ V un vettore non nullo. Se esiste λ ∈ R tale che

f(v) = λv ,

diremo che λ è un autovalore di f e che v è un autovettore di f associato a λ.

In altre parole, v è autovettore di f se e solo se v ed f(v) hanno la stessa “direzione”.

Esempi
I In R2 , v = (3, 1) è autovettore dell’applicazione f(x, y) := (2x, x − y). Infatti:

f(v) = (6, 2) = 2v
L’autovalore associato è λ = 2.
I In R3 , v = (1, −1, 1) è autovettore di f(x, y, z) := (x + y, x − z, y + z). Infatti:

f(v) = (0, 0, 0) = 0v
L’autovalore associato è λ = 0.
Slide 1/16

lezione 16

Esempio 16.2.7
L’endomorfismo f : R2 → R2 dato da
f(x, y) := (−y, x)
non possiede autovettori: non esiste nessun vettore v = (x, y) non nullo e nessuno
scalare λ ∈ R soddisfacenti la condizione f(v) = λv , ovvero soluzione di

−y = λx
x = λy
Qualunque sia λ ∈ R, l’unica soluzione del sistema è quella nulla.

L’applicazione
(−y, x)
f(x, y) := (−y, x)

rappresenta una rotazione antioraria


x
di 90◦ rispetto all’origine degli assi. (x, y)
y
v ed f(v) possono avere la stessa
direzione solo se v = 0 . y x

Slide 2/16
lezione 16

Definizione 17.1.3
Data A ∈ Mn (R), diremo che v ∈ Rn (vettore colonna) è un autovettore di A di
autovalore λ se v è autovettore di LA di autovalore λ, ovvero è non nullo e soddisfa:

Av = λv .

Esempio
Sia
" #
3 2
A= .
0 1

Il vettore e 1 = t (1, 0) è autovettore di A di autovalore 3:

Ae 1 = 3e 1 .

Il vettore v = t (1, −1) è autovettore di A di autovalore 1: infatti,

Av = v .

Slide 3/16

lezione 16

Definizione 17.1.8
Se λ è un autovalore di f, chiameremo autospazio di f associato a λ l’insieme:

Vλ = v ∈ V : f(v) = λv .

Per estensione, se f = LA diremo che Vλ è un autospazio della matrice A.

Proposizione 17.1.9
Vλ è un sottospazio vettoriale di V .

Dimostrazione. Usiamo il criterio c) della prop. 4.3.3. Siano v 1 , v 2 ∈ Vλ e a1 , a2 ∈ R.


Per definizione di autospazio, f(v 1 ) = λv 1 e f(v 2 ) = λv 2 . Sia w = a1 v 1 + a2 v 2 .
Dalla linearità di f segue che
f(w) = f(a1 v 1 + a2 v 2 ) = a1 f(v 1 ) + a2 f(v 2 )
= a1 λv 1 + a2 λv 2 = λ(a1 v 1 + a2 v 2 ) = λw .
Quindi w = a1 v 1 + a2 v 2 appartiene a Vλ . 

Osservazioni: i) Vλ 6= {0}; ii) ad ogni autovalore sono associati infiniti autovettori!


Slide 4/16
lezione 16

Esempio 17.1.10

• Sia f : R2 → R2 l’applicazione f(x, y) := (2x, 3y). Sono autospazi di f gli insiemi:


 
V2 = (x, 0) : x ∈ R , V3 = (0, y) : y ∈ R .

• Sia f : R2 → R2 data da f(x, y) := (3x + 2y, y). Sono autospazi di f gli insiemi:
 
V1 = (t, −t) : t ∈ R , V3 = (t, 0) : t ∈ R .

Per induzione si dimostra che:

Proposizione 17.1.12
Sia f : V → V una applicazione lineare e siano v 1 , v 2 , . . . , v k degli autovettori di f
associati ad autovalori λ1 , λ2 , . . . , λk distinti (cioè λi 6= λj ∀ i 6= j). Allora l’insieme
{v 1 , v 2 , . . . , v k } è libero.

Esempio
Sia f(x, y) = (3x + 2y, y). Gli autovettori (1, −1) e (1, 0), associati agli autovalori
λ = 1 e λ = 3 rispettivamente, sono linearmente indipendenti. Gli autovettori (1, −1) e
(2, −2), associati allo stesso autovalore λ = 1, non sono linearmente indipendenti.

Slide 5/16

lezione 16

Vediamo la dimostrazione per k = 2. . .

Proposizione 17.1.11
Sia f : V → V una applicazione lineare e siano v 1 , v 2 due autovettori di f associati ad
autovalori λ1 , λ2 distinti (cioè λ1 6= λ2 ). Allora l’insieme {v 1 , v 2 } è libero.

Dimostrazione. Sia per assurdo v 2 = av 1 . Allora

λ2 v 2 = f(v 2 ) = f(av 1 ) = af(v 1 ) = aλ1 v 1 = λ1 v 2 .

Quindi
(λ1 − λ2 )v 2 = 0 .

Ma λ1 − λ2 6= 0 per ipotesi, e v 2 6= 0 per definizione di autovettore. Abbiamo raggiunto


un assurdo: v 2 non può essere proporzionale a v 1 . Siccome v 1 6= 0 e v 2 non è
proporzionale a v 1 , l’insieme {v 1 , v 2 } è libero (teorema 6.1.8). 

Slide 6/16
lezione 16

Ricordiamo che, in uno spazio di dimensione n, un insieme libero può avere al più n
elementi. Un’immediata conseguenza è la seguente:

Corollario 17.1.13
• Se V è uno spazio vettoriale di dimensione n, un endomorfismo f : V → V ha al
più n autovalori distinti.
• Una matrice A ∈ Mn (R) ha al più n autovalori distinti.

Esempi
• Abbiamo visto che l’applicazione f(x, y) = (2x, 3y) ha autovalori λ1 = 2 e λ2 = 3.
Segue dal corollario precedente che questi sono gli unici suoi autovalori.

• Come già visto, la matrice


" #
3 2
A= .
0 1

ha autovalori λ1 = 1, λ2 = 3. Segue dal corollario precedente che A non possiede


altri autovalori oltre ai due citati.
Slide 7/16

lezione 16

I Un tipico problema di algebra lineare consiste nel determinare autovalori ed


autovettori di un endomorfismo o di una matrice. Data A ∈ Mn (R), risolvere il
problema agli autovalori associato vuol dire determinare tutte le possibili coppie
(λ, x), con x ∈ Rn vettore colonna diverso da zero, tali che

Ax = λx (∗)

L’equazione (∗) è detta equazione agli autovalori. La matrice A si suppone nota,


mentre sia le componenti di x sia λ sono incognite che vogliamo determinare.
I Lo studio di autovalori ed autovettori di un endomorfismo f di V si può ridurre al caso
delle matrici, studiando la matrice rappresentativa di f in una qualsiasi base di V .
Vedremo come si risolve il problema nel caso delle matrici.
I Applicazioni:
I geometria (coniche, quadriche);
I fisica classica (i modi di vibrazione di una corda o di una membrana sono autovalori di
una opportuna applicazione lineare);
I fisica quantistica (le righe degli spettri di emissione/assorbimento di un atomo sono
autovalori di una opportuna applicazione lineare);
I economia, elaborazione digitale delle immagini, Google (page ranking), . . .
Slide 8/16
lezione 16

Polinomio caratteristico (§17.2)


Sia A = (aij ) ∈ Mn (R) e x = t (x1 , x2 , . . . , xn ) . L’equazione

Ax = λx

si può riscrivere nella forma

(A − λIn )x = 0 . (†)

Per il teorema di Cramer, l’equazione (†) ammette soluzioni non nulle se e solo se il
determinante della matrice dei coefficienti è zero. Il determinante

a11 − λ a12 ... a1n

a a22 − λ ... a2n
21
|A − λIn | = .. .. ..

. . .

a an2 ... ann − λ
n1

è un polinomio reale di grado n nella variabile λ, detto polinomio caratteristico di A ed


indicato con pA (λ). Un numero λ0 ∈ R è autovalore di A se e solo se pA (λ0 ) = 0.
Quindi: gli autovalori di A sono le radici (reali) del polinomio caratteristico pA (λ).
Slide 9/16

lezione 16

Esempio
Sia
" # " #
1 1 1−λ 1
A= =⇒ A − λI2 =
1 1 1 1−λ

Il polinomio caratteristico è

pA (λ) = (1 − λ)2 − 1 = λ(λ − 2) .

Gli autovalori della matrice A sono λ1 = 0 e λ2 = 2.

Esempio 17.2.5
Sia
" # " #
0 −1 −λ −1
A= =⇒ A − λI2 =
1 0 1 −λ

Il polinomio caratteristico è
pA (λ) = λ2 + 1 .

Tale polinomio non ammette radici reali. Quindi A non possiede autovalori.
Slide 10/16
lezione 16

Esempio 17.2.6
Sia
 
3 1 1
 
A = 1 0 2 .
1 2 0

Il polinomio caratteristico è dato da (sviluppo di Laplace rispetto alla prima colonna):



3−λ 1 1
−λ 2 1 1 1 1

pA (λ) = 1 −λ 2 = (3 − λ) −
2 −λ
+
−λ

1

2 −λ 2
2 −λ

= (3 − λ)(λ2 − 4) − (−λ − 2) + (2 + λ)

= −λ3 + 3λ2 + 6λ − 8 .

Il polinomio si può fattorizzare come segue (con la regola di Ruffini):

pA (λ) = −(λ − 1)(λ − 4)(λ + 2) .

Gli autovalori di A sono: λ1 = 1, λ2 = 4, λ3 = −2.

Slide 11/16

lezione 16

Metodo pratico di ricerca degli autovalori e autovettori di A:

1 si determinano gli autovalori, ovvero le radici reali del polinomio caratteristico;

2 per ogni autovalore λ, si determinano gli autovettori associati risolvendo il


sistema omogeneo
(A − λIn )x = 0 .

Lo spazio delle soluzioni è l’autospazio Vλ , e la sua dimensione è data da

dim(Vλ ) = n − ρ(A − λIn )

in cui ρ(A − λIn ) è il rango di A − λIn .

Definizione (17.2.7 e 17.2.8)


Se λ è autovalore di A, chiamiamo:
• molteplicità geometrica di λ, indicata con gλ , la dimensione dell’autospazio
associato: gλ = dim(Vλ );
• molteplicità algebrica di λ, indicata con mλ , la sua molteplicità come radice del
polinomio caratteristico.
Slide 12/16
lezione 16

Esempio 17.2.10
Sia A la matrice  
1 2 3
 
A = 0 1 5
0 0 1
Siccome A − λI3 è triangolare, il determinante è il prodotto degli elementi sulla
diagonale:
pA (λ) = |A − λI3 | = (1 − λ)3 .
Quindi λ = 1 è autovalore di molteplicità algebrica pari a m1 = 3, ed A non possiede
altri autovalori. L’autospazio associato V1 si ottiene risolvendo il sistema

2x2 + 3x3 = 0
(A − I3 )x = 0 ⇐⇒
5x3 = 0

La soluzione è x2 = x3 = 0 e x1 = t ∈ R arbitrario. Quindi



V1 = (t, 0, 0) : t ∈ R

e la molteplicità geometrica è g1 = dim(V1 ) = 1. Notiamo che g1 < m1 : in questo


esempio la molteplicità geometrica è minore della molteplicità algebrica.
Slide 13/16

lezione 16

Osservazione (Esempio 17.2.11)


Gli autovalori di una matrice triangolare superiore sono gli elementi sulla diagonale.
Se infatti
 
a11 a12 a13 ... a1n
 0 a22 a23 ... a2n 
 
 
A=
 .
0 0 a33 ... a3n 
 . .. .. .. 

 . . . . 
0 0 0 ... ann

allora A−λIn è una matrice triangolare, ed il suo determinante è dato dal prodotto degli
elementi sulla diagonale:

pA (λ) = |A − λIn | = (a11 − λ)(a22 − λ)(a33 − λ) . . . (ann − λ) .

Tutte e sole le radici del polinomio caratteristico (ovvero gli autovalori di A) sono date
dagli elementi a11 , a22 , . . . , ann .

Slide 14/16
lezione 16

Matrici simmetriche 2 × 2
Definizione
Una matrice A ∈ Mn (R) si dice simmetrica se t A = A.

Teorema
Se A ∈ M2 (R) è una matrice simmetrica, allora esiste una base ortonormale di R2 i cui
elementi sono autovettori di A.

Dimostrazione. Una matrice 2 × 2 simmetrica ha la forma:


 
a b
A=
b c
con a, b, c ∈ R.
Se b = 0, gli elementi della base canonica B = (e 1 , e 2 ) sono autovettori di A:

Ae 1 = ae 1 Ae 2 = ce 2

e il teorema è dimostrato. Da ora in avanti, supponiamo b 6= 0 . . .


Slide 15/16

lezione 16

Il polinomio caratteristico di A è:



a−λ b
pA (λ) = = λ2 − (a + c)λ + ac − b2
b c−λ
Se b 6= 0, l’equazione di secondo grado pA (λ) = 0 ha discriminante

∆ = (a + c)2 − 4(ac − b2 ) = (a − c)2 + 4b2 > 0


Si hanno quindi due soluzioni reali e distinte
√ √
a+c+ ∆ a+c− ∆
λ1 = , λ2 = .
2 2
Siccome b 6= 0, i due vettori colonna

v 1 := t (b, λ1 − a) v 2 := t (b, λ2 − a)
sono non nulli. Usando le identità λ1 λ2 = ac − b2 e λ1 + λ2 = a + c si verifica che

hv 1 , v 2 i = b2 + (λ1 − a)(λ2 − a) = 0

e
Av 1 = λ1 v 1 Av 2 = λ2 v 2
L’insieme B = (v 1 , v 2 ) è quindi una base ortogonale formata da autovettori di A. Da
questa si ricava una base ortonormale dividendo ciascun vettore per la sua norma. 
Slide 16/16
lezione 17

Il gruppo GL(n, R)

Indichiamo con GL(n, R) l’insieme delle matrici n × n invertibili.

Proposizione
GL(n, R) è un gruppo, con elemento neutro In , detto gruppo generale lineare.
Per ogni A, B ∈ GL(n, R), la matrice C := AB è invertibile ed ha inversa

C−1 = B−1 A−1

Dimostrazione. Il prodotto fra matrici è associativo, ed In è elemento neutro. Per


definizione, gli elementi di GL(n, R) sono tutti invertibili. Dobbiamo solo dimostrare che
il prodotto di C = AB di due matrici invertibili A e B è ancora una matrice invertibile.
Sia D = B−1 A−1 . Tale matrice è ben definita (per ipotesi A−1 e B−1 esistono), inoltre:

CD = A(BB−1 )A−1 = AIn A−1 = AA−1 = In


DC = B−1 (A−1 A)B = B−1 In B = B−1 B = In

Quindi C è invertibile e la sua inversa è la matrice D = B−1 A−1 . 


Slide 1/18

lezione 17

Matrici coniugate (§16.2)


Definizione 16.2.1
Due matrici A, B ∈ Mn (R) si dicono coniugate se esiste P ∈ GL(n, R) tale che

B = P−1 AP

Proposizione 16.2.3
La relazione di “coniugio” è una relazione di equivalenza.

Dimostrazione. Ovviamente In è invertibile (I−1


n = In ) e soddisfa In AIn = A per ogni
−1

A ∈ Mn (R). Vale quindi la proprietà riflessiva: ogni matrice è coniugata a sé stessa.
Se B = P−1 AP, detta P 0 = P−1 allora A = P 0−1 BP 0 , cioè vale la proprietà simmetrica.
Se A e B sono coniugate, cioè B = P1−1 AP1 con P1 ∈ GL(n, R), e B e C sono
coniugate, cioè C = P2−1 BP2 con P2 ∈ GL(n, R), allora

C = P2−1 BP2 = P2−1 P1−1 AP1 P2 = P3−1 AP3

in cui abbiamo chiamato P3 = P1 P2 e notato che P2−1 P1−1 = P3−1 . Quindi anche A e C
sono coniugate, e vale la proprietà transitiva. 
Slide 2/18
lezione 17

Polinomio caratteristico, traccia e determinante


Il polinomio caratteristico di A ∈ Mn (R) è della forma

pA (λ) = |A − λIn | = (−1)n λn + c1 λn−1 + c2 λn−2 + . . . + cn−1 λ + cn


con coefficienti ci ∈ R che dipendono da A. In particolare,

cn = pA (0) = |A|
è il determinante e (−1)n−1 c1 è la somma degli elementi sulla diagonale,

(−1)n−1 c1 = a11 + a22 + a33 + . . . + ann


ed è detto traccia della matrice A, indicata con tr(A):
n
X
tr(A) = aii
i=1

Esercizio
Calcolare la traccia delle matrici  
" # " # 2 3 1
1 4 2 3  
A= B= C = 1 0 −2
3 5 1 −2
4 1 7
Slide 3/18

lezione 17

Proposizione
Due matrici coniugate hanno lo stesso polinomio caratteristico, la stessa traccia e lo
stesso determinante.

Dimostrazione. Per il teorema di Binet, se P ∈ GL(n, R) è una matrice invertibile allora

1 = |In | = |P−1 P| = |P−1 | · |P|

da cui segue |P−1 | = |P|−1 . Sempre per il teorema di Binet, se B = P−1 AP allora

B − λIn = P−1 (A − λIn )P

e
pB (λ) = |B − λIn | = |P|−1 · |A − λIn | · |P| = |A − λIn | = pA (λ) ,
ovvero matrici coniugate hanno lo stesso polinomio caratteristico.
Siccome traccia e determinante sono il primo e l’ultimo coefficiente del polinomio
caratteristico, da questo segue |B| = |A| e tr(B) = tr(A). 

Slide 4/18
lezione 17

Matrice del cambiamento di base (§16.1)


Siano B = (v 1 , . . . , v n ) e B 0 = (v 10 , . . . , v n0 ) due basi di uno spazio vettoriale V .
Possiamo allora scrivere i vettori di B 0 nella base B e viceversa.

Definizione
Chiamiamo matrice del cambiamento di base da B a B 0 la matrice che ha come j-esima
colonna l’n-upla di componenti di v j0 nella base B (per ogni 1 6 j 6 n).

Indicando con A = (aij ) tale matrice, per definizione (per ogni 1 6 j 6 n):

v j0 = v 1 a1j + v 2 a2j + . . . + v n anj . (?)

La formula è più semplice da ricordare scrivendo gli scalari a destra dei vettori.
Nel membro di destra di (?) riconosciamo infatti il prodotto righe per colonne fra la
n-upla B e la j-esima colonna di A. Possiamo riscrivere (?) nella forma compatta

B0 = B · A .

(Attenzione: B e B 0 sono n-uple di vettori; non sono n-uple di numeri reali.)


Slide 5/18

lezione 17

In maniera simile, la matrice del cambiamento di base da B 0 a B è la matrice A 0 data da:

B = B0 · A0 .

Proposizione 16.1.1
La matrice A del cambiamento di base da B a B 0 è invertibile, e la sua inversa è la
matrice A 0 del cambiamento di base da B 0 a B.

Dimostrazione. Evidentemente:

B = B 0 · A 0 = (B · A) · A 0 = B · (A · A 0 ) ,

ovvero B · (AA 0 − In ) = 0. Indicando con bij gli elementi della matrice AA 0 − In , si ha

v 1 b1j + v 2 b2j + . . . + v n bnj = 0 ∀16j6n.

Siccome i vettori sono linearmente indipendenti, questo implica

b1j = b2j = . . . = bnj = 0 ∀16j6n,

ovvero AA 0 − In = 0. L’ultima identità si può riscrivere come AA 0 = In . In maniera


simile si dimostra che A 0 A = In . Quindi A 0 = A−1 . 
Slide 6/18
lezione 17

Matrici rappresentative e cambi di base


I Che relazione c’è tra le matrici rappresentative di un endomorfismo f : V → V in
due basi diverse di V ?
I Siano B = (v 1 , . . . , v n ) e B 0 = (v 10 , . . . , v n0 ) due basi di uno spazio vettoriale V .
Ricordiamo che C = (cij ) si dice matrice rappresentativa di f nella base B se:

f(v j ) = v 1 c1j + v 2 c2j + . . . + v n cnj , ∀ 1 6 j 6 n.

(La j-esima colonna di C è la n-upla di componenti di f(v j ) nella base B.)

In maniera simile è definita la matrice rappresentativa C 0 = (cij


0
) di f nella base B 0 .
I In notazione matriciale, dette

F := f(v 1 ) , f(v 2 ) , . . . , f(v n )

F 0 := f(v 10 ) , f(v 20 ) , . . . , f(v n0 )
si ha
F =B·C F 0 = B0 · C0

Slide 7/18

lezione 17

Proposizione 16.1.2
Le matrici rappresentative C e C 0 sono legate dalla relazione (di coniugio):

C 0 = A−1 · C · A .
in cui A è la matrice del cambiamento di base da B a B 0 .

Dimostrazione. Dalla linearità di f segue che

f(v j0 ) = f(a1j v 1 + a2j v 2 + . . . + anj v n ) = a1j f(v 1 ) + a2j f(v 2 ) + . . . + anj f(v n )

per ogni 1 6 j 6 n, ossia F 0 = F · A . Poiché F = B · C e F 0 = B 0 · C 0 , si ha

B0 · C0 = B · C · A .

Usando B = B 0 · A 0 = B = B 0 · A−1 si ottiene:

B 0 · C 0 = B 0 · A−1 · C · A

che può essere riscritta nella forma B 0 · (C 0 − A−1 CA) = 0. Come nella prova della
Prop. 16.1.1, dall’indipendenza lineare dei vettori di B 0 segue

C 0 − A−1 CA = 0 ,
che è proprio la tesi. 
Slide 8/18
lezione 17

Esercizio (Esempio 16.1.3)


In R2 , si considerino le basi
 
B = v 1 = (1, 0) , v 2 = (0, 1) , B 0 = v 10 = (1, 1) , v 20 = (−1, 1) .

Determinare la matrice A del cambiamento di base da B a B 0 e la matrice A 0 del


cambiamento di base da B 0 a B. Data l’applicazione lineare f : R2 → R2 ,

f(x, y) := (−y, −x)

determinare la matrice rappresentativa di f nella base B e quella nella base B 0 .

L’applicazione f è una riflessione nel piano


rispetto alla bisettrice del II e IV quadrante,
v 20 v 10 (x, y)
come mostrato in figura.
y
I punti della bisettrice, corrispondenti ai vettori y x
proporzionali a v 20 = (−1, 1) , sono lasciati
x
invariati da f . I punti fuori dalla bisettrice
vengono riflessi rispetto ad essa. (−y, −x)

Slide 9/18

lezione 17

Endomorfismi semplici
Nell’esercizio precedente, la base B 0 era formata da autovettori dell’endomorfismo f. . .

Definizione
Un endomorfismo f di uno spazio finitamente generato V si dice semplice se esiste una
base di V formata da suoi autovettori.

Esempi
I L’endomorfimo f di R2 dato da f(x, y) := (−y, −x) è semplice.

Una base di autovettori è data da B = v 1 = (1, 1), v 2 = (−1, 1) .

I L’endomorfimo g di R2 dato da g(x, y) := (2x, 3y) è semplice.



Una base di autovettori è quella canonica B = e 1 = (1, 0), e 2 = (0, 1) .

I L’endomorfismo h di R2 dato da h(x, y) := (x + 2y, 3x + 2y) è semplice. Una base



di autovettori è B = v 1 = (2, 3), v 2 = (1, −1) . Si può infatti verificare che

h(v 1 ) = 4v 1 h(v 2 ) = −v 2

Slide 10/18
lezione 17

Definizione
Una matrice A = (aij ) ∈ Mn (R) si dice diagonale se aij = 0 ∀ i 6= j.

Definizione
Una matrice A ∈ Mn (R) si dice diagonalizzabile se è coniugata ad una matrice diago-
nale, ovvero se esiste una matrice P ∈ GL(n, R), detta matrice diagonalizzante di A,
tale che P−1 AP è diagonale.

Esempio Esempio
La matrice Siano
       
6 0 0 1 2 1 1 3 0
  A= P= =⇒ P−1 AP =
A = 0 1 0 2 1 1 −1 0 −1
0 0 −2 P−1 AP è diagonal-e. La matrice A è quindi diagonal-izzabile e P
è diagonale. è una matrice diagonal-izzante di A.

I Ogni matrice diagonale è diagonalizzabile, essendo coniugata a sé stessa (in questo caso,
una matrice diagonalizzante è la matrice identica In ).
I Se P è una matrice diagonalizzante di A, anche kP lo è (per ogni k 6= 0). Le matrici
diagonalizzanti di A, se esistono, sono quindi infinite.
Slide 11/18

lezione 17

Osservazione
Un endomorfismo f di uno spazio V di dimensione n è semplice se esiste una base
B = (v 1 , . . . , v n ) di V formata da autovettori di f, ovvero tali che

f(v 1 ) = λ1 v 1 f(v 2 ) = λ2 v 2 ... f(v n ) = λn v n

con λ1 , . . . , λn autovalori di f. La matrice rappresentativa A = (aij ) di f nella base B è


data da 
λ i se i = j,
aij = (†)
0 se i 6= j.
In altre parole,

I f è semplice ⇐⇒ ∃ una base di V in cui f è rappresentato da una matrice diagonale.

Le matrici rappresentative di f sono tutte coniugate fra di loro, e in particolare sono


coniugate alla matrice diagonale (†). Quindi

I f è semplice se e solo se le sue matrici rappresentative sono (tutte) diagonalizzabili.

Slide 12/18
lezione 17

Una matrice A è diagonalizzabile se e solo se LA è un endomorfismo semplice.


Si può infatti dire di più: data una base di autovettori di A è possibile costruire una
matrice diagonalizzante come segue. . .

Proposizione
Sia A ∈ Mn (R). Se B = (v 1 , . . . , v n ) è una base di Rn formata da autovettori di A, la
matrice P che ha i vettori di B come colonne è una matrice diagonalizzante di A.

Dimostrazione. I vettori di B sono linearmente indipendenti, quindi ρ(P) = n. Per


teorema degli orlati |P| 6= 0, e dal teorema di Laplace deduciamo che P è invertibile.
La j-esima colonna di AP è data da Av j = λj v j . Indicando con Ri la i-esima riga di
P−1 , la condizione P−1 P = In equivale a

0 se i 6= j ,
Ri · v j =
1 se i = j .
L’elemento di matrice (i, j) di P−1 AP vale quindi

0 se i 6= j ,
Ri · Av j = Ri · (λj v j ) = λj (Ri · v j ) =
λi se i = j .
Questo prova che P−1 AP è diagonale, e P è una matrice diagonalizzante di A. 
Slide 13/18

lezione 17

. . . Viceversa, data una matrice diagonalizzante di A, si può costruire una base di


autovettori come segue. . .

Proposizione
Sia A ∈ Mn (R) diagonalizzabile e P = (pij ) una sua matrice diagonalizzante. Se indi-
chiamo con v j := t (p1j , p2j , . . . , pnj ) la j-esima colonna di P, allora B = (v 1 , . . . , v n )
è una base di Rn formata da autovettori di A.

Dimostrazione. Sia D := P−1 AP. Per ipotesi, D = (dij ) è diagonale: dij = 0 ∀ i 6= j.


L’elemento (i, j) della matrice PD è:
Xn
pik dkj = djj pij
k=1

Ma pij è la i-esima componente di v j . Quindi la j-esima colonna di PD è data dal


vettore colonna djj v j . La j-esima colonna del prodotto AP è data da Av j , da cui

D = P−1 AP ⇐⇒ AP = PD ⇐⇒ Av j = djj v j ∀ j = 1, . . . , n

(le colonne di P sono autovettori di A associate agli autovalori d11 , d22 , . . . , dnn ).
Siccome |P| 6= 0, allora ρ(P) = n (teorema degli orlati) e le colonne di P sono n vettori
di Rn linearmente indipendenti. Formano quindi una base. 
Slide 14/18
lezione 17

Diagonalizzabilità in campo complesso


Non tutti gli endomorfismi sono semplici, e non tutte le matrici sono diagonalizzabili.
Ad esempio, l’endomorfismo di R2 :

f(x, y) := (−y, x)

non è semplice (è una rotazione antioraria di 90◦ , ed abbiamo visto che non possiede
autovettori). Di conseguenza la sua matrice rappresentativa
" #
0 −1
1 0
non è diagonalizzabile.
Le cose cambiano completamente se invece di lavorare con i numeri reali si lavora
con i complessi. Ad esempio, l’endomorfismo f : C2 → C2 dato da f(x, y) := (−y, x)
(come sopra, ma con R sostituito da C) è semplice. Infatti, detti

v 1 = (i, 1) v 2 = (1, i)

con i = −1, si ha
f(v 1 ) = i v 1 f(v 2 ) = −i v 2
Slide 15/18

lezione 17

Ancora su traccia e determinante. . .


Se D = P−1 AP è diagonale
 
λ1 0 ... 0
 
 0 λ2 ... 0 
D=
 .. .. .. 

 . . . 
0 0 ... λn

allora è triangolare superiore, e i suoi autovalori sono gli elementi sulla diagonale.
Matrici coniugate hanno lo stesso polinomio caratteristico, quindi hanno anche gli
stessi autovalori. In particolare, gli autovalori di A sono proprio λ1 , λ2 , . . . , λn .
Matrici coniugate hanno lo stesso determinante e la stessa traccia, ma determinante e
traccia di D sono facili da calcolare:

|A| = |D| = λ1 λ2 · · · λn tr(A) = tr(D) = λ1 + λ2 + . . . + λn

Osservazione. Il determinante di una matrice diagonalizzabile è il prodotto dei suoi


autovalori. La traccia di una matrice diagonalizzabile è la somma dei suoi autovalori.

Slide 16/18
lezione 17

Esercizi (§18.2)
Esercizio 18.2.1+
Siano A, B, C, D le seguenti matrici:
" # " # " # " #
−1 1 −1 2 −3 4 1 0
A= B= C= D=
0 −1 −3 1 1 0 0 2

a) Determinare il polinomio caratteristico di ciascuna matrice.


b) Determinare gli autovalori di ciascuna matrice.
c) Stabilire quale delle quattro matrici è diagonalizzabile.

Esercizio (Esame del 04/07/2011)


Determinare autovalori e autovettori della matrice:
 
3 5 1
 
A= 0 1 0
−9 4 −3

Slide 17/18

lezione 17

Esercizio
Determinare gli autovalori della matrice:
 
1 2 −4
 
A=4 3 −8 
2 2 −5

Soluzione. Semplifichiamo A − λI3 :


   
1−λ 2 −4 1−λ 2 −4
  R2 →R2 −2R1  
A − λI3 =  4 3−λ −8  −−−−−−−→ 2(λ + 1) −(λ + 1) 0 
R3 →R3 −R1
2 2 −5 − λ λ+1 0 −(λ + 1)
Possiamo portare i fattori λ + 1 “fuori” dal determinante:
 
1−λ 2 −4
 
|A − λI3 | = (λ + 1)(λ + 1)  2 −1 0
1 0 −1
L’ultimo determinante si calcola con lo sviluppo di Laplace rispetto alla terza riga, ed è
uguale a 1 − λ. Gli autovalori sono quindi:

λ1 = −1 λ2 = −1 λ3 = 1 X
Slide 18/18
lezione 18

Diagonalizzabilità di una matrice: criteri (§18.1)


Ricordiamo che un polinomio reale p(x) di grado n si può sempre scrivere nella forma:

p(x) = c(x − z1 )m1 (x − z2 )m2 . . . (x − zr )mr

dove c ∈ C, z1 , . . . , zr ∈ C sono radici complesse distinte di p(x), 1 6 r 6 n ed mi è


detta molteplicità della radice zi . Ad esempio:

x3 + x2 − 33x + 63 = (x − 3)2 (x + 7)
√ 
x2 + 2x + 2 = (x + 1 − i)(x + 1 + i) i= −1
Ovviamente
m 1 + m2 + . . . + m r = n .

Osservazione 18.1.1
Gli autovalori di una matrice A ∈ Mn (R) sono le radici reali di pA (λ). Dette λ1 , . . . , λr
le radici reali distinte, per la molteplicità algebrica vale la disuguaglianza

mλ1 + mλ2 + . . . + mλr 6 n ,

e si ha uguaglianza se e solo se tutte le radici di pA (λ) sono reali.


Slide 1/10

lezione 18

Teorema 17.2.9
Per ogni autovalore λ0 di A, si ha 1 6 gλ0 6 mλ0 .

Dimostrazione. Sia k = gλ0 . Prendiamo una base (v 1 , . . . , v k ) di Vλ0 e completiamola


ad una base B = (v 1 , . . . , v k , v k+1 , . . . , v n ) di Rn . Siccome per ogni i 6 k,

(A − λIn )v i = (λ0 − λ)v i ,

l’applicazione lineare LA−λIn nella base B è rappresentata da una matrice


 
λ0 − λ 0 ... 0 ∗ ... ∗
 0 λ0 − λ ... 0 ∗ ... ∗ 
 
 . . . . . 
 . . . . . 
 . . . . . 
 
M=  0 0 ... λ0 − λ ∗ ... ∗ 
 
 0 0 ... 0 ∗ ... ∗ 
 
 . . . . . 
 . . . . . 
 . . . . . 
0 0 ... 0 ∗ ... ∗

Facendo k volte lo sviluppo di Laplace rispetto alla prima colonna si ricava

pA (λ) = |A − λIn | = |M| = (λ0 − λ)k q(λ)

dove q(λ) è un polinomio in λ. La molteplicità algebrica di λ0 è k se λ0 non è una


radice di q(λ), altrimenti è maggiore di k. Questo prova che mλ0 > k = gλ0 . 
Slide 2/10
lezione 18

Definizione
Sia A ∈ Mn (R). Un autovalore λ di A si dice:
• semplice se ha molteplicità algebrica uguale ad 1: mλ = 1.
• semisemplice se ha molteplicità algebrica uguale quella geometrica: mλ = gλ .

Dalla disuguaglianza

1 6 gλ 6 mλ

segue che, se mλ = 1, anche gλ = 1. Quindi:

Osservazione
Ogni autovalore semplice è semisemplice.

Slide 3/10

lezione 18

Teorema 18.1.6
Una matrice A ∈ Mn (R) è diagonalizzabile se e solo se:
i) tutte le radici del polinomio caratteristico sono reali;
ii) tutti gli autovalori di A sono semisemplici.

Dimostrazione. 1a parte: la condizione i) è necessaria.


Se A è coniugata ad una matrice diagonale D,
 
d11 0 ... 0
 
 0 d22 ... 0 
D=
 .. .. .. 

 . . . 
0 0 ... dnn

allora
pA (λ) = pD (λ) = (d11 − λ)(d22 − λ) . . . (dnn − λ)
e tutte e sole le radici del polinomio caratteristico sono date dagli elementi sulla
diagonale di D. Sono quindi numeri reali.

Slide 4/10
lezione 18

Teorema 18.1.6
Una matrice A ∈ Mn (R) è diagonalizzabile se e solo se:
i) tutte le radici del polinomio caratteristico sono reali;
ii) tutti gli autovalori di A sono semisemplici.

Dimostrazione. 2a parte: la condizione ii) è necessaria.


Siano λ1 , λ2 , . . . , λr gli autovalori di A, con λi 6= λj ∀ i 6= j e r 6 n. Per k = 1, . . . , r,
indichiamo con Ik ⊂ Rn l’insieme delle colonne della matrice diagonalizzante P che
appartengono all’autospazio Vλk . Poichè si tratta di vettori linearmente indipendenti (le
colonne di P sono una base di Rn ), ed essendo dim(Vλi ) = gλi , I1 ha al più gλ1
elementi, I2 ha al più gλ2 elementi, etc. In tutto le colonne di P sono n, da cui

n 6 gλ1 + gλ2 + . . . + gλr 6 mλ1 + mλ2 + . . . + mλr = n

L’ultima uguaglianza segue dal fatto che tutte le radici di pA (λ) sono reali (oss. 18.1.1).
Se ne deduce che le precedenti disuguaglianze sono uguaglianze, e

(mλ1 − gλ1 ) + (mλ2 − gλ2 ) + . . . + (mλr − gλr ) = n − n = 0

Ma mλi − gλi > 0 (teorema 17.2.9), e una somma di termini non negativi è nulla se e
solo se tutti i termini sono zero. Si ricava mλi − gλi = 0 ∀ i, ossia la condizione ii).
Slide 5/10

lezione 18

Teorema 18.1.6
Una matrice A ∈ Mn (R) è diagonalizzabile se e solo se:
i) tutte le radici del polinomio caratteristico sono reali;
ii) tutti gli autovalori di A sono semisemplici.

Dimostrazione. 3a parte: le condizioni i) e ii) sono sufficienti.


Sia ni = gλi = dim(Vλi ), 1 6 i 6 r. Scegliamo una base di ciascun autospazio:

B1 = (u 1 , u 2 , . . . , u n1 ) base di Vλ1 ,
B2 = (v 1 , v 2 , . . . , v n2 ) base di Vλ2 ,
.. ..
. .
Br = (w 1 , w 2 , . . . , w nr ) base di Vλr .

e mostriamo che B = B1 ∪ B2 ∪ . . . ∪ Br è un insieme libero di Rn . Sia

u = a1 u 1 + a2 u 2 + . . . + an1 u n1
v = b 1 v 1 + b 2 v 2 + . . . + b n2 v n2
.. ..
. .
w = c1 w 1 + c2 w 2 + . . . + cnr w nr

Slide 6/10
lezione 18

Teorema 18.1.6
Una matrice A ∈ Mn (R) è diagonalizzabile se e solo se:
i) tutte le radici del polinomio caratteristico sono reali;
ii) tutti gli autovalori di A sono semisemplici.

(. . . segue.) Poichè autovettori associati ad autovalori distinti sono linearmente


indipendenti (prop. 17.1.12) la somma

(a1 u 1 + a2 u 2 + . . . + an1 u n1 ) + (b1 v 1 + b2 v 2 + . . . + bn2 v n2 ) +


(?)
+ . . . + (c1 w 1 + c2 w 2 + . . . + cnr w nr ) = u + v + . . . + w
è 0 solo se u = v = . . . = w = 0 . Poichè B1 è libero, u = a1 u 1 + . . . + an1 u n1 = 0
implica a1 = a2 = . . . = an1 = 0. In maniera simile siccome B2 è libero, v = 0 implica
b1 = b2 = . . . = bn2 = 0, etc. La combinazione lineare (?) è zero solo se tutti i
coefficienti sono nulli, quindi B è un insieme libero. Il numero di elementi di B è dato da

gλ1 + gλ2 + . . . + gλr = mλ1 + mλ2 + . . . + mλr = n

La prima uguaglianza segue dalla condizione ii) e la seconda da i) e dall’oss. 18.1.1.


Ma n vettori di Rn linearmente indipendenti formano una base. Abbiamo trovato una
base B di Rn formata da autovettori di A, e questo prova che A è diagonalizzabile. 
Slide 7/10

lezione 18

Quella che segue è una semplice condizione sufficiente (ma non necessaria). . .

Osservazione
Se A ∈ Mn (R) ha n autovalori distinti (cioè: se tutti gli autovalori sono semplici), allora
è diagonalizzabile.

Dimostrazione. Per la prop. 17.1.12, n autovettori associati ad n autovalori distinti di A


formano un insieme libero. Ma in Rn un insieme libero di n vettori è una base. 

Concludiamo con un teorema, enunciato senza dimostrazione (è stato dimostrato per
n = 2 alla fine della lezione 16).

Teorema 18.1.12
Sia A ∈ Mn (R) una matrice simmetrica (cioè soddisfacente t A = A). Allora:
• A è diagonalizzabile;
• autovettori associati ad autovalori distinti sono ortogonali;
• esiste una base ortonormale di Rn formata da autovettori di A.

Slide 8/10
lezione 18

Esercizi (§18.2)

Esercizio
Dire quale fra le matrici seguenti è diagonalizzabile:
   
1 0 0 1 1 0
   
A = 0 2 1 , B = 0 2 0 .
0 0 2 0 0 2

Esercizio 18.2.5
Sia A la matrice  
2 1 1 0
0 3 4 0
 
A=  .
0 0 5 0
0 0 0 1
Riconoscere che è diagonalizzabile e determinare una matrice diagonalizzante P.

Slide 9/10

lezione 18

Esercizio (Esame del 05/06/2012)


Si consideri la seguente matrice dipendente da un parametro t ∈ R:
 
1 1+t 0
 
C= 0 3 0
1 1−t 3

a) Determinare gli autovalori della matrice C.


b) Dire per quali valori di t la matrice è diagonalizzabile.
c) Per i valori di t determinati al punto b), determinare una matrice diagonalizzante.

Esercizio (Esame del 06/06/2012)


Si consideri la seguente matrice dipendente da un parametro t ∈ R:
 
t 1 1
 
A= 0 2 0
1 1 t

a) Scrivere il polinomio caratteristico di A.


b) Determinare gli autovalori di A.
c) Dire per quali valori di t la matrice è diagonalizzabile.
Slide 10/10
lezione 19

Richiami sui vettori geometrici


Siano A, B, P tre punti del piano, di coordinate date
dalle coppie a = (a1 , a2 ), b = (b1 , b2 ), p = (p1 , p2 ), B

in un sistema di riferimento cartesiano di origine O. P


# » #»
I vettori applicati AB e OP hanno uguale norma e A
direzione se e solo se i segmenti AB e OP sono lati
opposti di un parallelogramma. O

Rappresentano lo stesso vettore libero (quindi P − O = B − A ) se in aggiunta hanno


lo stesso verso (come in figura). In questo caso, dalla regola del parallelogramma
# » #» # »
OA + OP = OB cioè a+p=b

ricaviamo le coordinate di P, date dal vettore di R2 : p = (b1 − a1 , b2 − a2 )


# » # »
Due vettori applicati non nulli AB e CD hanno la stessa direzione se e solo se
rappresentano vettori liberi proporzionali, ossia:

∃ t ∈ R tale che B − A = t(D − C)


Slide 1/20

lezione 19

Geometria di R2 (§19)
Equazioni parametriche e cartesiane di una retta (§19.1)
u
Sia u = (u1 , u2 ) 6= 0 un vettore non nullo e P un punto
di coordinate p = (p1 , p2 ). Sia r la retta passante per P Q(x1 , x2 )
e parallela ad u (come in figura).

Un punto Q di coordinate x = (x1 , x2 ) appartiene ad r P(p1 , p2 )


se e solo se Q − P ed u hanno la stessa direzione:
r
∃ t ∈ R : Q − P = tu

Si ottiene in questo modo una equazione parametrica della retta r:



x1 = p1 + tu1
x = p + tu ⇐⇒ (?)
x2 = p2 + tu2

Al variare di t ∈ R, l’equazione (?) descrive tutti i punti appartenenti alla retta r (il punto
P si ottiene ad esempio per t = 0). Nell’esempio in figura, è disegnata la retta di
direzione u = (2, 3) e passante per il punto p = (1, −1).
Slide 2/20
lezione 19

Versori di una retta


L’equazione parametrica x = p + tu di una retta non è unica:

• u e ku hanno la stessa direzione (∀ k 6= 0);


• p è un qualsiasi punto della retta stessa.


4
5
,
Esercizio

3
5
=
Riconoscere che le tre equazioni seguenti descrivono (2, 1)

u
la stessa retta:

u

r : x = (2, 1) + t(3, 4)
r 0 : x = (2, 1) + t 0 (6, 8)
r 00 : x = (−1, −3) + t 00 (6, 8)

Soluzione. Dalla 1a equazione si ottiene la 2a con la sostituzione t = 2t 0 . Dalla 1a equazione si


ottiene la 3a con la sostituzione t = 2t 00 − 1. Le tre equazioni descrivono lo stesso insieme di
punti, solo “parametrizzati” in maniera differente. X

Possiamo ridurre l’ambiguità nella scelta di u chiedendo che abbia norma 1. Esistono
solo due vettori di norma 1 paralleli ad r e si dicono versori della retta.
Slide 3/20

lezione 19

Vettore normale ed equazione cartesiana

Si dice vettore normale ad r un qualsiasi vettore non nullo n che sia perpendicolare
alla retta stessa. Notiamo che il vettore

n = (−u2 , u1 )

è ortogonale ad u = (u1 , u2 ) , e tutti i vettori normali sono proporzionali ad esso.

Dall’equazione parametrica di r si può ottenere una equazione detta equazione


cartesiana eliminando il parametro t. Da x − p = tu usando hn, ui = 0 si ottiene:

hn, x − pi = 0 ⇐⇒ −u2 x1 + u1 x2 + (u2 p1 − u1 p2 ) = 0 .

Chiamando a = −u2 , b = u1 e c = u2 p1 − u1 p2 si trova l’equazione

ax1 + bx2 + c = 0 . (†)

Una equazione del tipo (†) rappresenta una retta se e solo se n = (a, b) 6= (0, 0).

Slide 4/20
lezione 19

Rette ortogonali (§19.1)


Sia r la retta di equazione
ax1 + bx2 + c = 0
e p = (p1 , p2 ) un punto qualsiasi del piano. Vogliamo scrivere l’equazione parametrica
della retta r 0 passante per p ed ortogonale ad r. Evidentemente la direzione di r 0 è
data dal vettore n = (a, b), che è perpendicolare ad r. Quindi r 0 ha equazione

x1 = p1 + ta
r0 :
x2 = p2 + tb

Esempio
n
Se r è la retta di equazione r0
x1 + 3x2 − 3 = 0
e p = (1, −1), allora r 0 ha equazione
 r
x1 = 1+t p

x2 = −1 + 3t

Slide 5/20

lezione 19

Norma e distanza

p = (p1 , p2 )
d(p, q) = kp − qk
|p2 − q2 |
q = (q1 , q2 )
|p1 − q1 |

Ricordiamo che la distanza del punto P di coordinate p = (p1 , p2 ) dall’origine, ovvero


la lunghezza del segmento OP, è data da
p
kpk = p21 + p22 .

Più in generale (vedere figura), la distanza fra due punti di coordinate p = (p1 , p2 ) e
q = (q1 , q2 ), indicata con d(p, q), è la norma del vettore p − q , ossia
p
d(p, q) := kp − qk = (p1 − q1 )2 + (p2 − q2 )2 .

Slide 6/20
lezione 19

Distanza punto-retta (§19.4)


La distanza di un punto p da una retta r è la
lunghezza del segmento che va da p alla r
r0
proiezione ortogonale di p su r, sia essa q .
Se r ha equazione cartesiana:
q d(p, r)
r : ax1 + bx2 + c = 0 p
la retta r 0 ortogonale ad r passante per p è:

x1 = p1 + ta
r0 :
x2 = p2 + tb

L’intersezione fra r ed r 0 si ottiene sostituendo le espressioni di x1 e x2 in funzione di t


nella prima equazione e ricavando t. Si ottiene

ax1 + bx2 + c = a(p1 + ta) + b(p2 + tb) + c = 0

ovvero
ap1 + bp2 + c
t = t0 := − .
a2 + b 2
Slide 7/20

lezione 19

Sostituendo il valore di t trovato nelle equazioni parametriche di r 0 si trovano le


coordinate del punto q = (x1 , x2 ), date da

x1 = p1 + t0 a , x2 = p2 + t0 b .

La distanza fra p ed r è quindi data da

d(p, r) = kp − qk .

Notiamo che
p − q = −t0 (a, b)
e
ap1 + bp2 + c √
d(p, r) = kp − qk = |t0 | · k(a, b)k = a2 + b 2 .

a2 + b 2

Formula per la distanza punto-retta


La distanza fra un punto p = (p1 , p2 ) e una retta r di equazione ax1 + bx2 + c = 0 è:
|ap1 + bp2 + c|
d(p, r) = √ .
a2 + b 2

Slide 8/20
lezione 19

Esempio 19.4.1
La distanza fra la retta r di equazione 7x1 − 4x2 + 6 = 0 ed il punto p = (4, 1) è

|7 · 4 − 4 · 1 + 6| 30
d(p, r) = √ = √ .
72 + 42 65

Esercizio 19.5.4
Si determini la distanza del punto p = (2, 1) dalla retta r di equazione 2x1 − x2 + 5 = 0.
Si determini la distanza del punto p0 = (1, 3) dalla retta r 0 di equazione x1 +2x2 −7 = 0.

Soluzione. Si ha
|2 · 2 − 1 · 1 + 5| 8
d(p, r) = √ = √ ,
22 + 12 5
e
|1 · 1 + 2 · 3 − 7|
d(p0 , r 0 ) = √ =0.
12 + 22
La distanza di p 0 da r 0 è zero. Si può in effetti notare che p 0 ∈ r 0 . X

Slide 9/20

lezione 19

Retta passante per due punti (§19.1)


Due punti a = (a1 , a2 ) e b = (b1 , b2 ) distinti individuano una retta r.

Equazioni parametriche di r sono date da:

x = a + t(b − a) (∗)

Si tratta evidentemente di una retta (il vettore u := b − a che ne dà la direzione è


diverso da zero), e passa sia per a (t = 0 ⇒ x = a ) che per b (t = 1 ⇒ x = b ).

L’equazione (∗) è soddisfatta se e solo se i vettori x − a e b − a sono linearmente


dipendenti, ossia (teorema degli orlati):

x1 − a1 x2 − a2
=0 (∗∗)

b 1 − a1 b2 − a2
L’eq. (∗∗) è una equazione cartesiana di r, equivalente a (fare la verifica):

x1 x2 1


a1 a2 1 = 0 .

b1 b2 1

Slide 10/20
lezione 19

Esempio 19.1.3
Scriviamo le equazioni della retta passante per i due punti a = (1, 2) e b = (−2, 4).
La direzione è data da u = b − a = (−3, 2) .
E QUAZIONI PARAMETRICHE: E QUAZIONE C ARTESIANA:

x1 = 1 − 3t x1 − 1 x2 − 2
= 2x1 + 3x2 − 8 = 0 .
−3 2
x2 = 2 + 2t

u a

Slide 11/20

lezione 19

Aree di triangoli e parallelogrammi (§8.2)


Siano a = (a1 , a2 ) e b = (b1 , b2 ). Il triangolo in
grigio figura ha base kbk. L’altezza h è data dal a+b

teorema di Pitagora:
q
h = kak2 − kpr b (a)k2 a
b
q h
1 2
= kak2 kbk2 − |ha, bi| ha,bi
pr b (a) = kbk2 b
kbk
q
1
= (a21 + a22 )(b21 + b22 ) − (a1 b1 + a2 b2 )2
kbk
q q
1 2 2 2 2 1 1
= a1 b2 + a2 b1 − 2a1 b1 a2 b2 = (a1 b2 − a2 b1 )2 = |a1 b2 − a2 b1 |
kbk kbk kbk

Quindi l’area del triangolo di vertici O, a e b è data da

1
2
base × altezza = 12 |a1 b2 − a2 b1 |

Slide 12/20
lezione 19

Aree di triangoli e parallelogrammi (§8.2)


a+b

a
b

Notando che |a1 b2 − a2 b1 | è il modulo del determinante che ha a e b come righe, si


ottiene. . .

Teorema
Il modulo del determinante

a1 a2

b b2
1

è pari all’area del parallelogramma individuato dai vettori a e b , ed è due volte l’area
del triangolo di vertici O, a e b .
Slide 13/20

lezione 19

Aree di triangoli e parallelogrammi (§8.2)


Più in generale, si può dimostrare che. . .

Teorema
A(a1 , a2 ) B(b1 , b2 )
Il modulo del determinante

a1 a2 1


b1 b2 1 C(c1 , c2 )

c c2 1
1

[. O
è due volte l’area del triangolo ABC

La formula è valida qualunque sia la disposizione dei punti A, B, C.


[ è zero:
Tre punti A, B, X(x1 , x2 ) sono allineati se e solo se l’area di XAB

x1 x2 1


a1 a2 1 = 0 .

b1 b2 1
Ritroviamo in questo modo l’equazione cartesiana della retta passante per A e B.
Slide 14/20
lezione 19

Intersezione fra due rette (§19.2)


Date due rette r ed r 0 , r ∩ r 0 è il luogo dei punti le cui coordinate risolvono il sistema:

a x1 + b x2 + c = 0
a0 x1 + b0 x2 + c0 = 0
in cui la prima equazione è un’equazione cartesiana della retta r, la seconda è
un’equazione cartesiana della retta r 0 , e per ipotesi (a, b) 6= (0, 0) e (a 0 , b 0 ) 6= (0, 0).

Detta (A|B) la matrice completa del sistema, evidentemente

1 6 ρ(A) 6 ρ(A|B) 6 2 .

Usando il teorema di Rouché-Capelli, possiamo distinguere tre casi:


1 se ρ(A) = 1 e ρ(A|B) = 2 il sistema non ammette soluzione, e r ∩ r 0 = ∅ è
l’insieme vuoto (questo vuol dire che le rette r e r 0 sono parallele e distinte);
2 se ρ(A) = ρ(A|B) = 1 le due righe della matrice (A|B) sono proporzionali, e le
due rette coincidono: r = r 0 ; in questo caso r ∩ r 0 = r è una retta;
3 se ρ(A) = ρ(A|B) = 2 il sistema ammette un’unica soluzione, e r ∩ r 0 è un punto.
Slide 15/20

lezione 19

Esempio 19.2.1
Siano r e r 0 le rette di equazioni cartesiane
r : 2x1 − 3x2 + 1 = 0
r 0 : 4x1 − 6x2 = 0
Si ha ρ(A) = 1 e ρ(A|B) = 2: le due rette sono parallele e non coincidenti.

Esempio 19.2.2
Siano r e r 0 le rette di equazioni cartesiane
r : 2x1 − 3x2 + 1 = 0
r 0 : 4x1 + 2x2 − 1 = 0
Si ha ρ(A) = ρ(A|B) = 2: le due rette si incontrano in un punto.

Esempio 19.2.3
Siano r e r 0 le rette di equazioni cartesiane
r : 2x1 − 3x2 + 1 = 0
r 0 : 4x1 − 6x2 + 2 = 0
Si ha ρ(A) = ρ(A|B) = 1: le due rette coincidono.
Slide 16/20
lezione 19

Circonferenze (§19.3)

c
R

Una circonferenza di centro c = (c1 , c2 ) e raggio R > 0 è l’insieme dei punti del piano
a distanza R dal punto c . Quindi un punto x è sulla circonferenza se e solo se:

d(x, c) ≡ kx − ck = R ,

Elevando al quadrato ambo i membri si ottiene l’equazione della circonferenza:

(x1 − c1 )2 + (x2 − c2 )2 = R2 .

Nell’esempio in figura, c = (4, 2) ed R = 3.


Slide 17/20

lezione 19

Intersezione retta-circonferenza (§19.3)


L’intersezione fra una circonferenza C di equazione (x1 − c1 )2 +(x2 − c2 )2 = R2 ed una
retta r di equazione ax1 + bx2 + d = 0 è data dalle soluzioni del sistema (non lineare):

(x1 − c1 )2 + (x2 − c2 )2 = R2
ax1 + bx2 + d = 0

Per trovare le intersezioni si procede per sostituzione. Sappiamo che (a, b) 6= (0, 0).
Supponiamo che ad esempio sia a 6= 0, allora dalla seconda equazione ricaviamo

x1 = −a−1 (bx2 + d)

che sostituita nella prima dà una equazione di 2◦ grado in una sola variabile. Il numero
di soluzioni (reali) dipenderà dal segno del discriminante ∆. Si hanno tre possibilità:

1 se ∆ > 0, retta e circonferenza si incontrano in due punti;

2 se ∆ = 0, retta e circonferenza si incontrano in un solo punto (in questo caso la


retta si dice tangente alla circonferenza);

3 se ∆ < 0, l’intersezione è vuota.


Slide 18/20
lezione 19

Esempio 19.3.1

Determiniamo l’intersezione tra la retta di


equazione x1 − x2 + 2 = 0 e la circon-
ferenza di centro (2, 1) e raggio 3.
Dobbiamo risolvere il sistema

(x1 − 2)2 + (x2 − 1)2 = 9
x1 − x2 + 2 = 0

Dalla seconda equazione si ricava x2 = x1 + 2, che sostituita nella prima dà

(x1 − 2)2 + (x1 + 1)2 − 9 = 0 .

Sviluppando i quadrati si trova

2x21 − 2x1 − 4 = 0

che ha soluzioni x1 = 2, −1. Usando x2 = x1 + 2 si evince che l’intersezione è data dai


due punti di coordinate (2, 4) e (−1, 1).

Slide 19/20

lezione 19

Equazione della tangente (§19.3)


Consideriamo una circonferenza di centro c e
raggio R . Sia p un punto sulla circonferenza, ed r
la retta tangente alla circonferenza nel punto p .
c
x
x appartiene ad r se e solo se il vettore x − p
è ortogonale al vettore p − c (vedere figura). p

Una equazione cartesiana di r è quindi data da:

hp − c, x − pi = 0

Esempio 19.3.3
Nell’esempio nella figura a fianco, si ha:

c = (2, 2) R=5 p = (5, −2)

L’equazione della tangente è:


3x1 − 4x2 − 23 = 0 .

Slide 20/20
lezione 20

Geometria di R3 (§21.1)
Coordinate di un punto nello spazio tridimensionale

Introducendo un sistema di riferimento x3


cartesiano tridimensionale, è possibile
individuare un punto P dello spazio
tridimensionale attraverso una terna di
coordinate p = (p1 , p2 , p3 ) ∈ R3 . P

Graficamente, il punto P è il vertice di un p3


parallelepipedo rettangolo i cui lati hanno
lunghezza data dal modulo di p1 , p2 e p3 .

Esiste una corrispondenza biunivoca fra punti, p2


p1 x2
vettori applicati nell’origine O e vettori liberi:
#» x1
P ←→ OP ←→ P − O

Questi tre enti matematici verranno spesso identificati con la terna di coordinate di P.
Slide 1/20

lezione 20

Rette e piani: equazioni parametriche (§21.1)


# » # »
Come in 2d, anche in 3d due vettori applicati AB e CD non nulli hanno la stessa
direzione se e solo se i corrispondenti vettori liberi sono linearmente dipendenti:

∃ t ∈ R : B − A = t(D − C)

Una retta r è univocamente determinata da una direzione u (che specifica il fascio di


rette parallele a cui appartiene) ed un punto P appartenente alla retta stessa.

Un punto Q, di coordinate x ∈ R3 , appartiene ad r se e solo se i vettori Q − P ed u


sono paralleli. Da questa osservazione si ricavano le equazioni parametriche di r:


 x1 = p1 + tu1
x = p + tu ⇐⇒ x2 = p2 + tu2


x3 = p3 + tu3

I dati u e p non sono univocamente determinati da r: u può essere moltiplicato per


uno scalare diverso da zero, e p può essere sostituito da un qualsiasi punto di r.

Se kuk = 1, il vettore u si dice versore della retta r.


Slide 2/20
lezione 20

#» #» Π
La somma di due vettori PA e PB applicati nello

stesso punto P è data dalla diagonale PC del
parallelogramma che ha i due vettori come lati.

A C
Siano u = A − P e v = B − P. Per ogni
t1 , t2 ∈ R i vettori t1 u ed u hanno la stessa
direzione, cosı̀ come i vettori t2 v e v .

La somma t1 u + t2 v è rappresentata da un
# » #» #» P B
vettore PQ complanare ad PA e PB.

Se u e v sono linearmente indipendenti, esiste


#» #»
un unico piano Π contenente PA e PB ed ogni
# »
vettore complanare PQ è dato da una loro
combinazione lineare.

Un punto Q di coordinate x ∈ R3 appartiene a Π se e solo se

∃ t1 , t2 ∈ R : Q − P = t1 u + t2 v

Slide 3/20

lezione 20

Dall’ultima osservazione si ricavano le equazioni parametriche del piano Π passante


per p di direzione data da due vettori linearmente indipendenti u e v :


 x1 = p1 + t1 u1 + t2 v1
x = p + t1 u + t2 v ⇐⇒ x2 = p2 + t1 u2 + t2 v2


x3 = p3 + t1 u3 + t2 v3

Al variare di t1 , t2 ∈ R da queste equazioni si ottengono tutti i punti Π.

Notiamo che:
I Se p = 0 ⇒ Π = L(u, v) è lo spazio generato dai vettori u e v .
I Se p 6= 0 ⇒ Π è parallelo a L(u, v) (ricordiamo che due piani si dicono
paralleli se non hanno punti in comune).

Se u e v sono linearmente dipendenti, si ritrova l’equazione di una retta (uno dei due
parametri t1 , t2 è superfluo e può essere eliminato).

Osservazione: come in R2 , anche in R3 è possibile eliminare il parametro t dalle


equazioni parametriche di una retta, o i parametri t1 , t2 dalle equazioni parametriche di
un piano, ed ottenere delle equazioni cartesiane.
Slide 4/20
lezione 20

Esempio 21.1.1
Si consideri la retta r ⊂ R3 di equazioni parametriche


 x1 = 1 − t
x2 = −3 − 2t


x3 = 5 + 3t
Dalla prima equazione ricaviamo t = 1 − x1 , che sostituita nelle altre due dà:

x2 = −3 + 2x1 − 2 2x1 − x2 − 5 = 0
⇐⇒
x3 = 5 − 3x1 + 3 3x1 + x3 − 8 = 0

Esempio 21.1.2
Si consideri il piano Π ⊂ R3 di equazioni parametriche:


 x1 = 1 + 2t1 + t2
x2 = 2 − t1 − t2


x3 = t2
Risolvendo le ultime due equazioni rispetto a t1 e t2 si trova t1 = 2 − x2 − x3 e t2 = x3 ,
che sostituite nella prima danno l’equazione cartesiana:
x1 + 2x2 + x3 − 5 = 0 .

Slide 5/20

lezione 20

Equazione cartesiana di un piano (§21.3)


Se (a, b, c) 6= (0, 0, 0) (e d ∈ R), l’equazione cartesiana:

ax1 + bx2 + cx3 + d = 0

descrive un piano Π. Per convincersene, basta scrivere la soluzione generale in


funzione di due parametri reali. Se ad esempio a 6= 0, si ricava

−1

 x1 = −a (bt1 + ct2 + d)
x2 = t1


x3 = t2

La direzione è data dai vettori u = (−a−1 b, 1, 0) e v = (−a−1 c, 0, 1). Questi sono


linearmente indipendenti, e quindi si tratta effettivamente di un piano.

Il vettore n := (a, b, c) ∈ R3 è ortogonale al sottospazio L(u, v) e quindi al piano Π.


Infatti u, v sono soluzioni dell’equazione omogenea associata:

hn, xi = ax1 + bx2 + cx3 = 0

Chiamiamo n vettore normale e le sue componenti parametri direttori di Π.


Slide 6/20
lezione 20

Data una equazione cartesiana di un piano Π:

ax1 + bx2 + cx3 + d = 0 (†)

risolvendola si possono trovare delle equazioni parametriche, della forma

x = p + t1 u + t2 v (‡)

I vettori u, v formano una base per lo spazio delle soluzioni del sistema omogeneo
associato (ossia il piano L(u, v) passante per l’origine e parallelo a Π) , e p è una
qualsiasi soluzione particolare (che esiste, se i coefficienti di (†) non sono tutti zero).

Viceversa, date delle equazioni parametriche (‡) di un piano, notando che (‡) equivale
a x − p ∈ L(u, v) si ricava la condizione equivalente (teorema degli orlati):

x−p x1 − p1 x3 − p2 x3 − p3


u = u1 u2 u3 =0.

v v1 v2 v3

La precedente è una equazione cartesiana di Π.


Slide 7/20

lezione 20

Equazioni cartesiane di una retta (§21.2)


Le equazioni parametriche
x − p = tu (∗)
descrivono una retta (parallela ad u e passante per p ) se e solo se u 6= 0 .
Supponiamo ad esempio u1 6= 0 e consideriamo i seguenti vettori:

n := (a, b, c) = (u2 , −u1 , 0) n 0 := (a 0 , b 0 , c 0 ) = (u3 , 0, −u1 )

Entrambi i vettori n ed n 0 sono ortogonali ad u , e da (∗) si ricava il sistema:

hn, x − pi = hn 0 , x − pi = 0

Più esplicitamente, detti d = −u2 p1 + p2 e d0 = −u3 p1 + p3 :



a x1 + b x2 + c x3 + d = 0
(∗∗)
a0 x1 + b0 x2 + c0 x3 + d0 = 0

Siccome il rango della matrice dei coefficienti è 2 ( n e n 0 sono linearmente


indipendenti) tutte e sole le soluzioni sono date da (∗) (la soluzione generale dipende
da 1 parametro reale). Le eq. (∗) e (∗∗) descrivono quindi lo stesso insieme.
Slide 8/20
lezione 20

In generale, equazioni cartesiane del tipo



a x1 + b x2 + c x3 + d = 0
a0 x1 + b0 x2 + c0 x3 + d0 = 0

descrivono una retta r se e solo se


" #
a b c
ρ 0 =2,
a b0 c0

ovvero i vettori n := (a, b, c) e n 0 := (a 0 , b 0 , c 0 ) sono non allineati.

I loro coefficienti si dicono parametri direttori della retta r ed individuano la direzione


del fascio di piani ortogonali ad r.

La soluzione generale si può infatti scrivere nella forma x = p + tu , dove p è una


soluzione particolare e u una soluzione non nulla del sistema omogeneo associato,
ovvero un qualunque vettore ortogonale ad n ed n 0 (che quindi sono ortogonali ad r).

Slide 9/20

lezione 20

Tabella riassuntiva: Equazioni di rette e piani.

R ETTA r P IANO Π

E QUAZIONI
x = p + tu x = p + t1 u + t2 v
PARAMETRICHE

" # " #
u u1 u2 u3
Condizione u 6= 0 ρ =ρ =2
v v1 v2 v3


E QUAZIONI a x 1 + b x2 + c x 3 + d = 0
ax1 + bx2 + cx3 + d = 0
CARTESIANE a0 x1 + b0 x2 + c0 x3 + d0 = 0

" #
a b c
Condizione ρ =2 (a, b, c) 6= (0, 0, 0)
a0 b0 c0

Osservazioni u k r, (a, b, c) ⊥ r, (a 0 , b 0 , c 0 ) ⊥ r. (a, b, c) ⊥ Π, u k Π, v k Π.

Slide 10/20
lezione 20

Intersezione fra due piani (§21.4)


Siano Π e Π 0 due piani di equazioni cartesiane:

Π : ax1 + bx2 + cx3 + d = 0 , Π 0 : a 0 x1 + b 0 x2 + c 0 x3 + d 0 = 0 .

L’intersezione Π ∩ Π 0 è l’insieme delle soluzioni del sistema di matrice completa


" #
a b c −d
(A|B) = .
a0 b0 c0 −d 0

Notiamo che 1 6 ρ(A) 6 ρ(A|B) 6 2. Possono allora verificarsi tre casi:

1 se ρ(A) = 1 e ρ(A|B) = 2, il sistema non ammette soluzione, e Π ∩ Π 0 = ∅ è


l’insieme vuoto (questo vuol dire che i piani Π e Π 0 sono paralleli e distinti);

2 se ρ(A) = ρ(A|B) = 1 le due righe della matrice (A|B) sono proporzionali, e i


due piani coincidono: Π = Π 0 ; in questo caso Π ∩ Π 0 = Π è un piano;

3 se ρ(A) = ρ(A|B) = 2, si ottengono le equazioni cartesiane di una retta: Π ∩ Π 0


è una retta di R3 .

Slide 11/20

lezione 20

Notiamo che l’intersezione fra due piani incidenti (cioè, non paralleli) è sempre una
retta. In figura sono mostrati due piani paralleli e distinti, e due piani incidenti.

x3 x3

x1
x1
x2 x2

(a) Piani paralleli (b) Piani incidenti

Slide 12/20
lezione 20

Intersezione fra retta e piano (§21.4)


Consideriamo ora l’intersezione fra un piano Π e una retta r di equazioni cartesiane:

a1 x1 + b1 x2 + c1 x3 + d1 = 0
Π : a0 x1 + b0 x2 + c0 x3 + d0 = 0 r:
a2 x1 + b2 x2 + c2 x3 + d2 = 0

L’intersezione r ∩ Π è l’insieme delle soluzioni del sistema di matrice completa


 
a0 b0 c0 −d0
 
(A|B) =  a1 b1 c1 −d1  .
a2 b2 c2 −d2

Siccome (a1 , b1 , c1 ) e (a2 , b2 , c2 ) sono linearmente indipendenti (condizione per avere


una retta), si ha 2 6 ρ(A) 6 ρ(A|B) 6 3. Possono allora verificarsi tre casi:
1 se ρ(A) = 2 e ρ(A|B) = 3, il sistema è incompatibile e l’intersezione è vuota;
2 se ρ(A) = ρ(A|B) = 2, siccome le ultime due righe sono linearmente
indipendenti, la prima deve essere combinazione lineare delle altre due: la prima
equazione (quella di Π) è quindi superflua, e r ∩ Π = r (ovvero r ⊂ Π);
3 se ρ(A) = ρ(A|B) = 3, la soluzione è unica e r ∩ Π è un punto.
Slide 13/20

lezione 20

(1) Retta e piano paralleli (2) Retta contenuta nel piano

(3) Retta e piano incidenti

Slide 14/20
lezione 20

Intersezione fra due rette (§21.4)


Per finire, consideriamo due rette di equazioni cartesiane:
 
a1 x1 + b1 x2 + c1 x3 + d1 = 0 0
a10 x1 + b10 x2 + c10 x3 + d10 = 0
r: r :
a2 x1 + b2 x2 + c2 x3 + d2 = 0 a20 x1 + b20 x2 + c20 x3 + d20 = 0

L’intersezione r ∩ r 0 è l’insieme delle soluzioni del sistema lineare di matrice completa:


 
a1 b1 c1 −d1
 
 a2 b2 c2 −d2 
(A|B) = 

 .

 a10 b10 c10 −d10 
a20 b20 c20 −d20

Per costruzione (condizione necessaria e sufficiente affinchè r ed r 0 siano rette) le


prime due righe di A sono linearmente indipendenti, cosı̀ come le ultime due. Quindi
ρ(A) > 2. Ricordiamo inoltre che ρ(A) 6 ρ(A|B) 6 ρ(A) + 1. Quindi:

2 6 ρ(A) 6 3 e ρ(A) 6 ρ(A|B) 6 ρ(A) + 1 .

Slide 15/20

lezione 20

Possono allora verificarsi i seguenti casi:

1 se ρ(A) = 2 e ρ(A|B) = 3, il sistema non ammette soluzioni e r ∩ r 0 = ∅;

2 se ρ(A) = 3 e ρ(A|B) = 4, come nel primo caso l’intersezione è vuota;

3 se ρ(A) = ρ(A|B) = 2, possiamo eliminare due equazioni (ad esempio, per


riduzione) ed ottenere le equazioni cartesiane di una retta: questo vuol dire che
r = r 0 e r ∩ r 0 = r = r 0 è una retta;

4 se ρ(A) = ρ(A|B) = 3, per il teorema di Rouché-Capelli il sistema è compatibile


ed ammette un’unica soluzione (si hanno 3 − ρ(A) = 0 parametri liberi): quindi
l’intersezione è un punto.

Sia nel primo che nel secondo caso l’intersezione è vuota. Quale è la posizione
reciproca delle due rette?

Nel primo caso le due rette sono parallele (poiché ρ(A) = 2) e distinte.

Se ρ(A) = 3 e ρ(A|B) = 4 le due rette non sono parallele e non si intersecano: due
rette di questo tipo si dicono sghembe.

Slide 16/20
lezione 20

Siccome due rette distinte contenute in un piano sono sempre parallele oppure si
intersecano in un punto, due rette sono sghembe se e solo se non sono complanari.

In figura è illustrato un esempio di due rette sghembe. Esiste uno (e un solo) piano
contenente una delle due rette e ortogonale alla seconda. Tale piano intersecherà la
seconda retta esattamente in un punto.

Slide 17/20

lezione 20

Tabella riassuntiva: Intersezioni.

ρ(A) ρ(A|B) r ∩ r0 r∩Π Π ∩ Π0

1 1 — — piano (Π = Π 0 )
1 2 — — ∅
2 2 retta (r = r 0 ) retta (r ⊂ Π) retta
2 3 ∅ ∅ —
3 3 punto punto —
3 4 ∅ — —

Slide 18/20
lezione 20

Esercizi (C. Carrara, cap. 2)


Esercizio (C. Carrara, 2.5)
a) Determinare la posizione reciproca (cioè se sono incidenti, parallele o sghembe)
delle rette r e r 0 di equazioni parametriche:
 
0

 x1 = 2t 
 x1 = t
r: x2 = t + 1 r0 : x2 = 2

 

x3 = t + 3 x3 = t 0 + 2

b) Se le rette sono incidenti determinare l’ampiezza dell’angolo tra esse.

Esercizio (C. Carrara, 2.6)


Determinare la posizione reciproca (parallele, incidenti o sghembe) delle rette r e r 0 di
equazioni parametriche:
 
0

 x1 = 2t 
 x1 = t
r: x2 = t + 1 r0 : x2 = 1

 

x3 = t x3 = 2t 0 + 1

Slide 19/20

lezione 20

Esercizio (C. Carrara, 2.8)


Si considerino le rette r e r 0 di equazioni

 
 x1 = t + 1 x1 + x2 = 1
r: x2 = 2t r0 :

 x1 − x2 + x3 = 2
x3 = t + 1

a) Si mostri che le due rette sono incidenti.


b) Si determini l’equazione della retta ortogonale a r e r 0 e passante per il loro
punto di intersezione.

Esercizio (C. Carrara, 2.25)


Si considerino i tre piani di equazioni

Π1 : x1 + x2 + x3 = 0 Π2 : x1 − x2 − x3 + 1 = 0 Π3 : 2x1 + λx3 = 1

a) Stabilire la posizione reciproca dei tre piani al variare di λ ∈ R.


b) Si determini l’equazione del piano passante per l’origine e perpendicolare alla
retta r := Π1 ∩ Π2 .

Slide 20/20
lezione 21

Alcune tipologie di esercizi d’esame


• discussione e soluzione di sistemi di equazioni lineari;

• determinare una base di uno spazio vettoriale (definito tramite generatori,


equazioni lineari omogenee, come nucleo o immagine di una applicazione lineare,
come intersezione o somma di sottospazi, come complemento ortogonale di un
sottospazio); determinare una base ortogonale/ortonormale (Gram-Schmidt);

• discutere la diagonalizzabilità/invertibilità di una matrice, anche dipendente da un


parametro reale (determinare autovalori e loro molteplicità, dire per quali valori del
parametro è diagonalizzabile, determinare una matrice diagonalizzante/una base di
Rn formata da autovettori della matrice, scrivere un autovettore a piacere,
verificare che un vettore dato è autovettore della matrice, etc.);

• esercizi su applicazioni lineari, anche dipendenti da un parametro reale


(dimensione e/o base di nucleo e immagine, dire se un vettore appartiene al nucleo
e/o all’immagine, determinare l’immagine di un vettore, dire per quali valori del
parametro è iniettiva/il nucleo è diverso da zero, etc.)

Slide 1/6

lezione 21

Esercizio
Si consideri la seguente matrice dipendente da un parametro k ∈ R:
 
1 0 3
 
A=
 2 k 2 

3 0 1

a) Determinare gli autovalori di A e le relative molteplicità.


b) Dire per quali valori di k la matrice è diagonalizzabile.
c) Per un valore di k scelto a piacere fra quelli trovati al punto b), determinare una base
di R3 formata da autovettori di A.

Slide 2/6
lezione 21

Esercizio
Sia f il seguente endomorfismo di R3 :

f(x, y, z) := ( 2x + y + z , y , x + y + 2z )

a) Scrivere la matrice rappresentativa f nella base canonica di R3 .


b) Dire se f è iniettiva, suriettiva e/o biunivoca.
c) Determinare gli autovalori di f.
d) Scrivere un autovettore di f (a piacere).

Slide 3/6

lezione 21

Esercizio
Sia f : R3 → R4 l’applicazione lineare dipendente da un parametro λ ∈ R definita da:
 
  x2 + x3
x1  
   x1 + λx3 
f x2  :=  
 x + 2x + 3x 
 1 2 3
x3
λx1 − x2

a) Dire per quali valori di λ il nucleo di f è diverso da {0}.

Per un valore di λ scelto a piacere fra quelli trovati al punto a), determinare:

b) una base del nucleo di f;


c) una base dell’immagine di f.

Slide 4/6
lezione 21

Esercizio
Si considerino i seguenti sottospazi di R4 , di cui uno dipendente da un parametro λ ∈ R:

V := L (5, −5, 7, 2) , (5, −5, 8, 3) , (−3, 3, −6, −3) , (−1, 1, −4, −3) ,

Wλ := (x1 , x2 , x3 , x4 ) ∈ R4 : x1 + λx2 + x3 − x4 = 0 .

a) Si determini, se esiste, una base di V .


b) Si determini, se esiste, una base di Wλ .
c) Si determini, se esiste, una base di V ∩ Wλ .

Slide 5/6

lezione 21

Esercizio
Sia Vλ il sottospazio di R4 , dipendente da un parametro λ ∈ R, generato dai vettori:

(1, 0, 1, 1) (3, 2, λ, 3) (1, 4, 3, 1)

e sia

W := (x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x4 = x1 − x2 + x3 = 0

a) Si determini, se esiste, una base di Vλ .


b) Si determini, se esiste, una base di Vλ ∩ W .

Slide 6/6
lezione 22

Distanze in R3 (§22.1)
Come in R2 , anche in R3 la distanza
dall’origine di un punto di coordinate x3
p = (p1 , p2 , p3 ) è data dalla norma:
p3
q
kpk = p21 + p22 + p23 .
P
Verifichiamo questa affermazione. . .
Per il teorema di Pitagora, la diagonale del p2
rettangolo nel piano di equazione x3 = 0 , p1 L x2
disegnato in figura, ha lunghezza
q x1
L= p21 + p22

il segmento OP è la diagonale di un triangolo rettangolo (in rosso) i cui cateti hanno


lunghezza L e |p3 | : per il teorema di Pitagora, la lunghezza di OP è data da
q q
L2 + p3 = p21 + p22 + p23 .
2

Slide 1/14

lezione 22

b
x3

b−a
)
,b
k

a
−a

d(
kb

x1 x2

Dati due punti a = (a1 , a2 , a3 ) e b = (b1 , b2 , b3 ), possiamo costruire il parallelo-


gramma di vertici 0 , a , b − a e b (come in figura). La distanza fra a e b è uguale
alla distanza di b − a dall’origine, quindi:
q
d(a, b) = kb − ak = (a1 − b1 )2 + (a2 − b2 )2 + (a3 − b3 )2 .

Slide 2/14
lezione 22

Angolo fra due vettori di R3 (§22.2)


u+v

θ v

O
Indichiamo con
hu, vi = u1 v1 + u2 v2 + u3 v3
il prodotto scalare canonico fra due vettori u = (u1 , u2 , u3 ) e u = (v1 , v2 , v3 ) di R3 .
Come in 2d, anche in 3d vale la formula (banale se uno dei vettori è zero):

hu, vi = kuk kvk cos θ ,

dove θ è l’angolo convesso formato dai vettori u e v . Verifichiamo l’affermazione. . .


Slide 3/14

lezione 22

Dalla figura a fianco si evince che


u
u
θ kuk
sin =L.
2
Usando la formula per la distanza fra due
punti e la definizione di norma, si ricava:
L

  θ/2 v
u v u v
= O v
2L = d , −
kuk kvk kvk
kuk kvk
rD
u v u v E
= − , −
kuk kvk kuk kvk

e dalla bilinearità del prodotto scalare segue che:


rD s
u u E D v v E D u v E hu, vi
2L = , + , −2 , = 2−2 .
kuk kuk kvk kvk kuk kvk kuk kvk

Per finire, usando la formula di duplicazione del coseno, si arriva alla conclusione:
 
θ hu, vi hu, vi
cos θ = 1 − 2 sin2 = 1 − 2L2 = 1 − 1 − = .
2 kuk kvk kuk kvk
Slide 4/14
lezione 22

Prodotto vettoriale e prodotto misto (§22.3)


Dati due vettori u e v di R3 , il loro prodotto vettoriale, indicato con u ∧ v , è il vettore:

u ∧ v = u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 . (∗)

Indicando come al solito con (e 1 , e 2 , e 3 ) è la base canonica di R3 , formalmente il


prodotto vettoriale si può calcolare attraverso il determinante

e1 e2 e 3


u ∧ v = u1 u2 u3

v1 v2 v3

Usando infatti lo sviluppo di Laplace rispetto alla prima riga, si ottiene:



u2 u3 u1 u3 u1 u2
u ∧ v = e 1 − e
2 + e
3
v2 v3 v1 v3 v1 v2

= e 1 (u2 v3 − u3 v2 ) + e 2 (u3 v1 − u1 v3 ) + e 3 (u1 v2 − u2 v1 )

che è proprio la definizione (∗) di prodotto vettoriale.


Slide 5/14

lezione 22

Dati tre vettori u = (u1 , u2 , u3 ), v = (v1 , v2 , v3 ) e w = (w1 , w2 , w3 ) di R3 , chiamiamo


prodotto misto dei tre vettori il determinante:

u1 u2 u3


v1 v2 v3

w1 w2 w3

Usando lo sviluppo di Laplace rispetto alla terza riga si ricava:



u1 u2 u3
u2 u3 u1 u3 u1 u2

v1 v2 v3 = w ·
1 − w · + w3 ·
v3
2

w1
v2 v1 v3 v
1 v2
w2 w3

= hu ∧ v, wi

Il prodotto misto si ottiene, quindi, facendo il prodotto vettoriale dei primi due vettori, e
poi il prodotto scalare con il terzo.

Slide 6/14
lezione 22

Proposizione 22.3.2(1)
Il prodotto vettoriale è una operazione interna di R3 non associativa e non commutativa.
Gode invece della proprietà anti-commutativa:
u ∧ v = −v ∧ u ∀ u, v ∈ R3 .

Dimostrazione. Si verifica facilmente (la verifica è lasciata come esercizio) che:

e1 ∧ e2 = e3 , e 2 ∧ e 1 = −e 3 .

Siccome e 1 ∧ e 2 6= e 2 ∧ e 1 , il prodotto vettoriale non è commutativo.


Dalla definizione di u ∧ v si vede immediatamente che, scambiando i due vettori fra di
loro, il prodotto vettoriale cambia segno: questo prova la proprietà anti-commutativa.
Infine, detto u = (1, 1, 0), il vettore

(e 1 ∧ e 2 ) ∧ u = e 3 ∧ u = (−1, 1, 0)
è diverso da
e 1 ∧ (e 2 ∧ u) = e 1 ∧ (0, 0, −1) = (0, 1, 0) ;

quindi il prodotto vettoriale non è associativo. 


Slide 7/14

lezione 22

Proposizione 22.3.2(2)
Due vettori u, v di R3 sono linearmente dipendenti se e solo se u ∧ v = 0 .

Dimostrazione. E’ sufficiente osservare che le componenti di u ∧ v sono date (a meno


di un segno) dal determinante dei minori di ordine 2 della matrice:
   
u1 u2 u3 u
A= = .
v1 v2 v3 v

I vettori u e v sono linearmente indipendenti se e solo se ρ(A) = 2.


Per teorema degli orlati, una condizione necessaria e sufficiente è che almeno un
minore di ordine 2 di A abbia determinante non nullo, ovvero almeno una componente
di u ∧ v sia diversa da zero, come volevasi dimostrare. 

Slide 8/14
lezione 22

Dati due vettori u e v linearmente indipendenti. . .


x3
Proposizione 22.3.2(4) u∧v
Il prodotto vettoriale u ∧ v è ortogonale al
piano contenente i vettori u e v . v

Dimostrazione. Si ha


u1 u2 u3 u

x2
hu ∧ v, ui = v1 v2 v3 = 0 .

u1 u2 u3
x1
Il determinante è zero perché la matrice
ha due righe uguali. Allo stesso modo si prova che

hu ∧ v, vi = 0
da cui segue che u ∧ v è ortogonale a qualsiasi combinazione lineare dei vettori u e
v , ovvero la tesi.
Slide 9/14

lezione 22

Proposizione 22.3.2(5)
La norma del vettore u ∧ v è l’area del parallelogramma di lati u e v .

Dimostrazione. u+v
v

h
θ u
kuk

L’area del parallelogramma in figura è data da:

Area = base × altezza = kuk · h = kuk kvk sin θ .

D’altra parte, siccome hu, vi = kuk kvk cos θ, dall’identità di Lagrange segue che
q q
2
ku ∧ vk = kuk kvk − |hu, vi| = kuk2 kvk2 (1 − cos2 θ)
2 2

p
= kuk kvk 1 − cos2 θ = kuk kvk sin θ ,

da cui la tesi. 
Slide 10/14
lezione 22

Enunciamo senza dimostrazione. . .

Proposizione 22.3.2(8)
Il volume del parallelepipedo che ha per lati i vettori u , v e w è dato da |hu ∧ v, wi| .

v
O

Slide 11/14

lezione 22

Esercizi (C. Carrara, §2)


Esercizio (C. Carrara, es. 2.1)
Determinare delle equazioni parametriche e cartesiane delle seguenti rette del piano:
(a) passante per i punti A(1, 2) e B(−1, 3);
(b) passante per i punti P(2, 3) e parallela al vettore u = (−1, 2);
(c) di equazione cartesiana y = 2x + 5.

Esercizio (C. Carrara, es. 2.2)


Determinare equazioni parametriche e cartesiane delle seguenti rette dello spazio:
(a) passante per i punti A(1, 0, 2) e B(3, −1, 0);
(b) passante per i punti P(1, 3, 1) e parallela al vettore u = (2, 0, 0);
(c) di equazioni cartesiane 
3x − y + 1 = 0
−x + y + z = 0
Determinare inoltre un punto appartenente a tale retta.

Slide 12/14
lezione 22

Esercizio (C. Carrara, es. 2.3)


(a) Determinare equazioni parametriche e cartesiane del piano Π passante per i punti
A(1, 3, 1), B(2, 0, 0) e C(0, 1, 1). Il punto P(0, 2, 0) appartiene a tale piano?
(b) Determinare una equazione della retta passante per A e ortogonale a Π.

Esercizio (C. Carrara, es. 2.22)


Dire se i quattro punti

A(1, 2, 1) B(2, 1, 0) C(−1, 0, −1) D(0, 0, −1)

sono complanari e, in caso affermativo, determinare una equazione cartesiana del


piano che li contiene.

Slide 13/14

lezione 22

Esercizio (C. Carrara, es. 2.7)


(a) Determinare delle equazioni parametriche della retta r passante per i punti
A(2, 3, 1) e B(0, 0, 1) e della retta s passante per i punti C(0, 0, 0) e D(4, 6, 0).
(b) Stabilire se r e s sono complanari. In caso affermativo, trovare una equazione
cartesiana del piano contenente r e s.

Esercizio (C. Carrara, es. 2.11)


(a) Determinare equazioni parametriche e cartesiane della retta r dello spazio
passante per i punti A(2, −1, 3) e B(3, 5, 4).

(b) Stabilire se la retta r interseca il piano di equazione cartesiana 2x − y + x = 0.

Slide 14/14
9.59.5Conic
ConicSections
Sections Contemporary
ContemporaryCalculus
Calculus l e1z 1i o n i 2 3 - 2 4
ections Contemporary Calculus
9.5 Conic Sections 1 Calculus
Contemporary

Cono
9.5
ONIC SECTIONS
circolare
9.5 CONIC
CONICSECTIONS
SECTIONS
9.5
retto
CONIC SECTIONShyperbola
hyperbola
hyperbola
parabola
parabola hyperbola
parabola pa
The conic
The conicsections
sectionsareare
thethe
curves
curves obtained
obtainedwhen
whena cone
a coneis is
cutcut
bybya plane
a plane(Fig.
(Fig.1).1).
Nello
ections are the
Theycurves
They spazio
have obtained
haveattractedtridimensionale,
when
thethe
attracted
a cone
interestTheis
ofof
interest
cut
conicby consideriamo
a plane
sections
mathematicians
mathematicians
(Fig.
are
since 1).
the the
sincecurves
time
the obtained
timeofof when
Plato, and
Plato, and cone is cut byza plane (Fig. 1).
a they
they
una
ttracted theare circonferenza
interest
still
are
of mathematicians
used
still byby
used scientists
scientistsand (rossa
Csince
andTheythehave
engineers. inattracted
time
engineers. figura)
of
The Plato,
Theearly
early ed
and
the
Greeks unwere
they
interest
Greeks of interested
weremathematicians
in in
interested these since the time of Plato, and they
these
punto
d by scientists
shapes
shapes nonofof
and engineers.
Pbecause
because complanare
The
theirearly
beauty
their
Greeks
beautyare
andandad
were
still
their essa.
used
their
interested
representations in these
by scientists
representations and
byby engineers.
sets ofof
sets pointsThe
pointsthatearly
met
that Greeks were interested in these
met
use of their certain
beauty distance
and theirdefinitions
representations by
shapes sets of points
because ofthe thatofbeauty
their met and atheir representations by sets of points thatellips
met
ellips
certain distance definitions(e.g., thethe
(e.g., circle
circle is is
the setset ofpoints
points at at fixed
a fixeddistance
distance
L’unione
nce definitions (e.g., di tutte
thepoint). le rette
circle isMathematicians
the set of che intersecano
pointsdistance
certain at ascientists
fixed distance
definitions la (e.g., the circle isbeen
ellips
the set of points at a fixed distance
from
froma given
a given point). Mathematicians andand scientists since
sincethe 1600s
the 1600s have
have been
circle
circle
circonferenza
n point). Mathematicians
interested in in and
thethe
conic
C e passano
scientists
sectionssince
from the
a
because
per
1600s
given
thethe
P è
have
point).
planets,
una
been
Mathematicians
moons, and other and scientists
celestial since the 1600s have been
interested conic sections because planets, moons, and other celestial circle
superficie
the conic sections
objects becausedetta
follow
objects follow paths
paths
cono
the planets,
that areare
that
circolare;
moons, and in
interested
(approximately) other
(approximately) the si dice
Cconic
celestial
conic
conic sections
sections,
sections, because
and
andthethe the planets, moons, and other
reflective
reflective celestial
Fig.
Fig.1 1
direttrice,
w paths thatproperties
are (approximately)
propertiesofofthe siconic
Ptheconicdice
conic vertice
sections,
sections objects
sections areare e
and
useful lethe
follow
useful rette
for si
thatdicono
reflective
paths
designing
for designing are (approximately)
telescopes
telescopes andandother conic sections,
Fig.
other 1 and the reflective Fig
generatrici
f the conic sections are useful
instruments. del
instruments.Finally,
forcono.
designing
Finally,thethe
conic telescopes
properties
sections
conic of and
the
give
sections give
other
conic
the sectionsanswer
complete
the complete are useful
answer to tofor
the designing
question,
the question, telescopes
"what
"whatis is and
thethe other
shape
shapeofof
Finally, the conic
thethe
graph sections
graphofofthethegive
general the
general
complete
quadratic
quadratic
answer
instruments.
equation
equation
to 2
the
AxAx+2 Bxy
Finally, question,
+the
Bxyconic
++
2"what
2+
CyCysections
+ is
DxDx++the
give
EyEy
shape
++ theF
F of
= complete
0 ?"
= 0 ?" answer to the question, "what y is the shap
the generalSe la retta passante 2 per P ed 2 il centro della
quadratic equation Ax + Bxy the+graph
Cy +ofDxthe+general = 0 ?" equation Ax2 x
Ey + F quadratic + Bxy + Cy2 + Dx + Ey + F = 0 ?"
circonferenza
This section
This discusses
section è the
discusses perpendicolare
"cut
the cone"
"cut and
cone" and al piano
distance
distance Π ofofthetheconic
definitions
definitions conic sections
sectionsandandshows
shows their standard
their standard
discusses the "cut cone" and distance definitions of theThe
conic sections and shows their standard
contenente
equations
equationsin in la circonferenza
rectangular
rectangular This section
coordinate
coordinateform.stessa,
form. discusses
The latheends
section
section "cut cone"
with
ends with aand distance
a discussion
discussion ofofdefinitions
the of the an
discriminant,
the discriminant, conic
easy
an sections and shows their stand
easy
rectangularway
coordinate form.theThe section ends
equations withof
inaofdiscussion
rectangular of the discriminant,
coordinate form. an section
The easy ends with a discussion of the discriminant, an ea
superficie
wayto to si chiama
determine
determine shape
the shapeofcono
the
of graph
the circolare
graph any
any retto.
standard
standard quadratic
quadraticequation
equation
mine the shape 2of+2 the graph 2 any standard
of
AxAx Bxy
+ Bxy + Cy+2 Dx
+ Cy + Dx + Ey
+ Ey+ quadratic
way F
+=Fto=
equation
0determine
.0 Section
. Section the shape
9.69.6 of thethe
examines
examines graph of coordinate
polar
the any
polar standarddefinitions
coordinate quadratic equation
of
definitions thethe
of conic
conic
2
In+sections,
figura,
+ Cy + Dxsections,
Ey +F =P
some
some
. èSection
0 of l’origine,
the
of reflective
the Π 2
9.6 examines
Ax è+ Bxy
perpendicolare
properties
reflective
the+ofpolar
properties Cy 2
thethe
of
coordinate
+ Ey definitions
Dx sections,
conic
conic+ sections,
+ F and
=and
0 someof of
. some thetheir
Section conic
9.6applications.
of theirexamines the polar coordinate definitions of the c
applications.
all’asse
me of the reflective z e il centro
properties of the conicdisections,
C è sull’asse
sections, and some
some of theof . their applications.
zreflective properties of the conic sections, and some of their applications.
Cutting
CuttingA ACone
Cone
ConeSlide 1/38
Cutting A Cone
When a (right circular double) cone is is
cutcut
bybya plane, only a few shapes areare
possible, and these areare
called l the
ezioni 23-24
When a (right circular double) cone a plane, only a few shapes possible, and these called the
ht circular double) cone is cut by a plane, only a few shapes are possible,
ofofθ θwithand these are called the θ< αfew
conic sections
conic sections(Fig. 1).1).If If
(Fig. When
thetheplane amakes
plane (right
makes circular
anan angle double)
angle cone isthe
the
with cut by a plane,
horizontal,
horizontal, and only
and θa< α , shapes
, then
thenthetheareset
set possible,
of of and these are calle
Sezioni coniche
ns (Fig. 1).points
If theisplane
anan
points is
makes(Fig.
ellipse an angle
ellipse (Fig.
of θ sections
Whenθ =
conic
2).2).When with0the
θ = <0 α
horizontal,
α
<(Fig.
, we
, we1).
have If and
have athe θ < aαmakes
plane
circle,
a circle,
, then an
special
a special
the setofofan
angle
case
case ofofan θellipse
with(Fig.
ellipse the
(Fig.horizontal,
3).
3).If If and θ < α , then the s
ellipse (Fig.θ 2).
=θ α When θ = 0 is α , we have
< formed a4),
circle, a special ,case ofWhen isθ is
an ellipse 0 < α3).
= (Fig. If have
=α, a, parabola
a parabola is formed points
(Fig.
(Fig. isand
4), an if
and ifθ >
ellipse θα α
>(Fig.
a, 2).
hyperbola
a hyperbola formed
formed , we
(Fig.
(Fig. aWhen
5).5).Whencircle, aplane
thethe special
plane goescase of an ellipse (Fig. 3).
goes
Intersecando
rabola is formed (Fig. 4), unθ piano
and of
if αcone,
>cone, con un cono
, θadegenerate
α , a parabola
hyperbola isconics
formed circolare
(Fig. 5). retto,
When come
theifplane
in, figura
θ ellipse
αgoes si ottengono delle
through thethe
through vertex
vertex thethe
of =degenerateconics isare
formed (Fig.
formed:
are formed: the4), and
degenerate
the degenerate> ellipse <<
(θ α)α)
a(θhyperbola
is is is formed
a point, thethe(Fig. 5). When the plane
a point,
curve
vertex of the cone, dette
degenerate sezioni
degenerate
parabola
degenerate conics
(θ(θ
parabola
coniche
=are
= α) isformed:
α) through
a line,
is
(and
the
and
a line,
0avertex
the < α of<the
degenerateπ/2
degenerate ellipse
a degenerate cone, 0 <6
e (θ θisα)
α)(θ
degenerate
hyperbola
hyperbola(θ > <conics
>aα)
isπ/2
point,
a pair
is
):
the
are
offormed:
a pair the degenerate
intersecting
of lines.
intersecting lines. ellipse (θ < α) is a point,
parabola (θ = α) is a line, and a degeneratedegenerate (θ > α) is(θa =pair
hyperbola parabola α) of
is aintersecting degenerate hyperbola (θ > α) is a pair of intersecting lines.
line, and a lines.

θθ αα
α θθ ==00 αα
θ θ<θ <α θ α θθ αα θθ
=α0 circle
circle θ=0 α α)
α hyperbola
hyperbola
Cerchio
ellipse
ellipse
circle(θ = 0) θθ < α θcircle
θ= =α α θ θ (θ > α
Iperbole
θ θ> >α α
Ellisse (θ < α) hyperbola
Parabola (θ = α) hyperbola
θ=α
ellipse parabola
parabola θ>α θ=α θ>α
parabola parabola
Fig.
Fig.2 2 Fig.
Fig.3 3
Fig. 3 Fig. 2 Fig.
Fig.5 5
Fig. 3
Fig.
Fig.4 4 Fig. 5 F
Fig. 4 Fig. 4
Se il piano del taglio contiene il vertice, si ottengono coniche degeneri: l’intersezione
con il cono può essere un punto (θ < α), una retta generatrice del cono (θ = α), o una
coppia di generatrici (θ > α).

( Per trovare delle equazioni, conviene partire da una definizione differente di conica: come luogo
geometrico dei punti del piano soddisfacenti una opportuna proprietà metrica. . . )
Slide 2/38
lezioni 23-24

Costruzione di una conica (Orecchia, cap. 12)

Fissati nel piano una retta r (direttrice) ed un punto F (fuoco)


esterno alla retta, possiamo considerare l’insieme dei punti P
la cui distanza dal fuoco divisa per la distanza dalla retta è una
r
costante e > 0, cioè la curva di equazione:

d(P, F) = e · d(P, r) P

Il parametro e si dice eccentricità e la curva prende il nome di:


F
• parabola se e = 1;
• ellisse se 0 < e < 1;
• iperbole se e > 1.

Tali curve si dicono sezioni coniche o semplicemente coniche.


Vediamo come si ricavano delle equazioni cartesiane. . .

Slide 3/38

lezioni 23-24

Parabola (e = 1)
Definizione
Si dice parabola il luogo dei punti del piano
equidistanti da un fuoco e una direttrice. P
a/2
L’equazione della parabola è particolarmente
semplice se scegliamo il sistema di riferimento
in modo che l’asse delle x sia parallelo alla
−a/2 r
direttrice ed equidistante da direttrice e fuoco,
e l’asse delle y passi per il fuoco (figura).
Detto d(F, r) = a > 0, se P ha coordinate (x, y), poichè d(P, r) = y + 12 a , e per il
q
teorema di Pitagora d(P, F) = x2 + (y − 12 a)2 , l’equazione della parabola è:
q
y + 2 a = x2 + (y − 12 a)2
1

Elevando al quadrato si ottiene y2 + ay + 14 a2 = x2 + y2 − ay + 41 a2 , ovvero:

x2 − 2ay = 0

Si ottiene una retta (asse y) nel caso limite a → 0.


Slide 4/38
lezioni 23-24

Ellisse (0 < e < 1)


r
P
Scegliamo il sistema di riferimento in modo
che il fuoco sia sull’asse delle x, F = (p, 0)
con p > 0, e la direttrice sia perpendicolare F q
a tale asse e di intercetta q > p. Possiamo
scegliere l’origine in modo che p/q = e2 .
Un punto P di coordinate (x, y) è sull’ellisse se e solo se:
p
(p − x)2 + y2 = d(P, F) = e · d(P, r) = e(q − x)

Elevando al quadrato si ottiene,

(1 − e2 )x2 + y2 + 2(e2 q − p)x + p2 − e2 q2 = 0

essendo p = e2 q il termine di primo grado in x si semplifica e si ottiene l’equazione

x2 y2
+ =1
a2 b2

in cui a = eq e b = 1 − e2 eq (notiamo che 0 < e < 1 e quindi a, b > 0).
Slide 5/38

lezioni 23-24

Ellisse (0 < e < 1)


Notiamo che l’ellisse interseca l’asse x nei
punti (±a, 0) e l’asse y nei punti (0, ±b). b
P
Si verifica facilmente che l’ascissa di F è
legata ai parametri a, b dalla relazione:
√ −a F0 F a
p= a2 − b 2

mentre l’eccentricità è data da


−b
p
e = 1 − b2 /a2

Detto F 0 il punto di coordinate (−p, 0), una definizione equivalente è la seguente:

Definizione
Si dice ellisse l’insieme dei punti del piano la cui somma delle distanze da due punti F e
F 0 (detti fuochi) è costante.

Nel caso limite F ≡ F 0 si ottiene una circonferenza (poiché d(F, F 0 ) = 2p = 0 ⇒ a = b).

Slide 6/38
lezioni 23-24

Iperbole (e > 1)

Scegliamo il sistema di riferimento in modo


che il fuoco sia sull’asse delle x, F = (0, p)
P
con p > 0, e la direttrice sia perpendicolare
a tale asse e di intercetta q < p. Possiamo
scegliere l’origine in modo che p/q = e2 .
F
Come nel caso dell’ellisse, imponendo
d(P, F) = e · d(P, r) si ottiene l’equazione

x2 y2
+ =1
e2 q 2 e2 (1 − e2 )q2
per le coordinate (x, y) di un punto P sull’iperbole. Stavolta però 1 − e2 < 0 .

Chiamando a = eq e b = e2 − 1 eq si ottiene l’equazione:

x2 y2
− 2 =1
a2 b

Slide 7/38

lezioni 23-24

Iperbole (e > 1)
b b
y = −a x y= ax

Notiamo che la curva interseca l’asse


P
delle x nei punti (±a, 0). Si verifica
facilmente che l’ascissa di F è legata
ai parametri a, b dalla relazione:
√ F0 −a a F
p= a2 + b2

mentre l’eccentricità è data da


r
b2
e= 1+
a2

Detto F 0 il punto di coordinate (−p, 0), una definizione equivalente è la seguente:

Definizione
Si dice iperbole l’insieme dei punti del piano la cui differenza delle distanze da due punti
F e F 0 (i due fuochi) è costante.

Nel caso limite F ≡ F 0 si ottiene una coppia di rette incidenti.


Slide 8/38
lezioni 23-24

Simmetrie di una conica


In R2 gli endomorfismi

(x, y) 7→ (x, −y) e (x, y) 7→ (−x, y) F

rappresentano riflessioni rispetto agli assi (delle


ascisse e delle ordinate rispettivamente).

E’ evidente dalle equazioni canoniche di ellisse e


iperbole (funzione di x2 e y2 ) l’invarianza rispetto ad
entrambe le riflessioni: diciamo che gli assi x e y F0 F
sono assi di simmetria per ellisse e iperbole.

La parabola è invariante solo rispetto ad una delle


due riflessioni: ha un solo asse di simmetria.

La definizione di assi di simmetria si può dare F0 F


indipendentemente dalla scelta del sistema di
riferimento. . .
Slide 9/38

lezioni 23-24

Un pò di terminologia. . .
Ellisse ed iperbole sono caratterizzate da:
I due assi di simmetria: la retta r contenente i due fuochi e la retta perpendicolare
ad r equidistante dai due fuochi. Il nome deriva dal fatto che ellisse ed iperbole
sono invarianti per riflessione rispetto ad una di queste due rette.
I un centro di simmetria: il punto di intersezione degli assi di simmetria. Per questo
motivo, ellisse e iperbole vengono dette “coniche a centro”.
I vertici: i punti di intersezione fra la curva e gli assi di simmetria. Due per l’iperbole,
quattro per l’ellisse.
I diametri: tutte le corde che passano per il centro.
I semiassi: i segmenti con estremi il centro e uno dei vertici (quattro per l’ellisse,
due per l’iperbole).

La parabola è caratterizzata da:


I un asse di simmetria: la retta perpendicolare alla direttrice e passante per il fuoco.
I un vertice: l’intersezione della parabola con l’asse di simmetria.

Slide 10/38
lezioni 23-24

Coniche a centro non degeneri


Siano a, b, c ∈ R tutti diversi da zero, e sia γ l’insieme delle soluzioni dell’equazione

ax2 + by2 + c = 0
A seconda del segno dei tre coefficienti si ottengono insiemi differenti:
I a, b, c hanno lo stesso segno: γ è l’insieme vuoto.
I a, b hanno lo stesso segno, c ha segno opposto: γ è una ellisse.
I a, b hanno segno opposto: γ è una iperbole.
p p
Nel 2◦ caso, chiamando α = −c/a e Nel 3◦ caso, se ac < 0, detti α = −c/a
p p
β = −c/b l’equazione diventa e β = c/b, si trova l’equazione canonica di
una iperbole con i fuochi sull’asse x:
x2 y2
+ =1
α2 β2 x2 y2
− =1
Se β < α, si tratta dell’equazione canonica di α2 β2
una ellisse con i fuochi sull’asse x.
p p
Se ac > 0, α := c/a e β := −c/b, si
Se α < β, i due assi sono invertiti ed i fuochi trova una iperbole con i fuochi sull’asse y:
sono sull’asse y.
y2 x2
Se α = β, si ottiene un cerchio, caso limite − =1
β2 α2
dell’ellisse in cui i due fuochi coincidono.
Slide 11/38

lezioni 23-24

Coniche a centro degeneri


Dati (a, b) 6= (0, 0), sia γ l’insieme delle soluzioni dell’equazione

ax2 + by2 + c = 0

Studiamo cosa succede se almeno uno dei coefficienti è zero:

I a 6= 0, b 6= 0 e c = 0. Si ha:
I se a e b hanno lo stesso segno ⇒ γ = {(0, 0)} è un punto;
p
I se a e b hanno segno opposto ⇒ y = ± −a/b x sono due rette incidenti.
 p
γ : y = ± −c/b sono due rette parallele e distinte, se bc < 0
I a = 0, b 6= 0 e c 6= 0 ⇒
γ = ∅ l’insieme vuoto, se bc > 0
 p
γ : x = ± −c/a sono due rette parallele e distinte, se ac < 0
I a 6= 0, b = 0 e c 6= 0 ⇒
γ = ∅ l’insieme vuoto, se ac > 0

I a 6= 0 e b = c = 0 ⇒ x = 0 e γ è una retta.
I b 6= 0 e a = c = 0 ⇒ y = 0 e γ è una retta.
Slide 12/38
lezioni 23-24

Cambi di coordinate (esempio)


Consideriamo l’iperbole di equazione

x2 − y2 = 1 (∗)

In questo caso gli asintoti sono le due bisettrici. Scegliendo diversamente il sistema di
riferimento, l’equazione della curva cambia. Scegliamo ad esempio gli asintoti come
assi del nuovo sistema di riferimento, di versori
1 1
v 1 = √ (1, −1) v 2 = √ (1, 1)
2 2
Un punto P di coordinate (x, y) ∈ R2 nel nuovo sistema di riferimento avrà coordinate
(X, Y) date dale componenti del vettore (x, y) nella base (v 1 , v 2 ), ovvero date da:

(x, y) = Xv 1 + Y v 2

Si trova x = X+Y

2
, y= Y−X

2
, e sostituendo queste espressioni in (∗) si ottiene

2XY = 1 (∗∗)

Le equazioni (∗) e (∗∗) descrivono la stessa curva in due sistemi di riferimento differenti.
Slide 13/38

lezioni 23-24

La stessa conica è descritta da equazioni di forma anche molto diverse in sistemi di


riferimento differenti.

Y = −X
Y

y = −x y=x

x2 − y2 = 1 v2 e2 2XY = 1
Y=X
F1 F2 F1 e1 F2
v1
X

Nell’esempio qui sopra, possiamo girare la figura di destra e immaginare che ad


essere ruotato sia non il sistema di riferimento ma la conica.

Slide 14/38
lezioni 23-24

. . . possiamo girare la figura e immaginare che ad essere ruotato sia non il sistema di
riferimento ma la conica. Da questo punto di vista, l’equazione 2XY = 1 descrive un
iperbole i cui fuochi, invece che essere sull’asse delle ascisse, sono su una delle
bisettrici, mentre la direttrice è parallela all’altra bisettrice. Gli asintoti sono i due assi.

Y
Y=X
y = −x y=x

F2
2XY = 1
x2 − y2 = 1 v2 v2

v1 X
F1 F2
v1

F1

Slide 15/38

lezioni 23-24

Basi ortonormali e rotazioni


Sia B = (v 1 , v2 ) una base ortonormale di R2 , con v 1 (risp. v 2 ) ruotato in senso
antiorario di 0 6 θ < 2π rispetto ad e 1 (risp. e 2 ). Quindi v 1 = (cos θ, sen θ) e
v 2 = (− sen θ, cos θ) . Consideriamo un nuovo sistema di riferimento con la stessa
origine O, ma i cui assi sono le rette
orientate di versori v 1 e v 2 . Un punto P di y
Y
coordinate (x, y) nel vecchio sistema di
riferimento, nel nuovo avrà coordinate
(X, Y) date dall’equazione X

(x, y) = Xv 1 + Y v 2 v2 v1
θ
x
Quindi:
" # " #" #
x cos θ − sen θ X
=
y sen θ cos θ Y

Slide 16/38
lezioni 23-24

Matrici ortogonali
Sia
" #
cos θ − sen θ h i
P := = t v1 t
v2
sen θ cos θ

la matrice che lega le coordinate (X, Y) alle coordinate (x, y). Notiamo che:
I le colonne di P sono proprio i vettori v 1 e v 2 della base B;
I in altre parole, P è la matrice del cambiamento di base dalla base canonica a B;
I valgono le proprietà
t
P = P−1 (†)
det(P) = 1 (‡)

Definizione
Una matrice P ∈ Mn (R) che soddisfa (†) si dice ortogonale. Se in aggiunta soddisfa
anche (‡) si dice speciale ortogonale.

Si può dimostrare che P è ortogonale se e solo se le sue colonne formano una base
ortonormale di Rn .
Slide 17/38

lezioni 23-24

Traslazioni Y

y P

b
O0 X

O a x

Se il secondo sistema di riferimento è traslato di (a, b) rispetto al primo, le coordinate


di uno stesso punto P nei due sistemi di riferimento saranno legate dalla relazione
" # " # " #
x X a
= +
y Y b
Slide 18/38
lezioni 23-24

Roto-traslazioni
y
Y

0
b O θ

O a x

Consideriamo un sistema di nuovo riferimento ottenuto da quello di partenza


componendo una traslazione di (a, b) e una rotazione di θ. Le coordinate di uno
stesso punto P nei due sistemi di riferimento saranno legate dalla relazione
" # " #" # " #
x cos θ − sen θ X a
= +
y sen θ cos θ Y b

Slide 19/38

lezioni 23-24

Esempio
Consideriamo un sistema di y Y
riferimento con origine O nel 0

punto (4, 32 ) e con assi di versori


v 1 = √15 (2, 1) e v 2 = √15 (−1, 2) ,
cioè θ = 27◦ circa. In figura è X

disegnata l’ellisse di equazione O


0

1 2
+ Y2 = 1
2
X
  v2 v1
Sia P = t v 1 t v 2 . Notiamo che se θ θ
O x
t t t
(x, y) = P · (X, Y) + (a, b)

allora t (X, Y) = t P · t (x − a, y − b) perchè P−1 = t P. In questo esempio


" # " #" #
X 1 2 1 x−4
= √
Y 5 −1 2 y − 3/2
Con una sostituzione si ricava l’equazione dell’ellisse nelle vecchie coordinate, data da

6x2 − 4xy + 9y2 − 42x − 11y + 349


4
=0
Slide 20/38
lezioni 23-24

Definizione algebrica di una conica (Orecchia, §12.2)

Definizione
Una conica γ è il luogo dei punti del piano le cui coordinate x, y soddisfano una
equazione di secondo grado del tipo

a11 x2 + 2a12 xy + a22 y2 + 2a13 x + 2a23 y + a33 = 0

con a11 , a12 e a22 non tutti nulli. Le matrici


 
a11 a12 a13 " #
  a11 a12
A1 = a12 a22 a23  A=
a12 a22
a13 a23 a33

si dicono rispettivamente matrice della conica e matrice della parte quadratica di γ.

Notiamo che A e A1 sono matrici simmetriche.

Slide 21/38

lezioni 23-24

Definizione
Una conica si dice in forma canonica se la sua equazione è di uno dei seguenti tipi:

i) a11 x2 + a22 y2 + a33 = 0 (cioè a12 = a13 = a23 = 0; la matrice A1 è diagonale);

ii) a11 x2 + 2a23 y = 0 con a23 6= 0 (e a12 = a22 = a13 = a33 = 0).

Teorema
L’equazione di una conica può essere sempre ridotta in forma canonica attraverso un
opportuno cambio di coordinate (roto-traslazione).

Dimostrazione. Sia

(x, y) A t (x, y) = a11 x2 + 2a12 xy + a22 y2

la parte di secondo grado nell’equazione della conica. Siccome A è simmetrica, esiste


una base ortonormale B = (v 1 , v 2 ) di R2 formata da autovettori di A. La matrice
t 
P= v 1 t v 2 è speciale ortogonale, ed è una matrice diagonalizzante di A, cioè
 
λ 1 0
t
PAP = P−1 AP =
0 λ2
è diagonale, con λ1 , λ2 autovalori di A.
Slide 22/38
lezioni 23-24

Immaginiamo di aver ordinato gli autovettori in modo che

|λ1 | > |λ2 |

Indichiamo con x 0 , y 0 le coordinate in un sistema di riferimento ruotato, di versori


v 1 , v 2 , cioè effettuiamo il cambiamento di coordinate dato da
   0 
x x
=P 0
ovvero (x, y) = (x 0 , y 0 ) · t P
y y
Nelle nuove coordinate la parte quadratica dell’equazione della conica diventa
   
x x0
(x, y) A = (x 0 , y 0 ) t PAP = λ1 x 02 + λ2 y 02
y y0
L’equazione della conica diventa

λ1 x 02 + λ2 y 02 + 2b13 x 0 + 2b23 y 0 + a33 = 0

in cui b13 e b23 sono dei coefficienti opportuni.


Nota: se t è una variabile, completare ad un quadrato un polinomio di 2◦ grado at2 + bt + c
vuol dire scriverlo come il quadrato di un polinomio di 1◦ grado più un termine costante:
 b 2 b2
2
at + bt + c = a t + − +c
2a 4a
Slide 23/38

lezioni 23-24

I Caso I: se λ2 6= 0 (e quindi λ1 6= 0), possiamo riscrivere l’equazione nella forma


 2  2
0 b 13 0 b 23 b213 b223
λ1 x + + λ2 y + + b33 − − =0
λ1 λ2 λ1 λ2
Con la trasformazione (traslazione):
b13 b23
X = x0 + Y = y0 +
λ1 λ2
b213 b223
nelle nuove coordinate, detto c = b33 − λ1
− λ2
, l’equazione della conica diventa

λ1 X2 + λ2 Y 2 + c = 0
Abbiamo ottenuto la forma canonica (i).
I Caso II: notiamo che gli autovalori di A non possono essere entrambi nulli, altrimenti
A sarebbe uguale alla matrice nulla (ma per definizione di conica, A 6= 0).
Rimane da studiare il caso λ1 6= 0 e λ2 = 0. In questo caso

λ1 x 02 + 2b13 x 0 + 2b23 y 0 + a33 = 0


Se b23 = 0, con la trasformazione
b13
X = x0 + Y = y0
λ1
si ottiene l’equazione λ1 X2 + c = 0, che è un caso particolare della forma (i).
Slide 24/38
lezioni 23-24

Se invece b23 6= 0, con la traslazione

b13
0 λ1 b33 − b213
0
X=x + Y=y +
λ1 2b23 λ1
si ottiene l’equazione
λ1 X2 + 2b23 Y = 0
cioè la forma canonica (ii). 

Riassumendo, sia (v 1 , v 2 ) una base di autovettori di A, di autovalori |λ1 | > |λ2 |. Per
mettere l’equazione della conica in forma canonica si effettuano due cambi di
coordinate in successione:
I Il primo è una rotazione: si sceglie il nuovo sistema di riferimento con assi la cui
direzione è data dagli autovettori di A.
I Il secondo è una traslazione, scelta in modo da far scomparire entrambi i termini
di 1◦ grado (se possibile) oppure il termine di 1◦ grado in x 0 ed il termine costante.

Slide 25/38

lezioni 23-24

Invarianti di una conica

Sia γ la conica di equazione

a11 x2 + 2a12 xy + a22 y2 + 2a13 x + 2a23 y + a33 = 0 ,

A1 la matrice della conica, A 6= 0 la matrice della parte quadratica di γ.

Notiamo che l’equazione di γ si può scrivere nella forma compatta

(x, y, 1) · A1 · t (x, y, 1) = 0

usando il prodotto righe per colonne.

Si possono associare a γ tre numeri reali


• I1 = tr(A), detto invariante lineare,
• I2 = det(A), detto invariante quadratico,
• I3 = det(A1 ), detto invariante cubico,

Slide 26/38
lezioni 23-24

Teorema
I numeri I1 , I2 , I3 di γ sono invarianti per roto-traslazioni.

Dimostrazione. Consideriamo il cambiamento di coordinate


" # " # " # " # " # " #
0
x cos θ − sen θ x α x0 α
= · 0
+ = P 0
+
y sen θ cos θ y β y β

che si può anche scrivere come


      
x cos θ − sen θ α x0 x0
 y     
  =  sen θ cos θ β  y 0  = T ·  y 0 
1 0 0 1 1 1

Notiamo che T ha determinante 1 (fare lo sviluppo di Laplace rispetto alla 3a riga).


L’equazione della conica nel nuovo sistema di riferimento diventa

(x, y, 1) · A1 · t (x, y, 1) = (x 0 , y 0 , 1) · t T A1 T · t (x 0 , y 0 , 1) = 0

e la parte quadratica diventa

(x, y) A t (x, y) = (x 0 , y 0 ) · t PAP · t (x 0 , y 0 ) + termini di 1◦ grado

Slide 27/38

lezioni 23-24

Teorema
I numeri I1 , I2 , I3 di γ sono invarianti per roto-traslazioni.

(. . . segue). Le matrici della conica nel sistema di riferimento XY sono quindi date da

A10 = t T A1 T A 0 = t PAP = P−1 AP

Poichè matrici coniugate hanno lo stesso determinante e la stessa traccia, si ha

I1 = tr(A) = tr(A 0 ) I2 = det(A) = det(A 0 )

I tre numeri I1 e I2 sono quindi indipendenti dalla scelta del sistema di riferimento.

Siccome inoltre det(t T ) = det(T ) = 1, dal teorema di Binet segue:

det(A10 ) = det(t T ) det(A1 ) det(T ) = det(A1 )

Anche I3 non dipende dal sistema di riferimento scelto. 

Slide 28/38
lezioni 23-24

Classificazione di una conica


Teorema
Sia γ una conica e I1 , I2 , I3 i suoi invarianti. Se I3 6= 0, γ è:
I una parabola se I2 = 0.
I una iperbole se I2 < 0.
I una ellisse se I2 > 0 e I1 I3 < 0.
I l’insieme vuoto se I2 > 0 e I1 I3 > 0.

Dimostrazione. Poichè gli invarianti non dipendono dalla scelta del sistema di
riferimento, possiamo assumere che l’equazione di γ sia in forma canonica i) o ii).
Nel caso (ii), equazione e matrice della conica sono:
 
a11 0 0
 
(ii) a11 x2 + 2a23 y = 0 ⇐⇒ A1 =  0 0 a23 
0 a23 0

Notiamo che I2 = det(A) = 0 mentre I3 = det(A1 ) = −a11 a223 . La condizione I3 6= 0


implica a11 6= 0 e a23 6= 0, e l’equazione (ii) descrive quindi una parabola.
Slide 29/38

lezioni 23-24

(. . . segue). Nel caso (i), la matrice della conica è diagonale:


 
a11 0 0
 
(i) a11 x2 + a22 y2 + a33 = 0 ⇐⇒ A1 =  0 a22 0 
0 0 a33

Si ha

I1 = tr(A) = a11 + a22 I2 = det(A) = a11 a22 I3 = det(A1 ) = a11 a22 a33

Poichè I3 6= 0, i tre coefficienti a11 , a22 , a33 sono tutti diversi da zero. Si tratta quindi di
una conica a centro non degenere.

I Se a11 , a22 hanno segno opposto, ovvero I2 < 0, γ è una iperbole.

I Se a11 , a22 , a33 hanno lo stesso segno, ovvero I2 > 0 e I1 I3 > 0, allora γ = ∅.

I Se a11 , a22 hanno lo stesso segno e a33 ha segno opposto, ovvero I2 > 0 e
I1 I3 < 0, γ è una ellisse. 

Slide 30/38
lezioni 23-24

Riassumendo:

Data una conica γ di invarianti I1 , I2 , I3 , se I3 6= 0 si può ottenere:

I una conica a centro non degenere (ellisse, iperbole o insieme vuoto),


I una parabola.

Il tipo di insieme dipende dal valore dei tre invarianti.

In maniera simile si dimostra che se I3 = 0, γ è una conica a centro degenere.


Il tipo di conica a centro degenere dipende dal valore degli invarianti e dal rango di A1 .

La situazione è illustrata (senza dimostrazione) nella seguente tabella. . .

Slide 31/38

lezioni 23-24

Tabella riassuntiva: Classificazione di una conica.

I1 I3 I2 I3 ρ(A1 ) C ONICA

=0 6= 0 parabola
<0 6= 0 iperbole
<0 >0 6= 0 ellisse
>0 >0 6= 0 ∅

>0 =0 punto
<0 =0 due rette incidenti
=0 =0 =1 retta
=0 =0 =2 ∅ o rette parallele distinte

Ricordiamo che I1 = tr(A), I2 = det(A), I3 = det(A1 ), con A1 matrice


della conica e A matrice della parte quadratica.

Slide 32/38
lezioni 23-24

Esercizio (C. Carrara, es. 13.1)


Stabilire il tipo di conica corrispondente alle seguenti equazioni:

a) 9x2 + 4xy + 6y2 − 10 = 0


i) x2 + 2xy + x + 2y − 2 = 0
l) x2 + 4xy + 4y2 − 6x + 1 = 0
m) x2 + xy − 2y2 + 3y − 1 = 0

Soluzione. a) Le matrici della conica sono


   
9 2 0 0 " #
   A  9 2
A 1 = 2 6 0= 0  A=
2 6
0 0 −10 0 0 −10

Quindi I2 = det(A) = 50 > 0 e con lo sviluppo di Laplace rispetto alla terza riga

I3 = det(A1 ) = −10 det(A) = −10 I2 < 0

La conica è quindi non-degenere, ed è una ellisse o l’insieme vuoto a seconda del


segno di I1 I3 = tr(A) det(A1 ). Ma tr(A) = 15 > 0, quindi I1 I3 < 0. E’ una ellisse.
Slide 33/38

lezioni 23-24

i) Le matrici della conica sono


 
1 1 1/2 " #
  1 1
A1 =  1 0 1  A=
1 0
1/2 1 −2
Con lo sviluppo di Laplace rispetto alla seconda colonna si trova

1 1 1 1/2 5 1
I3 = det(A1 ) = − − = − =2>0
1/2 −2 1 1 2 2
Inoltre I2 = det(A) = −1 < 0. La curva è una iperbole.

l) Le matrici della conica sono


 
1 2 −3 " #
  1 2
A1 =  2 4 0 A=
2 4
−3 0 1
Con lo sviluppo di Laplace rispetto alla seconda colonna si trova

2 4 1 2
I3 = det(A1 ) = −3 + = −3 · 12 + 0 = −36 6= 0
−3 0 2 4
Inoltre I2 = det(A) = 0. La curva è una parabola.
Slide 34/38
lezioni 23-24

m) La matrice della conica è


 
1 1/2 0 " #
  1 1/2
A1 = 1/2 −2 3/2 A=
1/2 −2
0 3/2 −1
Con lo sviluppo di Laplace rispetto alla terza riga si trova

3 1 0 1 1/2 3 3 9
I3 = det(A1 ) = − − =− · + =0
2 1/2 3/2 1/2 −2 2 2 4
La conica è degenere. Per determinare il tipo di curva, la cosa più semplice è prendere
l’equazione della conica
x2 + xy − 2y2 + 3y − 1 = 0
e ricavare x in funzione di y. Si ottiene:
p p
−y ± y2 − 4(−2y2 + 3y − 1) −y ± 9y2 − 12y + 4 −y ± (3y − 2)
x= = =
2 2 2
Si tratta di due rette incidenti:

r1 : x − y + 1 = 0 r2 : x + 2y − 1 = 0

Si intersecano nel centro della conica, di coordinate (− 13 , 32 ). X


Slide 35/38

lezioni 23-24

Esercizio
Data la parabola di equazione

x2 + 4xy + 4y2 − 25x − 30y + 75 = 0 ,

scrivere l’equazione in forma canonica e determinare vertice e asse di simmetria.

Soluzione. La direzione dell’asse di simmetria è quella degli autovettori di A associati


all’autovalore nullo. Gli autovettori associati all’autovalore non nullo danno la direzione
della retta direttrice. Si ha
" #
1 2
A= ⇒ pA (λ) = λ2 − 5λ = 0 ⇒ λ1 = 5, λ2 = 0
2 4

Una base ortonormale di autovettori di A è data da v 1 = √1 (1, 2)


5
e v2 = √1 (2, −1).
5
Dette x 0 , y 0 le coordinate ruotate, date da
" # " #" #
x 1 1 2 x0
= √
y 5 2 −1 y 0
nelle nuove coordinate l’equazione della parabola è
√ √ √ √
02
5x − 17 5 x 0 − 4 5 y 0 + 75 = 0 ovvero 0
5(x − 17 5 2
10
) − 4 5y 0 + 11
4
=0
Slide 36/38
lezioni 23-24

Detti

17 5
0 11
X=x − Y = y0 − √
10 16 5
l’equazione in forma canonica è

5 X2 − 4 5 Y = 0

Il vertice O 0 è dato da

0 0 17 5
(X, Y) = (0, 0) =⇒ (x , y ) = ( 10 , 1611√5 ) = 1√
16 5
(136, 11)
" # " # " # " #
x 1 1 2 1 136 1 158
=⇒ = √ · √ =
y 5 2 −1 16 5 11 80 261

Quindi

O0 = 158 261
80
, 80 = (1.975, 3.2625)

Questo determina il sistema di riferimento in cui la parabola è in forma canonica.

Slide 37/38

lezioni 23-24

Vertice: O 0 = (1.975, 3.2625) . Assi: v 1 = √1 (1, 2)


5
e v2 = √1 (2, −1) .
5

y
O0
X

v1

θ
O x
v2

5
Y= 4 X2

Slide 38/38

Potrebbero piacerti anche