Sei sulla pagina 1di 85

Geometria

( anno accademico 2017 – 2018 )

Prof. Francesco D’Andrea

08/03/2018
Introduzione Modalità d’esame
Istruzioni: Appelli Info
I tutte le informazioni su questo corso, incluse le slide delle lezioni e l’orario di L’esame è diviso in due parti:
giugno 2018 1 appello
ricevimento, sono (o saranno) reperibili sul sito: sessione estiva 1. prova scritta (esercizi);
luglio 2018 1 appello
www.docenti.unina.it/francesco.dandrea ( “links” ) 2. prova orale (teoria ed esercizi).
sessione autunnale settembre 2018 1 appello
I Iscrivetevi al corso sul sito docenti. Prenotarsi su:
gennaio 2019 1 appello
sessione invernale www.segrepass.unina.it
Testi consigliati: febbraio 2019 1 appello

I C. Carrara, Esercizi di algebra lineare, on-line


(http://www.science.unitn.it/~carrara/ESERCIZIARIO/). Prove in itinere Info
I M. Abate e C. De Fabritiis, Geometria analitica con elementi di algebra lineare, Sostituiscono lo scritto. Sono riservate
1a prova fine aprile / inizio maggio 2018 a chi è iscritto al corso e frequenta le
McGraw-Hill Education, III ed. (2015).
2a prova giugno 2018 lezioni. Orale a giugno o luglio.
I F. Orecchia, Lezioni di geometria I, Aracne.
(pochi giorni dopo la fine del corso) Le iscrizioni si fanno sul sito
I L.A. Lomonaco, Geometria e algebra. Vettori, eq. e curve elementari, Aracne (2013).
www.docenti.unina.it/
I M.R. Casali, C. Gagliardi e L. Grasselli, Geometria, Esculapio (2016). francesco.dandrea
1 / 25 2 / 25

Un semplice problema di algebra S ISTEMI DI E QUAZIONI L INEARI



x+y=0
x−y=2
Immaginiamo di voler risolvere il seguente problema. In questa classe:
Insieme delle Tecniche
 Gli studenti della provincia di Salerno sono la metà degli studenti di Napoli. soluzioni
Nucleo,
risolutive
Autovettori
 Se fossero 10 di più, gli studenti di Salerno sarebbero tanti quanti quelli di Napoli.
G EOMETRIA A NALITICA
Quanti sono gli studenti di Salerno e quanti quelli di Napoli?  M ATRICI
• punti  Trasformazioni A PPLICAZIONI L INEARI Rappresentazione " #

 1 1 0
• rette
piani 
Spazi Affini affini f(x, y) = 7x + 3y
•  1 −1 2
Se indichiamo con x il numero di studenti di Salerno e y il numero di studenti di Napoli, • ...

allora deve essere:



1 Funzioni fra
x = 2
y spazi vettoriali
Giacitura
x + 10 = y

Soluzione: x = 10 e y = 20 . S PAZI V ETTORIALI


• vettori geometrici
• matrici
Quello qui sopra è un primo esempio di sistema di equazioni lineari. • polinomi
• ...
Una parte consistente del corso sarà dedicata allo studio di tali equazioni.

3 / 25 4 / 25
Notazioni

Simboli usati in matematica, per semplificare la scrittura di equazioni e teoremi.

S IMBOLO S IGNIFICATO
∀ “per ogni” (detto quantificatore universale)
∃ “esiste” (detto quantificatore esistenziale)
— N OZIONI P RELIMINARI — ∃! “esiste ed è unico”
=⇒ implicazione logica
(Abate, §1) ⇐⇒ “se e solo se”
:= definizione (a := b si legge “a per definizione è uguale a b”)
: “tale che”
| “tale che”
∧ “e” (detto congiunzione logica)
∨ “o” (detto disgiunzione logica)

Altri simboli verranno introdotti durante il corso.

5 / 25 6 / 25

Insiemi Insiemi notevoli


Un insieme può essere definito elencando i suoi elementi, ad esempio
 N := {0, 1, 2, 3, 4, . . .} numeri naturali (incluso lo 0)
A := 0, 1, 2, 3, −1, −2 ,
Z := numeri interi (relativi, ossia positivi e negativi, incluso lo zero)
oppure specificando le proprietà soddisfatte dai suoi elementi, ad esempio
 Q := numeri razionali (quozienti di due interi)
B := n intero : −2 6 n 6 3 .
R := numeri reali
Evidentemente A = B.
C := numeri complessi
Gli insiemi verranno indicati con lettere maiuscole (A, B, C, . . .), i loro elementi con lettere Z+ := {1, 2, 3, . . .} interi positivi
minuscole (a, b, c, . . .). L’ espressione “a ∈ A” si legge “a appartiene ad A”.
Z− := {−1, −2, −3, . . .} interi negativi
Gli elementi di un insieme possono avere natura arbitraria (insieme dei punti di una retta, R+ := reali positivi
insieme dei giocatori di una squadra di calcio, l’insieme dei caratteri di un alfabeto, etc.).
R+
0 := reali non negativi
Possono anche essere essi stessi degli insiemi. Ad esempio, dati C := {1, 2} e D := {1, 4},
possiamo formare l’insieme: etc.

E := {C, D} = {1, 2}, {1, 4} .
7 / 25 8 / 25
Numeri complessi Operazioni fra insiemi

L’ equazione seguente non ammette soluzioni reali: Definizione


Sottoinsieme:
x2 = −1 A⊆B ⇐⇒ ∀ x ∈ A, x ∈ B .

I numeri complessi si ottengono dai reali aggiungendo ad essi una radice del numero reale Sottoinsieme proprio:

−1, detta unità immaginaria ed indicata con il simbolo “i” o “ −1”.  
A⊂B ⇐⇒ ∀ x ∈ A, x ∈ B ∧ ∃ b ∈ B : b ∈
/A .
Un numero complesso è un numero della forma

z=x+ −1 y x, y ∈ R . Definizione
√ Intersezione, unione e differenza:
Sia z 0 = x 0 + −1 y 0 (con x 0 , y 0 ∈ R). I numeri complessi si sommano e moltiplicano
secondo la regola 
A ∩ B := x : x ∈ A ∧ x ∈ B ,
√ √ 
z + z 0 = (x + x 0 ) + −1 (y + y 0 ) , z · z 0 = xx 0 − yy 0 + −1 (xy 0 + x 0 y) . A ∪ B := x : x ∈ A ∨ x ∈ B ,

A r B := x : x ∈ A ∧ x ∈
/B .
Un’equazione polinomiale (di grado > 1) ammette sempre soluzioni in campo complesso!
(Torneremo sull’argomento più avanti. . . )
Si indica con ∅ l’insieme vuoto, ovvero privo di elementi.

9 / 25 10 / 25

Diagrammi di Venn Operazioni insiemistiche con i diagrammi di Venn

Un insieme può essere visualizzato graficamente utilizzando un diagramma di Venn, che


A∩B A∪B
consiste nel rappresentare gli elementi di un insieme finito con dei punti racchiusi da una
curva (tipicamente un cerchio o un ellisse). Ad esempio,
 √
A := 7, Paolo, 2 A B A B

si può rappresentare nel seguente modo

7
ArB BrA

Paolo

2 A B A B

11 / 25 12 / 25
Proprietà delle operazioni fra insiemi n-uple
Sia A un insieme. Chiameremo n-upla (si legge “ennupla”) di elementi di A una “lista” di n
elementi a1 , a2 , a3 , . . . , an di A. Useremo la notazione:
 
A ⊆ B ∧ B ⊆ A =⇒ A = B
(a1 , a2 , a3 , . . . , an ) .
A∩A=A∪A=A
L’insieme di tutte le n-uple di elementi di A sarà indicato con An . Per chi ricorda la
A∩∅=∅ definizione di prodotto Cartesiano:

A∪∅=A An = A × A × . . . × A .
| {z }
A∩B=B∩A (proprietà commutativa di ∩) n volte
Esempi:
A∪B=B∪A (proprietà commutativa di ∪)
(9, 7) è una coppia di numeri interi (A = Z);

(A ∩ B) ∩ C = A ∩ (B ∩ C) (proprietà associativa di ∩) (π, 1, 2) è una tripla di numeri reali (A = R);
(A ∪ B) ∪ C = A ∪ (B ∪ C) (proprietà associativa di ∪) (♣, ♠) è una coppia di semi delle carte da gioco;
(Terra , Sole , Luna , Plutone) è una quadrupla di corpi celesti.

Una n-upla è un insieme ordinato elementi.


Ad esempio (1, 3) e (3, 1) sono coppie di numeri interi distinte: (1, 3) 6= (3, 1).
13 / 25 14 / 25

Sistemi di riferimento, I Sistemi di riferimento, II

Sistema di riferimento monodimensionale: si fissa un punto, detto origine ed indicato con Sistema di riferimento bidimensionale: si scelgono due rette non parallele, la cui

O, un verso di percorrenza ed un’unità di misura delle lunghezze. intersezione determina l’origine del sistema di riferimento, un orientamento per ciascuna
retta ed una unità di misura delle lunghezze.
Fissare un verso vuol dire scegliere una semiretta fra le due uscenti da O.
Per convenzione se P 6= O appartiene a tale semiretta, diremo che O precede P.
In caso contrario diremo che P precede O. Fissato un sistema di
P(x, y) riferimento, ogni punto
y
P della retta è indivi-
O P duato da un una coppia
| {z } ordinata di numeri reali
x α
(x, y) ∈ R2 , detti ascissa
O x e ordinata del punto P.

Fissato un sistema di riferimento, ogni punto P della retta è individuato da un numero reale
x ∈ R, il cui modulo indica la distanza di P dall’origine, nelle unità scelte. Si prende x > 0
se O precede P, e x < 0 in caso contrario. Se α = 90◦ , il sistema di riferimento si dice ortogonale.

15 / 25 16 / 25
Funzioni/applicazioni Funzioni/applicazioni

Una applicazione f : A → B si dice


Definizione
Una applicazione (o funzione) f da A in B è una legge che associa ad ogni elemento x di 1 suriettiva se per ogni y ∈ B esiste almeno un x ∈ A tale che y = f(x);

A un elemento y = f(x) in B, detto immagine di x tramite f. L’ insieme A si dice dominio e 2 iniettiva se x 6= y =⇒ f(x) 6= f(y) (ovvero se f(x) = f(y) =⇒ x = y );
l’insieme B si dice codominio di f.
3 biunivoca (o biettiva o 1 a 1) se sia iniettiva che suriettiva.

Per le applicazioni useremo la scrittura:


Esempi:
f:A→B
f : N → N, f(x) := x2 (iniettiva ma non suriettiva)
x 7→ y = f(x)
g : R r {0} → R ,+
g(x) := x 2
(suriettiva ma non iniettiva)
Due applicazioni f : A → B e g : C → D sono uguali se e solo se h : R+ → R+ , h(x) := x2 (biunivoca)

A=C, B=D, f(x) = g(x) ∀ x ∈ A . Sia A l’insieme dei giocatori di Napoli, Lazio e Inter, B l’insieme delle tre squadre di calcio
citate, ed f : A → B la funzione che associa ad ogni giocatore la squadra a cui appartiene.
Tale funzione è suriettiva, ma non è iniettiva.

17 / 25 18 / 25

Applicazioni e diagrammi di Venn Richiami sulle applicazioni


Sia A un insieme qualsiasi. Chiamiamo applicazione identica su A la funzione
Una applicazione f : A → B fra due insiemi finiti si può visualizzare graficamente
disegnando i diagrammi di Venn dei due insiemi, e congiungendo ogni punto x ∈ A con la idA : A → A
sua immagine f(x) ∈ B. x 7→ idA (x) = x

L’ applicazione identica è biunivoca.


Esempi:
Definizione
a
p p
a Date due applicazioni
f g
q q A −−−−→ B −−−−→ C
b b
r r la loro composizione, indicata con g ◦ f, è quella applicazione h : A → C definita da
c c 
s s h(x) := g f(x)
per ogni x ∈ A.
Applicazione iniettiva Applicazione suriettiva
ma non suriettiva. ma non iniettiva. Esempio
Sia A = B = C = R, f(x) := x2 e g(x) := x3 ∀ x ∈ R. La loro composizione è la funzione
h(x) = (x2 )3 = x6
19 / 25 20 / 25
Composizione di applicazioni Proprietà della composizione di applicazioni

La composizione di applicazioni può essere visualizzata graficamente. Si considerino ad I Si verifica facilmente che la composizione di applicazioni è associativa, ovvero date
esempio gli insiemi A := {a, b, c}, B = {p, q, r, s}, C = {α, β, γ} e le applicazioni: tre applicazioni qualsiasi
f g h
p p A −−−−→ B −−−−→ C −−−−→ D
a α
q q
b β vale l’uguaglianza
r r
c γ h ◦ (g ◦ f) = (h ◦ g) ◦ f .
s s
I Date due applicazioni f : A → A e g : A → A, l’uguaglianza
f:A→B g:B→C
f◦g=g◦f
La loro composizione g ◦ f : A → C è l’applicazione:
non è sempre soddisfatta. Si dice che la composizione di applicazioni non gode della
a α proprietà commutativa.
b β
I Un esempio di applicazioni f e g tali che f ◦ g 6= g ◦ f è nella prossima slide.
c γ

21 / 25 22 / 25

La composizione di applicazioni non è commutativa Applicazioni invertibili


Definizione (funzione inversa)
Prendiamo A := {a, b, c}, e siano f e g le applicazioni: Una funzione f : A → B si dice invertibile se ∃ g : B → A (detta inversa di f) tale che
g ◦ f = idA , f ◦ g = idB .
a a a a
b b b b
Esempio
c c c c
L’ inversa della funzione
f:A→A g:A→A f : R+ → R+ , f(x) := x2
è la funzione
Allora: √
g : R+ → R+ , g(y) := y

a a a a
Esempio con diagrammi di Venn:
b b b b
c c c c a p p a
b q q b
g◦f:A→A f◦g:A→A
c r r c
f:A→B f−1 : B → A
23 / 25 24 / 25
Applicazioni invertibili e applicazioni biunivoche
I Si dimostra che una applicazione f : A → B è invertibile se e solo se è biunivoca, e
che l’applicazione inversa se esiste è anche unica.

I Nel caso in cui A e B sono insiemi finiti, l’equivalenza fra biunivocità e invertibilità è
chiara dai diagrammi di Venn:
I Una applicazione è biunivoca se e solo se da ogni punto di A parte una e una
sola freccia e in ogni punto di B arriva una e una sola freccia.
I L’ applicazione inversa si ottiene cambiando il verso di tutte le frecce.

I Fra due insiemi finiti A e B può esistere una funzione


I iniettiva solo se A non ha più elementi di B;
I suriettiva solo se B non ha più elementi di A;
I biunivoca solo se A e B hanno lo stesso numero di elementi.

Per insiemi infiniti questo in generale non è vero, ma vedremo che valgono proprietà
analoghe se A e B sono spazi vettoriali ed f : A → B è una applicazione lineare (la
cui definizione verrà introdotta più avanti nel corso).

25 / 25
Matrici [Abate, def. 3.3] Matrice trasposta
Se A ∈ Rm,n è la matrice
Una matrice di tipo m × n è una tabella di elementi disposti in m righe e n colonne.  
a11 a12 ... a1n
Esempi: a
" #
   √   21 a22 ... a2n 

5 3 −5 2 2 A :=  .. 
2 −1 7    12 
 .. .. 
1 −1 7  π  . . . 
3 
1 0 4
2 0 3 −1 0 am1 am2 ... amn

Se gli elementi di matrice sono numeri reali, si parlerà di matrice reale. Notazione: chiamiamo trasposta di A, indicata con tA (oppure At o AT ), la matrice di tipo n × m che si

  ottiene da A scambiando le righe con le colonne:


a11 a12 ... a1n  
a a11 a21 ... am1
 21 a22 ... a2n 
 a
A :=  ..   12 a22 ... am2 

 .. ..  A= .. 
t
 . . .   .. .. 
 . . . 
am1 am2 ... amn
a1n a2n ... amn
Per ogni 1 6 i 6 m e 1 6 j 6 n, aij è l’elemento nell’intersezione della riga i con la
Nota: l’elemento di tA in posizione (i, j) è aji . Esempi:
colonna j. A volte useremo la notazione abbreviata      
t" # t
1 4 th i1 1 h i
 1 2 3      
A = (aij ) , B = (bij ) , etc. = 2 5 1 0 π = 0 0 = 1 0 π
4 5 6
3 6 π π
L’insieme di tutte le matrici reali m × n sarà indicato con il simbolo Rm,n .
1 / 14 2 / 14

Vettori riga e vettori colonna Somma e prodotto per uno scalare: vettori riga [Def. 4.1]

Per vettori riga useremo la notazione v , w , . . . (notazione alternativa: v , w , . . .).


I Una matrice (reale) 1 × n verrà anche chiamata vettore riga, ed è essenzialmente una
Ricordiamo che
n-upla di numeri reali.

I Una matrice n × 1 è anch’essa essenzialmente una n-upla di numeri reali, scritti in una R1,n = Rn = v = (v1 , v2 , . . . , vn ) : v1 , v2 , . . . , vn ∈ R .
colonna, e verrà chiamata vettore colonna.
L’elemento vi è detto componente i-esima di v.
I Trasponendo un vettore riga si ottiene un vettore colonna, e viceversa. In questo contesto, un numero k ∈ R è detto anche scalare.

Date due n-uple v = (v1 , v2 , . . . , vn ), w = (w1 , w2 , . . . , wn ) e k ∈ R, definiamo somma e


Date due matrici A = (aij ) ∈ Rm,n e B = (bij ) ∈ Rm,n , indicando con Ri il vettore riga
moltiplicazione per uno scalare come segue:
formato dalla i-esima riga di A e con Cj il vettore colonna formato dalla j-esima colonna di
B (per ogni i = 1, . . . , m e j = 1, . . . , n), si ha: v + w := (v1 + w1 , v2 + w2 , . . . , vn + wn ) ,
 
b1j kv := (kv1 , kv2 , . . . , kvn ) .
b 
  2j 
Ri = ai1 , ai2 , . . . , ain Cj = 
 .. 
 L’n-upla nulla (o vettore nullo) e l’opposto −v di v sono definiti come segue:
 . 
bmj 0Rn = 0 := (0, 0, . . . , 0) − v := (−v1 , −v2 , . . . , −vn )

3 / 14 4 / 14
Esempi Proprietà dei vettori riga

Ricordiamo che per definizione: Proposizione


v + w = (v1 + w1 , v2 + w2 , . . . , vn + wn ) , Somma e moltiplicazione per uno scalare soddisfano le seguenti proprietà:

kv = (kv1 , kv2 , . . . , kvn ) . i) ∀ u, v, w ∈ Rn si ha

1. v + w = w + v (proprietà commutativa di +)
Esempio in R 2
2. (u + v) + w = u + (v + w) (proprietà associativa di +)
Sia v = (1, −5) e w = (3, 7). Allora 3. v + 0Rn = v (0Rn è elemento neutro)

v + w = (1 + 3, −5 + 7) = (4, 2) w + v = (3 + 1, 7 − 5) = (4, 2) 4. v + (−v) = 0Rn (esistenza dell’opposto)

ii) ∀ k, k 0 ∈ R e ∀ v, w ∈ Rn si ha
Notiamo che, in questo esempio, v + w = w + v.
5. (k + k 0 )v = kv + k 0 v (proprietà distributiva I)

Esempio in R3 6. k(v + w) = kv + kw (proprietà distributiva II)


√ √ 7. k(k v) = (kk )v
0 0
(2, 0, π) + (3, 12, − 5) = (5, 12, π − 5)
8. 1 · v = v
3 · (5, 1, 7) = (3 · 5, 3 · 1, 3 · 7) = (15, 3, 21)

5 / 14 6 / 14

Somma e prodotto per uno scalare: matrici [Abate, es. 4.1]

A titolo di esempio, vediamo come si dimostra la prima proprietà. . .


Definizione
Dimostrazione punto 1. Siano A = (aij ) e B = (bij ) due matrici m × n (con i = 1, . . . , m e j = 1, . . . , n).
Somma ed la moltiplicazione per uno scalare k ∈ R sono date da:
Siano v = (v1 , v2 , . . . , vn ) e w = (w1 , w2 , . . . , wn ) ∈ Rn due n-uple qualsiasi.
Per definizione: A + B := (aij + bij ) , kA := (kaij ) .

v + w = (v1 + w1 , v2 + w2 , . . . , vn + wn ) (?) Chiamiamo matrice nulla di tipo m × n la matrice:


 
0 0 ... 0
e
0 0 ... 0
w + v = (w1 + v1 , w2 + v2 , . . . , wn + vn ) (†)  
0Rm,n := 
 .. . . .
. . .
. .
Per la proprietà commutativa della somma di due numeri reali: v1 + w1 = w1 + v1 , 0 0 ... 0
v2 + w2 = w2 + v2 , etc. Le due n-uple (?) e (†) sono quindi uguali.  Chiamiamo opposta di A la matrice −A := (−aij ).

In maniera simile si dimostrano le altre proprietà: la proprietà associativa della somma fra Esempio
n-uple segue dalla proprietà associativa della somma fra numeri reali, le proprietà " # " # " # " #
"√ √ #
1 7 12 0 13 7 √ 1 1
3 3
distributive I e II seguono dalla proprietà distributive del prodotto fra numeri reali, etc. + √ = √ 3· 4
= √ 4

2 π 3 −5 2+ 3 π−5 2 π 2 3 π 3

7 / 14 8 / 14
Proprietà delle matrici Prodotto di due matrici [Abate, §7.2]

Siano  
Proposizione b1
 b2 
Valgono le seguenti proprietà: A = (a1 , a2 , . . . , an ) B = t (b1 , b2 , . . . , bn ) =

 . 

 . 
 . 
i) ∀ A, B, C ∈ Rm,n si ha
bn
1. A + B = B + A (proprietà commutativa di +) Il loro prodotto è per definizione il numero reale dato da:
2. (A + B) + C = A + (B + C) (proprietà associativa di +)
A · B := a1 b1 + a2 b2 + . . . + an bn
3. A + 0Rm,n = A (0Rn è elemento neutro)
4. A + (−A) = 0Rm,n (esistenza dell’opposto) Esempio
Se A = (−1, 7, 3) e B = t (9, 2, 5) si ha
ii) ∀ k, k 0 ∈ R e ∀ A, B ∈ Rm,n si ha

5. (k + k 0 )A = kA + k 0 A (proprietà distributiva I) A · B = −1 · 9 + 7 · 2 + 3 · 5 = −9 + 14 + 15 = 20 .

6. k(A + B) = kA + kB (proprietà distributiva II)


Più in generale date due matrici A = (aij ) ∈ Rm,n e B = (bij ) ∈ Rn,p , il loro prodotto
7. k(k A) = (kk )A
0 0
A · B è quella matrice m × p che in posizione (i, k) ha l’elemento
8. 1 · A = A
Ri · Ck = ai1 b1k + ai2 b2k + . . . + ain bnk
( . . . analogue a quelle dei vettori riga, che si riottengono come caso particolare per m = 1)
in cui Ri è la i-esima riga di A e Ck la k-esima colonna di B.
9 / 14 10 / 14

Esercizio
Date le matrici " # " #
0 1 0 0
Esercizio A= , B= ,
0 0 1 0
Date  
" # calcolare A · B e B · A.
1 2
1 2 −1  
A= , B = 3 1 ,
3 0 1 Soluzione. " # " #
2 4 1 0 0 0
AB = BA =
calcolare le matrice A · B. 0 0 0 1
X

Nota: AB 6= BA =⇒ per il prodotto fra matrici non vale la proprietà commutativa.


Soluzione.
" # " #
1·1+2·3−1·2 1·2+2·1−1·4 5 0 Esercizio (C. Carrara, es. 1.1)
A·B= =
3·1+0·3+1·2 3·2+0·1+1·4 5 10
X Date le matrici
" # " #
1 2 3 0
A= B=
3 −1 −1 4

calcolare: AB, BA, A + B, B − A, 5A + 2B.

11 / 14 12 / 14
Esercizio
Data la matrice Esercizio (da C. Carrara, es. 1.3)
"
#
2 4 Date le seguenti matrici:
A=  
−1 −2 5 0  
" # −2 4 1
0 −2 5 −1 2 
   
calcolare A2 = A · A. A1 = A2 =   A3 = −4 4 4 
4 −3 2  4 5 
0 0 0
5 −1
Esercizio (C. Carrara, es. 1.4)
Date le seguenti matrici: calcolare, quando possibile, i prodotti Ai · Aj (per i, j = 1, 2, 3).
 
1 0 0 0 Vediamo in quali casi il prodotto Ai · Aj è definito:
h i 0 1 0 0
 
A= 1 2 3 4 I4 =   A1 · A1 no A1 · A2 no A1 · A3 sı̀
0 0 1 0
0 0 0 1 A2 · A1 sı̀ A2 · A2 no A2 · A3 no

calcolare A · I4 . A3 · A1 no A3 · A2 no A3 · A3 sı̀

13 / 14 14 / 14
Proprietà del prodotto fra matrici In maniera simile si verifica che:
Il prodotto di A = (aij ) ∈ Rm,n e B = (bjk ) ∈ Rn,p si ottiene “contraendo” l’indice di
colonna di aij con l’indice di riga di bjk . L’elemento in posizione (i, k) di AB è: Proposizione (Bilinearità del prodotto)
Xn Per ogni λ ∈ R, A, A 0 ∈ Rm,n e B, B 0 ∈ Rn,p valgono le proprietà:
ai1 b1k + ai2 b2k + . . . + ain bnk = aij bjk
j=1
i) (A + A 0 )B = AB + A 0 B;

Proposizione (Associatività) ii) A(B + B 0 ) = AB + AB 0 ;


Per ogni A = (aij ) ∈ Rm,n , B = (bjh ) ∈ Rn,p e C = (chk ) ∈ Rp,q si ha iii) (λA)B = A(λB) = λ(AB).
A(BC) = (AB)C .

Dimostrazione. L’elemento di matrice in posizione (i, k) di A(BC) è dato da Proposizione (Proprietà della trasposizione)
Xn  Xp  X Per ogni A, A 0 ∈ Rm,n , B ∈ Rn,p e λ ∈ R si ha
aij bjh chk = aij bjh chk ,
j=1 h=1
| {z } j=1,...,n i) t
(A + A 0 ) = t A + t A 0 ;
elemento (j,k) di BC h=1,...,p
ii) t
(AB) = ( t B) · ( t A) ;
l’elemento di matrice in posizione (i, k) di (AB)C è dato da
 Xn  iii) t
(λA) = λ( t A) .
Xp X
aij bjh chk = aij bjh chk .
h=1 j=1
| {z } j=1,...,n
elemento (i,h) di AB h=1,...,p 
1 / 16 2 / 16

Definizione Proposizione
Elementi di R n,n
si dicono matrici quadrate. Notazione alternativa: Mn (R). Per ogni A ∈ Rm,n si ha
Se A = (aij ) ∈ Mn (R) è una matrice quadrata, gli elementi aii (1 6 i 6 n) si dice Im A = AIn = A .
che formano la diagonale principale di A. Diciamo che In è elemento neutro rispetto al prodotto di matrici.

Esempio (gli elementi sulla diagonale principale sono in rosso):


Esercizio
 
3 7 1 Date " # " #
  3 1 2 −1
1 0 2 A= , B= ,
3 2 5 5 2 −5 3
calcolare i prodotti AB e BA.
Chiamiamo matrice identica di ordine n, la matrice n × n seguente:
 
1 0 0 ... 0 Definizione
 
0 1 0 ... 0 Una matrice A ∈ Mn (R) si dice invertibile se esiste B ∈ Mn (R) tale che
 
 0
In := 0 0 1 ... 
. .. .. ..  A · B = B · A = In .
. 
. . . .
0 0 0 ... 1 La matrice B si dirà inversa di A e sarà indicata con il simbolo A−1 .

3 / 16 4 / 16
Sistemi di equazioni lineari Generalità sui sistemi lineari
Esempi: Una equazione in n incognite x1 , . . . , xn a coefficienti in R si dice lineare se è della forma:

x+y=0
3x = 6 2x + y = 13
x−y=5 a1 x1 + a2 x2 + . . . + an xn = b , (∗)
I coefficienti possono assumere qualsiasi valore reale, incluso lo zero. Esempi:
con a1 , a2 , . . . , an , b ∈ R. I numeri ai si dicono coefficienti e b è detto termine noto.
0x = 2 3x + 0y = 7
Una n-upla
Alcune applicazioni:
v = (v1 , . . . , vn ) ∈ Rn
Circuiti elettrici. Leggi di Kirkoff (e Ohm: V = RI):
X X si dice soluzione dell’equazione (∗) se sostituendo vi ad xi in (∗), per ogni 1 6 i 6 n,
Ie − Iu = 0 (la somma algebrica delle correnti in un nodo è zero)
X l’equazione si riduce ad una identità fra numeri reali.
Vi = 0 (la somma algebrica delle tensioni lungo una linea chiusa è zero)
Esempio
Chimica. Bilanciamento di un’equazione chimica. (4, 1, 6) ∈ R3 è una soluzione dell’equazione 3x1 + x2 − 2x3 = 1.
Economia. Sistema di input-output (modello che descrive le relazioni tra le quantità di
beni prodotte e consumate in un certo sistema economico). Esempio

Wassily Wassilyovich Leontief, Premio Nobel per l’Economia (1973). (3, 5) ∈ R2 non è soluzione dell’equazione x1 + x2 = 0.

5 / 16 6 / 16

Esercizio
Scrivere l’equazione 1 − x = 3x + x nella “forma normale” ax = b . Chiamiamo soluzione generale di un sistema Σ l’insieme di tutte le sue soluzioni.
Scrivere in forma normale l’equazione: 3x + y + 2y + 1 − x = 3y + 2 . La soluzione generale di un sistema Σ è quindi un sottoinsieme SΣ ⊆ Rn .

Un sistema di m equazioni lineari in n incognite è un insieme di equazioni Un sistema si dice compatibile (o risolubile) se ammette soluzioni, ovvero SΣ 6= ∅; se non
 ha soluzioni, il sistema si dirà incompatibile.

 a11 x1 + a12 x2 + ... + a1n xn = b1


 a21 x1 + a22 x2 + ... + a2n xn = b2
Σ: .. .. .. .. .. Esempio

 . . . . .

 Si considerino i tre sistemi

am1 x1 + am2 x2 + ... + amn xn = bm

x1 + 3x2 = 0 x1 − x2 = 0 x1 + x2 = 0
con aij ∈ R e bi ∈ R. Una soluzione del sistema è una n-upla (v1 , . . . , vn ) ∈ Rn
che risolve simultaneamente tutte le m equazioni. x1 + 3x2 = 1 x1 + x2 = 2 2x1 + 2x2 = 0

Esercizio Il primo è incompatibile; il secondo ammette (1, 1) come unica soluzione; qualunque coppia
Verificare quali fra le seguente triple (t, −t) è soluzione del terzo sistema, per ogni valore del parametro reale t ∈ R.

(1, 0, 0) (2, 1, 1) (1, −1, 0) (3, 1, 0)


Dato un sistema Σ, possono verificarsi solo tre casi (come dimostreremo più avanti):
sono soluzioni del sistema
 1. non esistono soluzioni;
x1 − 2x2 + x3 = 1
2. una soluzione esiste ed è unica;
2x1 − 4x2 = 2
3. esistono infinite soluzioni.
7 / 16 8 / 16
Esercizio (“Metodo di sostituzione delle incognite”)
Risolvere il sistema
Sistemi lineari omogenei


 x1 − x2 − x3 = 2 Un sistema si dice omogeneo se i termini noti sono tutti zero.
2x1 + x2 + x3 = 1


3x1 + 2x2 − 2x3 = 1 Un sistema omogeneo di m equazioni (lineari) in n incognite ha quindi la forma:

Soluzione. Dalla prima equazione ricaviamo 
 a11 x1 + a12 x2 + ... + a1n xn = 0


 a21 x1 + a22 x2 + ... + a2n xn = 0
x1 = x2 + x3 + 2 (†) .. .. .. .. ..

 . . . . .


Sostituendo questa espressione nelle equazioni rimanenti, otteniamo un sistema di due equazioni in 
am1 x1 + am2 x2 + ... + amn xn = 0
due incognite
  con aij ∈ R.
2(x2 + x3 + 2) + x2 + x3 = 1 3x2 + 3x3 = −3
⇐⇒
3(x2 + x3 + 2) + 2x2 − 2x3 = 1 5x2 + x3 = −5 Un sistema omogeneo è sempre compatibile!
Dalla prima equazione si ricava
Infatti ammette almeno la soluzione nulla (0, 0, . . . , 0) ∈ Rn .
x2 = −x3 − 1 (‡ )
Dato un sistema omogeneo, possono quindi verificarsi solo due casi:
che sostituita nell’ultima equazione permette di ottenere una equazione in una sola incognita,
1. il sistema ammette come unica soluzione quella nulla;
−5x3 − 5 + x3 = −5, la cui unica soluzione è x3 = 0. Sostituendo questo valore in (‡) si ricava
x2 = −1; sostituendo i valori trovati per x2 e x3 in (†) si ricava x1 = 1. Il sistema ammette quindi 2. il sistema ammette infinite soluzioni.
un’unica soluzione, data da (x1 , x2 , x3 ) = (1, −1, 0). X
9 / 16 10 / 16

Esercizio
Sistemi lineari e matrici
Si scriva la matrice completa del sistema:
Dato un sistema 
 x1 − 2x2 + x3 = 1

 a11 x1 + a12 x2 + ... + a1n xn = b1

 2x1 − 4x2 = 2
 a21 x1 + a22 x2 + ... + a2n xn = b2
 .. .. .. .. ..

 . . . . .


am1 x1 + am2 x2 + ... + amn xn = bm Esercizio

poniamo Scrivere il sistema di equazioni lineari la cui matrice completa è:


     
a11 a12 ... a1n b1
1 1 2 4
a a22 ... a2n  b   
 21   2 (A|B) =  1 −2 −3 
A :=  ..  B :=   0 
 .. ..   .. 
 . . .   .  0 0 1 2
am1am2 . . . amn bm
 
a11 a12 . . . a1n b1 Esercizio (“sostituzione dal basso verso l’alto”)
 
 a21 a22 . . . a2n b2  Risolvere il sistema
  
(A|B) =  . .. .. .. 
 .. . . .  
 3x1 + x2 + 2x3 = 7
 
am1 am2 . . . amn bm x2 − x3 = 1


x3 = 5
Chiamiamo A matrice dei coefficienti, B colonna dei termini noti e (A|B) matrice completa.
11 / 16 12 / 16
Sistemi lineari e matrici Una equazione in una incognita
L’uso delle matrici permette di scrivere i sistemi lineari in forma più compatta.
Sia A = (aij ) ∈ Rm,n e B = (bi ) ∈ Rm,1 e scriviamo le incognite in una colonna:

X = t (x1 , x2 , . . . , xn ) 

 (1) se a 6= 0 la soluzione esite, è unica ed è data da x = a−1 b.






Risolvere un sistema lineare di matrice completa (A|B), equivale a trovare tutti i vettori 
 


colonna X tali che: 
 
 (2 0 ) se b 6= 0 il sistema è incompatibile
 

ax = b =⇒ 

 

A·X=B (prodotto righe per colonne) 
 

 (2) se a = 0 allora

 (2 ) se b = 0, l’equazione è 0x = 0 e am-
00

 
Infatti: 
 



 
 mette infinite soluzioni: x = t è soluzione

 
I la i-esima componente del “vettore colonna” A · X è: ai1 x1 + ai2 x2 + . . . + ain xn  
per ogni t ∈ R.
I la i-esima componente del vettore colonna B è: bi
I si ha A · X = B se e solo se Nel caso (2 00 ) le soluzioni sono in corrispondenza biunivoca con gli elementi di R.

ai1 x1 + ai2 x2 + . . . + ain xn = bi

(⇒ l’i-esima equazione del sistema è soddisfatta) per ogni i = 1, . . . , n.


13 / 16 14 / 16

Una equazione in n incognite, n > 2


Consideriamo l’equazione

a1 x1 + a2 x2 + . . . + an xn = b .
Esercizio
Se almeno un coefficiente è diverso da zero, diciamo a1 , possiamo assegnare alle
Si consideri la matrice completa:
incognite xi , i 6= 1, dei valori ti ∈ R arbitrari, e ricavare:
 
x1 = a−1 − a−1 + a3 t3 + . . . + an tn ) . 6 −4 0 3 2
1 b 1 (a2 t2  
(A|B) = 
0 0 0 0 2 

Le soluzioni sono in corrispondenza biunivoca con elementi (t2 , t3 , . . . , tn ) ∈ Rn−1 . 1 0 1 2 11
In questo caso, le incognite x2 , . . . , xn si dicono libere.
Dire se il sistema lineare associato è compatibile.



 (1) se (a1 , . . . , an ) 6= (0, . . . , 0) le soluzioni in corrispondenza biunivoca con Rn−1 .



 

 
 (2 0 ) se b 6= 0 il sistema è incompatibile.





 (2) se (a1 , . . . , an ) = (0, . . . , 0) allora (2 00 ) se b = 0 ogni n-upla (t , . . . , t ) di

 
 1 n

 
 R è una soluzione.
n

15 / 16 16 / 16
Cenni sul determinante [Abate, §9] Determinante di matrici 2 × 2
Ad ogni matrice quadrata è possibile associare uno scalare detto “determinante” della
matrice stessa (poichè, fra le altre cose, serve a “determinare” se un sistema di n Esempio
equazioni lineari in n incognite ammette un’unica soluzione, cf. teorema di Cramer).
1 7
+ − = 5 − (−14) = 19
−2 5
Sia A = (aij ) ∈ Mn (R). Il determinante di A, indicato con |A| o det A , è definito come
a11 a12
segue. Se n = 1, |A| := a11 . Se n = 2, 0 4
= a11 a22 − a12 a21 = 0 · 3 − 4 · 1 = −4
1 3
a21 a22
|A| := a11 a22 − a12 a21
2 3
=6−3=3
Se n = 3, 1 3
|A| := a11 a22 a33 + a13 a21 a32 + a12 a23 a31 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33

Al crescere di n la definizione esplicita è sempre più complicata. Per n > 4, Osservazione: non vale la proprietà |A| + |B| = |A + B| . Controesempio:
   
|A| := (a11 a22 a33 a44 · · · ann ) − (a12 a21 a33 a44 · · · ann ) + (a12 a23 a31 a44 · · · ann ) + . . . 1 0 −1 0
A= , B= .
0 1 0 −1
è una somma di n! monomi di grado n negli elementi di A.
Si ha A + B = 0R2,2 , quindi |A + B| = 0 . Ma |A| = |B| = 1 e |A| + |B| = 2 .
Non darò la definizione generale, ma spiegherò dei metodi di calcolo.

1 / 10 2 / 10

Esercizio Regola di Sarrus


Calcolare il determinante delle matrici:
   
2 1 5 5
A= , B= . + + + − − −
4 7 2 4
a11 a12 a13 a11 a12

Esercizio a21 a22 a23 a21 a22


Siano    
2 7 5 3 a31 a32 a33 a31 a32
A= , B= .
−1 4 2 1
Verificare che |AB| = |A| · |B|.

Esercizio
Enunciamo senza dimostrazione: Si calcoli il determinante delle seguenti matrici:
     
Teorema di Binet [Abate, §9.3] 1 2 1 1 2 3 3 0 0
     
Il determinante di un prodotto è il prodotto dei determinanti: A= 3 1 4 , B = 3 1 3 , C = 0 2 0 .
−3 5 −1 1 2 3 0 0 −7
|AB| = |A| · |B| ∀ A, B ∈ Mn (R)

3 / 10 4 / 10
Sviluppo di Laplace [Abate, §9.2] Esercizio
Calcolare il determinante della matrice
 
Sia A = (aij ) ∈ Mn (R) e indichiamo con Ahk ∈ Mn−1 (R) la matrice che si ottiene da A 0 1 2 0
4 2
eliminando la riga h e la colonna k.  0 1 
A= 
3 1 1 0
Definizione 0 2 1 4
La matrice Ahk si dice minore complementare dell’elemento ahk , e lo scalare
Soluzione. Con lo sviluppo di Laplace rispetto alla prima colonna si trova:
Γhk = (−1)h+k |Ahk |
0 1 2 1 2 0 1 2 0 1 2 0

è detto complemento algebrico o cofattore dell’elemento ahk .
|A| = 0 1 1 0 − 4 1 1 0 + 3 0 1 2 − 0 0 1 2

2 1 4 2 1 4 2 1 4 1 1 0
Enunciamo senza dimostrazione:
sviluppando il 2◦ e 3◦ determinante rispetto alla terza colonna:
Sviluppo di Laplace per righe Sviluppo di Laplace per colonne  
1 2 1 2 1 2
Per ogni 1 6 i 6 n fissato, si ha: Per ogni 1 6 j 6 n fissato, si ha: = −4 · 4 + 3 · (−2) + 4
1 1 2 1 0 1
n
X n
X
|A| = aij Γij |A| = aij Γij = −4 · 4 · (1 − 2) + 3 · (−2) · (1 − 4) + 3 · 4 · 1
j=1 i=1 = 16 + 18 + 12 = 46 . X

5 / 10 6 / 10

Inversa di una matrice Esercizio


Calcolare la matrice dei cofattori di
 
3 1 5
Definizione  
A = 0 4 1
Sia A = (aij ) ∈ Mn (R). Chiamiamo matrice dei cofattori di A, indicata con A∗ , la matrice 2 3 1
n × n che si ottiene da A sostituendo l’elemento aij con il suo complemento algebrico Γij :

A∗ := (Γij ) Soluzione.
 
3 1 5 3 1 5 3 1 5
 
+ 0 4 1 − 0 4 1 + 0 4 1 
Enunciamo senza dimostrazione:  
 2 3 1 2 3 1 2 3 1 
 
 
 3 1 5 3 1 5 3 1 5 
Teorema di Laplace 




A = − 0 4 1 + 0 4 1 − 0 4 1 
A ∈ Mn (R) è invertibile se e solo se |A| 6= 0, ed in tal caso l’inversa è data da  
 2 3 1 2 3 1 2 3 1 
 
1 t ∗  
A−1 = (A )  3 1 5 3 1 5 3 1 5 
|A|  
 
 + 0 4 1 − 0 4 1 + 0 4 1 
2 3 1 2 3 1 2 3 1

7 / 10 8 / 10
Regola di Cramer

Enunciamo senza dimostrazione:


. . . continua:
  Teorema di Cramer
4 1 0 1 0 4 Un sistema di n equazioni lineari in n incognite AX = B ammette un’unica soluzione se (e
 + − + 
 3 1 2 1 2 3    solo se) |A| 6= 0, ed in tal caso la soluzione X = t (x1 , . . . , xn ) è data da:
  1 2 −8
 
 1 5 3 5 3 1   
A∗ = 
 − 3 + −  =  14 −7 −7  a11 ... a1,i−1 b1 a1,i+1 ... a1,n
 1 2 1 2 3 
 
a
  −19 −3 12 21 ... a2,i−1 b2 a2,i+1 ... a2,n
  .
 1 5 3 5 3 1  . .. .. .. ..
+ − + . . . . .
4 1 0 1 0 4
a
n1 ... an,i−1 bn an,i+1 ... an,n
X xi = ∀ i = 1, . . . , n
|A|

Note: xi è il quoziente di due determinanti. La matrice a numeratore si ottiene dalla dei


coefficienti matrice A sostituendo la i-esima colonna con la colonna dei termini noti B.

9 / 10 10 / 10

Esercizio
Risolvere il sistema: 

 x1 + x3 = 3
2x1 + x2 − x3 = 0


−x1 + x2 =3

Soluzione. Il determinante della matrice dei coefficienti è:



1 0 1


|A| = 2 1 −1 = 4 6= 0

−1 1 0

Applicando la regola di Cramer si ricava:



3 0 1 1 3 1 1 0 3


0 1 −1 2 0 −1 2 1 0

3 1 0 0 −1 3 0 12 −1 1 3 12
x1 = = x2 = = x3 = =
|A| 4 |A| 4 |A| 4

La soluzione è quindi x1 = 0, x2 = 3, x3 = 3 .

11 / 10
Sistemi equivalenti Operazioni elementari [Abate, §3.3]

Definizione [Abate, Def. 3.6]


Le seguenti operazioni elementari trasformano qualsiasi sistema in uno equivalente:
Due sistemi di equazioni lineari si dicono equivalenti se hanno la stessa soluzione generale.
(Quindi: ogni soluzione del primo sistema è anche soluzione del secondo, e viceversa.)
SISTEMA LINEARE MATRICE COMPLETA
Esempi
(I) Scambiare di posto due equazioni: Scambiare di posto due righe:
(1) I due sistemi seguenti sono equivalenti:
Ei ↔ E j Ri ↔ Rj
x+y=0 x−y=1
x−y=1 x+y=0 (II) Moltiplicare un’equazione per λ 6= 0: Moltiplicare una riga per λ 6= 0:

(2) I due sistemi seguenti sono equivalenti: Ei −→ λEi Ri −→ λRi

x+y=1 2x + 2y = 2 (III 0 ) Sostituire un’equazione Ei con quel- Sostituire una riga Ri con quella otte-
la ottenuta sommando ad essa un nuta sommando ad essa un multiplo di
Esercizio multiplo di un’altra equazione Ej : un’altra riga Rj :

Verificare che i sistemi seguenti sono equivalenti: Ei −→ Ei + λEj Ri −→ Ri + λRj



2x + y = 3 x+y=2
x−y=0 x + 3y = 4

1 / 24 2 / 24

Matrici triangolari [Abate, §3.2] Determinante di una matrice triangolare [Esempio 9.3]

Definizione Se A ∈ Mn (R) è triangolare superiore, ripetendo n volte lo sviluppo di Laplace rispetto


Una matrice A = (aij ) ∈ R m,n
si dice alla prima colonna si ottiene:

• triangolare superiore se aij = 0 per ogni i > j; a22 a23 a24 ... a2n
a33 a34 ... a3n

• triangolare inferiore se aij = 0 per ogni i < j. 0 a33 a34 ... a3n 0


a44 ... a4n
Una matrice triangolare si dice completa se aii 6= 0 per ogni i. |A| = a11 0 0 a44 ... a4n = a11 a22 . .. ..
. . ..
. .. .. .. .. . . . .
. . . . .
0 0 ... ann
Una matrice triangolare superiore ha quindi la forma: 0 0 0 ... ann
  
a11 a12 a13 ... a1n 
   0

 a44 ... a4n
a11 a12 a13 ... a1m ... a1n  a22 a23 ... a2n 




   .. ..

 0 a22 a23 ... a2m ...

a2n   0
 .
0 a33 ... a3n  n = a11 a22 a33 0 . . = . . . = a11 a22 a33 · · · ann .
   . . . .. .  
 0 0 ... ... a3n  . . .  
 0
 a33 a3m   .
 . . . . 


 ... ann
 . . . .. . .   0 
 .
 .
.
.
.
. . .
.
. 
.   0 0 ... ann 

   Si ha
 0 0 0 ... 0  
0 0 0 ... amm ... amn  . . . .  
 . . . . 
 . . . .  m−n |A| 6= 0 ⇐⇒ aii 6= 0 ∀ i = 1, . . . , n
| {z } | {z } 

m n−m 0 0 0 ... 0
(A è invertibile) (A è triangolare superiore completa)
(se m 6 n) (se m > n)

3 / 24 4 / 24
Metodo di eliminazione di Gauss [Abate, §3.3] Metodo di eliminazione di Gauss
Proposizione (senza dimostrazione)
Primo passo:
Sia A ∈ Mn (R). Allora:
1. Riordinare le righe in modo che sia a11 6= 0; se ai1 = 0 ∀ i, l’algoritmo è finito.
1 se B è una matrice ottenuta da A scambiando fra di loro due righe (o due colonne),
2. Per ogni i > 1, effettuare la sostituzione
allora |B| = −|A|; Operazione (I)
ai1
2 se B è ottenuta da A moltiplicando per λ ∈ R gli elementi di una sua riga (o colonna), Ri → Ri − R1
a11
allora |B| = λ|A|; Operazione (II)
Risultato:
3 se B è ottenuta da A sommando a una sua riga (o colonna) un multiplo di un’altra riga
(o colonna), allora |B| = |A|. Operazione (III 0 )    
a11 a12 a13 ... a1n a11 a12 a13 . . . a1n
   
Il metodo di eliminazione di Gauss permette di trasformare una matrice A = (aij ) in una  a21 a22 a23 ... a2n   0 0
a22 0
a23 0
. . . a2n 
   
a a32 a33 ... a3n   
triangolare superiore B usando le operazioni elementari (I) e (III 0 ): A= 31  −−−−→ A0 =  0 0
a23 0
a33 0
. . . a3n 
   
 . .. .. ..   .. .. .. .. 
 .   . . . . 
Ri ←→ Rj Ri −→ Ri + λRj (i 6= j)  . . . .   
0 0 0
am1 am2 am3 ... amn 0 am2 am3 . . . amn
Se A è una quadrata, |B| = ±|A| ed il segno è positivo se si è usata la trasformazione (I)
un numero pari di volte, altrimenti è negativo.

5 / 24 6 / 24

Metodo di eliminazione di Gauss Esercizio


Usando il metodo di Gauss calcolare il determinante della matrice:
Secondo passo:  
0 3 −3
 
1. Riordinare le righe in modo che sia a22
0
6= 0; se ai2
0
= 0 ∀ i, l’algoritmo è finito. A = 2 8 2
2. Per ogni i > 2, effettuare la sostituzione 3 9 6
0
ai2
Ri → Ri − R2
0
a22 Soluzione. Primo passo:
Risultato:      
3 9 6 2
3 9 6 3 9 6
R1 ↔R3   R2 →R2 − 3 R1  2   
    A −−−−→ 2 8 2 −
− −−− − − −→ 2 2
=
2 − 3 3 8 − 3 9 2 − 3 6 0 2 −2
a11 a12 a13 . . . a1n a11 a12 a13 . . . a1n
    0 3 −3 0 3 −3 0 3 −3
 0 0
a22 0
a23 0
. . . a2n   0 0
a22 0
a23 0
. . . a2n 
   
 0 0 0   00 00  Secondo passo:
A −→ A 0 = 

0 a23 a33 . . . a3n 
 −→ A 00 = 

0 0 a33 . . . a3n 

 .. .. .. ..   .. .. .. ..     
 . . . .   . . . .  3 9 6 3
3 9 6
      R3 →R3 − 2 R2  
0 0
am2 0
am3 0
. . . amn 0 0 am300 00
. . . amn 0 2 −2 −−−−−−−−→ 0 2 −2 =: B
0 3 −3 0 0 0

Andare avanti fino ad ottenere una matrice triangolare superiore. . . Siccome abbiamo effettuato 1 scambio di righe, si ha |A| = −|B| = 0 . X

7 / 24 8 / 24
Esercizio Matrici ridotte per righe
Usando il metodo di Gauss calcolare il determinante della matrice:
 
1 2 4
  Definizione
A = 2 2 5
4 3 8
• Un elemento non nullo di una matrice che Esempio
sotto abbia al più degli zeri verrà detto pivot.  
Soluzione. Primo passo: 1 7 −1 9
 √ 
    A = 3 2 0 11
1 2 4 1 2 4 • Una matrice si dice ridotta per righe se in
0 5 0 π
R2 →R2 −2R1     ogni sua riga non nulla c’è (almeno) un pivot.
A −−−−−−−→ 2 − 2 · 1 2−2·2 5 − 2 · 4 = 0 −2 −3
R3 →R3 −4R1
4−4·1 3−4·2 8−4·4 0 −5 −8
• Un sistema di equazioni lineari si dice ridotto se la matrice dei coefficienti è ridotta
Secondo passo: per righe.
     
1 2 4 1 2 4 1 2 4
 5
 R3 →R3 − 2 R2     • Un sistema di equazioni lineari la cui matrice dei coefficienti è triangolare superiore
0 −2 −3 −−−−−−−−→ 0 −2 −3  = 0 −2 −3 =: B
completa (TSC) si dice a scala.
0 −5 −8 0 −5 − 52 (−2) −8 − 52 (−3) 0 0 − 12

Siccome abbiamo effettuato 0 scambi di righe, si ha |A| = +|B| = 1 . X

9 / 24 10 / 24

Osservazione
Sistemi ridotti e a scala
Una matrice è ridotta per righe se e solo se eliminando le righe nulle e riordinando le colonne
può essere trasformata in una matrice triangolare superiore completa.

MATRICE COMPLETA SISTEMA LINEARE


Esempio:
 
0 7 5 0 0 3 Matrice dei coefficienti ridotta: Sistema ridotto corrispondente:
   
1 3 2 4 0 0 
  1 7 8 9  x1 + 7x2 + 8x3 = 9
A= 0   
0 0 0 0 0 
  (A|B) = 
 3 2 0 − 5 3x1 + 2x2 = −5
0 4 11 13 0 0 

0 5 0 3 5x2 = 3
0 0 0 1 0 0

Eliminando le righe nulle (3a riga) e riordinando le colonne in modo che i pivot vadano a
finire sulla diagonale principale, si ottiene: Matrice TSC associata: Sistema a scala corrispondente:
  
8 1 7 9 
 8x3 + x1 + 7x2 = 9
     
0 7 5 0 0 3 3 0 7 0 0 5 0 3 2 −5  3x1 + 2x2 = −5
  
1 
 3 2 4 0 0
0
 1 3 4 0 2 0 0 5 3 5x2 = 3
A −→   −→ A0 =  
0 4 11 13 0 0 0 0 4 13 0 11
0 0 0 1 0 0 0 0 0 1 0 0

11 / 24 12 / 24
Soluzione di un sistema a scala [Abate, §6.1] Soluzione di un sistema ridotto
Consideriamo un sistema di matrice completa (A|B) con A ∈ Rm,n TSC. Tre casi:
Esercizio
1. m 6 n.
Risolvere il sistema 
2. m > n e bn+1 = bn+2 = . . . = bm = 0. 
 2x1 + x2 + 2x3 + 1x4 = 1

3. m > n ed i coefficienti bn+1 , bn+2 , . . . , bm non sono tutti nulli: in questo caso il 2x1 + 3x2 − x3 = 3


sistema è incompatibile in quanto almeno una equazione è del tipo 0x = bi 6= 0.  1x + x3 = 0
1

Nei primi due casi il sistema è compatibile. A meno di eliminare equazioni del tipo 0 = 0,
possiamo assumere che sia m 6 n. Il sistema ha quindi la forma: Soluzione. Risolviamo dal basso verso l’alto rispetto all’incognita che moltiplica il pivot. Si
 ha x1 = −x3 (3a eq.) che sostito nelle rimanenti due dà:

 a11 x1 + a12 x2 + a13 x3 + . . . + a1m xm + . . . + a1n xn = b1

 −2x3 + x2 + 2x3 + 1x4 = 1 x2 + 1x4 = 1



 a22 x2 + a23 x3 + . . . + a2m xm + . . . + a2n xn = b2 ⇐⇒
 −2x3 + 3x2 − x3 = 3 3x2 − 3x3 = 3
a33 x3 + . . . + a3m xm + . . . + a3n xn = b3



 .. .. .. .. Dalla 2a equazione si ricava x2 = x3 + 1, che sostituita nella 1a dà x3 + 1 + 1x4 = 1,

 . . . .

 ovvero x4 = −x3 . Poniamo x3 = t (parametro libero), e otteniamo:

amm xm + . . . + amn xn = bn
(x1 , x2 , x3 , x4 ) = (−t, t + 1, t, −t) ∀t∈R
con aii 6= 0 ∀ i = 1, . . . , m. Si risolve per sostituzione dal basso verso l’alto, con xm+1 , X
xm+2 , . . . , xn variabili libere.
13 / 24 14 / 24

Osservazioni sui sistemi ridotti Riduzione per righe


I Qualunque matrice A = (aij ) ∈ Rm,n può essere trasformata in una matrice ridotta
Poiché un sistema ridotto differisce da uno a scala solo per la numerazione delle incognite,
possiamo affermare che: per righe utilizzando l’operazione elementare

I Un sistema ridotto è compatibile se e solo se non ha equazioni del tipo (III 0 ) “ Ri → Ri + λRj ”

0x1 + 0x2 + . . . + 0xn = b un numero opportuno di volte.

in cui b è un termine noto diverso da zero. I Per ottenere una matrice ridotta, si parte dalla prima riga non nulla di A, sia essa la
j-esima, e si sceglie un qualunque elemento ajk diverso da zero. Quindi si usa (III 0 )
I Le incognite che non moltiplicano (in nessuna delle righe) un pivot sono libere. sulle righe successive, e si somma ad esse un multiplo opportuno di Rj , scelto in

I
modo tale da ottenere tutti zeri sotto ajk . In formule:
Un sistema ridotto si può risolvere per sostituzione dal basso verso l’alto rispetto
alle incognite che moltiplicano i pivot. aik
∀ i > j, Ri → Ri − Rj
ajk
I Sia n il numero di incognite e k il numero di righe non nulle della matrice dei
coefficienti. Se il sistema è compatibile, la soluzione generale dipenderà da n − k L’elemento ajk sarà un pivot per la matrice ottenuta in questo modo.
parametri (variabili libere).
I Si ripete il procedimento per tutte le righe non nulle, fino a che in ogni riga non nulla
non ci sia un pivot.
15 / 24 16 / 24
Esercizio
Ridurre per righe la matrice   Risolvere un sistema per riduzione
0 1 −2 1
3 −1 1 −9
 
A=  Un sistema AX = B di matrice completa (A|B) può essere risolto come segue:
0 4 −8 7
4 −3 6 5 I Usando le tre operazioni elementari si trasforma (A|B) in una nuova matrice
(A 0 |B 0 ) tale che A 0 è ridotta per righe.
Soluzione. Il primo elemento non nullo nella prima riga è quello in posizione (1, 2). Usiamo
I Il sistema ridotto A 0 X = B 0 è equivalente a quello di partenza e si può risolvere
(III 0 ) per ottenere tutti zeri sotto di esso:
  per sostituzione.
0 1 −2 1
R2 →R2 + R1
3 0 −1 −8
R3 →R3 −4R1  
A −−− −−−−−−→ A 0 :=   Osservazione 12.2.1
R4 →R4 +3R1 0 0 0 3
Attenzione: è la matrice A 0 che deve essere ridotta per righe, non (A 0 |B 0 ).
4 0 0 8
(A 0 |B 0 ) ridotta per righe 6⇒ A 0 ridotta per righe.
Possiamo saltare la 2a riga. Usiamo (III 0 ) per ottenere zero sotto a34
0
:
Esempio:
  " # " #
0 1 −2 1
 0 1 1 0 1
0 −1 −8
0 0 0
8
R4 →R4 − 3 R3 3  (A |B ) = A =
A 0 −−−−−−−− −→ A 00 :=   1 1 0 1 1
0 0 0 3
4 0 0 0 Nell’esempio (A 0 |B 0 ) è ridotta per righe, ma A 0 non lo è (non ha pivot nella 1a riga).
X
17 / 24 18 / 24

Esercizio
Esempio
Risolvere il sistema
Ridurre il sistema di matrice completa: 
  
 x1 − x3 = −1
0 1 −2 1 2x1 + x2 + 2x3 = 3
  

 3 −1 1 −9  x2 + 3x3 = 3
(A|B) = 
0

 4 −8 7
4 −3 6 5
Soluzione.
   
1 0 −1 −1 1 0 −1 −1
Soluzione.   R2 →R2 −2R1  
  (A|B) =  2 1 2 3  −−−−−−−−→  0 1 4 5
0 1 −2 1 0 1 3 3 0 1 3 3
R2 →R2 + R1  
 0 −1 −8   
R →R −4R1
(A|B) −−3−−−3−−−→ 3  =: (A 0 |B 0 ) 1 0 −1 −1
R4 →R4 +3R1  0 0 0 3 R →R −R2  
  −−3−−−3−−→ 5  =: (A 0 |B 0 )
0 1 4
4 0 0 8
X 0 0 −1 −2
Osservazioni: Il sistema di matrice completa (A 0 |B 0 ) è:
I  
la matrice è la stessa dell’esercizio a pag. 17, ma stavolta ci siamo fermati al primo  
 x1 − x3 = −1  x1 = −1 + x3 = −1 + 2 = 1
passo perché interessati a ridurre solo la matrice dei coefficienti, e non la completa; x2 + 4x3 = 5 =⇒ x2 = 5 − 4x3 = 5 − 8 = −3

 

I notiamo che A è ridotta, ma (A |B ) non lo è.
0 0 0 −x3 = −2 x3 = 2

19 / 24 20 / 24
Esercizio (Esame del 03/09/2012)
Si consideri il sistema di equazioni lineari dipendente da un parametro λ ∈ R:  
3 1 λ 1
 R3 →R3 −(2−3λ)R2  
 2x1 + λx2 + 2x3 = 3 −−−−−−−−−−−→  1 0 1 0  =: (A 0 |B 0 )


0 0 λ(3 − λ) 3−λ
5x1 + x2 + (λ + 2)x3 = 1


 3x1 + x2 + λx3 = 1 Il sistema di matrice completa (A 0 |B 0 ) è equivalente a quello di partenza.
L’ultimo elemento in rosso è diverso da zero (quindi è un pivot) se λ 6= 0, 3.
a) Stabilire per quali λ ∈ R il sistema è compatibile.
b) Nei casi in cui il sistema è compatibile, determinare la soluzione generale. Se λ ∈
/ {0, 3} la matrice A 0 è ridotta per righe. Poiché non contiene equazioni “del tipo
0 = b 6= 0” (cioè coefficienti tutti nulli e termine noto diverso da zero), il sistema è
Soluzione. Conviene iniziare riordinando le righe, in modo da poter scegliere 1 come pivot: compatibile. Risolvendo per sostituzione (dal basso) si ottiene
    
2 λ 2 3 3 1 λ 1 
  R1 ↔R3    3x1 + 1x2 + λx3 = 1 
1 3 1

(A|B) =  5 1 λ+2 1  −−−−→  5 1 λ+2 1 1x1 + x3 = 0 ⇐⇒ (x1 , x2 , x3 ) = − , ,

 λ λ λ
3 1 λ 1 2 λ 2 3 λ(λ − 3)x3 = 3 − λ
   
3 1 λ 1 3 1 λ 1 Come ci aspettavamo la soluzione è unica (in un sistema ridotto con n = 3 incognite e
1
R2 →R2 −R1   R2 → 2 R2  
−−−−−−−→  2 0 2 0  −−−−−→  1 0 1 0  k = 3 equazioni non nulle, il numero di parametri liberi è n − k = 0).
R3 →R3 −λR1
2 − 3λ 0 2 − λ2 3−λ 2 − 3λ 0 2 − λ2 3−λ
Se λ = 0 , la terza equazione non ammette soluzione, quindi il sistema è incompatibile.
(continua. . . )
21 / 24 22 / 24

Rimane da studiare il caso λ = 3 . In questo caso la matrice completa diventa


 
3 1 3 1
  In risposta alle due domande dell’esercizio:
(A 0 |B 0 ) =  1 0 1 0
0 0 0 0 a) il sistema è compatibile se e solo se λ 6= 0
(ha infinite soluzioni per λ = 3 e un’unica soluzione se λ 6= 0, 3);
Il sistema associato è ridotto, ha k = 2 equazioni e n = 3 incognite.
La soluzione generale dipenderà da n − k = 1 parametro reale. Si ha b1) se λ 6= 0, 3,
 
  1 3 1
3x1 + 1x2 + 3x3 = 1 x2 =1 (x1 , x2 , x3 ) = − , ,
⇐⇒ λ λ λ
1x1 + x3 = 0 x1 = −x3
b2) se λ = 3,
Qualunque valore reale assegnamo alla variabile libera x3 , otteniamo una soluzione
(x1 , x2 , x3 ) = ( −t , 1 , t ) ∀ t ∈ R
particolare. Ponendo x3 = t, scriviamo l’insieme di tutte le soluzioni in forma parametrica
(in funzione di un parametro t ∈ R) come segue. X
La soluzione generale è l’insieme delle terne:

(x1 , x2 , x3 ) = ( −t , 1 , t ) ∀ t ∈ R

23 / 24 24 / 24
Esempio
Matrici fortemente ridotte e metodo di Gauss-Jordan
Applichiamo il metodo di Gauss-Jordan alla matrice
 
Una matrice si dice fortemente ridotta per righe se 1 1 1 0
 
1 è ridotta per righe; A = 2 2 0 −4
1 2 −1 −1
2 tutti i pivot sono uguali ad 1;
3 sopra a ciascun pivot non sono presenti elementi diversi da zero. Soluzione. Riduzione:
   
( Nota: le colonne contenenti i pivot hanno tutti gli elementi nulli tranne uno, il pivot! ) 1 1 1 0 1 1 1 0
R3 →R3 +R1   R3 →R3 −R2  
A −−−−−−−→ 2 2 0 −4 −−−−−−−→ 2 2 0 −4
Esempio 2 3 0 −1 0 1 0 3
La prima matrice è ridotta ma non fortemente ridotta, la seconda è fortemente ridotta:
Pivot uguali ad 1:
       
1 7 9 −1 9 0 0 9 1 9 1 1 1 0 1 1 1 0
     1
 R2 → 2 R2  
A = 3 2 4 0 3 B = 1 0 4 0 3 2 2 0 −4 −−−−−−→ 1 1 0 −2
0 5 5 0 1 0 1 5 0 1 0 1 0 3 0 1 0 3
Tutti zeri sopra i pivot:
Metodo di Gauss-Jordan. Usando le tre operazioni elementari, ogni matrice può essere      
1 1 1 0 0 0 1 2 0 0 1 2
trasformata in una fortemente ridotta: prima si riduce la matrice; poi si usa l’operazione (II)   R1 →R1 −R2   R2 →R2 −R3  
1 1 0 −2 −−−−−−−→ 1 1 0 −2 −−−−−−−→ 1 0 0 −5
per ottenere tutti pivot uguali ad 1; infine si usa l’operazione (III 0 ) per annullare tutti gli
0 1 0 3 0 1 0 3 0 1 0 3
elementi sopra i pivot.
1 / 28 2 / 28

Esercizio Invertire una matrice con il metodo di Gauss-Jordan


Usando il metodo di Gauss-Jordan risolvere il sistema:


 x1 + x2 + x3 = 0 Sia A ∈ Mn (R) una matrice invertibile. Determinare l’inversa di A equivale a determinare

2x1 + 2x2 = −4 una matrice X = (xij ) ∈ Mn (R) soluzione dell’equazione


 x1 + 2x2 − x3 = − 1
AX = In
(n equazioni in n2 incognite)
2

Soluzione. La matrice completa è la stessa dell’esercizio precedente. Si ha


    Se A è invertibile, la soluzione si può determinare con il metodo di Gauss-Jordan.
1 1 1 0 0 0 1 2
  Gauss-Jordan  
2 2 0 −4  −−−−− − − −→ 1 0 0 −5 
   
1 2 −1 − 1 0 1 0 3 Possiamo trasformare la matrice completa del sistema (A|In ) in una matrice della forma
(In |B). Il nuovo sistema, equivalente a quello di partenza, sarà:
Il nuovo sistema, equivalente a quello di partenza, è:
 In X = B

 x3 = 2
x1 = −5 cioé X = B è proprio la matrice cercata (l’inversa di A).


x2 = 3
X

3 / 28 4 / 28
Esercizio
Usando il metodo di Gauss-Jordan invertire la matrice: Secondo passo: Jordan. Moltiplichiamo ciascuna riga di (A 0 |B 0 ) per uno scalare, in
  modo da avere tutti i pivot uguali ad 1. Quindi usando la terza operazione, facciamo
1 0 2

A = 2 3 6
 comparire degli zeri sopra a ciascun pivot. Si ha:

2 2 5    
1 0 2 1 0 0 1
1 0 2 1 0 0
  R2 → 3 R2  
(A 0 |B 0 ) =  0 3 2 −2 1 0  −−−−−−→  0 1 2
3
− 23 1
3
0
R3 →−3R3
Soluzione. Primo passo: Gauss. Come primo passaggio, applichiamo il metodo di Gauss 0 0 − 13 − 23 − 23 1 0 0 1 2 2 −3
ad (A|I3 ) e trasformiamo A in una matrice triangolare superiore:
 
    1 0 0 −3 −4 6
1 0 2 1 0 0 1 0 2 1 0 0 R1 →R1 −2R3  
  R2 →R2 −2R1   −−−−−−−−→  0 1 0 −2 −1 2
(A|I3 ) =  2 3 6 0 1 0  −−−−−−−→  0 3 2 −2 1 0 R2 →R2 − 32 R3
R3 →R3 −2R1 0 0 1 2 2 −3
2 2 5 0 0 1 0 2 1 −2 0 1
  La matrice inversa di A è quindi:
1 0 2 1 0 0  
R3 →R3 − 2 R2  
−−−−−−−3−→  0 3 2 −2 1 0  =: (A 0 |B 0 ) −3 −4 6
 
0 0 − 13 − 23 − 23 1 A−1 =  −2 −1 2
2 2 −3
X
Chiamiamo (A 0 |B 0 ) la matrice trovata. Notiamo che A 0 è triangolare superiore completa,
quindi |A| = |A 0 | 6= 0 e la matrice A è invertibile.

5 / 28 6 / 28

Esercizio (Esame del 10/06/2013)


Esercizio
Si consideri il seguente sistema di equazioni lineari dipendente da un parametro λ ∈ R:
Usando il metodo di Gauss-Jordan invertire la matrice:

  
1 1 0  λx1 + 6x2
 = 3
  2x1 − 8x2 + 2x3 = 0
A = 1 0 1 


0 1 1 6x2 + λx3 = −3

a) Dire per quali valori di λ il sistema è compatibile (specificare per quali valori ammette
Soluzione. un’unica soluzione, e per quali ne ammette infinite).
   
1 1 0 1 0 0 1 1 0 1 0 0 b) In tutti i casi in cui il sistema è compatibile, determinare la soluzione generale.
  R2 →R2 −R1  
(A|I3 ) =  1 0 1 0 1 0 −−− − −− −→  0 −1 1 −1 1 0 
0 1 1 0 0 1 0 1 1 0 0 1 Soluzione. Scriviamo la matrice completa (A|B), iniziando dalla 2a equazione (che non
    dipende da λ), e riduciamola per righe:
1 1 0 1 0 0 1 1 0 1 0 0    
R3 →R3 +R2   R2 →−R2   2 −8 2 0 1 −4 1 0
−−−−−−−→  0 −1 1 −1 1 0  −−−−1−→  0 1 −1 1 −1 0   1
 R1 → 2 R1   R2 →R2 −λR1
0 0 2 −1 1 1
R3 → 2 R3
0 0 1 − 12 1 1 (A|B) =  λ 6 0 3  −−−−−→  λ 6 0 3  −−−−−−−→
2 2
    0 6 λ −3 0 6 λ −3
1 1
1 1 0 1 0 0 1 0 0 2 2
− 21    
R2 →R2 +R3   R1 →R1 −R2  1 
−−−−−−−→  0 1 0 1
− 12 12  −−−−−−−→  0 1 0 1
− 12 = (I3 |A−1 ) 1 −4 1 0 1 −4 1 0
2 2 2    R3 →R3 +R2  
0 0 1 −21 1 1
0 0 1 −2 1 1 1 → 0 4λ + 6 −λ 3  −
− −−− − −
→  0 4λ + 6 −λ 3  = (A 0 |B 0 )
2 2 2 2
0 6 λ −3 0 4(λ + 3) 0 0
7 / 28 8 / 28
Se λ ∈
/ {0, −3} abbiamo un sistema ridotto compatibile con n = 3 incognite e k = 3
equazioni non nulle: ammette quindi un’unica soluzione (n − k = 0 variabili libere). Si ha
 

 x1 − 4x2 + x3 = 0  x1 = 3/λ

In risposta alle due domande dell’esercizio:
(4λ + 6)x2 − λx3 = 3 =⇒∗ x3 = −3/λ

 

4(λ + 3)x2 = 0 x2 = 0 a) il sistema è compatibile se e solo se λ 6= 0
(∗ Per sostituzione, notando che il coefficiente di x2 nella 3a equazione è, per ipotesi, diverso da zero.) (ha infinite soluzioni per λ = −3 e un’unica soluzione se λ 6= 0, −3);

Se λ = −3 , l’ultima riga di (A 0 |B 0 ) è nulla e abbiamo un sistema ridotto compatibile con b1) se λ 6= 0, −3,
 
n = 3 incognite e k = 2 equationi non nulle: ammette quindi infinite soluzioni (n − k = 1 3 3
(x1 , x2 , x3 ) = , 0, −
variabile libera). La soluzione generale, in forma parametrica, è data da λ λ

 
x1 − 4x2 + x3 = 0 (ponendo x2 =t)  x1 = 2t − 1 b2) se λ = −3,
=⇒ x3 = 2t + 1
−6x2 + 3x3 = 3 
 (x1 , x2 , x3 ) = ( 2t − 1 , t , 2t + 1 ) ∀ t ∈ R
x2 = t
X
Se λ = 0 , il sistema non è ridotto (manca il pivot della 2a riga). Completando la riduzione:
   
1 −4 1 0 1 −4 1 0
0 0   R3 →R3 −2R2  
(A |B ) =  0 6 0 3  −−−−−−−→  0 6 0 3 
0 12 0 0 0 0 0 −6
si vede che il sistema è incompatibile (3a equazione).
9 / 28 10 / 28

Se λ = −1 la 2a e la 3a equazione scompaiono. Dalla quarta si ricava x1 = 0, che


Esercizio sostituito nella 1a equazione dà:
Si consideri il seguente sistema lineare dipendente da un parametro λ ∈ R:
 −x2 + 2x3 + x4 = 0 ⇒ (x1 , x2 , x3 , x4 ) = (0, 2t1 + t2 , t1 , t2 ) ∀ t1 , t2 ∈ R .

 x1 − x2 + 2x3 + x4 =0

 Se λ 6= −1 possiamo semplificare la 2a e la 3a riga dividendole per λ + 1 ed ottenere:
x1 − x2 − 2λx3 − λx4 = −λ − 1
   

 x1 + λx2 + 2x3 − λx4 =0 1 −1 2 1 0 0 −1 0 1 0


R2    1
1
(λ + 1)x1 − x2 + 2x3 + x4 =0 R2 →
λ+1 0 0 2 1 1 R1 →R1 −R3 0 0 2 1 
(A 0 |B 0 ) −−−−−−−→  −−−−−−−− →   
1 1 0 2 0 0 semplificazione
ulteriore 1 0 2 0 0
a) Stabilire per quali valori di λ il sistema è compatibile. R3 → R
λ+1 3
λ 0 0 0 0 λ 0 0 0 0
b) In tutti i casi in cui il sistema è compatibile, determinare la soluzione generale.
Il sistema associato è
 
Soluzione. Riduciamo il sistema. Scriviamo la 2a equazione cambiata di segno: 
 −x2 + x4 =0 
 x2 = x4 = 1 − 2x3

 

    2x3 + x4 =1 x4 = 1 − 2x3
1 −1 2 1 0 1 −1 2 1 0 =⇒
 −1 R2 →R2 +R1 
 x1 + 2x3 =0 
 x1 = −2x3
 1 2λ λ λ + 1
 R3 →R3 +λR1
 0
 0 2(λ + 1) λ+1 λ + 1
 
 

  −−−−−−−−→   λx1 =0 λx1 =0
 1 λ 2 −λ 0  R4 →R4 −R1 λ + 1 0 2(λ + 1) 0 0 
Se λ = 0 il sistema ammette infinite soluzioni, date da (poniamo x3 = t):
λ + 1 −1 2 1 0 λ 0 0 0 0
(x1 , x2 , x3 , x4 ) = (−2t, −2t + 1, t, −2t + 1) ∀ t ∈ R
Chiamiamo (A 0 |B 0 ) la matrice trovata e studiamo il sistema ridotto A 0 X = B 0 . Dobbiamo
distinguere i casi λ = 0, λ = −1 e λ 6= 0, −1. Se λ 6= 0, −1 il sistema ammette un’unica, data da:
. . . continua.
(x1 , x2 , x3 , x4 ) = (0, 1, 0, 1) X
11 / 28 12 / 28
Strutture algebriche [L. Lomonaco, Un’introduzione all’algebra lineare, §1] Esempi
Operazioni aritmetiche:
Definizione I Somma e prodotto fra numeri naturali, interi, razionali, reali, complessi sono operazioni
Una operazione interna (binaria) di un insieme S è una legge che associa ad ogni coppia di
interne rispettivamente di N, Z, Q, R, C.
elementi di S un terzo elemento di S che chiameremo “risultato dell’operazione”.
I La sottrazione è una operazione interna di Z, Q, R, ma non è una operazione interna
di N, poiché la differenza fra due numeri naturali non è sempre un numero naturale
Osservazioni: (esempio: 2 − 7 = −5 è un intero negativo).
I Una operazione interna di S è una applicazione con dominio S × S e codominio S. I La divisione non è una operazione interna di N o di Z (il rapporto fra due numeri
naturali/interi non è sempre un numero naturale/intero), né di Q o R (non si può dividere
I Le operazioni tipicamente si indicano non con delle lettere ma con dei simboli: per 0). E’ una operazione, ad esempio, di Q r {0} ed R r {0}.
∗, +, ·, ×, ÷, ∩, ∪, r etc.
Operazioni fra matrici:
I Se ∗ è una operazione interna di S, l’immagine di una coppia (a, b) ∈ S × S del I La somma di matrici reali è una operazione interna di Rm,n , per ogni m, n > 1.
dominio verrà indicata con a ∗ b . I Il prodotto righe per colonne è una operazione interna di Mn (R), per ogni n > 1.
(Se il simbolo scelto per l’operazione è + , scriveremo l’immagine di (a, b) come
a + b , se il simbolo è ÷ scriveremo a ÷ b , etc.) Operazioni insiemistiche:
I Sia I un insieme e indichiamo con P(I) la collezione dei sottoinsiemi di I, detto insieme
delle parti di I; intersezione e unione sono operazioni interne di P(I).
13 / 28 14 / 28

Definizione Proprietà delle operazioni interne


Siano K e S due insiemi. Una operazione esterna di S ad operatori in K è una applicazione
Definizione
K×S→S.
Una operazione interna ∗ di un insieme S si dice commutativa se ∀ a, b ∈ S si ha
L’immagine di una coppia (λ, a) ∈ K × S si indica semplicemente con λa.
a∗b=b∗a,

Esempio: e si dice associativa se per ogni a, b, c ∈ S si ha


I Il prodotto di una matrice reale m × n per uno scalare λ ∈ R è una operazione esterna a ∗ (b ∗ c) = (a ∗ b) ∗ c .
dell’insieme S = Rm,n ad operatori in K = R.
In tal caso scriveremo semplicemente a ∗ b ∗ c per indicare il risultato dell’operazione.
Definizione
Un insieme con delle operazioni (interne o esterne) è detto struttura algebrica. Esempi:
Commutativa Associativa
Esempi: Somma di due numeri / n-uple / matrici X X
Unione e intersezione X X
I (N, +, · ) è una struttura algebrica con due operazioni (entrambe interne).
Prodotto di due numeri X X
I Sia I un insieme e S := P(I) l’insieme delle parti di I. Prodotto fra matrici × X
(S, ∪, ∩) è una struttura algebrica con due operazioni interne. Divisione × ×
15 / 28 16 / 28
Elemento neutro Elementi simmetrizzabili
Definizione
Sia (S, ∗, e) un insieme con una operazione interna ed un elemento neutro.
Sia (S, ∗) un insieme con una operazione interna. Un elemento e ∈ S è detto elemento
neutro rispetto all’operazione considerata se: Definizione
∀ a ∈ S, a∗e=e∗a=a. Un elemento a ∈ S si dice simmetrizzabile (o invertibile) in (S, ∗, e) se esiste un elemento
b ∈ S tale che
Esempi: a∗b=b∗a=e.
I il numero intero 0 è elemento neutro rispetto alla somma di due numeri;
In tal caso b si dice simmetrico (o opposto, o inverso) di a.
I il numero intero 1 è elemento neutro rispetto al prodotto di due numeri;
I la matrice nulla 0Rm,n è elemento neutro rispetto alla somma di matrici m × n; Esempi:
I la matrice identica In è elemento neutro rispetto al prodotto di matrici n × n.
I Ogni elemento n di (Z, +, 0) è simmetrizzabile, ed il simmetrico è il suo opposto −n .
I l’insieme vuoto ∅ è elemento neutro per l’operazione di unione di insiemi.
I Ogni elemento non nullo x di (Q, · , 1) è simmetrizzabile, ed il suo simmetrico è
Proposizione (unicità dell’elemento neutro) l’inverso x−1 . L’elemento 0 ∈ Q non è simmetrizzabile (rispetto al prodotto).
Se (S, ∗) ha un elemento neutro, questo è unico. [. . . corollari] I Ogni elemento A ∈ Rm,n è simmetrizzabile rispetto alla somma, ed il simmetrico è
dato dalla matrice opposta −A.
Dimostrazione (per assurdo). Siano e ed e 0 due elementi neutri. Allora e ∗ e 0 = e 0 poiché
I Se A ∈ Mn (R) è una matrice invertibile, il suo simmetrico rispetto al prodotto è A−1 .
e è elemento neutro; ma e ∗ e 0 = e poiché anche e 0 è elemento neutro. Quindi e = e 0 . 
17 / 28 18 / 28

Unicità del simmetrico Strutture algebriche: campi, anelli e spazi vettoriali


Sia (S, ∗, e) un insieme con una operazione interna associativa ed un elemento neutro. Vedremo ora tre strutture algebriche importanti:

Proposizione (unicità del simmetrico di un elemento) 1 campi (K, +, · ), strutture algebriche con due operazioni (somma e prodotto), con
Se un elemento è simmetrizzabile allora il suo simmetrico è unico. proprietà simili a quelle dei numeri reali R.

Dimostrazione. Sia a ∈ S e supponiamo che b, b 0 ∈ S siano due simmetrici di a. Per 2 anelli (A, +, · ), strutture algebriche con due operazioni (somma e prodotto), con
definizione di simmetrico, proprietà simili a quelle dei numeri interi Z o delle matrici quadrate Mn (R).
a∗b=e b0 ∗ a = e
3 spazi vettoriali (V, +, · ), strutture algebriche con una operazione interna ed una
Per definizione di elemento neutro,
esterna, con proprietà simili a quelle delle n-uple di numeri reali Rn .
b 0 ∗ (a ∗ b) = b 0 ∗ e = b 0 (b 0 ∗ a) ∗ b = e ∗ b = b
L’insieme sottostante un campo tipicamente è indicato con K,
Dall’associatività dell’operazione si evince che l’insieme sottostante un anello con A,
0 0 0 l’insieme sottostante uno spazio vettoriale con V .
b = b ∗ (a ∗ b) = (b ∗ a) ∗ b = b ,

ovvero b e b 0 sono uguali.  A volte indicheremo un campo (anello o spazio vettoriale) semplicemente con K (A o V )
omettendo di indicare le operazioni, quando queste sono chiare dal contesto.
Corollari: l’opposta di una matrice è unica; l’inversa di una matrice, se esiste, è unica.
19 / 28 20 / 28
Esempi:
Definizione
I L’insieme Z con le usuali operazioni aritmetiche è un anello commutativo;
Un insieme K con due operazioni interne, che chiameremo “somma” (indicata con +) e
“prodotto” (indicato con · ) si dice campo se: Z non è un campo (l’inverso di un intero non è in generale intero).
I Per n > 2, l’insieme Mn (R) con le operazioni di somma e prodotto righe per colonne
1. somma e prodotto sono associative, commutative e possiedono un elemento neutro;
è un anello non commutativo. Mn (R) non è un campo (non tutte le matrici non nulle
→ indicheremo con 0K l’elemento neutro per la somma, e con 1K l’elemento neutro per il
possiedono una inversa, e non vale la proprietà commutativa del prodotto).
prodotto (a volte omettendo l’indice K quando questo non genera ambiguità)
I Gli insiemi Q, R, C con le usuali operazioni aritmetiche sono campi. Notiamo che:
2. ogni elemento di K ha un opposto (un “simmetrico” rispetto alla somma);
z x − iy
∀ z = x + i y ∈ C, z 6= 0 =⇒ z−1 = = 2
3. ogni elemento diverso da 0K ha un inverso (un “simmetrico” rispetto al prodotto); |z|2 x + y2
→ indicheremo con −a l’opposto di a ∈ K, e con a−1 il suo inverso. I L’insieme

4. vale la proprietà distributiva del prodotto rispetto alla somma: per ogni a, b, c ∈ K, Q[ i ] = x + i y : x, y ∈ Q
 (numeri complessi con parte reale e immaginaria razionali) è un altro esempio di
a · (b + c) = a · b + a · c ed anche (b + c) · a = b · a + c · a
campo, detto campo dei razionali di Gauss.

I se tutte le proprietà della definizione precedente sono soddisfatte esclusa la terza, Osservazione.
diremo che K è un anello commutativo (con unità). Si possono considerare matrici con elementi in un campo K qualsiasi, e sistemi di equazioni
I se rinunciamo anche alla proprietà commutativa del prodotto, otteniamo la definizione lineari con coefficienti in un campo K arbitrario. I teoremi enunciati fin’ora sono validi nel
generale di anello (con unità). caso in cui invece di R si consideri un campo K arbitrario (ad esempio K = C o K = Q).
21 / 28 22 / 28

L’anello dei polinomi K[x] [Abate, §4C.1] Un polinomio reale può non avere radici reali. Esempio: P(x) = x2 + 1 non ha radici reali;
ammette però due radici complesse. Diciamo che C è algebricamente chiuso, poiché ogni
Definizione equazione algebrica in C (di grado n > 1) ammette soluzioni.
Un polinomio di grado n > 0 in una variabile x e a coefficienti in un campo K è una
espressione del tipo Teorema fondamentale dell’algebra [Abate, Teorema 4C.2]

Un polinomio di grado n > 1 a coefficienti in C può sempre essere scritto nella forma
P(x) = an xn + an−1 xn−1 + . . . + a1 x + a0
P(x) = c(x − r1 )(x − r2 ) . . . (x − rn ) ,
con ai ∈ K per ogni i = 0, . . . , n, e an 6= 0.
dove r1 , . . . , rn ∈ C sono le radici e c ∈ C un coefficiente non nullo.
Un elemento r ∈ K è detto radice del polinomio considerato se P(r) = 0.
Una equazione del tipo P(x) = 0 è detta algebrica o polinomiale di grado n in x. Le radici di un polinomio non sono necessariamente tutte distinte.
Ad esempio x2 − 6x + 9 = (x − 3)2 ha due radici, entrambe uguali a 3 .
L’insieme dei polinomi (di grado arbitrario) in una variabile x e a coefficienti in un campo K
viene indicato con K[x]. A noi interesserà il caso K = R. Indicando con µ1 , . . . , µk le radici distinte del polinomio P(x) (k 6 n), si avrà

P(x) = c(x − µ1 )m1 (x − µ2 )m2 . . . (x − µk )mk ,


Osservazione: K[x] è un anello commutativo (con unità).
dove mi > 1 è detto molteplicità della radice µi , e si ha m1 + m2 + . . . + mk = n .

23 / 28 24 / 28
Equazioni algebriche Teorema delle radici razionali
Consideriamo un polinomio (an 6= 0)
Formula risolutiva per l’equazione di 2◦ grado (a 6= 0):
√ P(x) = an xn + an−1 xn−1 + . . . + a1 x + a0
−b ± b2 − 4ac
ax2 + bx + c = 0 ⇐⇒ x= . a coefficienti interi. Se un numero razionale r = p/q è una radice di P(x), allora
2a
i) p divide a0 ;
La formula vale sia quando i coefficienti sono reali, sia quando sono complessi.
ii) q divide an .
Se a, b, c ∈ R, si possono verificare tre casi, che dipendono dal segno della grandezza Le radici razionali si possono determinare considerando tutte i possibili valori di p/q, con p
∆ = b2 − 4ac , detta discriminante: divisore di a0 e q divisore di an , e verificando per sostituzione quali sono radici.
• se ∆ > 0 si hanno due soluzioni reali distinte;
Esempio Esercizio
• se ∆ = 0 si ha una sola soluzione ed è reale (di molteplicità 2); Usando il teorema delle radici razio-
Sia P(x) = 2x3 − 3x2 − 3x + 2 .
• se ∆ < 0 si hanno due soluzioni complesse coniugate. I divisori di a0 = 2 sono ±1, ±2; nali, fattorizzare i polinomi
i divisori di a3 = 2 sono ±1, ±2; quindi: P1 (x) = x3 − 2x2 − 5x + 6
Per le equazioni di 3 e 4 grado esiste una formula risolutiva.
◦ ◦ 
P2 (x) = 3x3 − 4x2 − 5x + 2
p/q ∈ ±1, ±2, ± 21 .
Per equazioni di grado superiore al quarto è noto che non esistono formule risolutive Si verifica che le radici sono −1, 2 e 12 , quindi: Soluzione:
esprimibili tramite radicali (Teorema di Abel-Ruffini). 1
 P1 (x) = (x − 1)(x + 2)(x − 3)
P(x) = 2 x − (x + 1)(x − 2) . 
2 P2 (x) = 3 x − 13 (x + 1)(x − 2)
25 / 28 26 / 28

Regola di Ruffini
Data una equazione di 3◦ grado, la regola di Ruffini permette di ridurla ad una di 2◦ grado
Dato uno scalare r e un polinomio P(x) di grado n: se almeno una soluzione è nota a priori.

P(x) = an xn + an−1 xn−1 + . . . + a1 x + a0 Esempio Esempio


Sia Sia
con an 6= 0, la regola di Ruffini permette di decomporre P(x) nella forma
3 2
P(x) = 2x + x − 4x − 2 . P(x) = 2x3 + 2x2 − x − 3 .
P(x) = (x − r)Q(x) + R
Usando il teorema delle radici razionali, Usando il teorema delle radici razionali,
in cui scopriamo che una radice è r = − 12 . scopriamo che una radice è r = 1 .
Dividendo P(x) per x − r si ottiene: Dividendo P(x) per x − r si ottiene:
Q(x) = bn−1 xn−1 + . . . + b1 x + b0
2 1 −4 −2 2 2 −1 −3
è il quoziente della divisione ed R è una costante, detta resto. Si procede come segue: − 12 −1 0 2 1 2 4 3

an an−1 an−2 ... a2 a1 a0 2 0 −4 0 2 4 3 0


r bn−1 r bn−2 r ... b2 r b1 r b0 r = b2 = b1 = b0 =R = b2 = b1 = b0 =R

an an−1 + bn−1 r an−2 + bn−2 r ... a2 + b2 r a1 + b1 r a0 + b0 r Quindi: Quindi:


= bn−1 = bn−2 = bn−3 ... = b1 = b0 =R
P(x) = (x + 12 )(2x2 − 4) . P(x) = (x − 1)(2x2 + 4x + 3) .
Se r è una radice di P(x), allora il resto è R = 0.
27 / 28 28 / 28
Spazi vettoriali [Abate, §4.1] Osservazioni.
Dato un K-spazio vettoriale V :
Definizione
I Chiamiamo vettori gli elementi di V .
Sia K un campo. Un insieme non vuoto V è detto K-spazio vettoriale se in V sono definite
I L’elemento neutro rispetto alla somma è indicato con 0V , o semplicemente con 0
una operazione interna di “somma”:
quando questo non generi confusione, ed è detto vettore nullo.
V ×V →V , (v, v 0 ) 7→ v + v 0 , I L’opposto di un vettore v (il simmetrico rispetto all’operazione di somma) è indicato
ed una operazione esterna ad operatori in K di “prodotto per uno scalare”: con −v. Scriveremo
v − v 0 = v + (−v 0 )
K×V →V , (k, v) 7→ kv ,
per indicare la somma di un vettore v con l’opposto di un secondo vettore v 0 .
soddisfacenti le seguenti proprietà: i) La somma è associativa, commutativa, possiede un I Dalla definizione di spazio vettoriale segue che (−1)v = −v ∀ v ∈ V .
elemento neutro 0V , ed ogni elemento v ha un opposto −v . ii) Il prodotto per uno scalare è
I Ci limiteremo per semplicità a studiare il caso K = R, ovvero gli spazi vettoriali reali.
associativo, 1K è elemento neutro, e vale la proprietà distributiva. In formule:

i) ∀ u, v, w ∈ V : ii) ∀ k, k 0 ∈ K e ∀ v, w ∈ V : Esempi:
1. v + w = w + v 5. (k + k )v = kv + k v
0 0 I l’insieme Rn delle n-uple reali è uno spazio vettoriale reale;
2. (u + v) + w = u + (v + w) 6. k(v + w) = kv + kw I l’insieme Rm,n le matrici reali m × n è uno spazio vettoriale reale;
3. v + 0V = v 7. k(k 0 v) = (kk 0 )v I l’insieme R[x] dei polinomi in x a coefficienti in R è uno spazio vettoriale reale;
4. v + (−v) = 0V 8. 1K · v = v I un ulteriore esempio è dato dai vettori geometrici. . .
1 / 22 2 / 22

Vettori geometrici [Abate, §2] Orientamento


I
# » # »
Siano AB e CD giacenti in rette parallele (distinte). La retta r passante per A e C divide
I Due rette del piano si dicono parallele se non hanno punti in comune. # » # »
il piano che contiene i vettori in due semipiani. Si dice che AB e CD hanno lo stesso
Due rette dello spazio tridimensionale si dicono parallele se sono contenute in un piano
verso se gli estremi liberi B e D appartengono entrambi allo stesso semipiano.
e non hanno punti in comune.
Altrimenti si dice che i vettori hanno verso opposto.
I Dati due punti A e B distinti (del piano o dello spazio), orientare il segmento AB vuol
dire scegliere quale dei due estremi precede l’altro nel segmento. Il primo estremo
A A
verrà detto punto di applicazione, il secondo verrà detto estremo libero. # »
AB
# »
AB
r r D
I
# »
Esistono esattamente due segmenti orientati di estremi A e B, indicati con AB (A B # » C B # »
# » CD CD
precede B) e BA (B precede A) rispettivamente. Un segmento orientato è anche detto C
D
vettore geometrico applicato.
# » # »
# » # »
AB e CD hanno lo stesso verso. AB e CD hanno verso opposto.
I La lunghezza del segmento AB è detta modulo o norma del vettore, ed è indicata con
# » # » # »
kABk (chiaramente AB e BA hanno la stessa norma). # » # »
I Siano AB e CD due vettori che giacciono sulla stessa retta. Sia s la semiretta uscente
I
# » # »
Diciamo che due vettori AB e CD hanno la stessa direzione se giacciono sulla stessa da A e contenente B, ed s 0 la semiretta uscente da C e contenente D.
# » # »
retta oppure in rette parallele (in particolare, AB e BA hanno la stessa direzione). Se s ⊆ s 0 oppure s 0 ⊆ s diciamo che i due vettori hanno lo stesso verso, altrimenti
diciamo che hanno verso opposto.
3 / 22 4 / 22
Vettori liberi [Abate, §2C.1]
Gli spazi vettoriali V2 e V3
I E’ utile considerare anche vettori di lunghezza nulla, i cui estremi coincidono. Un
# »
vettore nullo AA è caratterizzato dal solo punto di applicazione A. Indichiamo con V2 l’insieme di tutti i vettori liberi del piano, e con V3 l’insieme di tutti i
# » # » vettori liberi dello spazio tridimensionale.
I Due vettori AB e CD (del piano o dello spazio) si dicono equipollenti se sono entrambi
nulli oppure hanno uguale direzione, modulo e verso.
Definizione (regola del parallelogramma) D
I
# » # »
Dato un vettore applicato AB, l’insieme di tutti i vettori applicati equipollenti ad AB è In V2 (risp. V3 ) è definita una operazione interna
# »
detto vettore libero rappresentato da AB, e viene indicato con B − A . di “somma” come segue. Dati due vettori liberi C v
Se A = B si ottiene il vettore libero nullo, B − A = 0. u+v
u = B − A e v = D − B (scegliamo i rappresen-
( L’equipollenza è una relazione di equivalenza, e B − A è la classe di equivalenza di tanti in modo che l’estremo libero del primo sia il B
# »
tutti i vettori equipollenti ad AB. ) punto di applicazione del secondo), definiamo:
u
I Un vettore libero non nullo è univocamente determinato da modulo, direzione e verso. u + v := D − A A
Il vettore nullo ha modulo zero, e direzione e verso indefiniti. (Notiamo che v = C − A )

I [Partendo dagli assiomi della geometria euclidea, si dimostra che. . . ]


dato un vettore libero v ed un punto A qualsiasi, esiste uno ed un solo punto B tale Si dimostra usando gli assiomi della geometria euclidea che la definizione è ben posta (il
che v = B − A (cioè: ogni vettore libero v si può rappresentare con un vettore risultato non dipende dai segmenti orientati scelti come rappresentanti dei vettori).
applicato in un punto scelto a piacere).
5 / 22 6 / 22

Osservazioni. In V2 (risp. V3 ) è definita una operazione esterna come segue.


Vale la proprietà commutativa:
Definizione (moltiplicazione per uno scalare)
D
Se u è un vettore libero non nullo e k ∈ R è diverso da zero, allora ku è per definizione
u
il vettore di modulo |k| kuk, direzione uguale a quella di u, e verso uguale ad u se k > 0
D − A = (C − A) + (D − C) = v + u
C A oppure opposto se k < 0. Se k = 0 o u = 0 si pone ku = 0.
− v
D − A = (B − A) + (D − B) = u + v
D
v B =⇒ v+u=u+v Esempi:
u
A ku ku ku
u 1)
1) 0)
k< > <
< (k (k
(0
Vale la proprietà associativa:
v
Partendo dagli assiomi della geometria euclidea si può verificare che:
v+ w
u v w Teorema
+
u V2 e V3 sono spazi vettoriali reali.

(u + v) + w = u + (v + w) Osservazione: l’opposto del vettore libero u = B − A è il vettore −u = A − B.


7 / 22 8 / 22
Identificazione fra V2 ed R2 [Abate, §2.2] 1. La somma per componenti e la regola del parallelogramma danno lo stesso risultato.

Dati due punti A(a1 , a2 ) e B(b1 , b2 ), allora


Dato un sistema di riferimento bidimensionale, possiamo stabilire una corrispondenza
biunivoca fra vettori liberi del piano e coppie di numeri reali (vettori di R2 ). (A − O) + (B − O) = C − O

Ogni vettore libero v = P − O è rappresentato da uno e un solo vettore geometrico OP
con C di coordinate (a1 + b1 , a2 + b2 ).
applicato nell’origine O del sistema di riferimento, e quest’ultimo è univocamente
determinato dalle coordinate (x, y) del suo estremo libero P.
C(a1 + b1 , a2 + b2 )
Ci si può convincere facilmente che:
A(a1 , a2 )
I la somma in V2 fatta con la regola del parallelogramma è equivalente alla somma per
componenti di R2 (cioè: si ottiene lo stesso risultato sommando due vettori geometrici a2
con la regola del parallelogramma, o sommando per componenti le corrispondenti
coppie di coordinate); a2
P −a1
B(b1 , b2 )
I il prodotto per uno scalare in V2 è equivalente al prodotto per uno scalare in R . 2
b2
Si dice che V2 ed R2 sono spazi vettoriali “isomorfi” (“con la stessa forma”).
−a1 O b1
Anche gli spazi vettoriali V3 ed R3 possono essere identificati (sono “isomorfi”).

Studiamo il primo caso più in dettaglio. . . ( Nota: in figura a1 < 0; la lunghezza del segmento PB è quindi −a1 . )
9 / 22 10 / 22

2. Moltiplicazione per uno scalare Legge di semplificazione della somma


Se v = P − O è un vettore libero non nullo e P ha coordinate (x, y) , allora kv = P 0 − O
dove P 0 è il punto di coordinate (kx, ky) . Nell’esempio in figura, k = 2. ...ritorniamo agli spazi vettoriali (reali) astratti.

Sia V uno spazio vettoriale arbitrario. . .


(kx, ky)
(x, y) Proposizione (legge di semplificazione della somma)
v Per ogni v, v 0 , v 00 ∈ V si ha

(i) v + v 0 = v + v 00 ⇐⇒ (ii) v 0 = v 00 .
(−x, −y)

Dimostrazione. L’implicazione (i) ⇐ (ii) è ovvia. Dimostriamo che (i) ⇒ (ii).


Nota: d’ora in poi, identificheremo ciascun vettore libero P − O con la coppia di coordinate Per definizione di spazio vettoriale ogni v ∈ V possiede un opposto −v .
(x, y) di P . Scriveremo, con un abuso di notazione Da (i) segue che

P − O = (x, y) −v + (v + v 0 ) = −v + (v + v 00 )

Osservazione: dall’equivalenza fra regola del parallelogramma e somma per componenti Usando l’associatività della somma e la definizione di opposto si ottiene:
segue che, dati due punti A(a1 , a2 ) e B(b1 , b2 ) , si ha
0 + v 0 = 0 + v 00
B − A = (b1 − a1 , b2 − a2 )
ovvero v 0 = v 00 (per definizione di elemento neutro). 
11 / 22 12 / 22
Legge di annullamento del prodotto Sottospazi vettoriali [Abate, §4.1]

Proposizione (legge di annullamento del prodotto) Proposizione/Definizione (Criteri di sottospazio)


kv = 0 ⇐⇒ k=0 o v=0. Sia V uno spazio vettoriale e W ⊆ V un sottoinsieme non vuoto. Le seguenti condizioni

Dimostrazione. In tre parti: sono equivalenti:

1 0v = 0 ∀ v ∈ V , a) W è uno spazio vettoriale rispetto alle operazioni di somma e prodotto di V .

Dalla proprietà distributiva segue che: b) ∀ k ∈ R e ∀ w, w 0 ∈ W si ha

0v = (0 + 0)v = 0v + 0v . b1) w + w 0 ∈ W , (W è stabile rispetto alla somma)

Aggiungendo 0 (elemento neutro) al primo membro, si ottiene 0v + 0 = 0v + 0v . b2) kw ∈ W . (W è stabile rispetto alla moltiplicazione per uno scalare)

Dalla legge di semplificazione della somma segue che 0 = 0v . c) ∀ k, k 0 ∈ R e ∀ w, w 0 ∈ W si ha kw + k 0 w 0 ∈ W .


2 k0 = 0 ∀ k ∈ R, Se una qualsiasi di queste tre condizioni è soddisfatta, diremo che W è un sottospazio
Simile al punto 1, si fa uso dell’identità k0 = k(0 + 0) = k0 + k0. vettoriale di V (o, semplicemente, un sottospazio).

3 {k 6= 0} ∧ {v 6= 0} ⇒ kv 6= 0 . (ossia: ∀ k 6= 0, kv = 0 ⇒ v = 0)
Le condizioni b) e c) forniscono due criteri pratici per stabilire se un sottoinsieme W ⊆ V di
Per ogni k 6= 0 si ha: v = 1v = (k−1 k)v = k−1 (kv) . un determinato spazio vettoriale V è un sottospazio.
(punto 2)
Ne deduciamo che, se kv = 0, allora: v = k−1 (kv) = k−1 0 = 0. 
13 / 22 14 / 22

b) ∀ k ∈ R e ∀ w, w 0 ∈ W si ha c) ∀ k, k 0 ∈ R e ∀ w, w 0 ∈ W si ha Osservazione
Uno spazio vettoriale V possiede sempre almeno due sottospazi: il primo è V stesso
b1) w + w 0 ∈ W , b2) kw ∈ W . kw + k 0 w 0 ∈ W .
(V ⊆ V ), il secondo è dato dal sottoinsieme { 0V } .
Dimostrazione (in tre parti).
Dimostrazione. Proviamo che W = { 0V } soddisfa il criterio c) di sottospazio. Chiaramente
a) ⇒ c) è elementare. Per definizione di spazio vettoriale, per ogni w, w 0 ∈ W e ogni se w, w 0 ∈ W allora w = w 0 = 0V . Dalla legge di annullamento del prodotto segue che
k, k ∈ R il risultato delle operazioni kw e k w deve essere ancora elemento di W .
0 0 0
kw + k 0 w 0 = 0V ∈ W , per ogni k, k 0 ∈ R . 
Per lo stesso motivo, la somma di due elementi di W deve essere ancora elemento di W ,
quindi kw + k 0 w 0 ∈ W . Proposizione
Sia SΣ ⊆ Rn l’insieme delle soluzioni di un sistema lineare Σ di matrice completa
c) ⇒ b) Scegliendo k = k = 1, da c) si ottiene b1); ponendo k = 0 si ottiene b2).
0 0
(A|B) ∈ Rm,n+1 . SΣ è un sottospazio di Rn ⇐⇒ il sistema è omogeneo.

b) ⇒ a) La somma ed il prodotto per uno scalare di V , per b1) e b2) rispettivamente, Dimostrazione. “⇒” Se SΣ è un sottospazio, deve contenere 0 Rn . Se il vettore nullo è
inducono una operazione interna ed una esterna di W . soluzione, allora B = A · 0 Rn,1 = 0 Rm,1 ed il sistema è omogeneo.
Tutte le proprietà di spazio vettoriale, poichè valgono in V , valgono anche in W . Dobbiamo
“⇐” Viceversa, sia B = 0 Rm,1 e X, X 0 ∈ Rn,1 due soluzioni, ovvero AX = 0 Rm,1 e
solo verificare che 0V ∈ W .
AX 0 = 0 Rm,1 . Dalle proprietà del prodotto righe per colonne segue:
Sostituendo k = 0 in b2), per la legge di annullamento del prodotto si ottiene
A(kX + k 0 X 0 ) = k(AX) + k 0 (AX 0 ) = 0 Rm,1
0w = 0V ∈ W .  Quindi kX + k 0 X 0 ∈ SΣ ∀ k, k 0 ∈ R , e il criterio c) di sottospazio è soddisfatto. 
15 / 22 16 / 22
Esercizio Sottospazi di R2
Dire quali dei seguenti insiemi sono sottospazi
vettoriali di R2 : E’ un utile esercizio studiare i sottospazi di R2 , che possono essere visualizzati
 graficamente usando un sistema di riferimento cartesiano.
I W1 = (x, y) ∈ R2 | x + y = 0
 W4 (y = x2 )
I W2 = (x, y) ∈ R2 | y + 1 = 0 Sia allora V = R2 . Il sottospazio banale { 0V } è un insieme con un solo punto: l’origine

I W3 = (x, y) ∈ R2 | x − y = 0 del sistema di riferimento.

I W4 = (x, y) ∈ R2 | x2 − y = 0
 Dati a, b ∈ R, l’insieme dei punti (x, y) ∈ R2 soluzione dell’equazione omogenea:
I W5 = (x, y) ∈ R2 | x ∈ Z
ax + by = 0
W5 (x intero)
è un sottospazio di R2 . Se (a, b) 6= (0, 0), l’equazione descrive una retta passante per
l’origine degli assi.
W

x)
+
1
(y

=
=

(y

Vedremo più avanti che sono sottospazi di R2 solamente R2 stesso (l’intero piano),

3
W
x)

{0R2 } (l’origine), e le rette passanti per l’origine del sistema di riferimento.

W2 (y = −1) Sottospazi dello spazio tridimensionale sono quelli banali (l’origine e tutto lo spazio), e
rette e piani contenenti l’origine del sistema di riferimento.
17 / 22 18 / 22

Esercizio (da C. Carrara, 3.6)


Esercizi
Verificare che l’insieme Rn [x] dei polinomi di grado non superiore ad n è un sottospazio
Osservazione dello spazio vettoriale R[x].
Se uno spazio vettoriale V ha almeno un elemento v diverso da 0, allora ha un numero
Soluzione. La somma di due polinomi di grado 6 n è ancora un polinomio di grado 6 n, il
infinito di elementi (poiché kv ∈ V ∀ k ∈ R).
prodotto di un polinomio di grado 6 n per uno scalare è ancora un polinomio di grado 6 n.
Esercizio Rn [x] ⊂ R[x] è stabile rispetto alle due operazioni, quindi è un sottospazio. X
Stabilire quale dei seguenti insiemi è un sottospazio di M2 (R):
Esercizio
" #  " # " #
a11 a12 1 2 0 0 In R2 si considerino i sottospazi vettoriali
W1 = ∈ M2 (R) : a12 = 0 , W2 = , ,
a21 a22 3 π 0 0  
" #  U = (x, y) ∈ R2 : x = 0 , W = (x, y) ∈ R2 : y = 0 .
a11 a12
W3 = ∈ M2 (R) : a12 6= 0 , W4 = W3 ∪ {0} . Si verifichi che U ∪ W non è un sottospazio di R2 .
a21 a22
Soluzione. Poichè (0, 1) ∈ U ⊆ U ∪ W e (1, 0) ∈ W ⊆ U ∪ W , se U ∪ W fosse un
Domande sottospazio di R2 dovrebbe contenere il vettore
Le matrici m × n triangolari superiori formano un sottospazio di Rm,n ?
(0, 1) + (1, 0) = (1, 1)
E quelle triangolari superiori complete?
Ma (1, 1) non è contenuto né in U né in W , quindi (1, 1) ∈
/ U ∪ W e l’insieme U ∪ W non è
E le matrici ridotte per righe?
un sottospazio (non è stabile rispetto alla somma). X
19 / 22 20 / 22
Esercizio Operazioni su sottospazi [Abate, §4.5]
In R si considerino i sottospazi vettoriali
3

Siano W1 e W2 sottospazi di V . Usando i criteri di sottospazio si verifica che:


 
U = (x, y, z) ∈ R3 : x + y = 4z , W = (a, 2b, 0) ∈ R3 : a, b ∈ R .
1 W1 ∩ W2 è un sottospazio di V .
Si verifichi che U ∪ W non è un sottospazio di R .3 
2 W1 + W2 := v = w 1 + w 2 : w 1 ∈ W1 , w 2 ∈ W2 è un sottospazio di V .
Soluzione. Consideriamo i vettori u = (2, 2, 1) ∈ U e w = (−2, −2, 0) ∈ W . W1 + W2 è detto somma di W1 e W2 . L’unione W1 ∪ W2 non è necessariamente uno
Il vettore u + w = (0, 0, 1) non appartiene a U, poiché x + y = 0 6= 4z = 4 , e non spazio vettoriale. Il più piccolo sottospazio di V che contiene W1 ∪ W2 è W1 + W2 .
appartiene a W , poiché la terza componente è diversa da zero.
/ U ∪ W , e questo prova che U ∪ W non è un sottospazio di R3 .
Quindi u + w ∈ X Esempio
Siano V = R2 , W1 = {(x, y) ∈ R2 : y = 0}, W2 = {(x, y) ∈ R2 : x = 0}.
Esercizio
W1 e W2 sono sottospazi di R2 (asse orizzontale ed asse verticale).
Sia V uno spazio vettoriale. Dimostrare che (−1)v = −v per ogni v ∈ V .
W1 ∩ W2 = {(0, 0)} è l’origine degli assi. Dall’identità:
Soluzione. Sia w := (−1)v . Per l’unicità dell’opposto, basta provare che v + w = 0 . (x, y) = (x, 0) + (0, y)
Dalle proprietà 5 e 8 della definizione di spazio vettoriale, e dalla legge di annullamento del
prodotto, segue la tesi: segue che ogni vettore (x, y) ∈ R2 è la somma di un vettore (x, 0) ∈ W1 ed un vettore
(0, y) ∈ W2 . Quindi
v + w = 1v + (−1)v = (1 − 1)v = 0v = 0 W1 + W2 = R2 .
X
21 / 22 22 / 22
Esempi
Combinazioni lineari [Abate, §4.2]
I Siano A, B, C ∈ R2,3 le matrici:
Sia V uno spazio vettoriale e v1 , v2 , . . . , vn dei vettori di V . Diremo che un vettore w ∈ V è " # " # " #
combinazione lineare dei vettori v1 , . . . , vn se esistono a1 , a2 , . . . , an ∈ R tali che: 6 0 −12 4 2 −7 0 6 3
A= B= C=
4 8 −5 3 5 −2 1 −1 4
w = a1 v1 + a2 v2 + . . . + an vn .
Allora A è combinazione lineare di B e C, infatti: A = 32 B − 12 C .
Esempi
I Siano P1 (x), P2 (x), P3 (x) ∈ R[x] i polinomi:
I In R2 , le coppia (2, 5) è combinazione lineare dei vettori (0, 1) e (1, 1). Infatti:

(2, 5) = 3(0, 1) + 2(1, 1) . P1 (x) = x2 + 1 P2 (x) = x2 + 2x + 1 P3 (x) = x2 + 3x + 1

I Lo stesso vettore (2, 5) è anche combinazione lineare di (1, 1) e (1, −2). Infatti: Allora P1 è combinazione lineare di P2 e P3 , infatti: P1 (x) = 3P2 (x) − 2P3 (x) .

(2, 5) = 3(1, 1) − (1, −2) . I Nella figura a fianco, il vettore D − A è D−


A C C
combinazione lineare di B − A e C − D: B

I Il vettore w = (2, 5), non è combinazione lineare dei vettori v1 = (3, 0) e v2 = (5, 0). D
Infatti, ∀ a1 , a2 ∈ R: D − A = 2(B − A) + (C − D) A B
− A
B D−
a1 v1 + a2 v2 = (3a1 + 5a2 , 0) 6= w .
A
(La seconda componente è nulla.)
1 / 24 2 / 24

Esempi
Sia I = { v1 , v2 , . . . , vn } un insieme di vettori di V . L’insieme di tutte le combinazioni lineari
I Ogni vettore (x, y) ∈ R2 , si può scrivere nella forma
dei vettori di I verrà indicato con il simbolo L(v1 , . . . , vn ) oppure L(I). Quindi:

L(I) = L(v1 , . . . , vn ) := w ∈ V : w = a1 v1 + . . . + an vn , con a1 , . . . , an ∈ R . (x, y) = x · (1, 0) + y · (0, 1)

Da cui: L (1, 0), (0, 1) = R2 .
Esercizio
Dire se il vettore w = (1, 2, 3) di R3 è combinazione lineare dei vettori I Ogni vettore (x, y) ∈ R2 , si può scrivere nella forma

x+y x−y
v1 = (1, 1, 1) v2 = (3, 2, 1) (x, y) = · (1, 1) + · (1, −1)
2 2
(= “Dire se w ∈ L(v1 , v2 ).” = “Dire se esistono a1 , a2 ∈ R tali che w = a1 v1 + a2 v2 .”) 
Da cui: L (1, 1), (1, −1) = R2 .

I In M2 (R) si considerino le matrici


Esercizio
" # " # " # " #
Dire se 1 0 0 1 0 0 0 0
  E11 := , E12 := , E21 := , E22 := .
1 (3, 2) ∈ L (0, 0), (2, 2) 3 (0, 0) ∈ L (1, −1), (2, 2) 0 0 0 0 1 0 0 1
 
2 (3, 2) ∈ L (1, −1), (2, 2) 4 (3, 2) ∈ L (1, 1), (2, 2) Mostrare che L(E11 , E12 , E21 , E22 ) = M2 (R) .

3 / 24 4 / 24
Proposizione Esempio
Sia I = { v1 , v2 , . . . , vn } ⊂ V . L’insieme L(I) è un sottospazio di V .
Sia V = R[x] e sia I = {1, x, x2 , x3 , . . . , xn } l’insieme dei monomi di grado 6 n in x. Allora:

Dimostrazione. Usiamo il criterio c) di sottospazio. Siano: L(I) = a0 + a1 x + a2 x2 + a3 x3 + . . . + an xn : a0 , a1 , . . . , an ∈ R

è l’insieme di tutti i polinomi in x di grado 6 n, L(I) ≡ Rn [x].


w = a1 v 1 + a2 v 2 + . . . + an v n w 0 = a10 v1 + a20 v2 + . . . + an0 vn

due vettori di L(I), e siano k, k 0 ∈ R. Si ha: Uno spazio vettoriale V si dice finitamente generato se ammette un numero finito di
generatori, ossia se esistono v1 , . . . , vn ∈ V tali che
kw + k 0 w 0 = (ka1 + k 0 a10 )v1 + (ka2 + k 0 a20 )v2 + . . . + (kan + k 0 an0 )vn .

Quindi kw + k 0 w 0 ∈ L(I) , essendo combinazione lineare dei vettori v1 , . . . , vn , e questo L(v1 , . . . , vn ) = V .


conclude la dimostrazione. 
Esempio: R2 e M2 (R) sono finitamente generati (vedere esempio slide nr. 4).
Nota: L(I) è detto spazio generato dai vettori v1 , . . . , vn , o anche spazio generato
dall’insieme I. I vettori v1 , . . . , vn si diranno generatori di L(I). Teorema
Lo spazio R[x] non è finitamente generato.
Esercizio
Siano v1 = (1, 0, −1) e v2 = (2, 0, 0). Provare che L(v1 , v2 ) ( R3 . Dimostrazione. Per assurdo, supponiamo che esista un insieme finito di generatori
I = {P1 (x), P2 (x) . . . , Pn (x)}, e sia d il grado del polinomio di grado massimo.
Soluzione. Qualunque combinazione lineare di v1 e v2 ha la seconda componente uguale a
Allora xd+1 ∈ / L(I) ed L(I) è un sottoinsieme proprio di R[x], contraddicendo l’ipotesi. 
zero. Quindi, ad esempio, (0, 1, 0) ∈ R3 non appartiene a L(v1 , v2 ). X
5 / 24 6 / 24

Insiemi liberi e legati [Abate, §4.3] Esempio


In R3 , siano
Osservazione: Aggiungendo ad un insieme I di vettori di V una qualsiasi loro v1 = (1, −4, 6) , v2 = (9, −1, −1) , v3 = (3, 2, −4) .
combinazione lineare non si cambia lo spazio da essi generato:
L’insieme I = { v1 , v2 , v3 } è legato, infatti 3v1 − 2v2 + 5v3 = 0R3 .

v ∈ L(I) ⇒ L I ∪ { v } = L(I) .
Esempio
E’ naturale cercare un insieme minimo di generatori. A questo scopo è introdotta la In R2,3 , consideriamo matrici:
nozione di dipendenza/indipendenza lineare. " # " # " #
6 0 −12 4 2 −7 0 6 3
A= , B= , C= .
Definizione 4 8 −5 3 5 −2 1 −1 4
Un insieme I = { v1 , . . . , vn } ⊂ V si dice libero, ed i suoi vettori si dicono linearmente L’insieme I = {A, B, C} è legato, in quanto: 2A − 3B + C = 0R2,3 .
indipendenti, se
Esempio
a1 v 1 + a2 v 2 + . . . + an v n = 0 ⇐⇒ a1 = a2 = . . . = an = 0 ,
In R[x], consideriamo i polinomi:
ovvero se l’unica loro combinazione lineare che dà il vettore nullo è quella banale, con tutti i
P1 (x) = x3 + 7x2 + 9x + 3 , P2 (x) = 4x3 + x − 2 , P3 (x) = 6x3 − 2x2 − x − 4 .
coefficienti uguali a zero. In caso contrario, l’insieme I si dirà legato ed i sui vettori si diranno
linearmente dipendenti. L’insieme I = {P1 (x), P2 (x), P3 (x)} è legato, in quanto: 2P1 (x) − 11P2 (x) + 7P3 (x) = 0 .

7 / 24 8 / 24
Osservazioni Proposizione
I se 0 ∈ I, allora I è legato (infatti a1 0 + 0v1 + 0v2 + . . . + 0vn = 0 anche se a1 6= 0); Sia n > 2. Un insieme I = { v1 , . . . , vn } è libero se e solo se nessun suo elemento si può
I se I è libero e I 0 ⊆ I, allora I 0 è libero; scrivere come combinazione lineare dei rimanenti vettori di I.

I se I è legato e I 0 ⊇ I, allora I 0 è legato. Dimostrazione. Se I è legato, allora esistono a1 , . . . , an ∈ R non tutti nulli tali che
a1 v1 + a2 v2 + . . . + an vn = 0. Da questo ricaviamo, se a1 6= 0:
Iniziamo a studiare i casi più semplici. Sia I = { v1 } un insieme formato da un solo vettore
1 
v1 ∈ V . Se v1 = 0 l’insieme è legato. Se v1 6= 0, per la legge di annullamento del prodotto v1 = − a2 v 2 + . . . + an v n .
a1
a1 v1 = 0 implica a1 = 0, quindi I è libero.
Più in generale se ai 6= 0, vi si può scrivere come combinazione dei rimanenti vettori di I.
I = { v1 } è legato se e solo se v1 = 0. Siccome almeno un coefficiente è non nullo per ipotesi, questo prova “⇐” .

Definizione/Osservazione. Viceversa, immaginiamo per ipotesi che un vettore di I si possa scrivere come
Due vettori v, w ∈ V si dicono proporzionali se esiste k ∈ R tale che v = kw oppure combinazione lineare dei rimanenti, sia esso ad esempio v1 :
w = kv. Il vettore nullo è proporzionale ad ogni altro vettore (0 = 0v ∀ v ∈ V ).
v1 = b 2 v2 + b 3 v3 + . . . + b n v n , con b2 , . . . , bn ∈ R .
Sia I = { v1 , v2 } un insieme di due vettori di V . Allora:
Allora posto a1 = 1 e ai = −bi ∀ i > 2, si ha
I = { v1 , v2 } è legato ⇐⇒ i due vettori v1 e v2 sono proporzionali.
a1 v1 + a2 v2 + . . . + an vn = 0 .
Questo è un caso particolare della proposizione seguente. . .
Poichè almeno un coefficiente è non nullo (a1 = 1), l’insieme I è legato. 
9 / 24 10 / 24

Teorema
Esercizio
I = { v1 , . . . , vn } è libero ⇐⇒ v1 6= 0 e, ∀ 2 6 i 6 n, si ha vi ∈
/ L(v1 , v2 , . . . , vi−1 ) .
Dire se i seguenti vettori di R3 sono linearmente indipendenti:
Dimostrazione. “⇒” segue dalla proposizione precedente. Dimostriamo “⇐”.
v1 = (1, −5, −2) v2 = (3, 5, 4) v3 = (6, 0, 3)
Per assurdo, immaginiamo si possano scegliere a1 , . . . , an non tutti nulli tali che

In caso negativo, esprimere uno di essi come combinazione lineare degli altri due. a1 v1 + a2 v2 + . . . + an vn = 0 . (?)

Se an 6= 0, possiamo scrivere vn come combinazione lineare dei primi n − 1 vettori,


Esercizio
contraddicendo l’ipotesi. Deve essere quindi an = 0, e da (?) si ricava
Studiare la dipendenza/indipendenza lineare dei seguenti vettori di R2 :
a1 v1 + a2 v2 + . . . + an−1 vn−1 = 0 .
v1 = (2, 1) , v2 = (1, −1) , v3 = (4, 2) .
Ripetendo lo stesso ragionamento, siccome vn−1 non può essere combinazione lineare
Se risultano linearmente dipendenti esprimere, quando è possibile, primi n − 2 vettori, deve essere necessariamente an−1 = 0, e:
• v1 come combinazione lineare di v2 e v3 ;
a1 v1 + a2 v2 + . . . + an−2 vn−2 = 0 .
• v2 come combinazione lineare di v1 e v3 ;
Iterando il ragionamento, si dimostra che a2 = a3 = . . . = an = 0 e che a1 v1 = 0 .
• v3 come combinazione lineare di v1 e v2 .
Siccome per ipotesi v1 6= 0, per la legge di annullamento del prodotto anche a1 = 0.
L’insieme I è quindi libero. 
11 / 24 12 / 24
Basi e componenti Osservazione: lo spazio V = {0} che ha come unico elemento il vettore nullo non possiede
nessuna base (ogni sottoinsieme non vuoto di V è legato).
Definizione
Una base B = (v1 , . . . , vn ) di V è un insieme libero e ordinato di generatori. Esempio
Per ogni 1 6 i 6 m e 1 6 j 6 n, sia
Esempio
Eij ∈ Rm,n
Per ogni 1 6 i 6 n, sia
i−1 volte n−i volte
z }| { z }| { la matrice che ha 1 in posizione (i, j) e tutti gli altri elementi uguali a zero. Per ogni matrice
ei = ( 0, . . . , 0 , 1, 0, . . . , 0 ) A = (aij ) ∈ Rm,n vale l’identità
la n-upla con i-esima componente uguale a 1 e tutte le altre uguali a zero. X
A= aij Eij . (??)
Per ogni v = (a1 , . . . , an ) ∈ R vale l’identità
n
i=1,...,m
j=1,...,n
v = a1 e1 + a2 e2 + . . . + an en . (?)
Questo prova che le matrici Eij sono generatori di Rm,n . Inoltre la combinazione lineare
Questo prova che i vettori ei sono generatori di Rn . Inoltre la combinazione lineare (?) è (??) è nulla solo se aij = 0 per ogni i, j. Quindi le matrici Eij formano una base
nulla solo se a1 = a2 = . . . = an = 0, quindi i vettori formano una base
B = (E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn )
B = (e1 , e2 , . . . , en )
detta base canonica di Rm,n .
detta base canonica di Rn .
13 / 24 14 / 24

Esempio
Basi e sistemi di riferimento [Abate, §2.2]
L’insieme
B = (1, x, x2 , . . . , xn )
Si dice versore di una retta orientata r il vettore libero di modulo 1 avente la stessa
è una base per lo spazio Rn [x]. direzione e lo stesso verso di r.

Esempio Nel piano, scegliamo un sistema di riferimento e indichiamo con ı̂ e ̂ i versori degli assi,
Siano v1 = (1, 1), v2 = (1, 0) e v3 = (0, 1). L’insieme (v1 , v2 , v3 ) contiene la base canonica, che rappresentiamo applicati nell’origine.
quindi genera R . Non è però una base, in quanto v1 = v2 + v3 ed i vettori non sono
2

linearmente indipendenti. Ogni vettore libero P − O si può scrivere nella


P
forma y̂

Esempio P − O = xı̂ + y̂


Abbiamo visto che i vettori v1 = (1, 1) e v2 = (1, −1) generano R2 . Siccome nessuno dei ̂
dove (x, y) sono le coordinate di P.
due è proporzionale all’altro, l’insieme
 L’insieme
B = v1 , v2 O ı̂ xı̂
B = (ı̂,̂)
è una base di R2 .
è libero (P − O = 0 ⇐⇒ x = y = 0), quindi è una base di V2 .
Osservazione
Per costruzione, se I = (v1 , . . . , vn ) è libero, allora è una base dello spazio L(I). Nello spazio tridimensionale, i tre versori degli assi ı̂,̂, κ̂ formano una base di V3 .
15 / 24 16 / 24
Teorema (Caratterizzazione di una base) Dimostrazione del Teorema.
B = (v1 , . . . , vn ) è una base di V se e solo se ogni w ∈ V si può scrivere in un unico modo
“⇒” Sia B = (v1 , . . . , vn ) una base di V . Se
come combinazione lineare
w = a1 v 1 + a2 v 2 + . . . + an v n
w = a1 v1 + a2 v2 + . . . + an vn (†)
= a10 v1 + a20 v2 + . . . + an0 vn ,
dei vettori di B.
allora
Definizione/Osservazione (a1 − a10 )v1 + (a2 − a20 )v2 + . . . + (an − an0 )vn = w − w = 0 .
Il coefficiente ai in (†) si dice componente i-esima di w nella base B.
Per definizione di base, v1 , . . . , vn sono linearmente indipendenti, e quindi deve essere
Fissata una base ogni vettore è univocamente determinato dalle sue componenti.
a1 − a10 = a2 − a20 = . . . = an − an0 = 0. Se ne deduce che w si può scrivere in un unico
Esempio modo come combinazione lineare dei vettori v1 , . . . , vn .
Siano “⇐” Supponiamo che ogni v ∈ V si possa scrivere in uno e un solo modo come
w = (w1 , . . . , wn ) ∈ Rn , A = (aij ) ∈ Rm,n . combinazione lineare dei vettori v1 , . . . , vn . Allora B genera V . Inoltre

Allora wi è la è la i-esima componente di w nella base canonica di Rn , mentre aij sono le b 1 v1 + b 2 v2 + . . . + b n v n = 0


componenti di A nella base canonica di R m,n
.
se e solo se b1 = b2 = . . . = bn = 0, altrimenti si avrebbero due modi differenti di scrivere
Se P−O ∈ V2 è un vettore libero, le sue componenti nella base B = (ı̂,̂) sono le coordinate 0 come combinazione lineare dei vettori v1 , . . . , vn , contraddicendo l’ipotesi di partenza.
del punto P nel sistema di riferimento corrispondente. Se ne deduce che B è libero, e quindi una base. 
17 / 24 18 / 24

Esercizio
Lemma di Steinitz
In R2 , detti
Sia A = { v1 , v2 , . . . , vn } un insieme di generatori di V e B = { w1 , w2 , . . . , wk } un insieme
v1 = (1, 1) , v2 = (1, −1) ,
libero. Allora k 6 n.
determinare le componenti del vettore u = (2, 1) nella base B = (v1 , v2 ).
Dimostrazione (per assurdo). Supponiamo k > n. Dato che A è un insieme di generatori di
Soluzione. Per definizione le componenti a1 , a2 ∈ R del vettore u nella base B si V , w1 si può scrivere come combinazione lineare dei vettori di A:
ottengono imponendo l’uguaglianza
w1 = a1 v1 + a2 v2 + . . . + an vn
u = a1 v1 + a2 v2
I coefficienti ai non possono essere tutti nulli, poichè B è libero e quindi w1 6= 0. Senza
ovvero scrivendo i vettori in colonna perdere generalità, supponiamo a1 6= 0. Allora
     
2 1 1
= a1 + a2 v1 = a−1
1 1 −1 1 (w1 − a2 v2 − . . . − an vn ) .

Si ottiene in questo modo un sistema di due equazioni nelle incognite a1 , a2 , Pertanto anche A1 = {w1 , v2 , . . . , vn } è un insieme di generatori di V . Possiamo scrivere

a1 + a2 = 2 w2 come combinazione lineare dei vettori di A1 :
a1 − a2 = 1
w2 = b1 w1 + b2 v2 + b3 v3 + . . . + bn vn
la cui soluzione è unica e data da
3 1 ed i coefficienti b2 , . . . , bn non possono essere tutti zero, perché altrimenti w2 sarebbe
a1 = , a2 = .
2 2 proporzionale ad w1 , contraddicendo l’ipotesi che B è un insieme libero.
X . . . continua.
19 / 24 20 / 24
Lemma di Steinitz Equipotenza delle basi
Sia A = { v1 , v2 , . . . , vn } un insieme di generatori di V e B = { w1 , w2 , . . . , wk } un insieme Se B = (v1 , v2 , . . . , vn ) e B 0 = (w1 , w2 , . . . , wk ) sono due basi di uno stesso spazio
libero. Allora k 6 n. vettoriale V , allora k = n.

Dimostrazione (2a parte). Senza perdere generalità, supponiamo b2 6= 0. Allora Dimostrazione. Per ipotesi, B ed B 0 sono basi, ovvero insiemi liberi di generatori.

v2 = b−1
2 (w2 − b1 w1 − b3 v3 − . . . − bn vn ) .
Siccome B 0 è libero e B genera V dal lemma di Steinitz segue che k 6 n.
Siccome B è libero e B 0 genera V dal lemma di Steinitz segue che n 6 k.
Pertanto anche A2 = {w1 , w2 , v3 , . . . , vn } è un insieme di generatori di V .
Quindi k = n. 
Con lo stesso ragionamento, dopo n passi, si arriva a sostituire v3 con w3 , v4 con w4 , . . . ,
Osservazione
vn con wn . Si dimostra in questo modo che i primi n vettori dell’insieme libero B danno un
insieme An = { w1 , w2 , . . . , wn } di generatori di V . Tutte le basi di V hanno lo stesso numero di elementi; tale numero è detto dimensione di V
ed indicato con “ dim(V) ”. Per convenzione dim({0}) = 0.
Se k > n, i restanti vettori wn+1 , . . . wk si possono scrivere come combinazione lineare
dei vettori di An , contraddicendo l’ipotesi che B è un insieme libero. Teorema
Deve essere quindi k 6 n. 
dim(Rn ) = n dim(Rm,n ) = m · n dim(V2 ) = 2 dim(V3 ) = 3

Dimostrazione. Contare gli elementi delle basi canoniche (cf. slide 13, 14, 16). 
21 / 24 22 / 24

Esempio
A partire da un insieme di generatori di uno spazio vettoriale V è sempre possibile di
estrarre una base. Più precisamente, se Sia

 I = v1 = (1, 1) , v2 = (1, 0) , v3 = (0, 1)
I = u1 , . . . , uk
Abbiamo visto (secondo esempio, slide 15) che I genera R2 ma non è libero. Applicando
è un insieme di generatori di V , possiamo trovare una base B ⊆ I utilizzando il
/ L(v1 ), si ha
il metodo degli scarti successivi, poichè I non contiene il vettore nullo e v2 ∈
I2 = I1 = I. Poiché v3 = v1 −v2 , allora I3 = Ir{ v3 } ed una base estratta da I è B = (v1 , v2 ).
Metodo degli scarti successivi
Sia I1 l’insieme ottenuto da I rimuovendo eventualmente il vettore nullo.
Osservazione
Se u2 ∈ L(u1 ) chiamiamo I2 = I1 r { u2 } (“scartiamo” u2 ), altrimenti I2 = I1 (teniamo u2 ).
Notiamo che cambiando l’ordine dei vettori dell’insieme I di partenza, cambia la base
Se u3 ∈ L(u1 , u2 ) chiamiamo I3 = I2 r { u3 }, altrimenti I3 = I2 . estratta. Nel precedente esempio, applicando il metodo degli scarti successivi all’insieme
Iterando il procedimento (controllando tutti i vettori dell’insieme I fino all’ultimo) si (v2 , v3 , v1 ) la base estratta è quella canonica B = (v2 , v3 ).
costruisce una sequenza
I ⊇ I1 ⊇ I2 ⊇ . . . ⊇ Ih Esercizio
dove h 6 k è il numero di vettori non nulli di I, Ii = Ii−1 r {ui } se ui ∈ L(u1 , . . . , ui−1 ) e Sia W = L(v1 , v2 , v3 ) il sottospazio di R3 generato dai vettori
Ii = Ii−1 in caso contrario. Per l’osservazione nella slide 7, si ha
v1 = (0, 1, 1) , v2 = (1, 0, 3) , v3 = (1, −3, 0) .
V = L(I) = L(I1 ) = L(I2 ) = . . . = L(Ih ) .
Estrarre una base di W dall’insieme I = (v1 , v2 , v3 ). Determinare la dimensione di W .
Ih genera V ed è libero (per il teorema nella slide 12), quindi una base di V .
23 / 24 24 / 24
Metodo del completamento ad una base [Abate, Teorema 4.10] Osservazioni su basi e dimensione
Sia B = (v1 , . . . , vn ) una base di uno spazio vettoriale V e I = { u1 , . . . , uk } un insieme
libero. Applicando il metodo degli scarti successivi all’insieme di generatori Con il metodo degli scarti successivi possiamo trovare una base di qualunque spazio
V 6= {0} finitamente generato. Quindi:
I 0 = (u1 , . . . , uk , v1 , . . . , vn )
V 6= {0} è finitamente generato ⇐⇒ esiste una base di V .
i primi k vettori non vengono scartati, perché linearmente indipendenti per ipotesi. Come
risultato, si ottiene una nuova base B 0 contenente tutti i vettori dell’insieme I. Proprietà della dimensione. Se dim(V) = n:

• ogni insieme di generatori di V ha almeno n elementi; (Lemma di Steinitz)


Esercizio. Completare ad una base di R3 l’insieme
 • ogni insieme libero di V ha al più n elementi; (Lemma di Steinitz)
I= u1 = (1, 1, 1) , u2 = (0, 1, 1)
• un insieme di n generatori è una base di V ;
Teorema. Sia V uno spazio finitamente generato e W ⊆ V un sottospazio. Allora (con il metodo degli scarti successivi si estrae una base da I “scartando” 0 vettori)

i) dim(W) 6 dim(V) ii) dim(W) = dim(V) ⇐⇒ W = V • un insieme libero con n elementi è una base di V .
(si può completare I ad una base aggiungendo 0 vettori)
Dimostrazione. Sia B una base di W . i) Siccome B è un insieme libero di V , il numero
k := dim W di elementi di B non può essere maggiore di n := dim(V). ii) Si completa B ad In particolare, per sapere se un insieme libero è una base basta contarne gli elementi.
una base di V aggiungendo n − k elementi. Se n = k, B è base di V , e W = L(B) = V . 
1 / 28 2 / 28

Esercizio Proposizione
Sia V uno spazio di dimensione 2. i) Elencare tutti i sottospazi di V . ii) Provare che se Le righe non nulle di una matrice ridotta per righe sono linearmente indipendenti.
W ⊆ R è un sottospazio non banale, allora è una retta passante per l’origine.
2
Dimostrazione.
Soluzione. Se W ⊆ V e dim(V) = 2, allora dim(W) ∈ {0, 1, 2}. Se dim(W) = 0, allora I Sia A ∈ Rk,n ridotta per righe. E’ sufficiente dare la dimostrazione quando tutte le righe
W = {0V }. Se dim(W) = 2, allora W = V . Se dim(W) = 1, allora W è generato da un di A sono non nulle. Siano v1 , v2 , . . . , vk ∈ Rn le righe di A numerate dal basso verso
singolo vettore non nullo: W = L(w) con w = (w1 , w2 ). Detto a := −w2 e b := w1 , si l’alto: vk la prima, vk−1 la seconda, etc.
verifica che (x, y) ∈ W se e solo se ax + by = 0. X
I Per assurdo, immaginiamo che
Esercizio
vk = b1 v1 + b2 v2 + . . . + bk−1 vk−1 , b1 , . . . , bk−1 ∈ R. (?)
Siano A e B le matrici
" #
  Sia a1p il pivot della prima riga (1 6 p 6 n). Allora la componente p-esima di vk è a1p ,
0 1 1
1 2 3   e la componente p-esima di vi è zero ∀ 1 6 i 6 k − 1. Da (?) segue che
A= B = 2 0 −3
0 4 6
2 3 0 a1p = b1 0 + b2 0 + . . . + bk−1 0 = 0
a) Dire se le righe di A sono vettori linearmente indipendenti di R3 .
contraddicendo l’ipotesi che a1p fosse un pivot. Quindi vk ∈
/ L(v1 , . . . , vk−1 ).
b) Dire se le colonne di A sono vettori linearmente indipendenti di R2 .
I Poiché eliminando la riga vk da A si ottiene una matrice ancora ridotta per righe, con
c) Dire se le righe di B sono vettori linearmente indipendenti di R3 .
righe v1 , v2 , . . . , vk−1 tutte non nulle, per induzione si prova che, ∀ 2 6 i 6 k, si ha
d) Dire se le colonne di B sono vettori linearmente indipendenti di R3 . / L(v1 , . . . , vi−1 ). Quindi l’insieme I = {v1 , v2 , . . . , vk } è libero.
vi ∈ 
3 / 28 4 / 28
Determinare una base per riduzione Esercizio
Determinare una base del sottospazio W ⊆ R3 generato dai vettori

v1 = (1, 0, −2) , v2 = (−1, 1, 3) , v3 = (2, 1, −3) .


Osservazione
Siano A, A 0 ∈ Rk,n . Se A 0 è ottenuta da A usando una delle tre operazioni elementari, le
Soluzione. Scriviamo la matrice
righe di A 0 e le righe di A generano lo stesso sottospazio di Rn .    
v1 1 0 −2
   
A =  v2  = −1 1 3
Il metodo di riduzione di una matrice può essere usato per trovare una base di uno spazio
 v3 2 1 −3
W ⊆ Rn a partire da un insieme v1 , . . . , vk di generatori:
e riduciamola per righe. Si ottiene:
1 Si scrivono i vettori v1 , . . . , vk ∈ Rn come righe di una matrice A ∈ Rk,n ;    
1 0 −2 1 0 −2
R2 →R2 +R1   R3 →R3 −R2  
2 Si trasforma A in una matrice A 0 ridotta per righe usando l’operazione elementare A −−−−−−−−→ 0 1 1 −−−−−−−→ 0 1 1 = A 0
R3 →R3 −2R1
(III 0 ). Le righe di A e di A 0 generano lo stesso sottospazio W di Rn . 0 1 1 0 0 0
Una base di W è data dalle righe non nulle di A 0 , quindi
3 Le righe non nulle di A 0 , essendo linearmente indipendenti, formano una base di W .
w1 = (1, 0, −2) , w2 = (0, 1, 1) . X
4 La dimensione di W è data dal numero di righe non nulle di A 0 .
Osservazione: siccome dim(W) = 2, l’insieme { v1 , v2 , v3 } è legato (è un insieme di
generatori, ma non una base di W ).
5 / 28 6 / 28

Esercizio d’esame Esercizio d’esame


Nello spazio vettoriale R4 si considerino i seguenti sottospazi: Nello spazio vettoriale R4 si considerino i seguenti sottospazi:
 
V := L (1, 1, 3, −1) , (3, 2, 6, 0) , (6, 2, 6, 6) , (5, 2, 6, 4) , V := L (1, 1, 3, −1) , (3, 2, 6, 0) , (6, 2, 6, 6) , (5, 2, 6, 4) ,
 
W := (x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 − x3 = x1 − x3 + x4 = 0 . W := (x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 − x3 = x1 − x3 + x4 = 0 .

Si determini una base per ciascuno dei sottospazi: V , W , V + W , V ∩ W . Si determini una base per ciascuno dei sottospazi: V , W , V + W , V ∩ W .

Soluzione: 1a parte, base di V . Soluzione: 1a parte, base di V .


Scrivendo i generatori di V come righe di una matrice e riducendo per righe si ottiene: Trasformiamo la matrice trovata in una fortemente ridotta:

           
1 1 3 −1 1 1 3 −1 1 1 3 −1 1 1 3 −1 1 1 3 −1 0 1 3 −3
3 3     0 2
 2 6 0 3
 R3 →R3 +6R1  2 6 0 3
 R3 →R3 −4R2  2 6 0  2 6 0 R2 →R2 −2R1 1 0 0 2 R1 →R1 −R2 1 0 
  −−−−−−−−→   −−−−−−−−→     −−−−−−−−→   −−−−−−−→  
6 2 6 6 R4 →R4 +4R1 12 8 24 0 R4 →R4 −3R2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
5 2 6 4 9 6 18 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

Le righe non nulle della matrice trovata formano una base di V , che conviene però Una base di V è quindi data dai due vettori
semplificare ulteriormente usando le tre operazioni elementari (questo faciliterà la
v1 = (0, 1, 3, −3) , v2 = (1, 0, 0, 2) .
soluzione dell’ultima parte dell’esercizio: trovare una base di V ∩ W ).
7 / 28 8 / 28
Esercizio d’esame Esercizio d’esame
Nello spazio vettoriale R4 si considerino i seguenti sottospazi: Nello spazio vettoriale R4 si considerino i seguenti sottospazi:
 
V := L (1, 1, 3, −1) , (3, 2, 6, 0) , (6, 2, 6, 6) , (5, 2, 6, 4) , V := L (1, 1, 3, −1) , (3, 2, 6, 0) , (6, 2, 6, 6) , (5, 2, 6, 4) ,
 
W := (x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 − x3 = x1 − x3 + x4 = 0 . W := (x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 − x3 = x1 − x3 + x4 = 0 .

Si determini una base per ciascuno dei sottospazi: V , W , V + W , V ∩ W . Si determini una base per ciascuno dei sottospazi: V , W , V + W , V ∩ W .

Soluzione: 2a parte, base di W . Soluzione: 3a parte, base di V + W .


Risolviamo per eliminazione il sistema che definisce W : Lo spazio V + W è generato dai vettori v1 , v2 , w1 , w2 . Per riduzione si ottiene:
        
x1 + x2 − x3 = 0 E2 →E2 −E1 x1 + x2 − x3 = 0 x3 = x1 + x2 w1 1 0 1 0 1 0 1 0
−−−−−−−→ =⇒ w   0
x1 − x3 + x4 = 0 −x2 + x4 = 0 x4 = x2  2  1 1 1 
 R4 →R4 −R1 0 1 1 1

 =  −−−−−−−→  
 v1  0 1 3 −3 0 1 3 −3
La soluzione generale dipende quindi da due parametri t1 , t2 ∈ R:
v2 1 0 0 2 0 0 −1 2
(x1 , x2 , x3 , x4 ) = (t1 , t2 , t1 + t2 , t2 ) = t1 (1, 0, 1, 0) + t2 (0, 1, 1, 1) .    
1 0 1 0 1 0 1 0
 1 1 1  1 1
I due vettori (ottenuti scegliendo rispettivamente (t1 , t2 ) = (1, 0) e (t1 , t2 ) = (0, 1)): R3 →R3 −R2 0  R4 →R4 + 21 R3 0 1 
−−−−−−−→   −−−−−−−−→  
0 0 2 −4 0 0 2 −4
w1 = (1, 0, 1, 0) , w2 = (0, 1, 1, 1) ,
0 0 −1 2 0 0 0 0
generano W , ed essendo linearmente indipendenti formano una base. Una base di V + W è quindi data dai tre vettori (1, 0, 1, 0), (0, 1, 1, 1), (0, 0, 2, −4).
9 / 28 10 / 28

Esercizio d’esame Applicazioni lineari [Abate, §5]


Nello spazio vettoriale R4 si considerino i seguenti sottospazi:
 Definizione [Abate, def. 5.2]
V := L (1, 1, 3, −1) , (3, 2, 6, 0) , (6, 2, 6, 6) , (5, 2, 6, 4) , Una applicazione f : V → W fra due spazi vettoriali V e W si dice lineare se per ogni

W := (x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 − x3 = x1 − x3 + x4 = 0 . v1 , v2 ∈ V e λ1 , λ2 ∈ R si ha

Si determini una base per ciascuno dei sottospazi: V , W , V + W , V ∩ W . f(λ1 v1 + λ2 v2 ) = λ1 f(v1 ) + λ2 f(v2 ) .

Soluzione: 4a parte, base di V ∩ W . Un vettore u appartiene a V se e solo se è Nel caso in cui V = W , l’applicazione f è detta endomorfismo di V .
combinazione lineare dei suoi vettori di base v1 e v2 , quindi
Osservazione
u = y1 v1 + y2 v2 = ( y2 , y1 , 3y1 , −3y1 + 2y2 ) . Una applicazione f : V → W è lineare se e solo se è:

i) additiva: f(v1 + v2 ) = f(v1 ) + f(v2 ) ∀ v1 , v2 ∈ V ;


Si ha u ∈ W se e solo le componenti di u risolvono le equazioni di W . Sostituendo
(x1 , x2 , x3 , x4 ) ( y2 , y1 , 3y1 , −3y1 + 2y2 ) nel sistema, si ottengono le condizioni ii) omogenea di 1◦ grado: f(λv) = λf(v) ∀ λ ∈ R, v ∈ V .

x1 + x2 − x3 = −2y1 + y2 = 0
Esempi
x1 − x3 + x4 = −6y1 + 3y2 = 0
1 f : R → R, f(x) = x è lineare. 3 f : R2 → R, f(x, y) = x + 2y è lineare.
la cui soluzione è y2 = 2y1 . Scegliendo y1 = 1 si ottiene una base di V ∩ W , data dal
2 f : R → R, f(x) = x2 non è lineare. 4 f : R → R2 , f(x) = (3x, x) è lineare.
vettore u = v1 + 2v2 = (2, 1, 3, 1). X
11 / 28 12 / 28
Definizione [Abate, def. 5.1] Proposizione
Ad ogni A ∈ R k,n
è associata una applicazione LA : R → R , data dal prodotto righe per
n k
Sia f : V → W una applicazione lineare. Allora:
colonne: 1. f(0V ) = 0W .
 
a11 x1 + a12 x2 + . . . + a1n xn
  2. per ogni n > 1, per ogni v1 , . . . , vn ∈ V e per ogni λ1 , . . . , λn ∈ R, si ha
 a21 x1 + a22 x2 + . . . + a2n xn 
 
LA (x) := A · x = 
 ..

 f(λ1 v1 + λ2 v2 + . . . + λn vn ) = λ1 f(v1 ) + λ2 f(v2 ) + . . . + λn f(vn ) .
 . 
 
ak1 x1 + ak2 x2 + . . . + akn xn
Dimostrazione punto 1. Dall’omogeneità di 1◦ grado, applicata nel caso particolare in cui
per ogni x = (x1 , . . . , xn ) ∈ R . (Per comodità, scriviamo le n-uple in una colonna.)
t n
λ = 0 e v = 0V si ottiene

f(0V ) = f(0 · 0V ) = 0 · f(0V ) = 0W . 


Proposizione
Per ogni A ∈ Rk,n , l’applicazione LA è lineare. Esempio
L’applicazione f : R → R data da f(x) = x + 2 non è lineare, in quanto f(0) 6= 0.
Dimostrazione. Se v e w sono due vettori di Rn (scritti come vettori colonna) e a, b ∈ R, L’applicazione g : R2 → R3 data da
allora dalla proprietà distributiva del prodotto righe per colonne segue che
g(x, y) = (1, x, y + 1)
LA (av + bw) = A · (av + bw) = a(Av) + b(Aw) = a LA (v) + b LA (w)
 non è lineare, in quanto g(0, 0) = (1, 0, 1) 6= (0, 0, 0).
13 / 28 14 / 28

Proposizione
Proposizione
Per ogni applicazione lineare f : Rn → Rk esiste una (e una sola) matrice A ∈ Rk,n , detta
Sia f : V → W una applicazione lineare. Allora:
matrice rappresentativa di f rispetto alle basi canoniche di Rn ed Rk , tale che f = LA .
1. f(0V ) = 0W .
Dimostrazione. Per convenienza di notazione, scriviamo i vettori di Rn e di Rk in una
2. per ogni n > 1, per ogni v1 , . . . , vn ∈ V e per ogni λ1 , . . . , λn ∈ R, si ha
colonna. Sia (e1 , . . . , en ) la base canonica di Rn , ed (e10 , . . . , ek0 ) la base canonica di Rk
f(λ1 v1 + λ2 v2 + . . . + λn vn ) = λ1 f(v1 ) + λ2 f(v2 ) + . . . + λn f(vn ) . (con un apice per distinguerla dalla prima). Per definizione di base, è possibile scrivere (in
un unico modo) f(ej ) ∈ Rk come combinazione lineare:

Dimostrazione punto 2 (per induzione). L’affermazione per n = 1 è semplicemente f(ej ) = a1j e10 + a2j e20 + . . . + akj ek0 ⇐=
l’omogeneità di 1 grado dell’applicazione: f(λ1 v1 ) = λ1 f(v1 ).

Detta A ∈ Rk,n la matrice di elementi aij , per ogni n-upla
Se (ipotesi induttiva) l’affermazione al punto 2 è vera per un qualche valore di n > 1, allora n
X
è vera anche per n + 1. Detto infatti v 0 = λ1 v1 + λ2 v2 + . . . + λn vn si ha x = t (x1 , x2 , . . . , xn ) = xj ej
j=1
f(λ1 v1 + λ2 v2 + . . . + λn vn + λn+1 vn+1 ) = f(v 0 + λn+1 vn+1 ) di Rn , dalla linearità di f segue che:
 
= f(v 0 ) + λn+1 f(vn+1 ) = λ1 f(v1 ) + λ2 f(v2 ) + . . . + λn f(vn ) + λn+1 f(vn+1 ) , a11 x1 + a12 x2 + . . . + a1n xn
Xn Xn Xk  a21 x1 + a22 x2 + . . . + a2n xn 
 
dove la seconda uguaglianza segue dalla definizione di applicazione lineare e la terza f(x) = xj f(ej ) = xj aij ei0 = 
 .  = LA (x) .

 . 
.
dall’ipotesi induttiva.  j=1 j=1 i=1
ak1 x1 + ak2 x2 + . . . + akn xn

15 / 28 16 / 28
Definizione Esercizio

Siano V e W due spazi vettoriali, B = (v1 , . . . , vn ) una base di V e B 0 = (w1 , . . . , wk ) Siano B = (v1 , v2 ) e B 0 = (w1 , w2 ) le basi di R2 formate dai vettori seguenti, ed f = LA :
una base di W . Data una app. lineare f : V → W , chiamiamo matrice rappresentativa di f R2 → R2 l’applicazione lineare associata alla matrice seguente:
rispetto alle basi B e B 0 la matrice A = (aij ) ∈ Rk,n determinata da      
1 1 1 2
v1 = w1 = , v2 = w2 = , A= .
f(vj ) = a1j w1 + a2j w2 + . . . + akj wk ∀ j = 1, . . . , n 1 −1 3 4

Determinare la matrice rappresentativa di f, sia essa A 0 , rispetto alle basi B e B 0 .


La j-esima colonna di A ha per elementi le componenti del vettore f(vj ) nella base B 0 .
Soluzione.
Per definizione di base, la matrice rappresentativa di f è univocamente determinata.      
Usando la linearità di f, si verifica facilmente che le componenti di un vettore 3 1 1
f(v1 ) = A · v1 = =5 −2 = 5v1 − 2v2
7 1 −1
u = x1 v1 + x2 v2 + . . . + xn vn  
−1
f(v2 ) = A · v2 = = −1v1 + 0v2
e le componenti della sua immagine, qui indicate con yj : −1

f(u) = y1 w1 + y2 w2 + . . . + yk wk Quindi la matrice A 0 è data da


" #
5 −1
sono legate dalla relazione A = 0
−2 0
y = Ax ,
Notiamo che la stessa applicazione lineare f è rappresentata da matrici differenti (in questo
con x = t (x1 , . . . , xn ) e y = t (y1 , . . . , yk ).
esempio A e A 0 ) in basi differenti. X
17 / 28 18 / 28

Nucleo, immagine e loro proprietà [Abate, §5.2] Teorema (Proprietà di nucleo e immagine)
Sia f : V → W una applicazione lineare. Allora:
Se S ⊆ V è un sottoinsieme ed f : V → W una applicazione, indichiamo con f(S) il
1. N(f) è un sottospazio di V ;
sottoinsieme di W dei vettori che sono immagine di (almeno) un vettore di S:
2. se S ⊆ V è un sottospazio, allora anche f(S) ⊆ W è un sottospazio;

f(S) := w = f(v) : v ∈ S . (f trasforma sottospazi in sottospazi; in particolare f(V) è un sottospazio di W )
3. se I è un insieme di generatori di S, allora f(I) è un insieme di generatori di f(S).
In particolare l’insieme Im(f) = f(V) è detto immagine dell’applicazione f. L’insieme
(f trasforma insiemi di generatori in insiemi di generatori)

N(f) := v ∈ V : f(v) = 0W
Dimostrazione punto 1. Siano λ1 , λ2 ∈ R e v1 , v2 ∈ N(f), ovvero v1 e v2 sono vettori di V
è detto nucleo di f.
che soddisfano
Esempio f(v1 ) = f(v2 ) = 0W .
Sia f : R → R l’applicazione f(x, y) := (x + y, x + y) .
2 2
Dalla linearità di f segue che:
Il nucleo di f è l’insieme delle coppie (x, y) che risolvono l’equazione x + y = 0. Quindi:
  f(λ1 v1 + λ2 v2 ) = λ1 f(v1 ) + λ2 f(v2 ) = λ1 0W + λ2 0W = 0W ,
N(f) = (t, −t) : t ∈ R = L (1, −1)
ovvero
L’immagine di f è l’insieme dei vettori w = (w1 , w2 ) ∈ R che hanno w1 = w2 . Quindi:
2
λ1 v1 + λ2 v2 ∈ N(f) .
 
Im(f) = (t, t) : t ∈ R = L (1, 1)
Per il criterio c) di sottospazio, N(f) è un sottospazio di V .
19 / 28 20 / 28
Teorema (Proprietà di nucleo e immagine) Teorema (Proprietà di nucleo e immagine)
Sia f : V → W una applicazione lineare. Allora: Sia f : V → W una applicazione lineare. Allora:

1. N(f) è un sottospazio di V ; 1. N(f) è un sottospazio di V ;


2. se S ⊆ V è un sottospazio, allora anche f(S) ⊆ W è un sottospazio; 2. se S ⊆ V è un sottospazio, allora anche f(S) ⊆ W è un sottospazio;
(f trasforma sottospazi in sottospazi; in particolare f(V) è un sottospazio di W ) (f trasforma sottospazi in sottospazi; in particolare f(V) è un sottospazio di W )
3. se I è un insieme di generatori di S, allora f(I) è un insieme di generatori di f(S). 3. se I è un insieme di generatori di S, allora f(I) è un insieme di generatori di f(S).
(f trasforma insiemi di generatori in insiemi di generatori) (f trasforma insiemi di generatori in insiemi di generatori)

Dimostrazione punto 2. Sia S ⊆ V un sottospazio, w1 , w2 ∈ f(S) e λ1 , λ2 ∈ R. Dimostrazione punto 3. Siano v1 , v2 , . . . , vn dei generatori di S.
Per definizione esistono v1 , v2 ∈ S tali che Per costruzione, per ogni w ∈ f(S) esiste v ∈ S tale che f(v) = w. Possiamo scrivere v
come combinazione lineare dei generatori di S:
w1 = f(v1 ) w2 = f(v2 )
v = λ1 v 1 + λ 2 v 2 + . . . + λ n v n ,
Dalla linearità di f segue che
con λ1 , . . . , λn ∈ R. Dalla linearità di f ricaviamo
w := λ1 w1 + λ2 w2 = λ1 f(v1 ) + λ2 f(v2 ) = f(λ1 v1 + λ2 v2 ) .
w = λ1 f(v1 ) + λ2 f(v2 ) + . . . + λn f(vn ) .
Siccome S è per ipotesi un sottospazio, allora v = λ1 v1 + λ2 v2 ∈ S , e quindi w = f(v)
appartiene f(S) (w è immagine tramite f di un vettore di S). Per il criterio c) di sottospazio, Siccome questo vale per ogni w ∈ f(S), i vettori f(v1 ), . . . , f(vn ) formano un insieme di
f(S) è un sottospazio di W . generatori di f(S). 
21 / 28 22 / 28

Osserviamo che per definizione f : V → W è suriettiva se e solo se Im(f) = W . Proposizione


Sia f : V → W applicazione lineare iniettiva. Se I = {v1 , v2 , . . . , vn } è un insieme di vettori
Proposizione 
di V linearmente indipendenti, allora f(I) = f(v1 ), f(v2 ), . . . , f(vn ) è un insieme di vettori
Una applicazione lineare f : V → W è iniettiva se e solo se N(f) = {0V }.
di W linearmente indipendenti.
(una applicazione lineare iniettiva trasforma insiemi liberi in insiemi liberi)
Dimostrazione. Ricordiamo che f è iniettiva se f(v) = f(v 0 ) se e solo se v = v 0 .
Se N(f) contiene un vettore v non nullo, allora f(v) = 0W = f(0V ) ed f non è iniettiva.
Dimostrazione. Indichiamo con wi l’immagine del vettore vi (per ogni 1 6 i 6 n):
Viceversa se N(f) = {0V }, allora il vettore
wi = f(vi )
f(v) − f(v 0 ) = f(v − v 0 )
Per assurdo, assumiamo che a1 w1 + a2 w2 + . . . + an wn = 0W per qualche scelta di
è nullo se e solo se
coefficienti non tutti nulli. Dalla linearità di f segue:
v − v 0 = 0V ,
f(a1 v1 + . . . + an vn ) = a1 f(v1 ) + . . . + an f(vn )
ovvero v = v 0 . Questo prova l’iniettività di f. 
= a1 w1 + . . . + an wn = 0W ,
Esempio
cioè a1 v1 + . . . + an vn ∈ N(f) . Siccome N(f) = {0V } (f è iniettiva), segue che
L’applicazione
f : R2 → R , f(x, y) = x + y a1 v1 + . . . + an vn = 0V

non è inettiva. Infatti il nucleo contiene vettori non nulli, come il vettore (1, −1). contraddicendo l’ipotesi che I fosse un insieme libero. 
23 / 28 24 / 28
Teorema della dimensione [Abate, Teorema 5.7]

Se V è finitamente generato ed f : V → W è una applicazione lineare, allora:


Una immediata conseguenza delle proposizioni precedenti è:
dim N(f) + dim Im(f) = dim(V) .
Corollario
Dimostrazione (1a parte). Se N(f) = {0V }, la dimostrazione è banale: dim N(f) = 0 e,
Se f : V → W applicazione lineare iniettiva e B = (v1 , v2 , . . . , vn ) è una base di V , allora
 poiché f è iniettiva, per quanto detto in precedenza dim Im(f) = dim(V) .
f(B) = f(v1 ), f(v2 ), . . . , f(vn ) è una base di Im(f) ⊆ W .
(una applicazione lineare iniettiva trasforma basi di V in basi di f(V)) Supponiamo che N(f) 6= {0V }. Indichiamo con n la dimensione di V , k la dimensione di
N(f) e sia (v1 , . . . , vk ) una base di N(f). Usando il metodo del completamento ad una
base, possiamo completare tale insieme ad una base
In particolare, se V è finitamente generato ed f : V → W è una applicazione lineare
iniettiva, allora: (v1 , . . . , vk , vk+1 , . . . , vn )
dim Im(f) = dim(V) di V . Osserviamo che f si annulla sui primi k vettori di base, e

Se V 6= {0V }, questa è una conseguenza del precedente corollario. w1 = f(vk+1 ) w2 = f(vk+2 ) ... wn−k = f(vn )
Se V = {0V } (quindi, non esiste una base di V ), allora Im(f) = {0W } e l’uguaglianza
diventa un banale 0 = 0. sono generatori di Im(f). Facciamo ora vedere che sono linearmente indipendenti, da cui
segue che sono una base di Im(f), e quindi la tesi

dim Im(f) = n − k = dim(V) − dim N(f) .


25 / 28 26 / 28

Teorema della dimensione [Abate, Teorema 5.7]


Corollari
Se V è finitamente generato ed f : V → W è una applicazione lineare, allora:
Sia f : V → W una applicazione lineare fra due spazi finitamente generati. Allora:
dim N(f) + dim Im(f) = dim(V) .
1. f suriettiva =⇒ dim(V) > dim(W) ;
2. f iniettiva =⇒ dim(V) 6 dim(W) ;
Dimostrazione (2a parte). Dalla linearità di f segue che
3. f biunivoca =⇒ dim(V) = dim(W) .
a1 w1 + a2 w2 + . . . + an−k wn−k = f(a1 vk+1 + a2 vk+2 + . . . + an−k vn )

per ogni a1 , . . . , an ∈ R. La precedente combinazione lineare è nulla se e solo se Dimostrazione.


l’argomento di f è un vettore del nucleo. Poiché (v1 , . . . , vk ) è una base di N(f) questo 1. Se f è suriettiva (quindi Im(f) = W ), dal teorema della dimensione segue che
vuol dire che esistono b1 , . . . , bk ∈ R tali che
dim(V) = dim N(f) + dim(W) > dim(W)
a1 vk+1 + a2 vk+2 + . . . + an−k vn = b1 v1 + b2 v2 + . . . + bk vk .
2. Se f è iniettiva (quindi N(f) = 0), dal teorema della dimensione segue che
Siccome i vettori v1 , . . . , vn sono linearmente indipendenti, la precedente uguaglianza si
può verificare solo se tutti i coefficienti sono nulli: dim(V) = dim Im(f) 6 dim(W)

a1 = a2 = . . . = an−k = b1 = b2 = . . . = bk = 0 (l’ultima disuguaglianza segue dal fatto che Im(f) ⊆ W è un sottospazio)

Questo prova in particolare che i vettori w1 , . . . , wn−k sono linearmente indipendenti.  3. Se f è sia iniettiva che suriettiva, chiaramente dim(V) = dim(W). 

27 / 28 28 / 28
Applicazioni e sistemi lineari Esercizi
Sia A = (aij ) ∈ R k,n
ed LA : R → R l’applicazione associata, data da
n k
Esercizio (C. Carrara, es. 8.8)
LA (x) := Ax ∀ x = t (x1 , . . . , xn ) ∈ Rn Sia LA : R2 → R3 l’applicazione lineare associata alla matrice
Un vettore B = t (b1 , . . . , bk ) ∈ Rk è nell’immagine di LA ⇐⇒ ∃ x ∈ Rn tale che  
1 1
 
Ax = B (?) A = 2 0
Quindi: 1 −1
I B ∈ Im(LA ) ⇐⇒ il sistema di matrice completa (A|B) è compatibile.
a) Determinare, se esiste, una base di nucleo e immagine di LA .
I La soluzione generale di (?) è data dall’insieme di tutti i vettori di Rn che hanno per b) Stabilire se t (−3, 2, 1) ∈ Im(LA ).
immagine la colonna dei termini noti B.

Il nucleo di LA è l’insieme dei vettori x che hanno per immagine il vettore nullo: Esercizio (Esame del 30/01/2012)

Ax = 0 Si consideri l’applicazione lineare f : R3 → R3 data da:

Sia (e1 , . . . , en ) la base canonica di Rn (i cui vettori scriviamo qui in colonna). Poiché f(x1 , x2 , x3 ) := ( x1 + x2 , x1 + x3 , x2 − x3 )
LA (ei ) = t (a1i , a2i , . . . , aki ) a) Determinare una base, se esiste, del nucleo di f.
è la i-esima colonna di A, e una applicazione lineare trasforma generatori in generatori: b) Determinare una base, se esiste, dell’immagine di f.
c) Il vettore v = (−3, 3, 3) è nel nucleo di f e/o nell’immagine.
L’immagine di LA è generata dalle colonne della matrice A.
1 / 14 2 / 14

Rango di una matrice [Abate, §5.2] Dimostrazione (ρrighe (A) = ρcolonne (A) ∀ A ∈ Rk,n ).
Sia A 0 ottenuta da A con la riduzione per righe. Le righe non nulle di A 0 , siano esse r,
formano una base per lo spazio generato dalle righe di A. Quindi:
Definizione
Chiamiamo rango per colonne di una matrice A la dimensione dello spazio generato dalle ρrighe (A) = r .
colonne di A, indicata con ρcolonne (A) ; chiamiamo rango per righe di una matrice A la
dimensione dello spazio generato dalle righe di A, indicata con ρrighe (A) . Il sistema omogeneo Ax = 0 è equivalente ad A 0 x = 0 . La dimensione dello spazio delle
soluzioni, ovvero del nucleo di LA , è data dal numero di incognite libere:

Quindi: dim N(LA ) = n − r

ρcolonne (A) = dim Im(LA ) ρrighe (A) = ρcolonne (tA) ( n◦ parametri liberi = n◦ incognite − n◦ pivot = n − r ). Per il teorema della dimensione:

dim N(LA ) + dim Im(LA ) = dim(Rn ) = n .


Teorema [Abate, prop. 5.11(2)]

Il rango per righe è uguale al rango per colonne: Quindi

ρcolonne (A) = dim Im(LA ) = n − dim N(LA ) = n − (n − r) = r = ρrighe (A) . 


ρrighe (A) = ρcolonne (A)

per ogni A ∈ Rk,n . Tale numero sarà chiamato rango di A ed indicato con ρ(A). Corollario
Lo spazio delle soluzioni del sistema omogeneo Ax = 0 ha dimensione n − ρ(A).
3 / 14 4 / 14
Osservazione: possiamo determinare il rango di una matrice riducendola per righe e Soluzioni di un sistema in forma vettoriale
contando le righe non nulle della matrice ridotta ottenuta.
Proposizione [Abate, teorema 5.1]
Esercizio Data una soluzione u di un sistema compatibile
Determinare il rango della matrice:
  Ax = B , (†)
0 1 2 1
0 1 1 1
  ogni altra soluzione di (†) si può ottenere sommando ad u una soluzione del sistema
A=  .
0 2 3 2 omogeneo associato:
1 2 2 1 Ax = 0 . (‡)

Soluzione (per riduzione). Dimostrazione. Sia v un’altra soluzione di (†). Dalla proprietà distributiva del prodotto righe
Riducendo A si ottiene: per colonne segue che
    A(v − u) = Av − Au = B − B = 0
0 1 2 1 0 1 2 1
R2 →R2 −R1
0 0 −1 0 0 0 −1 0 ovvero v − u risolve (‡).
R3 →R3 −2R1  R3 →R3 −R2  
A −−−−−−−−→   −−−−−−−→ A 0 =   . Viceversa, se w risolve (‡), cioè Aw = 0, allora detto v = u + w si ha
R4 →R4 −R1 0 0 −1 0 0 0 0 0
1 1 0 0 1 1 0 0
Av = Au + Aw = B + 0 = B
Quindi ρ(A) = ρ(A 0 ) = 3. X
cioè v è soluzione di (†). 
5 / 14 6 / 14

Corollario Esercizio (esame del 04/07/2011)


La soluzione generale di un sistema compatibile di matrice completa (A|B) ∈ R m,n+1
si può Si consideri il seguente sistema lineare dipendente da un parametro λ ∈ R:
sempre scrivere nella forma 

 3x1 + λx3 = 0
x = v0 + t1 v 1 + t2 v2 + . . . + tk vk x1 + (λ − 3)x2 + x3 = 0
| {z } 

soluzione generale sistema omogeneo associato λx1 + 3x3 = 0
dove:

• k = n − ρ(A), a) dire per quali valori di λ il sistema ammette infinite soluzioni;


b) per i valori di λ trovati al punto a), scrivere una base per lo spazio delle soluzioni.
• v0 è una soluzione particolare del sistema,
• (v1 , . . . , vk ) è una base dello spazio delle soluzioni del sistema omogeneo Ax = 0 ,
Soluzione. a) Calcoliamo il determinante della matrice dei coefficienti (con sviluppo di
• t1 , t2 , . . . , tk sono parametri reali. Laplace rispetto alla 2a colonna):

Esempio

3 0 λ 3 0 λ

La soluzione generale dell’equazione
|A| = 1 λ−3 1 = (λ − 3) 1 λ−3 1 = (λ − 3)(9 − λ2 )

λ 0 3 λ 0 3
2x + y = 6
(ossia y = −2x + 6) è data da: Le soluzioni sono infinite se e solo se |A| = 0, ovvero
x = v0 + t v1
      
x=t x 0 1
ovvero = +t λ = ±3 .
y = −2t + 6 y 6 −2
7 / 14 8 / 14
b1) Sia Wλ lo spazio delle soluzioni. Per λ = 3 il sistema diventa:
Teorema di Rouché-Capelli [Abate, cor. 5.9]


 3x1 + 3x3 = 0 Un sistema di matrice completa (A|B) ∈ Rm,n+1 è compatibile se e solo se
x1 + x3 = 0 =⇒ (x1 , x2 , x3 ) = (t1 , t2 , −t1 ) ∀ t1 , t2 ∈ R

 ρ(A|B) = ρ(A) .
3x1 + 3x3 = 0

Due generatori v1 , v2 di W3 si ottengono scegliendo (t1 , t2 ) = (1, 0) e (t1 , t2 ) = (0, 1):


Dimostrazione. Ricordiamo che un sistema di matrice completa (A|B) è compatibile se e
v1 = (1, 0, −1) v2 = (0, 1, 0) solo se il vettore colonna B appartiene all’immagine dell’applicazione LA :

I due vettori sono linearmente indipendenti (verificare), quindi formano una base. Ax = B è compatibile ⇐⇒ B ∈ Im(LA )

b2) Per λ = −3 il sistema diventa: Due casi:


 
 3x1 − 3x3 = 0  • B ∈ Im(LA ) (sistema compatibile): se B è combinazione lineare delle colonne di A, le
 1
E2 →E2 + 3 E1
 3x1 − 3x3 = 0
x1 − 6x2 + x3 = 0 −−−−−−−−→ 2x1 − 6x2 = 0 colonne di A e quelle di (A|B) generano lo stesso sottospazio di Rm e ρ(A|B) = ρ(A).

 E3 →E3 +E1 

−3x1 + 3x3 = 0 0=0 • B∈/ Im(LA ) (sistema incompatibile): se B non è combinazione lineare delle colonne di
La soluzione generale è A, lo spazio generato dalle colonne di (A|B) ha dimensione maggiore dello spazio
(x1 , x2 , x3 ) = (t, 13 t, t) ∀ t ∈ R . generato dalle colonne di A, e ρ(A|B) > ρ(A). 

Una base di W−3 è data da una qualsiasi soluzione non nulla, ad esempio scegliendo Osservazione: si ha sempre ρ(A) 6 ρ(A|B) 6 ρ(A) + 1 (poiché la matrice (A|B) si
t = 3 si ottiene il vettore (3, 1, 3). X ottiene da A aggiungendo una colonna).
9 / 14 10 / 14

Esercizio Proprietà del rango


Dire se il vettore
u = (3, 3, 0)
Osservazioni.
di R3 è combinazione lineare dei vettori
• Se A è ridotta per righe, ρ(A) è dato dal numero di righe non nulle di A.
v1 = (−1, −4, 3) v2 = (−3, −5, 2)
• Se A ∈ Rk,n è triangolare superiore completa, allora ρ(A) = min(k, n).

Soluzione. Si chiede se esistono dei coefficienti x1 , x2 ∈ R tali che x1 v1 + x2 v2 = u.


Riduciamo la matrice completa del sistema Proposizione

    Se A ∈ Rk,n , allora
h i −1 −3 3 −1 −3 3
t   R2 →R2 −4R1   ρ(A) 6 min(k, n) .
v1 t v2 t u =  −4 −5 3 −− −−− −−→  0 7 −9 
R3 →R3 +3R1
3 2 0 0 −7 9 Se ρ(A) = min(k, n) diciamo che A ha rango massimo.
 
−1 −3 3
R →R +R2  
−−3−−−3−−→  0 7 −9  = (A 0 |B 0 ) Dimostrazione. Le righe di A generano un sottospazio di Rn , la cui dimensione ρrighe (A) è
0 0 0 al più n; le colonne di A generano un sottospazio di Rk , la cui dimensione ρcolonne (A) è al
più k. Da ρ(A) = ρrighe (A) = ρcolonne (A) segue la tesi. 
Siccome ρ(A 0 ) = ρ(A 0 |B 0 ) = 2, il sistema è compatibile (teorema di Rouché-Capelli).
Quindi u è combinazione lineare dei vettori v1 e v2 . X
11 / 14 12 / 14
Definizione [Abate, §9.4]
Esercizio
Sia A ∈ R k,n
. Un minore di ordine p di A è una matrice quadrata M di tipo p × p ottenuta Determinare il rango della matrice
da A eliminando k − p righe e n − p colonne.  
1 3 0 1
Un orlato di M è un minore di A di ordine p + 1 contenente M. 0 1 1 0
 
 
1 0 −3 1
Esempio 2 1 −5 2
   
1 3 1 2 1 3 1 2 " #
    0 7
A = 1 0 3 7 M = 1 0 3 7 = Soluzione (con il teorema degli orlati).
2 6
5 2 4 6 5 2 4 6  
    1 3 0 1
1 3 1 2 1 3 2  
     0 1 1 0 
0
M = 1 0 3 7  =  1 0 7  
 
 1 0 −3 1 
5 2 4 6 5 2 6  
IM
2 1 −5 2
è un minore di ordine 2 di A. M 0 è un minore di ordine 3 nonché un orlato di M.
il minore evidenziato ha determinante diverso da zero e tutti i suoi orlati hanno
Enunciamo senza dimostrazione:
determinante nullo. Per il teorema degli orlati, si ha quindi ρ(A) = 2. X
Teorema degli orlati [Abate, teorema 9.13]

Una matrice ha rango p se e solo se esiste un minore di ordine p il cui determinante è non
nullo, e tutti i suoi orlati hanno determinante nullo.
13 / 14 14 / 14
Spazi metrici [Abate, §11] Esercizio
Siano v = (v1 , v2 ) e w = (w1 , w2 ) ∈ R2 .
Definizione Dire quale delle seguenti funzioni è un prodotto scalare di R2 :
Sia V uno spazio vettoriale reale. Una applicazione
1 f(v, w) = v21 + w21 + v1 w1 + v2 w2 , (no: soddisfa (i) e (iii) ma non (ii))
f:V ×V →R 2 f(v, w) = 3v1 w1 + 7v2 w2 , (ok: è un prodotto scalare)

che associa ad ogni coppia di vettori v e w un numero reale è detta un prodotto scalare o 3 f(v, w) = 3v1 w1 − 7v2 w2 , (no: soddisfa (i) e (ii) ma non (iii))

prodotto interno di V se è: 4 f(v, w) = 3v1 w1 , (no: soddisfa (i) e (ii) ma non (iii))

i) simmetrica, ovvero ∀ v, w ∈ V , 5 f(v, w) = 3v1 w1 + 7, (no: soddisfa (i) e (iii) ma non (ii))

f(v, w) = f(w, v) . 6 f(v, w) = v1 w31 + v2 w32 . (no: soddisfa (ii) e (iii) ma non (i))

ii) lineare (nell’argomento di sinistra), ovvero ∀ a, b ∈ R , u, v, w ∈ V si ha: Sebbene un prodotto scalare sia un particolare tipo di funzione, conviene introdurre una
notazione differente da quella usata per funzioni generiche.
f(au + bv, w) = af(u, w) + bf(v, w) .
Notazione. Se V è uno spazio metrico, indicheremo il prodotto scalare di v, w ∈ V con
iii) definita positiva, ovvero hv, wi
f(v, v) > 0 ∀ v 6= 0 .
invece di f(v, w) o g(v, w), etc. Useremo lo stesso simbolo h , i, qualunque sia la funzione
Uno spazio vettoriale dotato di un prodotto scalare si dice spazio metrico.
che definisce il prodotto scalare di V considerato.
1 / 25 2 / 25

Definizione Definizione
Due vettori v e w di uno spazio metrico V si dicono ortogonali se Sia V uno spazio metrico. Chiamiamo norma di v ∈ V la grandezza
hv, wi = 0 . p
kvk := hv, vi .

Proposizione Definizione
Un prodotto scalare di V soddisfa: Siano v = (v1 , . . . , vn ) e w = (w1 , . . . , wn ) ∈ Rn . Un prodotto scalare di Rn è dato da
iv) h0, vi = 0 ∀ v ∈ V ;
hv, wi := v1 w1 + v2 w2 + . . . + vn wn = v · t w ,
v) hw, au + bvi = a hw, ui + b hw, vi ∀ a, b ∈ R , u, v, w ∈ V .
ed è detto prodotto scalare canonico di Rn . La norma associata è
Dimostrazione. La proprietà iv) segue da ii). Infatti: p q
||v|| = hv, vi = v21 + v22 + . . . + v2n .
(ii)
h0, vi = h0 + 0, vi = h0, vi + h0, vi ,
Esempio
e sottraendo h0, vi ambo i membri si ottiene h0, vi = 0 per ogni v ∈ V .
Siano v = (2, 1, 0, 2) e w = (−2, 2, 4, 1) . Rispetto al prodotto scalare canonico di R4 :
Usando prima i), poi ii), e quindi ancora i) si dimostra che:
(i) (ii) (i) hv, wi = 2 · (−2) + 1 · 2 + 0 · 4 + 2 · 1 = 0 (i vettori sono ortogonali)
hw, au + bvi = hau + bv, wi = a hu, wi + b hv, wi = a hw, ui + b hw, vi
√ p
kvk = 22 + 12 + 02 + 22 = 3 kwk = (−2)2 + 22 + 42 + 12 = 5
per ogni a, b ∈ R e per ogni u, v, w ∈ V . 
3 / 25 4 / 25
Proprietà del prodotto scalare e della norma [Abate, §11.2] Disuguaglianza di Cauchy-Schwarz
Per ogni v, w ∈ V , si ha:
Proprietà della norma
Per ogni a ∈ R e u, v ∈ V si ha: |hv, wi| 6 kvk kwk .

1. kavk = |a| kvk ;


Dimostrazione. Se w = 0 la disuguaglianza si riduce ad un banale 0 6 0. Assumiamo
2. kvk = 0 ⇐⇒ v = 0 ;
allora che w 6= 0 . Per ogni λ ∈ R, dalla 3a proprietà della norma, applicata alla coppia di
3. ku + vk2 = kuk2 + 2 hu, vi + kvk2 . vettori v e −λw , si ottiene

Dimostrazione. Usando le proprietà (ii) e (v) del prodotto scalare, si ricava:


0 6 kv − λwk2 = kvk2 − 2λ hv, wi + λ2 kwk2 ,
p p
kavk = hav, avi = a2 hv, vi = |a| kvk .
In particolare scegliendo λ = hv, wi /kwk2 si ottiene
Usando le proprietà (iii) e (iv) si ricava:
p hv, wi2 hv, wi2 hv, wi2
kvk = hv, vi = 0 ⇐⇒ v = 0 . 0 6 kvk2 − 2 + kwk2
= kvk2
− ,
kwk2 kwk4 kwk2
Per finire, dalle proprietà (ii) e (v) si ricava:
2
ovvero hv, wi /kwk2 6 kvk2 . Moltiplicando ambo i membri per kwk2 ed estraendo la
ku + vk2 = hu + v, u + vi = hu, ui + 2 hu, vi + hv, vi = kuk2 + 2 hu, vi + kvk2 . radice quadrata di ambo i membri della disuguaglianza, si dimostra la tesi. 

5 / 25 6 / 25

Disuguaglianza triangolare Prodotto scalare e vettori geometrici


Per ogni v, w ∈ V , si ha
Consideriamo R2 con prodotto scalare canonico.
kv + wk 6 kvk + kwk P(x1 , x2 )
La norma della coppia x = (x1 , x2 ),
p k
Dimostrazione. Dalla 3a proprietà della norma e dalla disuguaglianza di Cauchy-Schwarz: kxk = x21 + x22 , kx x2
2 α
kv + wk2 = kvk2 + 2 hv, wi + kwk2 6 kvk2 + 2kvk kwk + kwk2 = kvk + kwk per il teorema di Pitagora, è proprio la lunghezza
O x1
del segmento OP (1a figura), ovvero il modulo del
Estraendo la radice, si ricava la disuguaglianza triangolare.  #»
vettore geometrico OP:

kxk = kOPk .
P(x1 , x2 )
Proposizione (“Teorema di Pitagora”) Per x 6= (0, 0), l’angolo α in figura soddisfa:
Due vettori v, w ∈ V soddisfano Q(y1 , y2 )
cos α = x1 /kxk , sin α = x2 /kxk . (?)
kv + wk2 = kvk2 + kwk2 ϑ
Dati x = (x1 , x2 ) e y = (y1 , y2 ) non nulli (2a
α β
se e solo se sono ortogonali. figura), dalle formule di addizione di seno e
coseno, e usando (?), ricaviamo:
Dimostrazione. Per la 3a proprietà della norma, la differenza:
x1 y1 + x2 y2 hx, yi
kv + wk2 − kvk2 − kwk2 = 2 hv, wi cos ϑ = cos(α − β) = cos α cos β + sin α sin β = = ,
kxk kyk kxk kyk
si annulla se e solo se hv, wi = 0.  in cui ϑ è l’angolo angolo convesso tra i due vettori (0 6 ϑ 6 180◦ ).
7 / 25 8 / 25
Abbiamo dimostrato (per vettori non nulli, ma è banalmente vero anche se sono zero):
Dato un vettore w = (w1 , w2 ) diverso da zero, ed
hx, yi = kxk kyk cos ϑ un vettore v = (v1 , v2 ) arbitrario (anche zero)
indichiamo con prw (v) la proiezione ortogonale di v
(Il prodotto scalare è il prodotto delle norme per il coseno dell’angolo angolo compreso fra i vettori.)
v in direzione di w , ovvero il vettore rosso in figura.
Osservazione. Due vettori geometrici non nulli sono perpendicolari se e solo se sono w
Proposizione
ortogonali (nel senso del prodotto scalare):
La proiezione ortogonale di v su w è data da:
ϑ = 90◦ ⇐⇒ hx, yi = kxk kyk cos ϑ = 0 ϑ prw (v)
hv, wi
prw (v) = w
kwk2
Nel caso dei vettori geometrici, la disuguaglianza: v+w
kv
k Dimostrazione. Essendo u := prw (v) parallelo ad w, si ha u = kw per qualche k ∈ R. Se
kv + wk 6 kvk + kwk

k
0 6 ϑ 6 90◦ , u e w hanno lo stesso orientamento e k > 0; altrimenti k < 0. Assumiamo

w
v ϑ w

+
che sia 0 6 ϑ 6 90◦ , ovvero k > 0 (la dimostrazione per k < 0 è analoga).

kv
è la ben nota disuguaglianza triangolare della k
kw
geometria euclidea: O Vediamo dalla figura che la norma di u è pari a cos ϑ · kvk ; ma è anche uguale a
p
in un triangolo la lunghezza di un qualsiasi suo lato non può essere superiore kkwk = (kw1 )2 + (kw2 )2 = kkwk .
alla somma delle lunghezze degli altri due.
Quindi:
La proposizione successiva si riduce al Teorema di Pitagora: kv + wk2 = kvk2 + kwk2 se kvk hv, wi kvk hv, wi
k = cos ϑ · = = .
e solo se il triangolo in figura è rettangolo (ϑ = 90◦ ). kwk kvk kwk kwk kwk2 
9 / 25 10 / 25

Esercizio (C. Carrara, es. 10.1 e 10.2)


Insiemi ortonormali [Abate, §11.3]
Dati i seguenti vettori di R2 si calcoli il prodotto scalare hvi , vj i per i, j = 1, 2, 3, 4 e si dica
quali vettori sono ortogonali tra loro: Definizione
v1 = (6, 3) v2 = (−1, 0) v3 = (1, −2) v4 = (−2, 0) Un insieme { u1 , u2 , . . . , uk } di vettori di uno spazio metrico V si dice ortogonale se

i) hui , uj i = 0 per ogni i 6= j (1 6 i, j 6 k).


Nota: negli esercizi quando non è specificato il prodotto scalare, si intende sempre quello canonico.
Se in aggiunta
Esercizio (C. Carrara, es. 10.3)
ii) k ui k = 1 per ogni i = 1, . . . , k.
Dati i seguenti vettori di R3 si calcoli il prodotto scalare hvi , vj i per i, j = 1, 2, . . . , 6 e dica
quali vettori sono ortogonali tra loro: allora l’insieme si dice ortonormale.
v1 = (1, 3, 4) v2 = (0, −1, 2) v3 = (1, 2, 1)
v4 = (−2, 3, 0) v5 = (1, 1, 1) v6 = (1, −3, 2) Esempi
I Sia V = R2 con prodotto scalare canonico. Se u1 = (1, 1) e u2 = (1, −1), l’insieme
Esercizio (C. Carrara, es. 10.4) { u1 , u2 } è ortogonale. Quindi B = (u1 , u2 ) è una base ortogonale di R2 .

Si calcoli la norma dei seguenti vettori di R2 ed R3 : I Sia V = R3 con prodotto scalare canonico. Se u1 = (1, 0, 1) e u2 = (1, 0, −1), l’insieme
v1 = (−2, 5, 1) v2 = (1, 0, −2) v3 = (7, 1, 1) { u1 , u2 } è ortogonale (non è una base, poiché R3 ha dimensione 3).

v4 = (4, 1) v5 = (10, 1) v6 = (−1, −3) I La base canonica di Rn è ortonormale rispetto al prodotto scalare canonico.
11 / 25 12 / 25
Osservazione
Proposizione
In uno spazio vettoriale V di dimensione n, un insieme ortogonale di n vettori (diversi da
Un insieme I = { v1 , . . . , vm } ⊂ V ortogonale è libero se e solo se 0 ∈
/ I.
zero) è una base di V .

Dimostrazione. Dobbiamo dimostrare l’implicazione “ ⇐ ”. Sia


Esempio
u := a1 v1 + a2 v2 + . . . + am vm .
I tre vettori

Per la linearità del prodotto scalare: v1 = (1, 1, 1) v2 = (1, −1, 0) v3 = (1, 1, −2)

hu, vi i = a1 hv1 , vi i + a2 hv2 , vi i + . . . + am hvm , vi i . formano una base (ortogonale) di R3 .

Per ipotesi hvi , vj i = 0 ∀ i 6= j, quindi tutti i termini della somma escluso l’i-esimo sono Definizione
zero, e
In analogia con l’esempio di R2 (con prodotto scalare canonico), dati due vettori v e w di
2
hu, vi i = ai hvi , vi i = ai k vi k . uno spazio metrico V (w 6= 0), il vettore

Per ipotesi vi 6= 0, quindi k vi k =


6 0e hw, vi
w
k wk2
u=0 =⇒ hu, vi i = ai k vi k2 = 0 =⇒ ai = 0

per ogni i = 1, . . . , m. Questo prova che l’insieme I è libero.  si dice proiezione di v in direzione di w, e viene indicato con il simbolo “ prw (v) ”.
13 / 25 14 / 25

Dimostrazione del Lemma. Per l’osservazione nella slide 3, è sufficiente dimostrare che i
Metodo di Gram-Schmidt
vettori di B sono non nulli e ortogonali fra di loro.
Sia (v1 , v2 , . . . , vn ) una base di uno spazio metrico V . E’ possibile ricavare da essa una
Notiamo che wi ∈ L(v1 , . . . , vi ). I vettori di B sono non nulli, infatti w1 = v1 6= 0 e per
base ortonormale come illustrato nel seguito (metodo di Gram-Schmidt). Il primo passo è
i > 2, se per assurdo fosse wi = 0, se ne dedurrebbe che
definire dei vettori (w1 , w2 , . . . , wn ) in maniera ricorsiva, ponendo:
i−1
X
w1 := v1 hvi , wj i
vi = wj
j=1
kwj k2
e per ogni i = 2, . . . , n:
appartiene a L(v1 , . . . , vi−1 ), contraddicendo l’ipotesi che (v1 , . . . , vn ) è una base.
i−1
X i−1
X hvi , wj i
wi := vi − prwj (vi ) = vi − wj L’ortogonalità si dimostra per induzione. Chiaramente { w1 } è un insieme ortogonale.
kwj k2
j=1 j=1 Sia 2 6 i 6 n. Per ipotesi induttiva, assumiamo che { w1 , w2 , . . . , wi−1 } siano a due a due
ortogonali, e mostriamo che wi ⊥ wk ∀ 1 6 k 6 i − 1. Per costruzione
Lemma L’insieme B = (w1 , w2 , . . . , wn ) è una base ortogonale di V . [Abate, teorema 11.6]
 i−1
X  i−1
X
hvi , wj i hvi , wj i
hwk , wi i = wk , vi − w = hw , v i − hwk , wj i
Il secondo passo consiste nel “normalizzare” i vettori ottenuti. Chiamiamo kw j k2 j k i
kwj k2
j=1 j=1
w1 w2 wn
u1 = , u2 = , ... un = . Ma hwk , wj i = 0 ∀ j 6= k (ipotesi induttiva), quindi
kw1 k kw2 k kwn k
hvi , wk i
Corollario. L’insieme (u1 , u2 , . . . , un ) è una base ortonormale di V . hwk , wi i = hwk , vi i − hwk , wk i = 0
kwk k2 
15 / 25 16 / 25
Esercizio Proprietà delle basi ortonormali
Determinare una base ortonormale del sottospazio V ⊆ R generato dai tre vettori 4

(linearmente indipendenti) v1 = (1, 1, 1, 0), v2 = (0, 1, 2, 0) e v3 = (5, 3, −5, 3). Proposizione [Abate, prop. 11.4]

Sia B = (u1 , u2 , . . . , un ) una base ortonormale di V , e v ∈ V un vettore qualsiasi.


Soluzione. Come primo passo calcoliamo i vettori La componente i-esima di v nella base B è data da

w1 = v1 = (1, 1, 1, 0) , hv, ui i .

w2 = v2 − prw1 (v2 ) = (0, 1, 2, 0) − h(1,1,1,0),(0,1,2,0)i


(1, 1, 1, 0) Ovvero:
k(1,1,1,0)k2
v = hv, u1 i u1 + hv, u2 i u2 + . . . + hv, un i un
= (0, 1, 2, 0) − 33 (1, 1, 1, 0) = (−1, 0, 1, 0) ,
= pru1 (v) + pru2 (v) + . . . + prun (v) .
w3 = v3 − prw1 (v3 ) − prw2 (v3 )
h(5,3,−5,3),(1,1,1,0)i h(5,3,−5,3),(−1,0,1,0)i Dimostrazione. Indichiamo con a1 , . . . , an ∈ R le componenti di v, ovvero
= (5, 3, −5, 3) − k(1,1,1,0)k2
(1, 1, 1, 0) − k(−1,0,1,0)k2
(−1, 0, 1, 0)

= (5, 3, −5, 3) − 33 (1, 1, 1, 0) + 10


(−1, 0, 1, 0) = (−1, 2, −1, 3) . v = a1 u 1 + . . . + an u n .
2

Normalizzando i vettori otteniamo una base ortonormale (u1 , u2 , u3 ): Dalla definizione di insieme ortonormale e dalla linearità del prodotto scalare segue che
w1 w2 X X
u1 = = √1 (1, 1, 1, 0) , u2 = = √1 (−1, 0, 1, 0) ,
kw1 k 3 kw2 k 2 hv, ui i = ai hui , ui i + aj huj , ui i = ai kui k2 + aj · 0 = ai
j6=i j6=i
w3
u3 = = √1 (−1, 2, −1, 3) .
kw3 k 15
X cioè ai = hv, ui i , per ogni i = 1, . . . , n. 
17 / 25 18 / 25

Esercizio Sottospazi ortogonali [Abate, §11.4]


Nello spazio vettoriale R2 con prodotto scalare canonico, si consideri la base ortonormale
formata dai vettori Definizione
Sia V uno spazio metrico e W ⊆ V un sottospazio. L’insieme
u1 = 15 (3, 4) u2 = 15 (4, −3)

Determinare le componenti del vettore W ⊥ := v ∈ V : hv, wi = 0 ∀ w ∈ W

v = (8, −1) è detto complemento ortogonale di W in V .

nella base B = (u1 , u2 ).


Proposizione
Soluzione. Dobbiamo determinare due numeri reali a1 , a2 tali che v = a1 u1 + a2 u2 . W ⊥ è un sottospazio vettoriale di V .

Tipicamente, bisognerebbe risolvere due equazioni nelle incognite a1 , a2 .


Dimostrazione. Per ogni a1 , a2 ∈ R, v1 , v2 ∈ W ⊥ , il vettore a1 v1 + a2 v2 soddisfa
Siccome però B è ortonormale, dalla proposizione precedente segue che

ha1 v1 + a2 v2 , wi = a1 hv1 , wi + a2 hv2 , wi = 0


a1 = hv, u1 i = v · t u1 = 15 (8 · 3 − 1 · 4) = 4

a2 = hv, u2 i = v · t u2 = 15 (8 · 4 + 1 · 3) = 7 per ogni w ∈ W . Quindi a1 v1 + a2 v2 ∈ W ⊥ e per il criterio c) di sottospazio l’insieme W ⊥ è


X un sottospazio vettoriale di V . 

19 / 25 20 / 25
Lemma
Siano v, w1 , w2 , . . . , wk vettori di uno spazio metrico V . Se v è ortogonale a ciascuno dei
vettori w1 , w2 , . . . , wk , allora è ortogonale ad ogni loro combinazione lineare. Enunciamo senza dimostrazione:

Dimostrazione. Per ipotesi hv, wi i = 0 ∀ 1 6 i 6 k. Dalla linearità del prodotto scalare


Proposizione
segue che Sia V uno spazio metrico finitamente generato e U, W ⊆ V due sottospazi. Allora:

1. { 0 }⊥ = V e V ⊥ = { 0 };
hv, a1 w1 + a2 w2 + . . . + ak wk i = a1 hv, w1 i + a2 hv, w2 i + . . . + ak hv, wk i = 0
(ogni vettore è ortogonale a 0, e 0 è l’unico vettore ortogonale a tutti i vettori di V )
per ogni a1 , . . . , ak ∈ R. 
2. W ∩ W ⊥ = { 0 }; W + W ⊥ = V ;

Corollario 3. dim(W) + dim(W ⊥ ) = dim(V);


Sia W = L(w1 , w2 , . . . , wk ) un sottospazio di V . Allora:
4. se U = W ⊥ , allora U⊥ = W .
v ∈ W ⊥ ⇐⇒ hv, wi i = 0 ∀ i = 1, . . . , k (la relazione “essere il complemento ortogonale di” è simmetrica)

Esercizio

Sia W = L (1, 0, 1) , (1, 1, 1) ⊂ R3 . Determinare il complemento ortogonale W ⊥ .

21 / 25 22 / 25

Osservazione sui sistemi lineari


Esempio
Sia A = (aij ) ∈ Rm,n , ed ai = (ai1 , ai2 , . . . , ain ) ∈ Rn la sua i-esima riga. Sia
Una soluzione di un sistema omogeneo di m equazioni in n incognite
W = {(x, y) ∈ R2 : 2x + y = 0}


 a11 x1 + a12 x2 + . . . + a1n xn = 0

 Una base di W è data dalla soluzione w = (1, −2) .

 a21 x1 + a22 x2 + . . . + a2n xn = 0
Σ: Il vettore u = (2, 1) , unica riga della matrice dei coefficienti, è una base di W ⊥ .
 .. ..

 . .



am1 x1 + am2 x2 + . . . + amn xn = 0 W
W⊥
è un vettore x = (x1 , x2 , . . . , xn ) ∈ R ortogonale a tutti i vettori ai (rispetto al prodotto
n
u
scalare canonico):

hai , xi = ai1 x1 + ai2 x2 + . . . + ain xn = 0 ∀16i6m.

Se W ⊆ Rn è lo spazio generato dalle righe di A, e SΣ la soluzione generale del sistema: w

SΣ = W ⊥ .

In termini di applicazioni lineari: lo spazio generato dalle colonne di A è l’immagine di LA ,


lo spazio generato dalle righe di A è il complemento ortogonale del nucleo (SΣ = N(LA )).
23 / 25 24 / 25
Esercizio (esame del 04/07/2011)
Sia V il seguente sottospazio di R4 :

V := L (0, 1, 5, −1), (1, 1, 0, 1), (2, 1, 0, 0), (3, 3, 5, 0) .

a) Si determini, se esiste, una base di V .


b) Dire se il vettore w = (1, −2, 0, 1) appartiene al complemento ortogonale di V .

Soluzione. a) Riduciamo la matrice 4 × 4 che ha per righe i generatori di V :


       
2 1 0 0 2 1 0 0 2 1 0 0 v1
R2 →R2 −R1
1 1 0 1 −1 0 0 1 −1 0 0 1 v 
  R3 →R3 −3R1   R4 →R4 +R2    2
  −−−−−−−→   −−−−−−−→  = 
3 3 5 0 R4 →R4 −R1 −3 0 5 0 −3 0 5 0 v3 
0 1 5 −1 −2 0 5 −1 −3 0 5 0 ∗

Una base di V è data da B = (v1 , v2 , v3 ).

b) Si ha:

hv1 , wi = 2 · 1 + 1 · (−2) + 0 · 0 + 0 · 1 = 2−2=0


hv2 , wi = −1 · 1 + 0 · (−2) + 0 · 0 + 1 · 1 = −1 + 1 = 0
hv3 , wi = −3 · 1 + 0 · (−2) + 5 · 0 + 0 · 1 = −3 6= 0 =⇒ / V⊥
w∈ X
25 / 25
Richiami sui vettori geometrici Geometria di R2 [Abate, §2.3 e §10]
Equazioni parametriche e cartesiane di una retta
Siano A, B, P tre punti del piano, di coordinate date
dalle coppie a = (a1 , a2 ), b = (b1 , b2 ), p = (p1 , p2 ), B u
in un sistema di riferimento cartesiano di origine O. Sia u = (u1 , u2 ) 6= 0 un vettore non nullo e P un punto di
P
coordinate p = (p1 , p2 ). Sia r la retta passante per P e
# » #» Q(x1 , x2 )
I vettori applicati AB e OP hanno uguale norma e A parallela ad u (come in figura).
direzione se e solo se i segmenti AB e OP sono lati
opposti di un parallelogramma. O Un punto Q di coordinate x = (x1 , x2 ) appartiene ad r se P(p1 , p2 )
e solo se Q − P ed u hanno la stessa direzione:
Rappresentano lo stesso vettore libero (quindi P − O = B − A ) se in aggiunta hanno lo
r
stesso verso (come in figura). In questo caso, dalla regola del parallelogramma ∃ t ∈ R : Q − P = tu

# » #» # »
OA + OP = OB cioè a+p=b Si ottiene in questo modo una equazione parametrica della retta r:

ricaviamo le coordinate di P, date dal vettore di R2 : p = (b1 − a1 , b2 − a2 ) x1 = p1 + tu1
x = p + tu ⇐⇒ (?)
x2 = p2 + tu2
# » # »
Due vettori applicati non nulli AB e CD hanno la stessa direzione se e solo se
Al variare di t ∈ R, l’equazione (?) descrive tutti i punti appartenenti alla retta r (il punto P
rappresentano vettori liberi proporzionali, ossia:
si ottiene ad esempio per t = 0). Nell’esempio in figura, è disegnata la retta di direzione
∃ t ∈ R tale che B − A = t(D − C) u = (2, 3) e passante per il punto p = (1, −1).
1 / 52 2 / 52

Versori di una retta Vettore normale ed equazione cartesiana


L’equazione parametrica x = p + tu di una retta non è unica: Dall’equazione parametrica di una retta r si può ottenere una equazione detta equazione
cartesiana eliminando il parametro t.
• u e ku hanno la stessa direzione ( ∀ k 6= 0); (5, 5)
Esempio
• p è un qualsiasi punto della retta stessa.  
x1 = 2 + t t = x1 − 2
r: ⇐⇒
Esercizio x2 = 1 − 2t x2 = 1 − 2(x1 − 2) ⇐⇒ 2x1 + x2 − 5 = 0
 4
5

Riconoscere che le tre equazioni seguenti descrivono la


,
3
5

(2, 1) Un vettore normale ad r è vettore non nullo perpendicolare alla retta stessa. Il vettore
=

stessa retta:
u
u

r : x = (2, 1) + t(3, 4) n = (−u2 , u1 )


r 0 : x = (2, 1) + t 0 (6, 8) è ortogonale ad u = (u1 , u2 ) , e tutti i vettori normali sono proporzionali ad esso.
r 00 : x = (−1, −3) + t 00 (6, 8) In generale, possiamo moltiplicare l’eq. (?), x − p = tu , per il vettore normale n. Si ottiene:

Soluzione. Dalla 1a equazione si ottiene la 2a con la sostituzione t = 2t 0 . Dalla 1a hn, x − pi = t hn, ui = 0 ⇐⇒ −u2 x1 + u1 x2 + (u2 p1 − u1 p2 ) = 0 .
equazione si ottiene la 3a con la sostituzione t = 2t 00 − 1. Le tre equazioni descrivono lo
stesso insieme di punti, solo “parametrizzato” in tre modi differente. X Chiamando a = −u2 , b = u1 e c = u2 p1 − u1 p2 si trova l’equazione cartesiana

Possiamo ridurre l’ambiguità nella scelta di u chiedendo che abbia norma 1. Esistono solo ax1 + bx2 + c = 0 . (†)
due vettori di norma 1 paralleli ad r e si dicono versori della retta. Una equazione del tipo (†) rappresenta una retta se e solo se n = (a, b) 6= (0, 0).
3 / 52 4 / 52
Rette ortogonali Norma e distanza
Sia r la retta di equazione
p = (p1 , p2 )
ax1 + bx2 + c = 0
d(p, q) = kp − qk
e p = (p1 , p2 ) un punto qualsiasi del piano. Vogliamo scrivere l’equazione parametrica |p2 − q2 |

della retta r 0 passante per p ed ortogonale ad r. Evidentemente la direzione di r 0 è data q = (q1 , q2 )


|p1 − q1 |
dal vettore n = (a, b), che è perpendicolare ad r. Quindi r 0 ha equazione

x1 = p1 + ta
r0 :
x2 = p2 + tb
Ricordiamo che la distanza del punto P di coordinate p = (p1 , p2 ) dall’origine, ovvero la
Esempio lunghezza del segmento OP, è data da

Se r è la retta di equazione n = (1, 3) p


r0 kpk = p21 + p22 .
x1 + 3x2 − 3 = 0
(0, 1)
Più in generale (vedere figura), la distanza fra due punti di coordinate p = (p1 , p2 ) e
e p = (1, −1), allora r 0 ha equazione q = (q1 , q2 ), indicata con d(p, q), è la norma del vettore p − q, ossia
(3, 0)
r
 p
x1 = 1+t p
d(p, q) := kp − qk = (p1 − q1 )2 + (p2 − q2 )2 .
x2 = −1 + 3t
5 / 52 6 / 52

Distanza punto-retta Sostituendo il valore di t trovato nelle equazioni parametriche di r 0 si trovano le coordinate
del punto q = (x1 , x2 ), date da
La distanza di un punto p da una retta r è la
x1 = p1 + t0 a , x2 = p2 + t0 b .
lunghezza del segmento che va da p alla
r
proiezione ortogonale di p su r, sia essa q. r0 La distanza fra p ed r è quindi data da
Se r ha equazione cartesiana:
d(p, r) d(p, r) = kp − qk .
q
r : ax1 + bx2 + c = 0
p
Notiamo che
la retta r ortogonale ad r passante per p è:
0
p − q = −t0 (a, b)

x1 = p1 + ta
r0 : e
x2 = p2 + tb ap1 + bp2 + c √

d(p, r) = kp − qk = |t0 | · k(a, b)k = a2 + b2 .
a2 + b2
L’intersezione fra r ed r 0 si ottiene sostituendo le espressioni di x1 e x2 in funzione di t nella
prima equazione e ricavando t. Si ottiene Formula per la distanza punto-retta
ax1 + bx2 + c = a(p1 + ta) + b(p2 + tb) + c = 0 La distanza fra un punto p = (p1 , p2 ) e una retta r di equazione ax1 + bx2 + c = 0 è:

ovvero |ap1 + bp2 + c|


ap1 + bp2 + c d(p, r) = √ .
t = t0 := − . a2 + b 2
a2 + b 2
7 / 52 8 / 52
Esempio Retta passante per due punti
La distanza fra la retta r di equazione 7x1 − 4x2 + 6 = 0 ed il punto p = (4, 1) è
Due punti a = (a1 , a2 ) e b = (b1 , b2 ) distinti individuano una retta r.
|7 · 4 − 4 · 1 + 6| 30
d(p, r) = √ = √ . Un’equazione parametrica di r è data da:
72 + 42 65
x = a + t(b − a) (∗)

Esercizio Si tratta evidentemente di una retta (il vettore u := b − a che ne dà la direzione è diverso
Si determini la distanza del punto p = (2, 1) dalla retta r di equazione 2x1 − x2 + 5 = 0. da zero), e passa sia per a (t = 0 ⇒ x = a) che per b (t = 1 ⇒ x = b).
Si determini la distanza del punto p0 = (1, 3) dalla retta r 0 di equazione x1 + 2x2 − 7 = 0.
L’equazione (∗) è soddisfatta se e solo se i vettori x − a e b − a sono linearmente
dipendenti, ossia (teorema degli orlati):
Soluzione. Si ha
x1 − a1 x2 − a2
|2 · 2 − 1 · 1 + 5| 8
d(p, r) = √ = √ , =0 (∗∗)
22 + 12 5 b 1 − a1 b2 − a2
e L’equazione (∗∗) è una equazione cartesiana di r, equivalente a (fare la verifica):
0 |1 · 1 + 2 · 3 − 7|
0
d(p , r ) = √ =0. x1
12 + 22 x2 1

a1 a2 1 = 0 .
La distanza di p 0 da r 0 è zero. Si può in effetti notare che p 0 ∈ r 0 . X
b1 b2 1

9 / 52 10 / 52

Esempio Aree di triangoli e parallelogrammi


Scriviamo le equazioni della retta passante per i due punti a = (1, 2) e b = (−2, 4).
Siano a = (a1 , a2 ) e b = (b1 , b2 ). Il triangolo in
La direzione è data da u = b − a = (−3, 2) .
grigio figura ha base kbk. L’altezza h è data dal
a+b
E QUAZIONI PARAMETRICHE: E QUAZIONE C ARTESIANA: teorema di Pitagora:

x1 = 1 − 3t x1 − 1 x2 − 2 q
= 2x1 + 3x2 − 8 = 0 .
−3 2 h= kak2 − kprb (a)k2
x2 = 2 + 2t a
q b
1 h
2
= kak2 kbk2 − |ha, bi|
kbk prb (a) =
ha,bi
b
kbk2
q
1
= (a21 + a22 )(b21 + b22 ) − (a1 b1 + a2 b2 )2
kbk
b
q q
1 1 1
= a21 b22 + a22 b21 − 2a1 b1 a2 b2 = (a1 b2 − a2 b1 )2 = |a1 b2 − a2 b1 |
u a
kbk kbk kbk

Quindi l’area del triangolo di vertici O, a e b è data da

1
2
base × altezza = 12 |a1 b2 − a2 b1 |

Ma a1 b2 − a2 b1 è il determinante della matrice 2 × 2 che ha a e b come righe. . .


11 / 52 12 / 52
Aree di triangoli e parallelogrammi Aree di triangoli e parallelogrammi (§8.2)
Più in generale, si può dimostrare che. . .
a+b
Teorema
A(a1 , a2 ) B(b1 , b2 )
Il modulo del determinante
a
b a1 a2 1


b1 b2 1 C(c1 , c2 )

c c2 1
1
O O
[.
è due volte l’area del triangolo ABC
Si ottiene quindi:
La formula è valida qualunque sia la disposizione dei punti A, B, C.
Teorema
Il modulo del determinante [ è zero:
Tre punti A, B, X(x1 , x2 ) sono allineati se e solo se l’area di XAB

a1 a2 x1
x2 1
b b2
1 a1 a2 1 = 0 .

è pari all’area del parallelogramma individuato dai vettori a e b, ed è due volte l’area del b1 b2 1
triangolo di vertici O, a e b.
Ritroviamo in questo modo l’equazione cartesiana della retta passante per A e B.
13 / 52 14 / 52

Intersezione fra due rette [Abate, §10.4] Esempio


Siano r e r 0 le rette di equazioni cartesiane
Date due rette r ed r , r ∩ r è il luogo dei punti le cui coordinate risolvono il sistema:
0 0
r : 2x1 − 3x2 + 1 = 0

a x1 + b x2 + c = 0 r 0 : 4x1 − 6x2 = 0
a0 x1 + b0 x2 + c0 = 0 Si ha ρ(A) = 1 e ρ(A|B) = 2: le due rette sono parallele e non coincidenti.

in cui la prima equazione è un’equazione cartesiana della retta r, la seconda è Esempio


un’equazione cartesiana della retta r 0 , e per ipotesi (a, b) 6= (0, 0) e (a 0 , b 0 ) 6= (0, 0). Siano r e r 0 le rette di equazioni cartesiane
Detta (A|B) la matrice completa del sistema, evidentemente r : 2x1 − 3x2 + 1 = 0
r 0 : 4x1 + 2x2 − 1 = 0
1 6 ρ(A) 6 ρ(A|B) 6 2 .
Si ha ρ(A) = ρ(A|B) = 2: le due rette si incontrano in un punto.
Usando il teorema di Rouché-Capelli, possiamo distinguere tre casi:
Esempio
1 se ρ(A) = 1 e ρ(A|B) = 2 il sistema non ammette soluzione, e r ∩ r 0 = ∅ è l’insieme
Siano r e r 0 le rette di equazioni cartesiane
vuoto (questo vuol dire che le rette r e r 0 sono parallele e distinte);
r : 2x1 − 3x2 + 1 = 0
2 se ρ(A) = ρ(A|B) = 1 le due righe della matrice (A|B) sono proporzionali, e le due
r 0 : 4x1 − 6x2 + 2 = 0
rette coincidono: r = r 0 ; in questo caso r ∩ r 0 = r è una retta;
Si ha ρ(A) = ρ(A|B) = 1: le due rette coincidono.
3 se ρ(A) = ρ(A|B) = 2 il sistema ammette un’unica soluzione, e r ∩ r 0 è un punto.
15 / 52 16 / 52
Circonferenze Intersezione retta-circonferenza
L’intersezione fra una circonferenza C di equazione (x1 − c1 )2 +(x2 − c2 )2 = R2 ed una retta
r di equazione ax1 + bx2 + d = 0 è data dalle soluzioni del sistema (non lineare):

(x1 − c1 )2 + (x2 − c2 )2 = R2
c
R ax1 + bx2 + d = 0

Per trovare le intersezioni si procede per sostituzione. Sappiamo che (a, b) 6= (0, 0).
Supponiamo che ad esempio sia a 6= 0, allora dalla seconda equazione ricaviamo

Una circonferenza di centro c = (c1 , c2 ) e raggio R > 0 è l’insieme dei punti del piano a x1 = −a−1 (bx2 + d)
distanza R dal punto c. Quindi un punto x è sulla circonferenza se e solo se:
che sostituita nella prima dà una equazione di 2◦ grado in una sola variabile. Il numero di
d(x, c) ≡ kx − ck = R , soluzioni (reali) dipenderà dal segno del discriminante ∆. Si hanno tre possibilità:

Elevando al quadrato ambo i membri si ottiene l’equazione della circonferenza: 1 se ∆ > 0, retta e circonferenza si incontrano in due punti;

2 se ∆ = 0, retta e circonferenza si incontrano in un solo punto (in questo caso la retta


(x1 − c1 )2 + (x2 − c2 )2 = R2 . si dice tangente alla circonferenza);

Nell’esempio in figura, c = (4, 2) ed R = 3. 3 se ∆ < 0, l’intersezione è vuota.


17 / 52 18 / 52

Esempio Equazione della tangente


Determiniamo l’intersezione tra la retta di Consideriamo una circonferenza di centro c e
equazione x1 − x2 + 2 = 0 e la circon- raggio R . Sia p un punto sulla circonferenza, ed r la
ferenza di centro (2, 1) e raggio 3. retta tangente alla circonferenza nel punto p.
c
Dobbiamo risolvere il sistema x
x appartiene ad r se e solo se il vettore x − p

(x1 − 2)2 + (x2 − 1)2 = 9 è ortogonale al vettore p − c (vedere figura). p

x1 − x2 + 2 = 0
Una equazione cartesiana di r è quindi data da:

Dalla seconda equazione si ricava x2 = x1 + 2, che sostituita nella prima dà


hp − c, x − pi = 0
(x1 − 2)2 + (x1 + 1)2 − 9 = 0 .
Esempio
Sviluppando i quadrati si trova Nell’esempio nella figura a fianco, si ha:
2x21 − 2x1 − 4 = 0 c = (2, 2) R=5 p = (5, −2)

che ha soluzioni x1 = 2 e x1 = −1. Usando x2 = x1 + 2 si evince che l’intersezione è data L’equazione della tangente è:
dai due punti di coordinate (2, 4) e (−1, 1).
3x1 − 4x2 − 23 = 0 .

19 / 52 20 / 52
Geometria di R3 Rette e piani: equazioni parametriche
Coordinate di un punto nello spazio tridimensionale
# » # »
Come in 2d, anche in 3d due vettori applicati AB e CD non nulli hanno la stessa direzione
se e solo se i corrispondenti vettori liberi sono linearmente dipendenti:
Introducendo un sistema di riferimento cartesiano x3
tridimensionale, è possibile individuare un punto P ∃ t ∈ R : B − A = t(D − C)
dello spazio tridimensionale attraverso una terna
Una retta r è univocamente determinata da una direzione u (che specifica il fascio di rette
di coordinate p = (p1 , p2 , p3 ) ∈ R3 .
P parallele a cui appartiene) ed un punto P appartenente alla retta stessa.
Graficamente, il punto P è il vertice di un Un punto Q, di coordinate x ∈ R3 , appartiene ad r se e solo se i vettori Q − P ed u sono
parallelepipedo rettangolo i cui lati hanno p3 paralleli. Da questa osservazione si ricavano le equazioni parametriche di r:
lunghezza data dal modulo di p1 , p2 e p3 . 

 x1 = p1 + tu1
Esiste una corrispondenza biunivoca fra punti, x = p + tu ⇐⇒ x2 = p2 + tu2


vettori applicati nell’origine O e vettori liberi: p1 x2 x3 = p3 + tu3
p2

P ←→ OP ←→ P − O I dati u e p non sono univocamente determinati da r: u può essere moltiplicato per uno
x1
scalare diverso da zero, e p può essere sostituito da un qualsiasi punto di r.
Questi tre enti matematici verranno spesso identificati con la terna di coordinate di P.
Se kuk = 1, il vettore u si dice versore della retta r.

21 / 52 22 / 52

#» #» Π
La somma di due vettori PA e PB applicati nello Dall’ultima osservazione si ricavano le equazioni parametriche del piano Π passante per p

stesso punto P è data dalla diagonale PC del e di direzione data da due vettori linearmente indipendenti u e v:
parallelogramma che ha i due vettori come lati. 

 x1 = p1 + t1 u1 + t2 v1
A C x = p + t1 u + t2 v ⇐⇒ x2 = p2 + t1 u2 + t2 v2
Siano u = A − P e v = B − P. Per ogni t1 , t2 ∈ R 

x3 = p3 + t1 u3 + t2 v3
i vettori t1 u ed u hanno la stessa direzione, cosı̀
come i vettori t2 v e v. Al variare di t1 , t2 ∈ R da queste equazioni si ottengono tutti i punti Π.

La somma t1 u + t2 v è rappresentata da un Notiamo che:


# » # » #» P B
vettore PQ complanare ad PA e PB. I Se p = 0 ⇒ Π = L(u, v) è lo spazio generato dai vettori u e v.
I Se p 6= 0 ⇒ Π è parallelo a L(u, v) (ricordiamo che due piani si dicono paralleli se
Se u e v sono linearmente indipendenti, esiste un
#» #» non hanno punti in comune).
unico piano Π contenente PA e PB ed ogni
# »
vettore complanare PQ è dato da una loro Se u e v sono linearmente dipendenti, si ritrova l’equazione di una retta (uno dei due
combinazione lineare. parametri t1 , t2 è superfluo e può essere eliminato).

Un punto Q di coordinate x ∈ R3 appartiene a Π se e solo se Osservazione: come in R2 , anche in R3 è possibile eliminare il parametro t dalle equazioni
parametriche di una retta, o i parametri t1 , t2 dalle equazioni parametriche di un piano, ed
∃ t1 , t2 ∈ R : Q − P = t1 u + t2 v ottenere delle equazioni cartesiane.

23 / 52 24 / 52
Esempio
Si consideri la retta r ⊂ R3 di equazioni parametriche
Equazione cartesiana di un piano


 x1 = 1 − t Se (a, b, c) 6= (0, 0, 0) (e d ∈ R), l’equazione cartesiana:
x2 = −3 − 2t

 ax1 + bx2 + cx3 + d = 0
x3 = 5 + 3t
Dalla prima equazione ricaviamo t = 1 − x1 , che sostituita nelle altre due dà: descrive un piano Π. Per convincersene, basta scrivere la soluzione generale in funzione di
due parametri reali. Se ad esempio a 6= 0, si ricava
x2 = −3 + 2x1 − 2 2x1 − x2 − 5 = 0
⇐⇒ 
−1
x3 = 5 − 3x1 + 3 3x1 + x3 − 8 = 0 
 x1 = −a (bt1 + ct2 + d)
x2 = t1


Esempio x3 = t2
Si consideri il piano Π ⊂ R3 di equazioni parametriche:
 La direzione è data dai vettori u = (−a−1 b, 1, 0) e v = (−a−1 c, 0, 1). Questi sono

 x1 = 1 + 2t1 + t2 linearmente indipendenti, e quindi si tratta effettivamente di un piano.
x2 = 2 − t1 − t2

 Il vettore n := (a, b, c) ∈ R3 è ortogonale al sottospazio L(u, v) e quindi al piano Π. Infatti
x3 = t2
u, v sono soluzioni dell’equazione omogenea associata:
Risolvendo le ultime due equazioni rispetto a t1 e t2 si trova t1 = 2 − x2 − x3 e t2 = x3 , che
sostituite nella prima danno l’equazione cartesiana: hn, xi = ax1 + bx2 + cx3 = 0
x1 + 2x2 + x3 − 5 = 0 .
Chiamiamo n vettore normale e le sue componenti parametri direttori di Π.
25 / 52 26 / 52

Data una equazione cartesiana di un piano Π: Equazioni cartesiane di una retta


ax1 + bx2 + cx3 + d = 0 (†) Le equazioni parametriche
x − p = tu (∗)
risolvendola si possono trovare delle equazioni parametriche, della forma
descrivono una retta (parallela ad u e passante per p) se e solo se u 6= 0.
x = p + t1 u + t 2 v (‡) Supponiamo ad esempio u1 6= 0 e consideriamo i seguenti vettori:

I vettori u, v formano una base per lo spazio delle soluzioni del sistema omogeneo n := (a, b, c) = (u2 , −u1 , 0) n 0 := (a 0 , b 0 , c 0 ) = (u3 , 0, −u1 )
associato (ossia il piano L(u, v) passante per l’origine e parallelo a Π) , e p è una qualsiasi
Entrambi i vettori n ed n 0 sono ortogonali ad u, e da (∗) si ricava il sistema:
soluzione particolare (che esiste, se i coefficienti di (†) non sono tutti zero).
hn, x − pi = hn 0 , x − pi = 0
Viceversa, date delle equazioni parametriche (‡) di un piano, notando che (‡) equivale a
x − p ∈ L(u, v) si ricava la condizione equivalente (teorema degli orlati): Più esplicitamente, detti d = −u2 p1 + p2 e d0 = −u3 p1 + p3 :

a x1 + b x2 + c x3 + d = 0
x − p x1 − p1 x3 − p2 x3 − p3 (∗∗)


u3 = 0 . a0 x1 + b0 x2 + c0 x3 + d0 = 0
u = u1 u2

v v1 v2 v3 Siccome il rango della matrice dei coefficienti è 2 (n e n 0 sono linearmente indipendenti)
tutte e sole le soluzioni sono date da (∗) (la soluzione generale dipende da 1 parametro
La precedente è una equazione cartesiana di Π.
reale). Le eq. (∗) e (∗∗) descrivono quindi lo stesso insieme.
27 / 52 28 / 52
Tabella riassuntiva: Equazioni di rette e piani.
In generale, equazioni cartesiane del tipo

a x1 + b x2 + c x3 + d = 0 R ETTA r P IANO Π
0 0 0 0
a x1 + b x2 + c x3 + d = 0
E QUAZIONI
x = p + tu x = p + t 1 u + t2 v
PARAMETRICHE
descrivono una retta r se e solo se
" # " # " #
a b c u u1 u2 u3
ρ 0 =2, Condizione u 6= 0 ρ =ρ =2
a b0 c0 v v1 v2 v3

ovvero i vettori n := (a, b, c) e n 0 := (a 0 , b 0 , c 0 ) sono non allineati. 


E QUAZIONI a x 1 + b x2 + c x 3 + d = 0
ax1 + bx2 + cx3 + d = 0
CARTESIANE a0 x1 + b0 x2 + c0 x3 + d0 = 0
Le componenti dei due vettori n ed n 0 si dicono parametri direttori della retta r ed
individuano la direzione del fascio di piani ortogonali ad r. " #
a b c
Condizione ρ =2 (a, b, c) 6= (0, 0, 0)
a0 b0 c0
La soluzione generale del sistema si può infatti scrivere nella forma x = p + tu , dove p è
una soluzione particolare e u una soluzione non nulla del sistema omogeneo associato,
ovvero un qualunque vettore ortogonale ad n ed n 0 (che quindi sono ortogonali ad r). Osservazioni u k r, (a, b, c) ⊥ r, (a 0 , b 0 , c 0 ) ⊥ r. (a, b, c) ⊥ Π, u k Π, v k Π.

29 / 52 30 / 52

Intersezione fra due piani [Abate, §10.6]

Notiamo che l’intersezione fra due piani incidenti (cioé, non paralleli) è sempre una retta. In
Siano Π e Π 0 due piani di equazioni cartesiane:
figura sono mostrati due piani paralleli e distinti, e due piani incidenti.
0 0 0 0 0
Π : ax1 + bx2 + cx3 + d = 0 , Π : a x1 + b x2 + c x3 + d = 0 .
x3 x3
L’intersezione Π ∩ Π 0 è l’insieme delle soluzioni del sistema di matrice completa
" #
a b c −d
(A|B) = .
a0 b0 c0 −d 0

Notiamo che 1 6 ρ(A) 6 ρ(A|B) 6 2. Possono allora verificarsi tre casi:

1 se ρ(A) = 1 e ρ(A|B) = 2, il sistema non ammette soluzione, e Π ∩ Π 0 = ∅ è x1


x1
l’insieme vuoto (questo vuol dire che i piani Π e Π 0 sono paralleli e distinti); x2 x2
2 se ρ(A) = ρ(A|B) = 1 le due righe della matrice (A|B) sono proporzionali, e i due
(a) Piani paralleli (b) Piani incidenti
piani coincidono: Π = Π 0 ; in questo caso Π ∩ Π 0 = Π è un piano;

3 se ρ(A) = ρ(A|B) = 2, si ottengono le equazioni cartesiane di una retta: Π ∩ Π 0 è


una retta di R3 .

31 / 52 32 / 52
Intersezione fra retta e piano [Abate, §10.5]

Consideriamo ora l’intersezione fra un piano Π e una retta r di equazioni cartesiane:



a1 x1 + b1 x2 + c1 x3 + d1 = 0
Π : a0 x1 + b0 x2 + c0 x3 + d0 = 0 r:
a2 x1 + b2 x2 + c2 x3 + d2 = 0

L’intersezione r ∩ Π è l’insieme delle soluzioni del sistema di matrice completa


 
a0 b0 c0 −d0
  (1) Retta e piano paralleli (2) Retta contenuta nel piano
(A|B) =  a1 b1 c1 −d1  .
a2 b2 c2 −d2

Siccome (a1 , b1 , c1 ) e (a2 , b2 , c2 ) sono linearmente indipendenti (condizione per avere una
retta), si ha 2 6 ρ(A) 6 ρ(A|B) 6 3. Possono allora verificarsi tre casi:
1 se ρ(A) = 2 e ρ(A|B) = 3, il sistema è incompatibile e l’intersezione è vuota;
2 se ρ(A) = ρ(A|B) = 2, siccome le ultime due righe sono linearmente indipendenti, la
prima deve essere combinazione lineare delle altre due: la prima equazione (quella di
Π) è quindi superflua, e r ∩ Π = r (ovvero r ⊂ Π);
(3) Retta e piano incidenti
3 se ρ(A) = ρ(A|B) = 3, la soluzione è unica e r ∩ Π è un punto.
33 / 52 34 / 52

Intersezione fra due rette [Abate, §10.4]


Possono allora verificarsi i seguenti casi:

Per finire, consideriamo due rette di equazioni cartesiane: 1 se ρ(A) = 2 e ρ(A|B) = 3, il sistema non ammette soluzioni e r ∩ r 0 = ∅;
  2 se ρ(A) = 3 e ρ(A|B) = 4, come nel primo caso l’intersezione è vuota;
a1 x1 + b1 x2 + c1 x3 + d1 = 0 0
a10 x1 + b10 x2 + c10 x3 + d10 = 0
r: r :
a2 x1 + b2 x2 + c2 x3 + d2 = 0 a20 x1 + b20 x2 + c20 x3 + d20 = 0 3 se ρ(A) = ρ(A|B) = 2, possiamo eliminare due equazioni (ad esempio, per
riduzione) ed ottenere le equazioni cartesiane di una retta: questo vuol dire che
L’intersezione r ∩ r 0 è l’insieme delle soluzioni del sistema lineare di matrice completa:
r = r 0 e r ∩ r 0 = r = r 0 è una retta;
 
a1 b1 c1 −d1 4 se ρ(A) = ρ(A|B) = 3, per il teorema di Rouché-Capelli il sistema è compatibile ed
 
 a2 b2 c2 −d2  ammette un’unica soluzione (si hanno 3 − ρ(A) = 0 parametri liberi): quindi
(A|B) = 

 .

 a10 b10 c10 −d10  l’intersezione è un punto.
a20 b20 c20 −d20
Sia nel primo che nel secondo caso l’intersezione è vuota. Quale è la posizione reciproca
Per costruzione (condizione necessaria e sufficiente affinché r ed r 0 siano rette) le prime delle due rette?
due righe di A sono linearmente indipendenti, cosı̀ come le ultime due. Quindi ρ(A) > 2.
Nel primo caso le due rette sono parallele (poiché ρ(A) = 2) e distinte.
Ricordiamo inoltre che ρ(A) 6 ρ(A|B) 6 ρ(A) + 1. Quindi:
Se ρ(A) = 3 e ρ(A|B) = 4 le due rette non sono parallele e non si intersecano: due rette di
2 6 ρ(A) 6 3 e ρ(A) 6 ρ(A|B) 6 ρ(A) + 1 . questo tipo si dicono sghembe.

35 / 52 36 / 52
Siccome due rette distinte contenute in un piano sono sempre parallele oppure si
intersecano in un punto, due rette sono sghembe se e solo se non sono complanari.

In figura è illustrato un esempio di due rette sghembe. Esiste uno (e un solo) piano Tabella riassuntiva: Intersezioni.
contenente una delle due rette e ortogonale alla seconda. Tale piano intersecherà la
seconda retta esattamente in un punto.
ρ(A) ρ(A|B) r ∩ r0 r∩Π Π ∩ Π0

1 1 — — piano (Π = Π 0 )
1 2 — — ∅
2 2 retta (r = r )
0
retta (r ⊂ Π) retta
2 3 ∅ ∅ —
3 3 punto punto —
3 4 ∅ — —

37 / 52 38 / 52

Esercizi Esercizio (C. Carrara, 2.8)


Si considerino le rette r e r 0 di equazioni
Esercizio (C. Carrara, 2.5) 
 
 x1 = t + 1 x1 + x2 = 1
a) Determinare la posizione reciproca (cioé se sono incidenti, parallele o sghembe) delle r: x2 = 2t 0
r :
rette r e r di equazioni parametriche:
0 
 x1 − x2 + x3 = 2
x3 = t + 1
 
0

 x1 = 2t 
 x1 = t a) Si mostri che le due rette sono incidenti.
r: x2 = t + 1 r0 : x2 = 2

 
 b) Si determini l’equazione della retta ortogonale a r e r 0 e passante per il loro punto di
x3 = t + 3 x3 = t 0 + 2
intersezione.
b) Se le rette sono incidenti determinare l’ampiezza dell’angolo tra esse.
Esercizio (C. Carrara, 2.25)
Esercizio (C. Carrara, 2.6) Si considerino i tre piani di equazioni
Determinare la posizione reciproca (parallele, incidenti o sghembe) delle rette r e r di0
Π1 : x1 + x2 + x3 = 0 Π2 : x1 − x2 − x3 + 1 = 0 Π3 : 2x1 + λx3 = 1
equazioni parametriche:
 
  0 a) Stabilire la posizione reciproca dei tre piani al variare di λ ∈ R.
 x1 = 2t  x1 = t
0
r: x2 = t + 1 r : x2 = 1 b) Si determini l’equazione del piano passante per l’origine e perpendicolare alla retta

 

x3 = t x3 = 2t 0 + 1 r := Π1 ∩ Π2 .

39 / 52 40 / 52
Distanze in R3 [Abate, §12.2]
b
x3
Come in R2 , anche in R3 la distanza
b−a
dall’origine di un punto di coordinate x3

b)
p = (p1 , p2 , p3 ) è data dalla norma:

a,
ak

d(
p3
q


kb
kpk = p21 + p22 + p23 .
a
P
Verifichiamo questa affermazione. . .

Per il teorema di Pitagora, la diagonale del p2


rettangolo nel piano di equazione x3 = 0 , p1 L x2 x1 x2
disegnato in figura, ha lunghezza
q x1
Dati due punti a = (a1 , a2 , a3 ) e b = (b1 , b2 , b3 ), possiamo costruire il parallelogramma di
L= p21 + p22
vertici 0, a, b − a e b (come in figura). La distanza fra a e b è uguale
il segmento OP è la diagonale di un triangolo rettangolo (in rosso) i cui cateti hanno alla distanza di b − a dall’origine, quindi:
lunghezza L e |p3 | : per il teorema di Pitagora, la lunghezza di OP è data da q
q q d(a, b) = kb − ak = (a1 − b1 )2 + (a2 − b2 )2 + (a3 − b3 )2 .
L2 + p23 = p21 + p22 + p23 .
41 / 52 42 / 52

Angolo fra due vettori di R3 Dalla figura a fianco si evince che u


u
kuk
u+v θ
sin =L.
2
u
Usando la formula per la distanza fra due punti
e la definizione di norma, si ricava:

L
θ/2 v
  v
u v u v O
kvk
2L = d , = −
kuk kvk
kuk kvk
θ v rD
u v u v E
= − , −
O
kuk kvk kuk kvk

Indichiamo con e dalla bilinearità del prodotto scalare segue che:


hu, vi = u1 v1 + u2 v2 + u3 v3 rD s
u u E D v v E D u v E hu, vi
2L = , + , −2 , = 2−2 .
il prodotto scalare canonico fra due vettori u = (u1 , u2 , u3 ) e v = (v1 , v2 , v3 ) di R3 . kuk kuk kvk kvk kuk kvk kuk kvk
Come in 2d, anche in 3d vale la formula (banale se uno dei vettori è zero):
Per finire, usando la formula di duplicazione del coseno, si arriva alla conclusione:
 
hu, vi = kuk kvk cos θ , θ hu, vi hu, vi
cos θ = 1 − 2 sin2 = 1 − 2L2 = 1 − 1 − = .
2 kuk kvk kuk kvk
dove θ è l’angolo convesso formato dai vettori u e v. Verifichiamo l’affermazione. . .
43 / 52 44 / 52
Prodotto vettoriale e prodotto misto [Abate, §12.3]

Dati tre vettori u = (u1 , u2 , u3 ), v = (v1 , v2 , v3 ) e w = (w1 , w2 , w3 ) di R3 , chiamiamo


Dati due vettori u e v di R3 , il loro prodotto vettoriale, indicato con u ∧ v, è il vettore:
prodotto misto dei tre vettori il determinante:

u ∧ v = u 2 v 3 − u 3 v 2 , u3 v 1 − u 1 v 3 , u1 v 2 − u 2 v 1 . (∗) u1
u2 u3

Indicando come al solito con (e1 , e2 , e3 ) è la base canonica di R3 , formalmente il prodotto v1 v2 v3

w1 w2 w3
vettoriale si può calcolare attraverso il determinante
Usando lo sviluppo di Laplace rispetto alla terza riga si ricava:
e e2 e3
1

u ∧ v = u1 u2 u3 u1 u2 u3
u2 u3 u1 u3 u1 u2
v1 v3
v2 v1 v2 v3 = w1 · − w ·
v + w3 ·
v3 v v2
2
v2 v3 1 1
w1 w2 w3
Usando infatti lo sviluppo di Laplace rispetto alla prima riga, si ottiene:
= hu ∧ v, wi
u2 u3 u1 u3 u1 u2
u ∧ v = e1 − e2 + e3
v2 v3 v1 v3 v1 v2 Il prodotto misto si ottiene, quindi, facendo il prodotto vettoriale dei primi due vettori, e poi il
prodotto scalare con il terzo.
= e1 (u2 v3 − u3 v2 ) + e2 (u3 v1 − u1 v3 ) + e3 (u1 v2 − u2 v1 )

che è proprio la definizione (∗) di prodotto vettoriale.

45 / 52 46 / 52

Proposizione
Il prodotto vettoriale è una operazione interna di R3 non associativa e non commutativa.
Gode invece della proprietà anti-commutativa: Proposizione
u ∧ v = −v ∧ u ∀ u, v ∈ R .3 Due vettori u, v di R3 sono linearmente dipendenti se e solo se u ∧ v = 0.

Dimostrazione. Si verifica facilmente (la verifica è lasciata come esercizio) che: Dimostrazione. E’ sufficiente osservare che le componenti di u ∧ v sono date (a meno di
e1 ∧ e2 = e3 , e2 ∧ e1 = −e3 . un segno) dal determinante dei minori di ordine 2 della matrice:
   
Siccome e1 ∧ e2 6= e2 ∧ e1 , il prodotto vettoriale non è commutativo. u1 u2 u3 u
A= = .
Dalla definizione di u ∧ v si vede immediatamente che, scambiando i due vettori fra di loro, v1 v2 v3 v
il prodotto vettoriale cambia segno: questo prova la proprietà anti-commutativa.
I vettori u e v sono linearmente indipendenti se e solo se ρ(A) = 2.
Infine, detto u = (1, 1, 0), il vettore
Per teorema degli orlati, una condizione necessaria e sufficiente è che almeno un minore di
(e1 ∧ e2 ) ∧ u = e3 ∧ u = (−1, 1, 0) ordine 2 di A abbia determinante non nullo, ovvero almeno una componente di u ∧ v sia
diversa da zero, come volevasi dimostrare. 
è diverso da
e1 ∧ (e2 ∧ u) = e1 ∧ (0, 0, −1) = (0, 1, 0) ;

quindi il prodotto vettoriale non è associativo. 

47 / 52 48 / 52
Enunciamo senza dimostrazione. . .
Dati due vettori u e v linearmente indipendenti. . .

x3 Proposizione
Proposizione
u∧v La norma del vettore u ∧ v è l’area del parallelogramma di lati u e v.
Il prodotto vettoriale u ∧ v è ortogonale al
piano contenente i vettori u e v.
v Proposizione
Dimostrazione. Si ha Il volume del parallelepipedo che ha per lati i vettori u, v e w è dato da |hu ∧ v, wi| .


u1 u2 u3
u

hu ∧ v, ui = v1 v2 v3 = 0 . x2
w
u1 u2 u3
x1
Il determinante è zero perché la matrice
ha due righe uguali. Allo stesso modo si prova che

hu ∧ v, vi = 0
u
da cui segue che u ∧ v è ortogonale a qualsiasi combinazione lineare dei vettori u e v,
v
ovvero la tesi.  O

49 / 52 50 / 52

Esercizi

Esercizio (C. Carrara, es. 2.7)


Esercizio (C. Carrara, es. 2.3) (a) Determinare delle equazioni parametriche della retta r passante per i punti A(2, 3, 1) e
(a) Determinare equazioni parametriche e cartesiane del piano Π passante per i punti B(0, 0, 1) e della retta s passante per i punti C(0, 0, 0) e D(4, 6, 0).
A(1, 3, 1), B(2, 0, 0) e C(0, 1, 1). Il punto P(0, 2, 0) appartiene a tale piano? (b) Stabilire se r e s sono complanari. In caso affermativo, trovare un’equazione cartesiana
(b) Determinare una equazione della retta passante per A e ortogonale a Π. del piano contenente r e s.

Esercizio (C. Carrara, es. 2.22)


Esercizio (C. Carrara, es. 2.11)
Dire se i quattro punti
(a) Determinare equazioni parametriche e cartesiane della retta r dello spazio passante
A(1, 2, 1) B(2, 1, 0) C(−1, 0, −1) D(0, 0, −1) per i punti A(2, −1, 3) e B(3, 5, 4).

sono complanari e, in caso affermativo, determinare una equazione cartesiana del piano (b) Stabilire se la retta r interseca il piano di equazione cartesiana 2x1 − x2 + x3 = 0.
che li contiene.

51 / 52 52 / 52
Autovalori ed autovettori [Abate, §13.1] Esempio
L’endomorfismo f : R2 → R2 dato da
Definizione
f(x, y) := (−y, x)
Sia f : V → V un endomorfismo e v ∈ V un vettore non nullo. Se esiste λ ∈ R tale che
non possiede autovettori: non esiste nessun vettore v = (x, y) non nullo e nessuno scalare
f(v) = λv ,
λ ∈ R soddisfacenti la condizione f(v) = λv, ovvero soluzione di
diremo che λ è un autovalore di f e che v è un autovettore di f associato a λ. 
−y = λx
In altre parole, v è autovettore di f se e solo se v ed f(v) hanno la stessa “direzione”. x = λy
Qualunque sia λ ∈ R, l’unica soluzione del sistema è quella nulla.
Esempi
I In R2 , v = (3, 1) è autovettore dell’applicazione f(x, y) := (2x, x − y). Infatti:
L’applicazione
(−y, x)
f(v) = (6, 2) = 2v
f(x, y) := (−y, x)
L’autovalore associato è λ = 2.
rappresenta una rotazione antioraria
x
I In R3 , v = (1, −1, 1) è autovettore di f(x, y, z) := (x + y, x − z, y + z). Infatti: di 90◦ rispetto all’origine degli assi. (x, y)

f(v) = (0, 0, 0) = 0v y
v ed f(v) possono avere la stessa
direzione solo se v = 0. y x
L’autovalore associato è λ = 0.
1 / 38 2 / 38

Definizione
Definizione
Se λ è un autovalore di f, chiameremo autospazio di f associato a λ l’insieme:
Data A ∈ Mn (R), diremo che v ∈ Rn (vettore colonna) è un autovettore di A di autovalore

λ se v è autovettore di LA di autovalore λ, ovvero è non nullo e soddisfa: Vλ = v ∈ V : f(v) = λv .

Av = λv . Per estensione, se f = LA diremo che Vλ è un autospazio della matrice A.

Proposizione
Esempio
Vλ è un sottospazio vettoriale di V .
Sia
" #
3 2 Dimostrazione. Usiamo il criterio c) di sottospazio. Siano v1 , v2 ∈ Vλ e a1 , a2 ∈ R.
A= .
0 1 Per definizione di autospazio, f(v1 ) = λv1 e f(v2 ) = λv2 . Sia w = a1 v1 + a2 v2 .

Il vettore e1 = t (1, 0) è autovettore di A di autovalore 3: Dalla linearità di f segue che

Ae1 = 3e1 . f(w) = f(a1 v1 + a2 v2 ) = a1 f(v1 ) + a2 f(v2 )

= a1 λv1 + a2 λv2 = λ(a1 v1 + a2 v2 ) = λw .


Il vettore v = t (1, −1) è autovettore di A di autovalore 1: infatti,
Quindi w = a1 v1 + a2 v2 appartiene a Vλ . 
Av = v .
Osservazioni: i) Vλ 6= { 0 }; ii) ad ogni autovalore sono associati infiniti autovettori!
3 / 38 4 / 38
Esempio
Vediamo la dimostrazione per k = 2. . .
• Sia f : R2 → R2 l’applicazione f(x, y) := (2x, 3y). Sono autospazi di f gli insiemi:
 
V2 = (x, 0) : x ∈ R , V3 = (0, y) : y ∈ R . Proposizione
Sia f : V → V una applicazione lineare e siano v1 , v2 due autovettori di f associati ad
• Sia f : R2 → R2 data da f(x, y) := (3x + 2y, y). Sono autospazi di f gli insiemi: autovalori λ1 , λ2 distinti (cioè λ1 6= λ2 ). Allora l’insieme { v1 , v2 } è libero.
 
V1 = (t, −t) : t ∈ R , V3 = (t, 0) : t ∈ R .
Dimostrazione. Sia per assurdo v2 = av1 . Allora

Per induzione si dimostra che:


λ2 v2 = f(v2 ) = f(av1 ) = af(v1 ) = aλ1 v1 = λ1 v2 .
Proposizione
Sia f : V → V un endomorfismo e v1 , v2 , . . . , vk degli autovettori di f associati ad autovalori Quindi
λ1 , λ2 , . . . , λk distinti (cioè λi 6= λj ∀ i 6= j). Allora l’insieme { v1 , v2 , . . . , vk } è libero. (λ1 − λ2 )v2 = 0 .

Esempio Ma λ1 − λ2 6= 0 per ipotesi, e v2 6= 0 per definizione di autovettore. Abbiamo raggiunto un


assurdo: v2 non può essere proporzionale a v1 . Siccome v1 6= 0 e v2 ∈
/ L(v1 ), l’insieme
Sia f(x, y) = (3x + 2y, y). Gli autovettori (1, −1) e (1, 0), associati agli autovalori λ = 1
{ v1 , v2 } è libero. 
e λ = 3 rispettivamente, sono linearmente indipendenti. Gli autovettori (1, −1) e (2, −2),
associati allo stesso autovalore λ = 1, non sono linearmente indipendenti.

5 / 38 6 / 38

I Un tipico problema di algebra lineare consiste nel determinare autovalori ed autovettori


Ricordiamo che, in uno spazio di dimensione n, un insieme libero può avere al più n
elementi. Un’immediata conseguenza è la seguente: di un endomorfismo o di una matrice. Data A ∈ Mn (R), risolvere il problema agli
autovalori associato vuol dire determinare tutte le possibili coppie (λ, x), con x ∈ Rn
Corollario vettore colonna diverso da zero, tali che
• Se V è uno spazio vettoriale di dimensione n, un endomorfismo f : V → V ha al più n Ax = λx (∗)
autovalori distinti.
L’equazione (∗) è detta equazione agli autovalori. La matrice A si suppone nota, mentre
• Una matrice A ∈ Mn (R) ha al più n autovalori distinti.
sia le componenti di x sia λ sono incognite che vogliamo determinare.

I Lo studio di autovalori ed autovettori di un endomorfismo f di V si può ridurre al caso


Esempi
delle matrici, studiando la matrice rappresentativa di f in una qualsiasi base di V .
• Abbiamo visto che l’applicazione f(x, y) = (2x, 3y) ha autovalori λ1 = 2 e λ2 = 3.
Vedremo come si risolve il problema nel caso delle matrici.
Segue dal corollario precedente che questi sono gli unici suoi autovalori.
I Applicazioni:
• Come già visto, la matrice
" # I geometria (coniche, quadriche);
3 2 I fisica classica (i modi di vibrazione di una corda o di una membrana sono autovalori di una
A= .
0 1 opportuna applicazione lineare);
I fisica quantistica (le righe degli spettri di emissione/assorbimento di un atomo sono autovalori
ha autovalori λ1 = 1, λ2 = 3. Segue dal corollario precedente che A non possiede altri di una opportuna applicazione lineare);
autovalori oltre ai due citati. I economia, elaborazione digitale delle immagini, Google (page ranking), . . .
7 / 38 8 / 38
Polinomio caratteristico [Abate, §13.2] Esempio
Sia
Sia A = (aij ) ∈ Mn (R) e x = t (x1 , x2 , . . . , xn ) . L’equazione " # " #
1 1 1−λ 1
A= =⇒ A − λI2 =
Ax = λx 1 1 1 1−λ
Il polinomio caratteristico è
si può riscrivere come Ax − λx = 0, ovvero
pA (λ) = (1 − λ)2 − 1 = λ(λ − 2) .
(A − λIn )x = 0 . (†)
Gli autovalori della matrice A sono λ1 = 0 e λ2 = 2.
Per il teorema di Cramer, l’equazione (†) ammette soluzioni non nulle se e solo se il
determinante della matrice dei coefficienti è zero. Il determinante Esempio
Sia
a11 − λ a12 ... a1n
" # " #
a a22 − λ ... a2n
21 0 −1 −λ −1
|A − λIn | = .. .. ..

A= =⇒ A − λI2 =
. . . 1 0 1 −λ

a
n1 an2 ... a − λ
nn
Il polinomio caratteristico è

pA (λ) = λ2 + 1 .
è un polinomio reale di grado n nella variabile λ, detto polinomio caratteristico di A ed
indicato con pA (λ). Un numero λ0 ∈ R è autovalore di A se e solo se pA (λ0 ) = 0. Tale polinomio non ammette radici reali. Quindi A non possiede autovalori.
Quindi: gli autovalori di A sono le radici (reali) del polinomio caratteristico pA (λ).
9 / 38 10 / 38

Esempio Metodo pratico di ricerca degli autovalori e autovettori di A:


Sia
  1 si determinano gli autovalori, ovvero le radici reali del polinomio caratteristico;
3 1 1
  2 per ogni autovalore λ, si determinano gli autovettori associati risolvendo il sistema
A = 1 0 2 .
1 2 0 omogeneo
(A − λIn )x = 0 .
Il polinomio caratteristico è dato da (sviluppo di Laplace rispetto alla prima colonna):
Lo spazio delle soluzioni è l’autospazio Vλ , e la sua dimensione è data da
3−λ 1 1
−λ 2 1 1 1 1
dim(Vλ ) = n − ρ(A − λIn )
pA (λ) = 1 −λ 2 = (3 − λ) −
2 −λ
+
−λ

1

2 −λ 2
2 −λ in cui ρ(A − λIn ) è il rango di A − λIn .

= (3 − λ)(λ2 − 4) − (−λ − 2) + (2 + λ) Definizione [Abate, §13.3]


3 2
= −λ + 3λ + 6λ − 8 . Se λ è autovalore di A, chiamiamo:
• molteplicità geometrica di λ, indicata con gλ , la dimensione dell’autospazio associato:
Il polinomio si può fattorizzare come segue (con la regola di Ruffini):
gλ = dim(Vλ )
pA (λ) = −(λ − 1)(λ − 4)(λ + 2) .
• molteplicità algebrica di λ, indicata con mλ , la sua molteplicità come radice del
Gli autovalori di A sono: λ1 = 1, λ2 = 4, λ3 = −2. polinomio caratteristico.
11 / 38 12 / 38
Esempio
Sia A la matrice   Osservazione
1 2 3 Gli autovalori di una matrice triangolare superiore sono gli elementi sulla diagonale.
 
A = 0 1 5 Se infatti
0 0 1  
a11 a12 a13 ... a1n
Siccome A − λI3 è triangolare, il determinante è il prodotto degli elementi sulla diagonale:  
 0 a22 a23 ... a2n 
 
 0 0 a33 ... a3n 
pA (λ) = |A − λI3 | = (1 − λ)3 . A= 
 .. .. .. .. 
 
 . . . . 
Quindi λ = 1 è autovalore di molteplicità algebrica pari a m1 = 3, ed A non possiede altri
0 0 0 ... ann
autovalori. L’autospazio associato V1 si ottiene risolvendo il sistema
allora A − λIn è una matrice triangolare, ed il suo determinante è dato dal prodotto degli
2x2 + 3x3 = 0
(A − I3 )x = 0 ⇐⇒ elementi sulla diagonale:
5x3 = 0

La soluzione è x2 = x3 = 0 e x1 = t ∈ R arbitrario. Quindi pA (λ) = |A − λIn | = (a11 − λ)(a22 − λ)(a33 − λ) . . . (ann − λ) .



V1 = (t, 0, 0) : t ∈ R Tutte e sole le radici del polinomio caratteristico (ovvero gli autovalori di A) sono date dagli
elementi a11 , a22 , . . . , ann .
e la molteplicità geometrica è g1 = dim(V1 ) = 1. Notiamo che g1 < m1 : in questo esempio
la molteplicità geometrica è minore della molteplicità algebrica.
13 / 38 14 / 38

Polinomio caratteristico, traccia e determinante Definizione [Abate, prop. 8.3]

Due matrici A, B ∈ Mn (R) si dicono coniugate se esiste P ∈ Mn (R) invertibile tale che
Il polinomio caratteristico di A ∈ Mn (R) è della forma
B = P−1 AP
pA (λ) := |A − λIn | = (−1)n λn + c1 λn−1 + c2 λn−2 + . . . + cn−1 λ + cn
(Nota: Abate usa il termine “simili” invece di “coniugate”.)
con coefficienti ci ∈ R che dipendono da A. In particolare,
Proposizione. Matrici coniugate hanno lo stesso polinomio caratteristico, la stessa traccia e
cn = pA (0) = |A|
lo stesso determinante.
è il determinante e (−1)n−1 c1 è la somma degli elementi sulla diagonale,
Dimostrazione. Per il teorema di Binet, se P ∈ Mn (R) è una matrice invertibile allora
(−1)n−1 c1 = a11 + a22 + a33 + . . . + ann ,
1 = |In | = |P−1 P| = |P−1 | · |P|
detta traccia della matrice A, e indicata con tr(A):
n
X da cui segue |P−1 | = |P|−1 . Sempre per il teorema di Binet, se B = P−1 AP allora
tr(A) = aii
i=1
B − λIn = P−1 (A − λIn )P
Esercizio e
Calcolare la traccia delle matrici  
" # " # 2 3 1 pB (λ) = |B − λIn | = |P|−1 · |A − λIn | · |P| = |A − λIn | = pA (λ) .
1 4 2 3  
A= B= C = 1 0 −2
3 5 1 −2 Siccome traccia e determinante sono il primo e l’ultimo coefficiente del polinomio caratte-
4 1 7
ristico, da pB (λ) = pA (λ) segue |B| = |A| e tr(B) = tr(A) . 
15 / 38 16 / 38
Matrice del cambiamento di base [Abate, §8.1] In maniera simile, la matrice del cambiamento di base da B 0 a B è la matrice A 0 data da:

B = B0 · A0 .
Siano B = (v1 , . . . , vn ) e B 0 = (v10 , . . . , vn0 ) due basi di uno spazio vettoriale V .
Possiamo allora scrivere i vettori di B 0 nella base B e viceversa. Proposizione
La matrice A del cambiamento di base da B a B 0 è invertibile, e la sua inversa è la matrice
Definizione
A 0 del cambiamento di base da B 0 a B.
Chiamiamo matrice del cambiamento di base da B a B 0 la matrice che ha come j-esima
colonna l’n-upla di componenti di vj0 nella base B (per ogni 1 6 j 6 n). Dimostrazione. Evidentemente:

Indicando con A = (aij ) tale matrice, per definizione (per ogni 1 6 j 6 n):
B = B 0 · A 0 = (B · A) · A 0 = B · (A · A 0 ) ,

ovvero B · (AA 0 − In ) = 0. Indicando con bij gli elementi della matrice AA 0 − In , si ha


vj0 = v1 a1j + v2 a2j + . . . + vn anj . (?)

La formula è più semplice da ricordare scrivendo gli scalari a destra dei vettori.
v1 b1j + v2 b2j + . . . + vn bnj = 0 ∀16j6n.
Nel membro di destra di (?) riconosciamo infatti il prodotto righe per colonne fra la n-upla B Siccome i vettori sono linearmente indipendenti, questo implica
e la j-esima colonna di A. Possiamo riscrivere (?) nella forma compatta
b1j = b2j = . . . = bnj = 0 ∀16j6n,
B0 = B · A .
ovvero AA 0 − In = 0. L’ultima identità si può riscrivere come AA 0 = In . In maniera simile
(Attenzione: B e B sono n-uple di vettori; non sono n-uple di numeri reali.)
0
si dimostra che A 0 A = In . Quindi A 0 = A−1 . 
17 / 38 18 / 38

Matrici rappresentative e cambi di base Proposizione [Abate, prop. 8.2]

Le matrici rappresentative C e C sono legate dalla relazione (di coniugio):


0

I Che relazione c’è tra le matrici rappresentative di un endomorfismo f : V → V in due


C 0 = A−1 · C · A .
basi diverse di V ?
in cui A è la matrice del cambiamento di base da B a B 0 .
I Siano B = (v1 , . . . , vn ) e B 0 = (v10 , . . . , vn0 ) due basi di uno spazio vettoriale V .
Ricordiamo che C = (cij ) si dice matrice rappresentativa di f nella base B se: Dimostrazione. Dalla linearità di f segue che

f(vj0 ) = f(a1j v1 + a2j v2 + . . . + anj vn ) = a1j f(v1 ) + a2j f(v2 ) + . . . + anj f(vn )
f(vj ) = v1 c1j + v2 c2j + . . . + vn cnj , ∀ 1 6 j 6 n.
per ogni 1 6 j 6 n, ossia F 0 = F · A . Poiché F = B · C e F 0 = B 0 · C 0 , si ha
(La j-esima colonna di C è la n-upla di componenti di f(vj ) nella base B.)
B0 · C0 = B · C · A .
In maniera simile è definita la matrice rappresentativa C 0 = (cij
0
) di f nella base B 0 .
I In notazione matriciale, dette Usando B = B 0 · A 0 = B = B 0 · A−1 si ottiene:

 B 0 · C 0 = B 0 · A−1 · C · A
F := f(v1 ) , f(v2 ) , . . . , f(vn )
 che può essere riscritta nella forma B 0 · (C 0 − A−1 CA) = 0. Come nella prova della
F 0 := f(v10 ) , f(v20 ) , . . . , f(vn0 )
proposizione precedente (slide 4), dall’indipendenza lineare dei vettori di B 0 segue
si ha
C 0 − A−1 CA = 0 ,
F =B·C F 0 = B0 · C0
che è proprio la tesi. 
19 / 38 20 / 38
Esercizio Endomorfismi semplici
In R2 , si considerino le basi
  Nell’esercizio precedente, la base B 0 era formata da autovettori dell’endomorfismo f. . .
B = v1 = (1, 0) , v2 = (0, 1) , B 0 = v10 = (1, 1) , v20 = (−1, 1) .

Determinare la matrice A del cambiamento di base da B a B 0 e la matrice A 0 del Definizione


cambiamento di base da B 0 a B. Data l’applicazione lineare f : R2 → R2 , Un endomorfismo f di uno spazio finitamente generato V si dice semplice se esiste una
base di V formata da suoi autovettori.
f(x, y) := (−y, −x)

determinare la matrice rappresentativa di f nella base B e quella nella base B 0 .


Esempi
I L’endomorfimo f di R2 dato da f(x, y) := (−y, −x) è semplice.
L’applicazione f è una riflessione nel piano 
Una base di autovettori è data da B = v1 = (1, 1), v2 = (−1, 1) .
rispetto alla bisettrice del II e IV quadrante, come
v20 v10 (x, y)
mostrato in figura. I L’endomorfimo g di R2 dato da g(x, y) := (2x, 3y) è semplice.
y 
Una base di autovettori è quella canonica B = e1 = (1, 0), e2 = (0, 1) .
I punti della bisettrice, corrispondenti ai vettori y x

proporzionali a v20 = (−1, 1) , sono lasciati I L’endomorfismo h di R2 dato da h(x, y) := (x + 2y, 3x + 2y) è semplice. Una base di
x 
invariati da f . I punti fuori dalla bisettrice autovettori è B = v1 = (2, 3), v2 = (1, −1) . Si può infatti verificare che
vengono riflessi rispetto ad essa. (−y, −x)
h(v1 ) = 4v1 h(v2 ) = −v2

21 / 38 22 / 38

Definizione Osservazione
Una matrice A = (aij ) ∈ Mn (R) si dice diagonale se aij = 0 ∀ i 6= j. Un endomorfismo f di uno spazio V di dimensione n è semplice se esiste una base
B = (v1 , . . . , vn ) di V formata da autovettori di f, ovvero tali che
Definizione
Una matrice A ∈ Mn (R) si dice diagonalizzabile se è coniugata ad una matrice diagonale, f(v1 ) = λ1 v1 f(v2 ) = λ2 v2 ... f(vn ) = λn vn
ovvero se esiste una matrice P ∈ Mn (R) invertibile, detta matrice diagonalizzante di A, tale
con λ1 , . . . , λn autovalori di f.
che P−1 AP è diagonale.
La matrice rappresentativa A = (aij ) di f nella base B è data da
Esempio Esempio 
λ i se i = j,
La matrice Siano aij = (†)
        0 se i 6= j.
6 0 0 1 2 1 1 3 0
  A= P= =⇒ P−1 AP =
A = 0 1 0 2 1 1 −1 0 −1 In altre parole,
0 0 −2
P−1 AP è diagonal-e. La matrice A è quindi diagonal-izzabile e P è I f è semplice ⇐⇒ ∃ una base di V in cui f è rappresentato da una matrice diagonale.
è diagonale. una matrice diagonal-izzante di A (attenzione ai suffissi!).
Le matrici rappresentative di f sono tutte coniugate fra di loro, e in particolare sono coniugate
I Ogni matrice diagonale è diagonalizzabile, essendo coniugata a sé stessa (in questo alla matrice diagonale (†). Quindi
caso, una matrice diagonalizzante è la matrice identica In ).
I I f è semplice se e solo se le sue matrici rappresentative sono (tutte) diagonalizzabili.
Se P è una matrice diagonalizzante di A, anche kP lo è (per ogni k 6= 0). Le matrici
diagonalizzanti di A, se esistono, sono quindi infinite.
23 / 38 24 / 38
Una matrice A è diagonalizzabile se e solo se LA è un endomorfismo semplice. . . . Viceversa, data una matrice diagonalizzante di A, si può costruire una base di
Si può infatti dire di più: data una base di autovettori di A è possibile costruire una matrice autovettori come segue. . .
diagonalizzante come segue. . .
Proposizione
Proposizione
Sia A ∈ Mn (R) diagonalizzabile e P = (pij ) una sua matrice diagonalizzante. Se indichia-
Sia A ∈ Mn (R). Se B = (v1 , . . . , vn ) è una base di Rn formata da autovettori di A, la mo con vj := t (p1j , p2j , . . . , pnj ) la j-esima colonna di P, allora B = (v1 , . . . , vn ) è una
matrice P che ha i vettori di B come colonne è una matrice diagonalizzante di A. base di Rn formata da autovettori di A.

Dimostrazione. I vettori di B sono linearmente indipendenti, quindi ρ(P) = n. Per teorema


Dimostrazione. Sia D := P−1 AP. Per ipotesi, D = (dij ) è diagonale: dij = 0 ∀ i 6= j.
degli orlati |P| 6= 0, e dal teorema di Laplace deduciamo che P è invertibile.
L’elemento (i, j) della matrice PD è:
La j-esima colonna di AP è data da Avj = λj vj . Indicando con Ri la i-esima riga di P−1 , la Xn
condizione P −1
P = In equivale a pik dkj = djj pij
k=1

0 se i 6= j , Ma pij è la i-esima componente di vj . Quindi la j-esima colonna di PD è data dal vettore
Ri · vj =
1 se i = j . colonna djj vj . La j-esima colonna del prodotto AP è data da Avj , da cui

L’elemento di matrice (i, j) di P−1 AP vale quindi D = P−1 AP ⇐⇒ AP = PD ⇐⇒ Avj = djj vj ∀ j = 1, . . . , n



0 se i 6= j ,
Ri · Avj = Ri · (λj vj ) = λj (Ri · vj ) = (le colonne di P sono autovettori di A associate agli autovalori d11 , d22 , . . . , dnn ).
λi se i = j .
Siccome |P| 6= 0, allora ρ(P) = n (teorema degli orlati) e le colonne di P sono n vettori di
Questo prova che P−1 AP è diagonale, e P è una matrice diagonalizzante di A.  Rn linearmente indipendenti. Formano quindi una base. 
25 / 38 26 / 38

Diagonalizzabilità in campo complesso Ancora su traccia e determinante. . .


Non tutti gli endomorfismi sono semplici, e non tutte le matrici sono diagonalizzabili. Ad Se D = P−1 AP è diagonale
esempio, l’endomorfismo di R : 2
 
λ1 0 ... 0
f(x, y) := (−y, x)  
 0 λ2 ... 0 
D=
 .. .. .. 

non è semplice (è una rotazione antioraria di 90◦ , ed abbiamo visto che non possiede  . . . 
autovettori). Di conseguenza la sua matrice rappresentativa 0 0 ... λn
" #
0 −1 allora è triangolare superiore, e i suoi autovalori sono gli elementi sulla diagonale.
1 0
Matrici coniugate hanno lo stesso polinomio caratteristico, quindi hanno anche gli stessi
non è diagonalizzabile. autovalori. In particolare, gli autovalori di A sono proprio λ1 , λ2 , . . . , λn .
Le cose cambiano completamente se invece di lavorare con i numeri reali si lavora
Matrici coniugate hanno lo stesso determinante e la stessa traccia, ma determinante e
con i complessi. Ad esempio, l’endomorfismo f : C2 → C2 dato da f(x, y) := (−y, x) (come
traccia di D sono facili da calcolare:
sopra, ma con R sostituito da C) è semplice. Infatti, detti

v1 = (i, 1) v2 = (1, i) |A| = |D| = λ1 λ2 · · · λn tr(A) = tr(D) = λ1 + λ2 + . . . + λn



con i = −1, si ha Osservazione. Il determinante di una matrice diagonalizzabile è il prodotto dei suoi
f(v1 ) = i v1 f(v2 ) = −i v2 autovalori. La traccia di una matrice diagonalizzabile è la somma dei suoi autovalori.
27 / 38 28 / 38
Esercizio
Esercizi Determinare gli autovalori della matrice:
 
Esercizio 1 2 −4
 
Siano A, B, C, D le seguenti matrici:
A=4 3 −8 
2 2 −5
" # " # " # " #
−1 1 −1 2 −3 4 1 0
A= B= C= D= Soluzione. Semplifichiamo A − λI3 :
0 −1 −3 1 1 0 0 2
   
1−λ 2 −4 1−λ 2 −4
a) Determinare il polinomio caratteristico di ciascuna matrice.   R2 →R2 −2R1  
A − λI3 =  4 3−λ −8  −−−−−−−→ 2(λ + 1) −(λ + 1) 0 
b) Determinare gli autovalori di ciascuna matrice. R3 →R3 −R1
2 2 −5 − λ λ+1 0 −(λ + 1)
c) Stabilire quale delle quattro matrici è diagonalizzabile.
Possiamo portare i fattori λ + 1 “fuori” dal determinante (operazione elementare II):
 
Esercizio (Esame del 04/07/2011) 1−λ 2 −4
 
Determinare autovalori e autovettori della matrice: |A − λI3 | = (λ + 1)(λ + 1)  2 −1 0
1 0 −1
 
3 5 1
  L’ultimo determinante si calcola con lo sviluppo di Laplace rispetto alla terza riga, ed è
A= 0 1 0
uguale a 1 − λ. Gli autovalori sono quindi:
−9 4 −3
λ1 = −1 λ2 = −1 λ3 = 1 X
29 / 38 30 / 38

Teorema [Abate, prop. 13.8]


Diagonalizzabilità di una matrice: criteri
Per ogni autovalore λ0 di A, si ha 1 6 gλ0 6 mλ0 .
Ricordiamo che un polinomio reale p(x) di grado n si può sempre scrivere nella forma:
Dimostrazione. Sia k = gλ0 . Prendiamo una base (v1 , . . . , vk ) di Vλ0 e completiamola ad
p(x) = c(x − z1 )m1 (x − z2 )m2 . . . (x − zr )mr una base B = (v1 , . . . , vk , vk+1 , . . . , vn ) di Rn . Siccome per ogni i 6 k,

dove c ∈ R, z1 , . . . , zr ∈ C sono radici complesse distinte di p(x), 1 6 r 6 n ed mi è detta (A − λIn )vi = (λ0 − λ)vi ,
molteplicità della radice zi . Ad esempio:
l’applicazione lineare LA−λIn nella base B è rappresentata da una matrice
3 2 2  
x + x − 33x + 63 = (x − 3) (x + 7) λ0 − λ 0 ... 0 ∗ ... ∗
√  
 0 λ0 − λ ... 0 ∗ ... ∗ 

x2 + 2x + 2 = (x + 1 − i)(x + 1 + i) i = −1  . . . . . 
 . . . . . 
 . . . . . 
 
Ovviamente M= 
 0 0 ... λ0 − λ ∗ ... ∗ 

 ∗ 
m 1 + m2 + . . . + m r = n .  0 0 ... 0 ∗ ... 
 . . . . . 
 . . . . . 
 . . . . . 
Osservazione 0 0 ... 0 ∗ ... ∗

Gli autovalori di una matrice A ∈ Mn (R) sono le radici reali di pA (λ). Dette λ1 , . . . , λr le Facendo k volte lo sviluppo di Laplace rispetto alla prima colonna si ricava
radici reali distinte, per la molteplicità algebrica vale la disuguaglianza
pA (λ) = |A − λIn | = |M| = (λ0 − λ)k q(λ)
mλ1 + mλ2 + . . . + mλr 6 n ,
dove q(λ) è un polinomio in λ. La molteplicità algebrica di λ0 è k se λ0 non è una radice di
e si ha uguaglianza se e solo se tutte le radici di pA (λ) sono reali.
q(λ), altrimenti è maggiore di k. Questo prova che mλ0 > k = gλ0 . 
31 / 38 32 / 38
Teorema (Criterio di diagonalizzabilità di una matrice) [Abate, teorema 13.9]

Una matrice A ∈ Mn (R) è diagonalizzabile se e solo se:


Definizione
i) tutte le radici del polinomio caratteristico sono reali;
Sia A ∈ Mn (R). Un autovalore λ di A si dice:
ii) tutti gli autovalori di A sono semisemplici.
• semplice se ha molteplicità algebrica uguale ad 1: mλ = 1. Dimostrazione. 1a parte: la condizione i) è necessaria.
• semisemplice se ha molteplicità algebrica uguale quella geometrica: mλ = gλ . Se A è coniugata ad una matrice diagonale D,
 
d11 0 ... 0
 
Dalla disuguaglianza  0 d22 ... 0 
D=
 .. .. .. 

 . . . 
1 6 gλ 6 mλ
0 0 ... dnn
segue che, se mλ = 1, anche gλ = 1. Quindi:
allora

Osservazione pA (λ) = pD (λ) = (d11 − λ)(d22 − λ) . . . (dnn − λ) .


Ogni autovalore semplice è semisemplice.
Tutte e sole le radici del polinomio caratteristico sono date dagli elementi sulla diagonale
della matrice D. Sono quindi numeri reali.

33 / 38 34 / 38

Teorema (Criterio di diagonalizzabilità di una matrice) [Abate, teorema 13.9] Teorema (Criterio di diagonalizzabilità di una matrice) [Abate, teorema 13.9]

Una matrice A ∈ Mn (R) è diagonalizzabile se e solo se: Una matrice A ∈ Mn (R) è diagonalizzabile se e solo se:
i) tutte le radici del polinomio caratteristico sono reali; i) tutte le radici del polinomio caratteristico sono reali;
ii) tutti gli autovalori di A sono semisemplici. ii) tutti gli autovalori di A sono semisemplici.

Dimostrazione. 2a parte: la condizione ii) è necessaria. Dimostrazione. 3a parte: le condizioni i) e ii) sono sufficienti.
Siano λ1 , λ2 , . . . , λr gli autovalori di A, con λi 6= λj ∀ i 6= j e r 6 n. Per k = 1, . . . , r, Sia ni = gλi = dim(Vλi ), 1 6 i 6 r. Scegliamo una base di ciascun autospazio:
indichiamo con Ik ⊂ R l’insieme delle colonne della matrice diagonalizzante P che
n
B1 = (u1 , u2 , . . . , un1 ) base di Vλ1 ,
appartengono all’autospazio Vλk . Poichè si tratta di vettori linearmente indipendenti (le
B2 = (v1 , v2 , . . . , vn2 ) base di Vλ2 ,
colonne di P sono una base di Rn ), ed essendo dim(Vλi ) = gλi , I1 ha al più gλ1 elementi,
.. ..
I2 ha al più gλ2 elementi, etc. In tutto le colonne di P sono n, da cui . .
Br = (w1 , w2 , . . . , wnr ) base di Vλr .
n 6 gλ1 + gλ2 + . . . + gλr 6 mλ1 + mλ2 + . . . + mλr = n
e mostriamo che B = B1 ∪ B2 ∪ . . . ∪ Br è un insieme libero di Rn . Sia
L’ultima uguaglianza segue dal fatto che tutte le radici di pA (λ) sono reali (oss. 18.1.1). Se
u = a1 u1 + a2 u2 + . . . + an1 un1
ne deduce che le precedenti disuguaglianze sono uguaglianze, e
v = b 1 v 1 + b 2 v 2 + . . . + b n2 v n2
(mλ1 − gλ1 ) + (mλ2 − gλ2 ) + . . . + (mλr − gλr ) = n − n = 0 .. ..
. .
Ma mλi − gλi > 0 (per il teorema precedente), e una somma di termini non negativi è nulla
w = c1 w1 + c2 w2 + . . . + cnr wnr
se e solo se tutti i termini sono zero. Si ricava mλi − gλi = 0 ∀ i, ossia la condizione ii).
35 / 38 36 / 38
Teorema (Criterio di diagonalizzabilità di una matrice) [Abate, teorema 13.9] Quella che segue è una semplice condizione sufficiente (ma non necessaria). . .
Una matrice A ∈ Mn (R) è diagonalizzabile se e solo se: Osservazione
i) tutte le radici del polinomio caratteristico sono reali; Se A ∈ Mn (R) ha n autovalori distinti (cioé: se tutti gli autovalori sono semplici), allora è
ii) tutti gli autovalori di A sono semisemplici. diagonalizzabile.

(. . . segue.) Poichè autovettori associati ad autovalori distinti sono linearmente


Dimostrazione. n autovettori associati ad n autovalori distinti di A formano un insieme
indipendenti, la somma
libero. Ma in Rn un insieme libero di n vettori è una base. 
(a1 u1 + a2 u2 + . . . + an1 un1 ) + (b1 v1 + b2 v2 + . . . + bn2 vn2 ) +
(?) Concludiamo con un teorema, enunciato senza dimostrazione.
+ . . . + (c1 w1 + c2 w2 + . . . + cnr wnr ) = u + v + . . . + w
Definizione
è 0 solo se u = v = . . . = w = 0. Poichè B1 è libero, u = a1 u1 + . . . + an1 un1 = 0 implica
a1 = a2 = . . . = an1 = 0. In maniera simile siccome B2 è libero, v = 0 implica Una matrice A ∈ Mn (R) si dice simmetrica se t A = A.
b1 = b2 = . . . = bn2 = 0, etc. La combinazione lineare (?) è zero solo se tutti i coefficienti
sono nulli, quindi B è un insieme libero. Il numero di elementi di B è dato da Teorema spettrale [Abate, §14.1]

Sia A ∈ Mn (R) una matrice simmetrica. Allora:


gλ1 + gλ2 + . . . + gλr = mλ1 + mλ2 + . . . + mλr = n
• A è diagonalizzabile;
La prima uguaglianza segue dalla condizione ii) e la seconda da i) e dall’osservazione nella
• autovettori associati ad autovalori distinti sono ortogonali;
slide 17. Ma n vettori di Rn linearmente indipendenti formano una base. Abbiamo trovato
• esiste una base ortonormale di Rn formata da autovettori di A.
una base B di Rn formata da autovettori di A, e questo prova che A è diagonalizzabile. 
37 / 38 38 / 38

Potrebbero piacerti anche