Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
08/03/2018
Introduzione Modalità d’esame
Istruzioni: Appelli Info
I tutte le informazioni su questo corso, incluse le slide delle lezioni e l’orario di L’esame è diviso in due parti:
giugno 2018 1 appello
ricevimento, sono (o saranno) reperibili sul sito: sessione estiva 1. prova scritta (esercizi);
luglio 2018 1 appello
www.docenti.unina.it/francesco.dandrea ( “links” ) 2. prova orale (teoria ed esercizi).
sessione autunnale settembre 2018 1 appello
I Iscrivetevi al corso sul sito docenti. Prenotarsi su:
gennaio 2019 1 appello
sessione invernale www.segrepass.unina.it
Testi consigliati: febbraio 2019 1 appello
3 / 25 4 / 25
Notazioni
S IMBOLO S IGNIFICATO
∀ “per ogni” (detto quantificatore universale)
∃ “esiste” (detto quantificatore esistenziale)
— N OZIONI P RELIMINARI — ∃! “esiste ed è unico”
=⇒ implicazione logica
(Abate, §1) ⇐⇒ “se e solo se”
:= definizione (a := b si legge “a per definizione è uguale a b”)
: “tale che”
| “tale che”
∧ “e” (detto congiunzione logica)
∨ “o” (detto disgiunzione logica)
5 / 25 6 / 25
I numeri complessi si ottengono dai reali aggiungendo ad essi una radice del numero reale Sottoinsieme proprio:
√
−1, detta unità immaginaria ed indicata con il simbolo “i” o “ −1”.
A⊂B ⇐⇒ ∀ x ∈ A, x ∈ B ∧ ∃ b ∈ B : b ∈
/A .
Un numero complesso è un numero della forma
√
z=x+ −1 y x, y ∈ R . Definizione
√ Intersezione, unione e differenza:
Sia z 0 = x 0 + −1 y 0 (con x 0 , y 0 ∈ R). I numeri complessi si sommano e moltiplicano
secondo la regola
A ∩ B := x : x ∈ A ∧ x ∈ B ,
√ √
z + z 0 = (x + x 0 ) + −1 (y + y 0 ) , z · z 0 = xx 0 − yy 0 + −1 (xy 0 + x 0 y) . A ∪ B := x : x ∈ A ∨ x ∈ B ,
A r B := x : x ∈ A ∧ x ∈
/B .
Un’equazione polinomiale (di grado > 1) ammette sempre soluzioni in campo complesso!
(Torneremo sull’argomento più avanti. . . )
Si indica con ∅ l’insieme vuoto, ovvero privo di elementi.
9 / 25 10 / 25
7
ArB BrA
Paolo
√
2 A B A B
11 / 25 12 / 25
Proprietà delle operazioni fra insiemi n-uple
Sia A un insieme. Chiameremo n-upla (si legge “ennupla”) di elementi di A una “lista” di n
elementi a1 , a2 , a3 , . . . , an di A. Useremo la notazione:
A ⊆ B ∧ B ⊆ A =⇒ A = B
(a1 , a2 , a3 , . . . , an ) .
A∩A=A∪A=A
L’insieme di tutte le n-uple di elementi di A sarà indicato con An . Per chi ricorda la
A∩∅=∅ definizione di prodotto Cartesiano:
A∪∅=A An = A × A × . . . × A .
| {z }
A∩B=B∩A (proprietà commutativa di ∩) n volte
Esempi:
A∪B=B∪A (proprietà commutativa di ∪)
(9, 7) è una coppia di numeri interi (A = Z);
√
(A ∩ B) ∩ C = A ∩ (B ∩ C) (proprietà associativa di ∩) (π, 1, 2) è una tripla di numeri reali (A = R);
(A ∪ B) ∪ C = A ∪ (B ∪ C) (proprietà associativa di ∪) (♣, ♠) è una coppia di semi delle carte da gioco;
(Terra , Sole , Luna , Plutone) è una quadrupla di corpi celesti.
Sistema di riferimento monodimensionale: si fissa un punto, detto origine ed indicato con Sistema di riferimento bidimensionale: si scelgono due rette non parallele, la cui
O, un verso di percorrenza ed un’unità di misura delle lunghezze. intersezione determina l’origine del sistema di riferimento, un orientamento per ciascuna
retta ed una unità di misura delle lunghezze.
Fissare un verso vuol dire scegliere una semiretta fra le due uscenti da O.
Per convenzione se P 6= O appartiene a tale semiretta, diremo che O precede P.
In caso contrario diremo che P precede O. Fissato un sistema di
P(x, y) riferimento, ogni punto
y
P della retta è indivi-
O P duato da un una coppia
| {z } ordinata di numeri reali
x α
(x, y) ∈ R2 , detti ascissa
O x e ordinata del punto P.
Fissato un sistema di riferimento, ogni punto P della retta è individuato da un numero reale
x ∈ R, il cui modulo indica la distanza di P dall’origine, nelle unità scelte. Si prende x > 0
se O precede P, e x < 0 in caso contrario. Se α = 90◦ , il sistema di riferimento si dice ortogonale.
15 / 25 16 / 25
Funzioni/applicazioni Funzioni/applicazioni
A un elemento y = f(x) in B, detto immagine di x tramite f. L’ insieme A si dice dominio e 2 iniettiva se x 6= y =⇒ f(x) 6= f(y) (ovvero se f(x) = f(y) =⇒ x = y );
l’insieme B si dice codominio di f.
3 biunivoca (o biettiva o 1 a 1) se sia iniettiva che suriettiva.
A=C, B=D, f(x) = g(x) ∀ x ∈ A . Sia A l’insieme dei giocatori di Napoli, Lazio e Inter, B l’insieme delle tre squadre di calcio
citate, ed f : A → B la funzione che associa ad ogni giocatore la squadra a cui appartiene.
Tale funzione è suriettiva, ma non è iniettiva.
17 / 25 18 / 25
La composizione di applicazioni può essere visualizzata graficamente. Si considerino ad I Si verifica facilmente che la composizione di applicazioni è associativa, ovvero date
esempio gli insiemi A := {a, b, c}, B = {p, q, r, s}, C = {α, β, γ} e le applicazioni: tre applicazioni qualsiasi
f g h
p p A −−−−→ B −−−−→ C −−−−→ D
a α
q q
b β vale l’uguaglianza
r r
c γ h ◦ (g ◦ f) = (h ◦ g) ◦ f .
s s
I Date due applicazioni f : A → A e g : A → A, l’uguaglianza
f:A→B g:B→C
f◦g=g◦f
La loro composizione g ◦ f : A → C è l’applicazione:
non è sempre soddisfatta. Si dice che la composizione di applicazioni non gode della
a α proprietà commutativa.
b β
I Un esempio di applicazioni f e g tali che f ◦ g 6= g ◦ f è nella prossima slide.
c γ
21 / 25 22 / 25
a a a a
Esempio con diagrammi di Venn:
b b b b
c c c c a p p a
b q q b
g◦f:A→A f◦g:A→A
c r r c
f:A→B f−1 : B → A
23 / 25 24 / 25
Applicazioni invertibili e applicazioni biunivoche
I Si dimostra che una applicazione f : A → B è invertibile se e solo se è biunivoca, e
che l’applicazione inversa se esiste è anche unica.
I Nel caso in cui A e B sono insiemi finiti, l’equivalenza fra biunivocità e invertibilità è
chiara dai diagrammi di Venn:
I Una applicazione è biunivoca se e solo se da ogni punto di A parte una e una
sola freccia e in ogni punto di B arriva una e una sola freccia.
I L’ applicazione inversa si ottiene cambiando il verso di tutte le frecce.
Per insiemi infiniti questo in generale non è vero, ma vedremo che valgono proprietà
analoghe se A e B sono spazi vettoriali ed f : A → B è una applicazione lineare (la
cui definizione verrà introdotta più avanti nel corso).
25 / 25
Matrici [Abate, def. 3.3] Matrice trasposta
Se A ∈ Rm,n è la matrice
Una matrice di tipo m × n è una tabella di elementi disposti in m righe e n colonne.
a11 a12 ... a1n
Esempi: a
" #
√ 21 a22 ... a2n
5 3 −5 2 2 A := ..
2 −1 7 12
.. ..
1 −1 7 π . . .
3
1 0 4
2 0 3 −1 0 am1 am2 ... amn
Se gli elementi di matrice sono numeri reali, si parlerà di matrice reale. Notazione: chiamiamo trasposta di A, indicata con tA (oppure At o AT ), la matrice di tipo n × m che si
Vettori riga e vettori colonna Somma e prodotto per uno scalare: vettori riga [Def. 4.1]
3 / 14 4 / 14
Esempi Proprietà dei vettori riga
1. v + w = w + v (proprietà commutativa di +)
Esempio in R 2
2. (u + v) + w = u + (v + w) (proprietà associativa di +)
Sia v = (1, −5) e w = (3, 7). Allora 3. v + 0Rn = v (0Rn è elemento neutro)
ii) ∀ k, k 0 ∈ R e ∀ v, w ∈ Rn si ha
Notiamo che, in questo esempio, v + w = w + v.
5. (k + k 0 )v = kv + k 0 v (proprietà distributiva I)
5 / 14 6 / 14
In maniera simile si dimostrano le altre proprietà: la proprietà associativa della somma fra Esempio
n-uple segue dalla proprietà associativa della somma fra numeri reali, le proprietà " # " # " # " #
"√ √ #
1 7 12 0 13 7 √ 1 1
3 3
distributive I e II seguono dalla proprietà distributive del prodotto fra numeri reali, etc. + √ = √ 3· 4
= √ 4
√
2 π 3 −5 2+ 3 π−5 2 π 2 3 π 3
7 / 14 8 / 14
Proprietà delle matrici Prodotto di due matrici [Abate, §7.2]
Siano
Proposizione b1
b2
Valgono le seguenti proprietà: A = (a1 , a2 , . . . , an ) B = t (b1 , b2 , . . . , bn ) =
.
.
.
i) ∀ A, B, C ∈ Rm,n si ha
bn
1. A + B = B + A (proprietà commutativa di +) Il loro prodotto è per definizione il numero reale dato da:
2. (A + B) + C = A + (B + C) (proprietà associativa di +)
A · B := a1 b1 + a2 b2 + . . . + an bn
3. A + 0Rm,n = A (0Rn è elemento neutro)
4. A + (−A) = 0Rm,n (esistenza dell’opposto) Esempio
Se A = (−1, 7, 3) e B = t (9, 2, 5) si ha
ii) ∀ k, k 0 ∈ R e ∀ A, B ∈ Rm,n si ha
5. (k + k 0 )A = kA + k 0 A (proprietà distributiva I) A · B = −1 · 9 + 7 · 2 + 3 · 5 = −9 + 14 + 15 = 20 .
Esercizio
Date le matrici " # " #
0 1 0 0
Esercizio A= , B= ,
0 0 1 0
Date
" # calcolare A · B e B · A.
1 2
1 2 −1
A= , B = 3 1 ,
3 0 1 Soluzione. " # " #
2 4 1 0 0 0
AB = BA =
calcolare le matrice A · B. 0 0 0 1
X
11 / 14 12 / 14
Esercizio
Data la matrice Esercizio (da C. Carrara, es. 1.3)
"
#
2 4 Date le seguenti matrici:
A=
−1 −2 5 0
" # −2 4 1
0 −2 5 −1 2
calcolare A2 = A · A. A1 = A2 = A3 = −4 4 4
4 −3 2 4 5
0 0 0
5 −1
Esercizio (C. Carrara, es. 1.4)
Date le seguenti matrici: calcolare, quando possibile, i prodotti Ai · Aj (per i, j = 1, 2, 3).
1 0 0 0 Vediamo in quali casi il prodotto Ai · Aj è definito:
h i 0 1 0 0
A= 1 2 3 4 I4 = A1 · A1 no A1 · A2 no A1 · A3 sı̀
0 0 1 0
0 0 0 1 A2 · A1 sı̀ A2 · A2 no A2 · A3 no
calcolare A · I4 . A3 · A1 no A3 · A2 no A3 · A3 sı̀
13 / 14 14 / 14
Proprietà del prodotto fra matrici In maniera simile si verifica che:
Il prodotto di A = (aij ) ∈ Rm,n e B = (bjk ) ∈ Rn,p si ottiene “contraendo” l’indice di
colonna di aij con l’indice di riga di bjk . L’elemento in posizione (i, k) di AB è: Proposizione (Bilinearità del prodotto)
Xn Per ogni λ ∈ R, A, A 0 ∈ Rm,n e B, B 0 ∈ Rn,p valgono le proprietà:
ai1 b1k + ai2 b2k + . . . + ain bnk = aij bjk
j=1
i) (A + A 0 )B = AB + A 0 B;
Dimostrazione. L’elemento di matrice in posizione (i, k) di A(BC) è dato da Proposizione (Proprietà della trasposizione)
Xn Xp X Per ogni A, A 0 ∈ Rm,n , B ∈ Rn,p e λ ∈ R si ha
aij bjh chk = aij bjh chk ,
j=1 h=1
| {z } j=1,...,n i) t
(A + A 0 ) = t A + t A 0 ;
elemento (j,k) di BC h=1,...,p
ii) t
(AB) = ( t B) · ( t A) ;
l’elemento di matrice in posizione (i, k) di (AB)C è dato da
Xn iii) t
(λA) = λ( t A) .
Xp X
aij bjh chk = aij bjh chk .
h=1 j=1
| {z } j=1,...,n
elemento (i,h) di AB h=1,...,p
1 / 16 2 / 16
Definizione Proposizione
Elementi di R n,n
si dicono matrici quadrate. Notazione alternativa: Mn (R). Per ogni A ∈ Rm,n si ha
Se A = (aij ) ∈ Mn (R) è una matrice quadrata, gli elementi aii (1 6 i 6 n) si dice Im A = AIn = A .
che formano la diagonale principale di A. Diciamo che In è elemento neutro rispetto al prodotto di matrici.
3 / 16 4 / 16
Sistemi di equazioni lineari Generalità sui sistemi lineari
Esempi: Una equazione in n incognite x1 , . . . , xn a coefficienti in R si dice lineare se è della forma:
x+y=0
3x = 6 2x + y = 13
x−y=5 a1 x1 + a2 x2 + . . . + an xn = b , (∗)
I coefficienti possono assumere qualsiasi valore reale, incluso lo zero. Esempi:
con a1 , a2 , . . . , an , b ∈ R. I numeri ai si dicono coefficienti e b è detto termine noto.
0x = 2 3x + 0y = 7
Una n-upla
Alcune applicazioni:
v = (v1 , . . . , vn ) ∈ Rn
Circuiti elettrici. Leggi di Kirkoff (e Ohm: V = RI):
X X si dice soluzione dell’equazione (∗) se sostituendo vi ad xi in (∗), per ogni 1 6 i 6 n,
Ie − Iu = 0 (la somma algebrica delle correnti in un nodo è zero)
X l’equazione si riduce ad una identità fra numeri reali.
Vi = 0 (la somma algebrica delle tensioni lungo una linea chiusa è zero)
Esempio
Chimica. Bilanciamento di un’equazione chimica. (4, 1, 6) ∈ R3 è una soluzione dell’equazione 3x1 + x2 − 2x3 = 1.
Economia. Sistema di input-output (modello che descrive le relazioni tra le quantità di
beni prodotte e consumate in un certo sistema economico). Esempio
Wassily Wassilyovich Leontief, Premio Nobel per l’Economia (1973). (3, 5) ∈ R2 non è soluzione dell’equazione x1 + x2 = 0.
5 / 16 6 / 16
Esercizio
Scrivere l’equazione 1 − x = 3x + x nella “forma normale” ax = b . Chiamiamo soluzione generale di un sistema Σ l’insieme di tutte le sue soluzioni.
Scrivere in forma normale l’equazione: 3x + y + 2y + 1 − x = 3y + 2 . La soluzione generale di un sistema Σ è quindi un sottoinsieme SΣ ⊆ Rn .
Un sistema di m equazioni lineari in n incognite è un insieme di equazioni Un sistema si dice compatibile (o risolubile) se ammette soluzioni, ovvero SΣ 6= ∅; se non
ha soluzioni, il sistema si dirà incompatibile.
a11 x1 + a12 x2 + ... + a1n xn = b1
a21 x1 + a22 x2 + ... + a2n xn = b2
Σ: .. .. .. .. .. Esempio
. . . . .
Si considerino i tre sistemi
am1 x1 + am2 x2 + ... + amn xn = bm
x1 + 3x2 = 0 x1 − x2 = 0 x1 + x2 = 0
con aij ∈ R e bi ∈ R. Una soluzione del sistema è una n-upla (v1 , . . . , vn ) ∈ Rn
che risolve simultaneamente tutte le m equazioni. x1 + 3x2 = 1 x1 + x2 = 2 2x1 + 2x2 = 0
Esercizio Il primo è incompatibile; il secondo ammette (1, 1) come unica soluzione; qualunque coppia
Verificare quali fra le seguente triple (t, −t) è soluzione del terzo sistema, per ogni valore del parametro reale t ∈ R.
Esercizio
Sistemi lineari e matrici
Si scriva la matrice completa del sistema:
Dato un sistema
x1 − 2x2 + x3 = 1
a11 x1 + a12 x2 + ... + a1n xn = b1
2x1 − 4x2 = 2
a21 x1 + a22 x2 + ... + a2n xn = b2
.. .. .. .. ..
. . . . .
am1 x1 + am2 x2 + ... + amn xn = bm Esercizio
a1 x1 + a2 x2 + . . . + an xn = b .
Esercizio
Se almeno un coefficiente è diverso da zero, diciamo a1 , possiamo assegnare alle
Si consideri la matrice completa:
incognite xi , i 6= 1, dei valori ti ∈ R arbitrari, e ricavare:
x1 = a−1 − a−1 + a3 t3 + . . . + an tn ) . 6 −4 0 3 2
1 b 1 (a2 t2
(A|B) =
0 0 0 0 2
Le soluzioni sono in corrispondenza biunivoca con elementi (t2 , t3 , . . . , tn ) ∈ Rn−1 . 1 0 1 2 11
In questo caso, le incognite x2 , . . . , xn si dicono libere.
Dire se il sistema lineare associato è compatibile.
(1) se (a1 , . . . , an ) 6= (0, . . . , 0) le soluzioni in corrispondenza biunivoca con Rn−1 .
(2 0 ) se b 6= 0 il sistema è incompatibile.
(2) se (a1 , . . . , an ) = (0, . . . , 0) allora (2 00 ) se b = 0 ogni n-upla (t , . . . , t ) di
1 n
R è una soluzione.
n
15 / 16 16 / 16
Cenni sul determinante [Abate, §9] Determinante di matrici 2 × 2
Ad ogni matrice quadrata è possibile associare uno scalare detto “determinante” della
matrice stessa (poichè, fra le altre cose, serve a “determinare” se un sistema di n Esempio
equazioni lineari in n incognite ammette un’unica soluzione, cf. teorema di Cramer).
1 7
+ − = 5 − (−14) = 19
−2 5
Sia A = (aij ) ∈ Mn (R). Il determinante di A, indicato con |A| o det A , è definito come
a11 a12
segue. Se n = 1, |A| := a11 . Se n = 2, 0 4
= a11 a22 − a12 a21 = 0 · 3 − 4 · 1 = −4
1 3
a21 a22
|A| := a11 a22 − a12 a21
2 3
=6−3=3
Se n = 3, 1 3
|A| := a11 a22 a33 + a13 a21 a32 + a12 a23 a31 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33
Al crescere di n la definizione esplicita è sempre più complicata. Per n > 4, Osservazione: non vale la proprietà |A| + |B| = |A + B| . Controesempio:
|A| := (a11 a22 a33 a44 · · · ann ) − (a12 a21 a33 a44 · · · ann ) + (a12 a23 a31 a44 · · · ann ) + . . . 1 0 −1 0
A= , B= .
0 1 0 −1
è una somma di n! monomi di grado n negli elementi di A.
Si ha A + B = 0R2,2 , quindi |A + B| = 0 . Ma |A| = |B| = 1 e |A| + |B| = 2 .
Non darò la definizione generale, ma spiegherò dei metodi di calcolo.
1 / 10 2 / 10
Esercizio
Enunciamo senza dimostrazione: Si calcoli il determinante delle seguenti matrici:
Teorema di Binet [Abate, §9.3] 1 2 1 1 2 3 3 0 0
Il determinante di un prodotto è il prodotto dei determinanti: A= 3 1 4 , B = 3 1 3 , C = 0 2 0 .
−3 5 −1 1 2 3 0 0 −7
|AB| = |A| · |B| ∀ A, B ∈ Mn (R)
3 / 10 4 / 10
Sviluppo di Laplace [Abate, §9.2] Esercizio
Calcolare il determinante della matrice
Sia A = (aij ) ∈ Mn (R) e indichiamo con Ahk ∈ Mn−1 (R) la matrice che si ottiene da A 0 1 2 0
4 2
eliminando la riga h e la colonna k. 0 1
A=
3 1 1 0
Definizione 0 2 1 4
La matrice Ahk si dice minore complementare dell’elemento ahk , e lo scalare
Soluzione. Con lo sviluppo di Laplace rispetto alla prima colonna si trova:
Γhk = (−1)h+k |Ahk |
0 1 2 1 2 0 1 2 0 1 2 0
è detto complemento algebrico o cofattore dell’elemento ahk .
|A| = 0 1 1 0 − 4 1 1 0 + 3 0 1 2 − 0 0 1 2
2 1 4 2 1 4 2 1 4 1 1 0
Enunciamo senza dimostrazione:
sviluppando il 2◦ e 3◦ determinante rispetto alla terza colonna:
Sviluppo di Laplace per righe Sviluppo di Laplace per colonne
1 2 1 2 1 2
Per ogni 1 6 i 6 n fissato, si ha: Per ogni 1 6 j 6 n fissato, si ha: = −4 · 4 + 3 · (−2) + 4
1 1 2 1 0 1
n
X n
X
|A| = aij Γij |A| = aij Γij = −4 · 4 · (1 − 2) + 3 · (−2) · (1 − 4) + 3 · 4 · 1
j=1 i=1 = 16 + 18 + 12 = 46 . X
5 / 10 6 / 10
A∗ := (Γij ) Soluzione.
3 1 5 3 1 5 3 1 5
+ 0 4 1 − 0 4 1 + 0 4 1
Enunciamo senza dimostrazione:
2 3 1 2 3 1 2 3 1
3 1 5 3 1 5 3 1 5
Teorema di Laplace
∗
A = − 0 4 1 + 0 4 1 − 0 4 1
A ∈ Mn (R) è invertibile se e solo se |A| 6= 0, ed in tal caso l’inversa è data da
2 3 1 2 3 1 2 3 1
1 t ∗
A−1 = (A ) 3 1 5 3 1 5 3 1 5
|A|
+ 0 4 1 − 0 4 1 + 0 4 1
2 3 1 2 3 1 2 3 1
7 / 10 8 / 10
Regola di Cramer
9 / 10 10 / 10
Esercizio
Risolvere il sistema:
x1 + x3 = 3
2x1 + x2 − x3 = 0
−x1 + x2 =3
La soluzione è quindi x1 = 0, x2 = 3, x3 = 3 .
11 / 10
Sistemi equivalenti Operazioni elementari [Abate, §3.3]
x+y=1 2x + 2y = 2 (III 0 ) Sostituire un’equazione Ei con quel- Sostituire una riga Ri con quella otte-
la ottenuta sommando ad essa un nuta sommando ad essa un multiplo di
Esercizio multiplo di un’altra equazione Ej : un’altra riga Rj :
1 / 24 2 / 24
Matrici triangolari [Abate, §3.2] Determinante di una matrice triangolare [Esempio 9.3]
3 / 24 4 / 24
Metodo di eliminazione di Gauss [Abate, §3.3] Metodo di eliminazione di Gauss
Proposizione (senza dimostrazione)
Primo passo:
Sia A ∈ Mn (R). Allora:
1. Riordinare le righe in modo che sia a11 6= 0; se ai1 = 0 ∀ i, l’algoritmo è finito.
1 se B è una matrice ottenuta da A scambiando fra di loro due righe (o due colonne),
2. Per ogni i > 1, effettuare la sostituzione
allora |B| = −|A|; Operazione (I)
ai1
2 se B è ottenuta da A moltiplicando per λ ∈ R gli elementi di una sua riga (o colonna), Ri → Ri − R1
a11
allora |B| = λ|A|; Operazione (II)
Risultato:
3 se B è ottenuta da A sommando a una sua riga (o colonna) un multiplo di un’altra riga
(o colonna), allora |B| = |A|. Operazione (III 0 )
a11 a12 a13 ... a1n a11 a12 a13 . . . a1n
Il metodo di eliminazione di Gauss permette di trasformare una matrice A = (aij ) in una a21 a22 a23 ... a2n 0 0
a22 0
a23 0
. . . a2n
a a32 a33 ... a3n
triangolare superiore B usando le operazioni elementari (I) e (III 0 ): A= 31 −−−−→ A0 = 0 0
a23 0
a33 0
. . . a3n
. .. .. .. .. .. .. ..
. . . . .
Ri ←→ Rj Ri −→ Ri + λRj (i 6= j) . . . .
0 0 0
am1 am2 am3 ... amn 0 am2 am3 . . . amn
Se A è una quadrata, |B| = ±|A| ed il segno è positivo se si è usata la trasformazione (I)
un numero pari di volte, altrimenti è negativo.
5 / 24 6 / 24
Andare avanti fino ad ottenere una matrice triangolare superiore. . . Siccome abbiamo effettuato 1 scambio di righe, si ha |A| = −|B| = 0 . X
7 / 24 8 / 24
Esercizio Matrici ridotte per righe
Usando il metodo di Gauss calcolare il determinante della matrice:
1 2 4
Definizione
A = 2 2 5
4 3 8
• Un elemento non nullo di una matrice che Esempio
sotto abbia al più degli zeri verrà detto pivot.
Soluzione. Primo passo: 1 7 −1 9
√
A = 3 2 0 11
1 2 4 1 2 4 • Una matrice si dice ridotta per righe se in
0 5 0 π
R2 →R2 −2R1 ogni sua riga non nulla c’è (almeno) un pivot.
A −−−−−−−→ 2 − 2 · 1 2−2·2 5 − 2 · 4 = 0 −2 −3
R3 →R3 −4R1
4−4·1 3−4·2 8−4·4 0 −5 −8
• Un sistema di equazioni lineari si dice ridotto se la matrice dei coefficienti è ridotta
Secondo passo: per righe.
1 2 4 1 2 4 1 2 4
5
R3 →R3 − 2 R2 • Un sistema di equazioni lineari la cui matrice dei coefficienti è triangolare superiore
0 −2 −3 −−−−−−−−→ 0 −2 −3 = 0 −2 −3 =: B
completa (TSC) si dice a scala.
0 −5 −8 0 −5 − 52 (−2) −8 − 52 (−3) 0 0 − 12
9 / 24 10 / 24
Osservazione
Sistemi ridotti e a scala
Una matrice è ridotta per righe se e solo se eliminando le righe nulle e riordinando le colonne
può essere trasformata in una matrice triangolare superiore completa.
Eliminando le righe nulle (3a riga) e riordinando le colonne in modo che i pivot vadano a
finire sulla diagonale principale, si ottiene: Matrice TSC associata: Sistema a scala corrispondente:
8 1 7 9
8x3 + x1 + 7x2 = 9
0 7 5 0 0 3 3 0 7 0 0 5 0 3 2 −5 3x1 + 2x2 = −5
1
3 2 4 0 0
0
1 3 4 0 2 0 0 5 3 5x2 = 3
A −→ −→ A0 =
0 4 11 13 0 0 0 0 4 13 0 11
0 0 0 1 0 0 0 0 0 1 0 0
11 / 24 12 / 24
Soluzione di un sistema a scala [Abate, §6.1] Soluzione di un sistema ridotto
Consideriamo un sistema di matrice completa (A|B) con A ∈ Rm,n TSC. Tre casi:
Esercizio
1. m 6 n.
Risolvere il sistema
2. m > n e bn+1 = bn+2 = . . . = bm = 0.
2x1 + x2 + 2x3 + 1x4 = 1
3. m > n ed i coefficienti bn+1 , bn+2 , . . . , bm non sono tutti nulli: in questo caso il 2x1 + 3x2 − x3 = 3
sistema è incompatibile in quanto almeno una equazione è del tipo 0x = bi 6= 0. 1x + x3 = 0
1
Nei primi due casi il sistema è compatibile. A meno di eliminare equazioni del tipo 0 = 0,
possiamo assumere che sia m 6 n. Il sistema ha quindi la forma: Soluzione. Risolviamo dal basso verso l’alto rispetto all’incognita che moltiplica il pivot. Si
ha x1 = −x3 (3a eq.) che sostito nelle rimanenti due dà:
a11 x1 + a12 x2 + a13 x3 + . . . + a1m xm + . . . + a1n xn = b1
−2x3 + x2 + 2x3 + 1x4 = 1 x2 + 1x4 = 1
a22 x2 + a23 x3 + . . . + a2m xm + . . . + a2n xn = b2 ⇐⇒
−2x3 + 3x2 − x3 = 3 3x2 − 3x3 = 3
a33 x3 + . . . + a3m xm + . . . + a3n xn = b3
.. .. .. .. Dalla 2a equazione si ricava x2 = x3 + 1, che sostituita nella 1a dà x3 + 1 + 1x4 = 1,
. . . .
ovvero x4 = −x3 . Poniamo x3 = t (parametro libero), e otteniamo:
amm xm + . . . + amn xn = bn
(x1 , x2 , x3 , x4 ) = (−t, t + 1, t, −t) ∀t∈R
con aii 6= 0 ∀ i = 1, . . . , m. Si risolve per sostituzione dal basso verso l’alto, con xm+1 , X
xm+2 , . . . , xn variabili libere.
13 / 24 14 / 24
I Un sistema ridotto è compatibile se e solo se non ha equazioni del tipo (III 0 ) “ Ri → Ri + λRj ”
in cui b è un termine noto diverso da zero. I Per ottenere una matrice ridotta, si parte dalla prima riga non nulla di A, sia essa la
j-esima, e si sceglie un qualunque elemento ajk diverso da zero. Quindi si usa (III 0 )
I Le incognite che non moltiplicano (in nessuna delle righe) un pivot sono libere. sulle righe successive, e si somma ad esse un multiplo opportuno di Rj , scelto in
I
modo tale da ottenere tutti zeri sotto ajk . In formule:
Un sistema ridotto si può risolvere per sostituzione dal basso verso l’alto rispetto
alle incognite che moltiplicano i pivot. aik
∀ i > j, Ri → Ri − Rj
ajk
I Sia n il numero di incognite e k il numero di righe non nulle della matrice dei
coefficienti. Se il sistema è compatibile, la soluzione generale dipenderà da n − k L’elemento ajk sarà un pivot per la matrice ottenuta in questo modo.
parametri (variabili libere).
I Si ripete il procedimento per tutte le righe non nulle, fino a che in ogni riga non nulla
non ci sia un pivot.
15 / 24 16 / 24
Esercizio
Ridurre per righe la matrice Risolvere un sistema per riduzione
0 1 −2 1
3 −1 1 −9
A= Un sistema AX = B di matrice completa (A|B) può essere risolto come segue:
0 4 −8 7
4 −3 6 5 I Usando le tre operazioni elementari si trasforma (A|B) in una nuova matrice
(A 0 |B 0 ) tale che A 0 è ridotta per righe.
Soluzione. Il primo elemento non nullo nella prima riga è quello in posizione (1, 2). Usiamo
I Il sistema ridotto A 0 X = B 0 è equivalente a quello di partenza e si può risolvere
(III 0 ) per ottenere tutti zeri sotto di esso:
per sostituzione.
0 1 −2 1
R2 →R2 + R1
3 0 −1 −8
R3 →R3 −4R1
A −−− −−−−−−→ A 0 := Osservazione 12.2.1
R4 →R4 +3R1 0 0 0 3
Attenzione: è la matrice A 0 che deve essere ridotta per righe, non (A 0 |B 0 ).
4 0 0 8
(A 0 |B 0 ) ridotta per righe 6⇒ A 0 ridotta per righe.
Possiamo saltare la 2a riga. Usiamo (III 0 ) per ottenere zero sotto a34
0
:
Esempio:
" # " #
0 1 −2 1
0 1 1 0 1
0 −1 −8
0 0 0
8
R4 →R4 − 3 R3 3 (A |B ) = A =
A 0 −−−−−−−− −→ A 00 := 1 1 0 1 1
0 0 0 3
4 0 0 0 Nell’esempio (A 0 |B 0 ) è ridotta per righe, ma A 0 non lo è (non ha pivot nella 1a riga).
X
17 / 24 18 / 24
Esercizio
Esempio
Risolvere il sistema
Ridurre il sistema di matrice completa:
x1 − x3 = −1
0 1 −2 1 2x1 + x2 + 2x3 = 3
3 −1 1 −9 x2 + 3x3 = 3
(A|B) =
0
4 −8 7
4 −3 6 5
Soluzione.
1 0 −1 −1 1 0 −1 −1
Soluzione. R2 →R2 −2R1
(A|B) = 2 1 2 3 −−−−−−−−→ 0 1 4 5
0 1 −2 1 0 1 3 3 0 1 3 3
R2 →R2 + R1
0 −1 −8
R →R −4R1
(A|B) −−3−−−3−−−→ 3 =: (A 0 |B 0 ) 1 0 −1 −1
R4 →R4 +3R1 0 0 0 3 R →R −R2
−−3−−−3−−→ 5 =: (A 0 |B 0 )
0 1 4
4 0 0 8
X 0 0 −1 −2
Osservazioni: Il sistema di matrice completa (A 0 |B 0 ) è:
I
la matrice è la stessa dell’esercizio a pag. 17, ma stavolta ci siamo fermati al primo
x1 − x3 = −1 x1 = −1 + x3 = −1 + 2 = 1
passo perché interessati a ridurre solo la matrice dei coefficienti, e non la completa; x2 + 4x3 = 5 =⇒ x2 = 5 − 4x3 = 5 − 8 = −3
I notiamo che A è ridotta, ma (A |B ) non lo è.
0 0 0 −x3 = −2 x3 = 2
19 / 24 20 / 24
Esercizio (Esame del 03/09/2012)
Si consideri il sistema di equazioni lineari dipendente da un parametro λ ∈ R:
3 1 λ 1
R3 →R3 −(2−3λ)R2
2x1 + λx2 + 2x3 = 3 −−−−−−−−−−−→ 1 0 1 0 =: (A 0 |B 0 )
0 0 λ(3 − λ) 3−λ
5x1 + x2 + (λ + 2)x3 = 1
3x1 + x2 + λx3 = 1 Il sistema di matrice completa (A 0 |B 0 ) è equivalente a quello di partenza.
L’ultimo elemento in rosso è diverso da zero (quindi è un pivot) se λ 6= 0, 3.
a) Stabilire per quali λ ∈ R il sistema è compatibile.
b) Nei casi in cui il sistema è compatibile, determinare la soluzione generale. Se λ ∈
/ {0, 3} la matrice A 0 è ridotta per righe. Poiché non contiene equazioni “del tipo
0 = b 6= 0” (cioè coefficienti tutti nulli e termine noto diverso da zero), il sistema è
Soluzione. Conviene iniziare riordinando le righe, in modo da poter scegliere 1 come pivot: compatibile. Risolvendo per sostituzione (dal basso) si ottiene
2 λ 2 3 3 1 λ 1
R1 ↔R3 3x1 + 1x2 + λx3 = 1
1 3 1
(A|B) = 5 1 λ+2 1 −−−−→ 5 1 λ+2 1 1x1 + x3 = 0 ⇐⇒ (x1 , x2 , x3 ) = − , ,
λ λ λ
3 1 λ 1 2 λ 2 3 λ(λ − 3)x3 = 3 − λ
3 1 λ 1 3 1 λ 1 Come ci aspettavamo la soluzione è unica (in un sistema ridotto con n = 3 incognite e
1
R2 →R2 −R1 R2 → 2 R2
−−−−−−−→ 2 0 2 0 −−−−−→ 1 0 1 0 k = 3 equazioni non nulle, il numero di parametri liberi è n − k = 0).
R3 →R3 −λR1
2 − 3λ 0 2 − λ2 3−λ 2 − 3λ 0 2 − λ2 3−λ
Se λ = 0 , la terza equazione non ammette soluzione, quindi il sistema è incompatibile.
(continua. . . )
21 / 24 22 / 24
(x1 , x2 , x3 ) = ( −t , 1 , t ) ∀ t ∈ R
23 / 24 24 / 24
Esempio
Matrici fortemente ridotte e metodo di Gauss-Jordan
Applichiamo il metodo di Gauss-Jordan alla matrice
Una matrice si dice fortemente ridotta per righe se 1 1 1 0
1 è ridotta per righe; A = 2 2 0 −4
1 2 −1 −1
2 tutti i pivot sono uguali ad 1;
3 sopra a ciascun pivot non sono presenti elementi diversi da zero. Soluzione. Riduzione:
( Nota: le colonne contenenti i pivot hanno tutti gli elementi nulli tranne uno, il pivot! ) 1 1 1 0 1 1 1 0
R3 →R3 +R1 R3 →R3 −R2
A −−−−−−−→ 2 2 0 −4 −−−−−−−→ 2 2 0 −4
Esempio 2 3 0 −1 0 1 0 3
La prima matrice è ridotta ma non fortemente ridotta, la seconda è fortemente ridotta:
Pivot uguali ad 1:
1 7 9 −1 9 0 0 9 1 9 1 1 1 0 1 1 1 0
1
R2 → 2 R2
A = 3 2 4 0 3 B = 1 0 4 0 3 2 2 0 −4 −−−−−−→ 1 1 0 −2
0 5 5 0 1 0 1 5 0 1 0 1 0 3 0 1 0 3
Tutti zeri sopra i pivot:
Metodo di Gauss-Jordan. Usando le tre operazioni elementari, ogni matrice può essere
1 1 1 0 0 0 1 2 0 0 1 2
trasformata in una fortemente ridotta: prima si riduce la matrice; poi si usa l’operazione (II) R1 →R1 −R2 R2 →R2 −R3
1 1 0 −2 −−−−−−−→ 1 1 0 −2 −−−−−−−→ 1 0 0 −5
per ottenere tutti pivot uguali ad 1; infine si usa l’operazione (III 0 ) per annullare tutti gli
0 1 0 3 0 1 0 3 0 1 0 3
elementi sopra i pivot.
1 / 28 2 / 28
3 / 28 4 / 28
Esercizio
Usando il metodo di Gauss-Jordan invertire la matrice: Secondo passo: Jordan. Moltiplichiamo ciascuna riga di (A 0 |B 0 ) per uno scalare, in
modo da avere tutti i pivot uguali ad 1. Quindi usando la terza operazione, facciamo
1 0 2
A = 2 3 6
comparire degli zeri sopra a ciascun pivot. Si ha:
2 2 5
1 0 2 1 0 0 1
1 0 2 1 0 0
R2 → 3 R2
(A 0 |B 0 ) = 0 3 2 −2 1 0 −−−−−−→ 0 1 2
3
− 23 1
3
0
R3 →−3R3
Soluzione. Primo passo: Gauss. Come primo passaggio, applichiamo il metodo di Gauss 0 0 − 13 − 23 − 23 1 0 0 1 2 2 −3
ad (A|I3 ) e trasformiamo A in una matrice triangolare superiore:
1 0 0 −3 −4 6
1 0 2 1 0 0 1 0 2 1 0 0 R1 →R1 −2R3
R2 →R2 −2R1 −−−−−−−−→ 0 1 0 −2 −1 2
(A|I3 ) = 2 3 6 0 1 0 −−−−−−−→ 0 3 2 −2 1 0 R2 →R2 − 32 R3
R3 →R3 −2R1 0 0 1 2 2 −3
2 2 5 0 0 1 0 2 1 −2 0 1
La matrice inversa di A è quindi:
1 0 2 1 0 0
R3 →R3 − 2 R2
−−−−−−−3−→ 0 3 2 −2 1 0 =: (A 0 |B 0 ) −3 −4 6
0 0 − 13 − 23 − 23 1 A−1 = −2 −1 2
2 2 −3
X
Chiamiamo (A 0 |B 0 ) la matrice trovata. Notiamo che A 0 è triangolare superiore completa,
quindi |A| = |A 0 | 6= 0 e la matrice A è invertibile.
5 / 28 6 / 28
a) Dire per quali valori di λ il sistema è compatibile (specificare per quali valori ammette
Soluzione. un’unica soluzione, e per quali ne ammette infinite).
1 1 0 1 0 0 1 1 0 1 0 0 b) In tutti i casi in cui il sistema è compatibile, determinare la soluzione generale.
R2 →R2 −R1
(A|I3 ) = 1 0 1 0 1 0 −−− − −− −→ 0 −1 1 −1 1 0
0 1 1 0 0 1 0 1 1 0 0 1 Soluzione. Scriviamo la matrice completa (A|B), iniziando dalla 2a equazione (che non
dipende da λ), e riduciamola per righe:
1 1 0 1 0 0 1 1 0 1 0 0
R3 →R3 +R2 R2 →−R2 2 −8 2 0 1 −4 1 0
−−−−−−−→ 0 −1 1 −1 1 0 −−−−1−→ 0 1 −1 1 −1 0 1
R1 → 2 R1 R2 →R2 −λR1
0 0 2 −1 1 1
R3 → 2 R3
0 0 1 − 12 1 1 (A|B) = λ 6 0 3 −−−−−→ λ 6 0 3 −−−−−−−→
2 2
0 6 λ −3 0 6 λ −3
1 1
1 1 0 1 0 0 1 0 0 2 2
− 21
R2 →R2 +R3 R1 →R1 −R2 1
−−−−−−−→ 0 1 0 1
− 12 12 −−−−−−−→ 0 1 0 1
− 12 = (I3 |A−1 ) 1 −4 1 0 1 −4 1 0
2 2 2 R3 →R3 +R2
0 0 1 −21 1 1
0 0 1 −2 1 1 1 → 0 4λ + 6 −λ 3 −
− −−− − −
→ 0 4λ + 6 −λ 3 = (A 0 |B 0 )
2 2 2 2
0 6 λ −3 0 4(λ + 3) 0 0
7 / 28 8 / 28
Se λ ∈
/ {0, −3} abbiamo un sistema ridotto compatibile con n = 3 incognite e k = 3
equazioni non nulle: ammette quindi un’unica soluzione (n − k = 0 variabili libere). Si ha
x1 − 4x2 + x3 = 0 x1 = 3/λ
In risposta alle due domande dell’esercizio:
(4λ + 6)x2 − λx3 = 3 =⇒∗ x3 = −3/λ
4(λ + 3)x2 = 0 x2 = 0 a) il sistema è compatibile se e solo se λ 6= 0
(∗ Per sostituzione, notando che il coefficiente di x2 nella 3a equazione è, per ipotesi, diverso da zero.) (ha infinite soluzioni per λ = −3 e un’unica soluzione se λ 6= 0, −3);
Se λ = −3 , l’ultima riga di (A 0 |B 0 ) è nulla e abbiamo un sistema ridotto compatibile con b1) se λ 6= 0, −3,
n = 3 incognite e k = 2 equationi non nulle: ammette quindi infinite soluzioni (n − k = 1 3 3
(x1 , x2 , x3 ) = , 0, −
variabile libera). La soluzione generale, in forma parametrica, è data da λ λ
x1 − 4x2 + x3 = 0 (ponendo x2 =t) x1 = 2t − 1 b2) se λ = −3,
=⇒ x3 = 2t + 1
−6x2 + 3x3 = 3
(x1 , x2 , x3 ) = ( 2t − 1 , t , 2t + 1 ) ∀ t ∈ R
x2 = t
X
Se λ = 0 , il sistema non è ridotto (manca il pivot della 2a riga). Completando la riduzione:
1 −4 1 0 1 −4 1 0
0 0 R3 →R3 −2R2
(A |B ) = 0 6 0 3 −−−−−−−→ 0 6 0 3
0 12 0 0 0 0 0 −6
si vede che il sistema è incompatibile (3a equazione).
9 / 28 10 / 28
Proposizione (unicità del simmetrico di un elemento) 1 campi (K, +, · ), strutture algebriche con due operazioni (somma e prodotto), con
Se un elemento è simmetrizzabile allora il suo simmetrico è unico. proprietà simili a quelle dei numeri reali R.
Dimostrazione. Sia a ∈ S e supponiamo che b, b 0 ∈ S siano due simmetrici di a. Per 2 anelli (A, +, · ), strutture algebriche con due operazioni (somma e prodotto), con
definizione di simmetrico, proprietà simili a quelle dei numeri interi Z o delle matrici quadrate Mn (R).
a∗b=e b0 ∗ a = e
3 spazi vettoriali (V, +, · ), strutture algebriche con una operazione interna ed una
Per definizione di elemento neutro,
esterna, con proprietà simili a quelle delle n-uple di numeri reali Rn .
b 0 ∗ (a ∗ b) = b 0 ∗ e = b 0 (b 0 ∗ a) ∗ b = e ∗ b = b
L’insieme sottostante un campo tipicamente è indicato con K,
Dall’associatività dell’operazione si evince che l’insieme sottostante un anello con A,
0 0 0 l’insieme sottostante uno spazio vettoriale con V .
b = b ∗ (a ∗ b) = (b ∗ a) ∗ b = b ,
ovvero b e b 0 sono uguali. A volte indicheremo un campo (anello o spazio vettoriale) semplicemente con K (A o V )
omettendo di indicare le operazioni, quando queste sono chiare dal contesto.
Corollari: l’opposta di una matrice è unica; l’inversa di una matrice, se esiste, è unica.
19 / 28 20 / 28
Esempi:
Definizione
I L’insieme Z con le usuali operazioni aritmetiche è un anello commutativo;
Un insieme K con due operazioni interne, che chiameremo “somma” (indicata con +) e
“prodotto” (indicato con · ) si dice campo se: Z non è un campo (l’inverso di un intero non è in generale intero).
I Per n > 2, l’insieme Mn (R) con le operazioni di somma e prodotto righe per colonne
1. somma e prodotto sono associative, commutative e possiedono un elemento neutro;
è un anello non commutativo. Mn (R) non è un campo (non tutte le matrici non nulle
→ indicheremo con 0K l’elemento neutro per la somma, e con 1K l’elemento neutro per il
possiedono una inversa, e non vale la proprietà commutativa del prodotto).
prodotto (a volte omettendo l’indice K quando questo non genera ambiguità)
I Gli insiemi Q, R, C con le usuali operazioni aritmetiche sono campi. Notiamo che:
2. ogni elemento di K ha un opposto (un “simmetrico” rispetto alla somma);
z x − iy
∀ z = x + i y ∈ C, z 6= 0 =⇒ z−1 = = 2
3. ogni elemento diverso da 0K ha un inverso (un “simmetrico” rispetto al prodotto); |z|2 x + y2
→ indicheremo con −a l’opposto di a ∈ K, e con a−1 il suo inverso. I L’insieme
4. vale la proprietà distributiva del prodotto rispetto alla somma: per ogni a, b, c ∈ K, Q[ i ] = x + i y : x, y ∈ Q
(numeri complessi con parte reale e immaginaria razionali) è un altro esempio di
a · (b + c) = a · b + a · c ed anche (b + c) · a = b · a + c · a
campo, detto campo dei razionali di Gauss.
I se tutte le proprietà della definizione precedente sono soddisfatte esclusa la terza, Osservazione.
diremo che K è un anello commutativo (con unità). Si possono considerare matrici con elementi in un campo K qualsiasi, e sistemi di equazioni
I se rinunciamo anche alla proprietà commutativa del prodotto, otteniamo la definizione lineari con coefficienti in un campo K arbitrario. I teoremi enunciati fin’ora sono validi nel
generale di anello (con unità). caso in cui invece di R si consideri un campo K arbitrario (ad esempio K = C o K = Q).
21 / 28 22 / 28
L’anello dei polinomi K[x] [Abate, §4C.1] Un polinomio reale può non avere radici reali. Esempio: P(x) = x2 + 1 non ha radici reali;
ammette però due radici complesse. Diciamo che C è algebricamente chiuso, poiché ogni
Definizione equazione algebrica in C (di grado n > 1) ammette soluzioni.
Un polinomio di grado n > 0 in una variabile x e a coefficienti in un campo K è una
espressione del tipo Teorema fondamentale dell’algebra [Abate, Teorema 4C.2]
Un polinomio di grado n > 1 a coefficienti in C può sempre essere scritto nella forma
P(x) = an xn + an−1 xn−1 + . . . + a1 x + a0
P(x) = c(x − r1 )(x − r2 ) . . . (x − rn ) ,
con ai ∈ K per ogni i = 0, . . . , n, e an 6= 0.
dove r1 , . . . , rn ∈ C sono le radici e c ∈ C un coefficiente non nullo.
Un elemento r ∈ K è detto radice del polinomio considerato se P(r) = 0.
Una equazione del tipo P(x) = 0 è detta algebrica o polinomiale di grado n in x. Le radici di un polinomio non sono necessariamente tutte distinte.
Ad esempio x2 − 6x + 9 = (x − 3)2 ha due radici, entrambe uguali a 3 .
L’insieme dei polinomi (di grado arbitrario) in una variabile x e a coefficienti in un campo K
viene indicato con K[x]. A noi interesserà il caso K = R. Indicando con µ1 , . . . , µk le radici distinte del polinomio P(x) (k 6 n), si avrà
23 / 28 24 / 28
Equazioni algebriche Teorema delle radici razionali
Consideriamo un polinomio (an 6= 0)
Formula risolutiva per l’equazione di 2◦ grado (a 6= 0):
√ P(x) = an xn + an−1 xn−1 + . . . + a1 x + a0
−b ± b2 − 4ac
ax2 + bx + c = 0 ⇐⇒ x= . a coefficienti interi. Se un numero razionale r = p/q è una radice di P(x), allora
2a
i) p divide a0 ;
La formula vale sia quando i coefficienti sono reali, sia quando sono complessi.
ii) q divide an .
Se a, b, c ∈ R, si possono verificare tre casi, che dipendono dal segno della grandezza Le radici razionali si possono determinare considerando tutte i possibili valori di p/q, con p
∆ = b2 − 4ac , detta discriminante: divisore di a0 e q divisore di an , e verificando per sostituzione quali sono radici.
• se ∆ > 0 si hanno due soluzioni reali distinte;
Esempio Esercizio
• se ∆ = 0 si ha una sola soluzione ed è reale (di molteplicità 2); Usando il teorema delle radici razio-
Sia P(x) = 2x3 − 3x2 − 3x + 2 .
• se ∆ < 0 si hanno due soluzioni complesse coniugate. I divisori di a0 = 2 sono ±1, ±2; nali, fattorizzare i polinomi
i divisori di a3 = 2 sono ±1, ±2; quindi: P1 (x) = x3 − 2x2 − 5x + 6
Per le equazioni di 3 e 4 grado esiste una formula risolutiva.
◦ ◦
P2 (x) = 3x3 − 4x2 − 5x + 2
p/q ∈ ±1, ±2, ± 21 .
Per equazioni di grado superiore al quarto è noto che non esistono formule risolutive Si verifica che le radici sono −1, 2 e 12 , quindi: Soluzione:
esprimibili tramite radicali (Teorema di Abel-Ruffini). 1
P1 (x) = (x − 1)(x + 2)(x − 3)
P(x) = 2 x − (x + 1)(x − 2) .
2 P2 (x) = 3 x − 13 (x + 1)(x − 2)
25 / 28 26 / 28
Regola di Ruffini
Data una equazione di 3◦ grado, la regola di Ruffini permette di ridurla ad una di 2◦ grado
Dato uno scalare r e un polinomio P(x) di grado n: se almeno una soluzione è nota a priori.
i) ∀ u, v, w ∈ V : ii) ∀ k, k 0 ∈ K e ∀ v, w ∈ V : Esempi:
1. v + w = w + v 5. (k + k )v = kv + k v
0 0 I l’insieme Rn delle n-uple reali è uno spazio vettoriale reale;
2. (u + v) + w = u + (v + w) 6. k(v + w) = kv + kw I l’insieme Rm,n le matrici reali m × n è uno spazio vettoriale reale;
3. v + 0V = v 7. k(k 0 v) = (kk 0 )v I l’insieme R[x] dei polinomi in x a coefficienti in R è uno spazio vettoriale reale;
4. v + (−v) = 0V 8. 1K · v = v I un ulteriore esempio è dato dai vettori geometrici. . .
1 / 22 2 / 22
Studiamo il primo caso più in dettaglio. . . ( Nota: in figura a1 < 0; la lunghezza del segmento PB è quindi −a1 . )
9 / 22 10 / 22
(i) v + v 0 = v + v 00 ⇐⇒ (ii) v 0 = v 00 .
(−x, −y)
P − O = (x, y) −v + (v + v 0 ) = −v + (v + v 00 )
Osservazione: dall’equivalenza fra regola del parallelogramma e somma per componenti Usando l’associatività della somma e la definizione di opposto si ottiene:
segue che, dati due punti A(a1 , a2 ) e B(b1 , b2 ) , si ha
0 + v 0 = 0 + v 00
B − A = (b1 − a1 , b2 − a2 )
ovvero v 0 = v 00 (per definizione di elemento neutro).
11 / 22 12 / 22
Legge di annullamento del prodotto Sottospazi vettoriali [Abate, §4.1]
Aggiungendo 0 (elemento neutro) al primo membro, si ottiene 0v + 0 = 0v + 0v . b2) kw ∈ W . (W è stabile rispetto alla moltiplicazione per uno scalare)
3 {k 6= 0} ∧ {v 6= 0} ⇒ kv 6= 0 . (ossia: ∀ k 6= 0, kv = 0 ⇒ v = 0)
Le condizioni b) e c) forniscono due criteri pratici per stabilire se un sottoinsieme W ⊆ V di
Per ogni k 6= 0 si ha: v = 1v = (k−1 k)v = k−1 (kv) . un determinato spazio vettoriale V è un sottospazio.
(punto 2)
Ne deduciamo che, se kv = 0, allora: v = k−1 (kv) = k−1 0 = 0.
13 / 22 14 / 22
b) ∀ k ∈ R e ∀ w, w 0 ∈ W si ha c) ∀ k, k 0 ∈ R e ∀ w, w 0 ∈ W si ha Osservazione
Uno spazio vettoriale V possiede sempre almeno due sottospazi: il primo è V stesso
b1) w + w 0 ∈ W , b2) kw ∈ W . kw + k 0 w 0 ∈ W .
(V ⊆ V ), il secondo è dato dal sottoinsieme { 0V } .
Dimostrazione (in tre parti).
Dimostrazione. Proviamo che W = { 0V } soddisfa il criterio c) di sottospazio. Chiaramente
a) ⇒ c) è elementare. Per definizione di spazio vettoriale, per ogni w, w 0 ∈ W e ogni se w, w 0 ∈ W allora w = w 0 = 0V . Dalla legge di annullamento del prodotto segue che
k, k ∈ R il risultato delle operazioni kw e k w deve essere ancora elemento di W .
0 0 0
kw + k 0 w 0 = 0V ∈ W , per ogni k, k 0 ∈ R .
Per lo stesso motivo, la somma di due elementi di W deve essere ancora elemento di W ,
quindi kw + k 0 w 0 ∈ W . Proposizione
Sia SΣ ⊆ Rn l’insieme delle soluzioni di un sistema lineare Σ di matrice completa
c) ⇒ b) Scegliendo k = k = 1, da c) si ottiene b1); ponendo k = 0 si ottiene b2).
0 0
(A|B) ∈ Rm,n+1 . SΣ è un sottospazio di Rn ⇐⇒ il sistema è omogeneo.
b) ⇒ a) La somma ed il prodotto per uno scalare di V , per b1) e b2) rispettivamente, Dimostrazione. “⇒” Se SΣ è un sottospazio, deve contenere 0 Rn . Se il vettore nullo è
inducono una operazione interna ed una esterna di W . soluzione, allora B = A · 0 Rn,1 = 0 Rm,1 ed il sistema è omogeneo.
Tutte le proprietà di spazio vettoriale, poichè valgono in V , valgono anche in W . Dobbiamo
“⇐” Viceversa, sia B = 0 Rm,1 e X, X 0 ∈ Rn,1 due soluzioni, ovvero AX = 0 Rm,1 e
solo verificare che 0V ∈ W .
AX 0 = 0 Rm,1 . Dalle proprietà del prodotto righe per colonne segue:
Sostituendo k = 0 in b2), per la legge di annullamento del prodotto si ottiene
A(kX + k 0 X 0 ) = k(AX) + k 0 (AX 0 ) = 0 Rm,1
0w = 0V ∈ W . Quindi kX + k 0 X 0 ∈ SΣ ∀ k, k 0 ∈ R , e il criterio c) di sottospazio è soddisfatto.
15 / 22 16 / 22
Esercizio Sottospazi di R2
Dire quali dei seguenti insiemi sono sottospazi
vettoriali di R2 : E’ un utile esercizio studiare i sottospazi di R2 , che possono essere visualizzati
graficamente usando un sistema di riferimento cartesiano.
I W1 = (x, y) ∈ R2 | x + y = 0
W4 (y = x2 )
I W2 = (x, y) ∈ R2 | y + 1 = 0 Sia allora V = R2 . Il sottospazio banale { 0V } è un insieme con un solo punto: l’origine
I W3 = (x, y) ∈ R2 | x − y = 0 del sistema di riferimento.
I W4 = (x, y) ∈ R2 | x2 − y = 0
Dati a, b ∈ R, l’insieme dei punti (x, y) ∈ R2 soluzione dell’equazione omogenea:
I W5 = (x, y) ∈ R2 | x ∈ Z
ax + by = 0
W5 (x intero)
è un sottospazio di R2 . Se (a, b) 6= (0, 0), l’equazione descrive una retta passante per
l’origine degli assi.
W
x)
+
1
(y
=
=
(y
Vedremo più avanti che sono sottospazi di R2 solamente R2 stesso (l’intero piano),
−
3
W
x)
W2 (y = −1) Sottospazi dello spazio tridimensionale sono quelli banali (l’origine e tutto lo spazio), e
rette e piani contenenti l’origine del sistema di riferimento.
17 / 22 18 / 22
I Lo stesso vettore (2, 5) è anche combinazione lineare di (1, 1) e (1, −2). Infatti: Allora P1 è combinazione lineare di P2 e P3 , infatti: P1 (x) = 3P2 (x) − 2P3 (x) .
Esempi
Sia I = { v1 , v2 , . . . , vn } un insieme di vettori di V . L’insieme di tutte le combinazioni lineari
I Ogni vettore (x, y) ∈ R2 , si può scrivere nella forma
dei vettori di I verrà indicato con il simbolo L(v1 , . . . , vn ) oppure L(I). Quindi:
L(I) = L(v1 , . . . , vn ) := w ∈ V : w = a1 v1 + . . . + an vn , con a1 , . . . , an ∈ R . (x, y) = x · (1, 0) + y · (0, 1)
Da cui: L (1, 0), (0, 1) = R2 .
Esercizio
Dire se il vettore w = (1, 2, 3) di R3 è combinazione lineare dei vettori I Ogni vettore (x, y) ∈ R2 , si può scrivere nella forma
x+y x−y
v1 = (1, 1, 1) v2 = (3, 2, 1) (x, y) = · (1, 1) + · (1, −1)
2 2
(= “Dire se w ∈ L(v1 , v2 ).” = “Dire se esistono a1 , a2 ∈ R tali che w = a1 v1 + a2 v2 .”)
Da cui: L (1, 1), (1, −1) = R2 .
3 / 24 4 / 24
Proposizione Esempio
Sia I = { v1 , v2 , . . . , vn } ⊂ V . L’insieme L(I) è un sottospazio di V .
Sia V = R[x] e sia I = {1, x, x2 , x3 , . . . , xn } l’insieme dei monomi di grado 6 n in x. Allora:
Dimostrazione. Usiamo il criterio c) di sottospazio. Siano: L(I) = a0 + a1 x + a2 x2 + a3 x3 + . . . + an xn : a0 , a1 , . . . , an ∈ R
due vettori di L(I), e siano k, k 0 ∈ R. Si ha: Uno spazio vettoriale V si dice finitamente generato se ammette un numero finito di
generatori, ossia se esistono v1 , . . . , vn ∈ V tali che
kw + k 0 w 0 = (ka1 + k 0 a10 )v1 + (ka2 + k 0 a20 )v2 + . . . + (kan + k 0 an0 )vn .
7 / 24 8 / 24
Osservazioni Proposizione
I se 0 ∈ I, allora I è legato (infatti a1 0 + 0v1 + 0v2 + . . . + 0vn = 0 anche se a1 6= 0); Sia n > 2. Un insieme I = { v1 , . . . , vn } è libero se e solo se nessun suo elemento si può
I se I è libero e I 0 ⊆ I, allora I 0 è libero; scrivere come combinazione lineare dei rimanenti vettori di I.
I se I è legato e I 0 ⊇ I, allora I 0 è legato. Dimostrazione. Se I è legato, allora esistono a1 , . . . , an ∈ R non tutti nulli tali che
a1 v1 + a2 v2 + . . . + an vn = 0. Da questo ricaviamo, se a1 6= 0:
Iniziamo a studiare i casi più semplici. Sia I = { v1 } un insieme formato da un solo vettore
1
v1 ∈ V . Se v1 = 0 l’insieme è legato. Se v1 6= 0, per la legge di annullamento del prodotto v1 = − a2 v 2 + . . . + an v n .
a1
a1 v1 = 0 implica a1 = 0, quindi I è libero.
Più in generale se ai 6= 0, vi si può scrivere come combinazione dei rimanenti vettori di I.
I = { v1 } è legato se e solo se v1 = 0. Siccome almeno un coefficiente è non nullo per ipotesi, questo prova “⇐” .
Definizione/Osservazione. Viceversa, immaginiamo per ipotesi che un vettore di I si possa scrivere come
Due vettori v, w ∈ V si dicono proporzionali se esiste k ∈ R tale che v = kw oppure combinazione lineare dei rimanenti, sia esso ad esempio v1 :
w = kv. Il vettore nullo è proporzionale ad ogni altro vettore (0 = 0v ∀ v ∈ V ).
v1 = b 2 v2 + b 3 v3 + . . . + b n v n , con b2 , . . . , bn ∈ R .
Sia I = { v1 , v2 } un insieme di due vettori di V . Allora:
Allora posto a1 = 1 e ai = −bi ∀ i > 2, si ha
I = { v1 , v2 } è legato ⇐⇒ i due vettori v1 e v2 sono proporzionali.
a1 v1 + a2 v2 + . . . + an vn = 0 .
Questo è un caso particolare della proposizione seguente. . .
Poichè almeno un coefficiente è non nullo (a1 = 1), l’insieme I è legato.
9 / 24 10 / 24
Teorema
Esercizio
I = { v1 , . . . , vn } è libero ⇐⇒ v1 6= 0 e, ∀ 2 6 i 6 n, si ha vi ∈
/ L(v1 , v2 , . . . , vi−1 ) .
Dire se i seguenti vettori di R3 sono linearmente indipendenti:
Dimostrazione. “⇒” segue dalla proposizione precedente. Dimostriamo “⇐”.
v1 = (1, −5, −2) v2 = (3, 5, 4) v3 = (6, 0, 3)
Per assurdo, immaginiamo si possano scegliere a1 , . . . , an non tutti nulli tali che
In caso negativo, esprimere uno di essi come combinazione lineare degli altri due. a1 v1 + a2 v2 + . . . + an vn = 0 . (?)
Esempio
Basi e sistemi di riferimento [Abate, §2.2]
L’insieme
B = (1, x, x2 , . . . , xn )
Si dice versore di una retta orientata r il vettore libero di modulo 1 avente la stessa
è una base per lo spazio Rn [x]. direzione e lo stesso verso di r.
Esempio Nel piano, scegliamo un sistema di riferimento e indichiamo con ı̂ e ̂ i versori degli assi,
Siano v1 = (1, 1), v2 = (1, 0) e v3 = (0, 1). L’insieme (v1 , v2 , v3 ) contiene la base canonica, che rappresentiamo applicati nell’origine.
quindi genera R . Non è però una base, in quanto v1 = v2 + v3 ed i vettori non sono
2
Esercizio
Lemma di Steinitz
In R2 , detti
Sia A = { v1 , v2 , . . . , vn } un insieme di generatori di V e B = { w1 , w2 , . . . , wk } un insieme
v1 = (1, 1) , v2 = (1, −1) ,
libero. Allora k 6 n.
determinare le componenti del vettore u = (2, 1) nella base B = (v1 , v2 ).
Dimostrazione (per assurdo). Supponiamo k > n. Dato che A è un insieme di generatori di
Soluzione. Per definizione le componenti a1 , a2 ∈ R del vettore u nella base B si V , w1 si può scrivere come combinazione lineare dei vettori di A:
ottengono imponendo l’uguaglianza
w1 = a1 v1 + a2 v2 + . . . + an vn
u = a1 v1 + a2 v2
I coefficienti ai non possono essere tutti nulli, poichè B è libero e quindi w1 6= 0. Senza
ovvero scrivendo i vettori in colonna perdere generalità, supponiamo a1 6= 0. Allora
2 1 1
= a1 + a2 v1 = a−1
1 1 −1 1 (w1 − a2 v2 − . . . − an vn ) .
Si ottiene in questo modo un sistema di due equazioni nelle incognite a1 , a2 , Pertanto anche A1 = {w1 , v2 , . . . , vn } è un insieme di generatori di V . Possiamo scrivere
a1 + a2 = 2 w2 come combinazione lineare dei vettori di A1 :
a1 − a2 = 1
w2 = b1 w1 + b2 v2 + b3 v3 + . . . + bn vn
la cui soluzione è unica e data da
3 1 ed i coefficienti b2 , . . . , bn non possono essere tutti zero, perché altrimenti w2 sarebbe
a1 = , a2 = .
2 2 proporzionale ad w1 , contraddicendo l’ipotesi che B è un insieme libero.
X . . . continua.
19 / 24 20 / 24
Lemma di Steinitz Equipotenza delle basi
Sia A = { v1 , v2 , . . . , vn } un insieme di generatori di V e B = { w1 , w2 , . . . , wk } un insieme Se B = (v1 , v2 , . . . , vn ) e B 0 = (w1 , w2 , . . . , wk ) sono due basi di uno stesso spazio
libero. Allora k 6 n. vettoriale V , allora k = n.
Dimostrazione (2a parte). Senza perdere generalità, supponiamo b2 6= 0. Allora Dimostrazione. Per ipotesi, B ed B 0 sono basi, ovvero insiemi liberi di generatori.
v2 = b−1
2 (w2 − b1 w1 − b3 v3 − . . . − bn vn ) .
Siccome B 0 è libero e B genera V dal lemma di Steinitz segue che k 6 n.
Siccome B è libero e B 0 genera V dal lemma di Steinitz segue che n 6 k.
Pertanto anche A2 = {w1 , w2 , v3 , . . . , vn } è un insieme di generatori di V .
Quindi k = n.
Con lo stesso ragionamento, dopo n passi, si arriva a sostituire v3 con w3 , v4 con w4 , . . . ,
Osservazione
vn con wn . Si dimostra in questo modo che i primi n vettori dell’insieme libero B danno un
insieme An = { w1 , w2 , . . . , wn } di generatori di V . Tutte le basi di V hanno lo stesso numero di elementi; tale numero è detto dimensione di V
ed indicato con “ dim(V) ”. Per convenzione dim({0}) = 0.
Se k > n, i restanti vettori wn+1 , . . . wk si possono scrivere come combinazione lineare
dei vettori di An , contraddicendo l’ipotesi che B è un insieme libero. Teorema
Deve essere quindi k 6 n.
dim(Rn ) = n dim(Rm,n ) = m · n dim(V2 ) = 2 dim(V3 ) = 3
Dimostrazione. Contare gli elementi delle basi canoniche (cf. slide 13, 14, 16).
21 / 24 22 / 24
Esempio
A partire da un insieme di generatori di uno spazio vettoriale V è sempre possibile di
estrarre una base. Più precisamente, se Sia
I = v1 = (1, 1) , v2 = (1, 0) , v3 = (0, 1)
I = u1 , . . . , uk
Abbiamo visto (secondo esempio, slide 15) che I genera R2 ma non è libero. Applicando
è un insieme di generatori di V , possiamo trovare una base B ⊆ I utilizzando il
/ L(v1 ), si ha
il metodo degli scarti successivi, poichè I non contiene il vettore nullo e v2 ∈
I2 = I1 = I. Poiché v3 = v1 −v2 , allora I3 = Ir{ v3 } ed una base estratta da I è B = (v1 , v2 ).
Metodo degli scarti successivi
Sia I1 l’insieme ottenuto da I rimuovendo eventualmente il vettore nullo.
Osservazione
Se u2 ∈ L(u1 ) chiamiamo I2 = I1 r { u2 } (“scartiamo” u2 ), altrimenti I2 = I1 (teniamo u2 ).
Notiamo che cambiando l’ordine dei vettori dell’insieme I di partenza, cambia la base
Se u3 ∈ L(u1 , u2 ) chiamiamo I3 = I2 r { u3 }, altrimenti I3 = I2 . estratta. Nel precedente esempio, applicando il metodo degli scarti successivi all’insieme
Iterando il procedimento (controllando tutti i vettori dell’insieme I fino all’ultimo) si (v2 , v3 , v1 ) la base estratta è quella canonica B = (v2 , v3 ).
costruisce una sequenza
I ⊇ I1 ⊇ I2 ⊇ . . . ⊇ Ih Esercizio
dove h 6 k è il numero di vettori non nulli di I, Ii = Ii−1 r {ui } se ui ∈ L(u1 , . . . , ui−1 ) e Sia W = L(v1 , v2 , v3 ) il sottospazio di R3 generato dai vettori
Ii = Ii−1 in caso contrario. Per l’osservazione nella slide 7, si ha
v1 = (0, 1, 1) , v2 = (1, 0, 3) , v3 = (1, −3, 0) .
V = L(I) = L(I1 ) = L(I2 ) = . . . = L(Ih ) .
Estrarre una base di W dall’insieme I = (v1 , v2 , v3 ). Determinare la dimensione di W .
Ih genera V ed è libero (per il teorema nella slide 12), quindi una base di V .
23 / 24 24 / 24
Metodo del completamento ad una base [Abate, Teorema 4.10] Osservazioni su basi e dimensione
Sia B = (v1 , . . . , vn ) una base di uno spazio vettoriale V e I = { u1 , . . . , uk } un insieme
libero. Applicando il metodo degli scarti successivi all’insieme di generatori Con il metodo degli scarti successivi possiamo trovare una base di qualunque spazio
V 6= {0} finitamente generato. Quindi:
I 0 = (u1 , . . . , uk , v1 , . . . , vn )
V 6= {0} è finitamente generato ⇐⇒ esiste una base di V .
i primi k vettori non vengono scartati, perché linearmente indipendenti per ipotesi. Come
risultato, si ottiene una nuova base B 0 contenente tutti i vettori dell’insieme I. Proprietà della dimensione. Se dim(V) = n:
i) dim(W) 6 dim(V) ii) dim(W) = dim(V) ⇐⇒ W = V • un insieme libero con n elementi è una base di V .
(si può completare I ad una base aggiungendo 0 vettori)
Dimostrazione. Sia B una base di W . i) Siccome B è un insieme libero di V , il numero
k := dim W di elementi di B non può essere maggiore di n := dim(V). ii) Si completa B ad In particolare, per sapere se un insieme libero è una base basta contarne gli elementi.
una base di V aggiungendo n − k elementi. Se n = k, B è base di V , e W = L(B) = V .
1 / 28 2 / 28
Esercizio Proposizione
Sia V uno spazio di dimensione 2. i) Elencare tutti i sottospazi di V . ii) Provare che se Le righe non nulle di una matrice ridotta per righe sono linearmente indipendenti.
W ⊆ R è un sottospazio non banale, allora è una retta passante per l’origine.
2
Dimostrazione.
Soluzione. Se W ⊆ V e dim(V) = 2, allora dim(W) ∈ {0, 1, 2}. Se dim(W) = 0, allora I Sia A ∈ Rk,n ridotta per righe. E’ sufficiente dare la dimostrazione quando tutte le righe
W = {0V }. Se dim(W) = 2, allora W = V . Se dim(W) = 1, allora W è generato da un di A sono non nulle. Siano v1 , v2 , . . . , vk ∈ Rn le righe di A numerate dal basso verso
singolo vettore non nullo: W = L(w) con w = (w1 , w2 ). Detto a := −w2 e b := w1 , si l’alto: vk la prima, vk−1 la seconda, etc.
verifica che (x, y) ∈ W se e solo se ax + by = 0. X
I Per assurdo, immaginiamo che
Esercizio
vk = b1 v1 + b2 v2 + . . . + bk−1 vk−1 , b1 , . . . , bk−1 ∈ R. (?)
Siano A e B le matrici
" #
Sia a1p il pivot della prima riga (1 6 p 6 n). Allora la componente p-esima di vk è a1p ,
0 1 1
1 2 3 e la componente p-esima di vi è zero ∀ 1 6 i 6 k − 1. Da (?) segue che
A= B = 2 0 −3
0 4 6
2 3 0 a1p = b1 0 + b2 0 + . . . + bk−1 0 = 0
a) Dire se le righe di A sono vettori linearmente indipendenti di R3 .
contraddicendo l’ipotesi che a1p fosse un pivot. Quindi vk ∈
/ L(v1 , . . . , vk−1 ).
b) Dire se le colonne di A sono vettori linearmente indipendenti di R2 .
I Poiché eliminando la riga vk da A si ottiene una matrice ancora ridotta per righe, con
c) Dire se le righe di B sono vettori linearmente indipendenti di R3 .
righe v1 , v2 , . . . , vk−1 tutte non nulle, per induzione si prova che, ∀ 2 6 i 6 k, si ha
d) Dire se le colonne di B sono vettori linearmente indipendenti di R3 . / L(v1 , . . . , vi−1 ). Quindi l’insieme I = {v1 , v2 , . . . , vk } è libero.
vi ∈
3 / 28 4 / 28
Determinare una base per riduzione Esercizio
Determinare una base del sottospazio W ⊆ R3 generato dai vettori
Si determini una base per ciascuno dei sottospazi: V , W , V + W , V ∩ W . Si determini una base per ciascuno dei sottospazi: V , W , V + W , V ∩ W .
1 1 3 −1 1 1 3 −1 1 1 3 −1 1 1 3 −1 1 1 3 −1 0 1 3 −3
3 3 0 2
2 6 0 3
R3 →R3 +6R1 2 6 0 3
R3 →R3 −4R2 2 6 0 2 6 0 R2 →R2 −2R1 1 0 0 2 R1 →R1 −R2 1 0
−−−−−−−−→ −−−−−−−−→ −−−−−−−−→ −−−−−−−→
6 2 6 6 R4 →R4 +4R1 12 8 24 0 R4 →R4 −3R2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
5 2 6 4 9 6 18 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
Le righe non nulle della matrice trovata formano una base di V , che conviene però Una base di V è quindi data dai due vettori
semplificare ulteriormente usando le tre operazioni elementari (questo faciliterà la
v1 = (0, 1, 3, −3) , v2 = (1, 0, 0, 2) .
soluzione dell’ultima parte dell’esercizio: trovare una base di V ∩ W ).
7 / 28 8 / 28
Esercizio d’esame Esercizio d’esame
Nello spazio vettoriale R4 si considerino i seguenti sottospazi: Nello spazio vettoriale R4 si considerino i seguenti sottospazi:
V := L (1, 1, 3, −1) , (3, 2, 6, 0) , (6, 2, 6, 6) , (5, 2, 6, 4) , V := L (1, 1, 3, −1) , (3, 2, 6, 0) , (6, 2, 6, 6) , (5, 2, 6, 4) ,
W := (x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 − x3 = x1 − x3 + x4 = 0 . W := (x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 − x3 = x1 − x3 + x4 = 0 .
Si determini una base per ciascuno dei sottospazi: V , W , V + W , V ∩ W . Si determini una base per ciascuno dei sottospazi: V , W , V + W , V ∩ W .
Si determini una base per ciascuno dei sottospazi: V , W , V + W , V ∩ W . f(λ1 v1 + λ2 v2 ) = λ1 f(v1 ) + λ2 f(v2 ) .
Soluzione: 4a parte, base di V ∩ W . Un vettore u appartiene a V se e solo se è Nel caso in cui V = W , l’applicazione f è detta endomorfismo di V .
combinazione lineare dei suoi vettori di base v1 e v2 , quindi
Osservazione
u = y1 v1 + y2 v2 = ( y2 , y1 , 3y1 , −3y1 + 2y2 ) . Una applicazione f : V → W è lineare se e solo se è:
Proposizione
Proposizione
Per ogni applicazione lineare f : Rn → Rk esiste una (e una sola) matrice A ∈ Rk,n , detta
Sia f : V → W una applicazione lineare. Allora:
matrice rappresentativa di f rispetto alle basi canoniche di Rn ed Rk , tale che f = LA .
1. f(0V ) = 0W .
Dimostrazione. Per convenienza di notazione, scriviamo i vettori di Rn e di Rk in una
2. per ogni n > 1, per ogni v1 , . . . , vn ∈ V e per ogni λ1 , . . . , λn ∈ R, si ha
colonna. Sia (e1 , . . . , en ) la base canonica di Rn , ed (e10 , . . . , ek0 ) la base canonica di Rk
f(λ1 v1 + λ2 v2 + . . . + λn vn ) = λ1 f(v1 ) + λ2 f(v2 ) + . . . + λn f(vn ) . (con un apice per distinguerla dalla prima). Per definizione di base, è possibile scrivere (in
un unico modo) f(ej ) ∈ Rk come combinazione lineare:
Dimostrazione punto 2 (per induzione). L’affermazione per n = 1 è semplicemente f(ej ) = a1j e10 + a2j e20 + . . . + akj ek0 ⇐=
l’omogeneità di 1 grado dell’applicazione: f(λ1 v1 ) = λ1 f(v1 ).
◦
Detta A ∈ Rk,n la matrice di elementi aij , per ogni n-upla
Se (ipotesi induttiva) l’affermazione al punto 2 è vera per un qualche valore di n > 1, allora n
X
è vera anche per n + 1. Detto infatti v 0 = λ1 v1 + λ2 v2 + . . . + λn vn si ha x = t (x1 , x2 , . . . , xn ) = xj ej
j=1
f(λ1 v1 + λ2 v2 + . . . + λn vn + λn+1 vn+1 ) = f(v 0 + λn+1 vn+1 ) di Rn , dalla linearità di f segue che:
= f(v 0 ) + λn+1 f(vn+1 ) = λ1 f(v1 ) + λ2 f(v2 ) + . . . + λn f(vn ) + λn+1 f(vn+1 ) , a11 x1 + a12 x2 + . . . + a1n xn
Xn Xn Xk a21 x1 + a22 x2 + . . . + a2n xn
dove la seconda uguaglianza segue dalla definizione di applicazione lineare e la terza f(x) = xj f(ej ) = xj aij ei0 =
. = LA (x) .
.
.
dall’ipotesi induttiva. j=1 j=1 i=1
ak1 x1 + ak2 x2 + . . . + akn xn
15 / 28 16 / 28
Definizione Esercizio
Siano V e W due spazi vettoriali, B = (v1 , . . . , vn ) una base di V e B 0 = (w1 , . . . , wk ) Siano B = (v1 , v2 ) e B 0 = (w1 , w2 ) le basi di R2 formate dai vettori seguenti, ed f = LA :
una base di W . Data una app. lineare f : V → W , chiamiamo matrice rappresentativa di f R2 → R2 l’applicazione lineare associata alla matrice seguente:
rispetto alle basi B e B 0 la matrice A = (aij ) ∈ Rk,n determinata da
1 1 1 2
v1 = w1 = , v2 = w2 = , A= .
f(vj ) = a1j w1 + a2j w2 + . . . + akj wk ∀ j = 1, . . . , n 1 −1 3 4
Nucleo, immagine e loro proprietà [Abate, §5.2] Teorema (Proprietà di nucleo e immagine)
Sia f : V → W una applicazione lineare. Allora:
Se S ⊆ V è un sottoinsieme ed f : V → W una applicazione, indichiamo con f(S) il
1. N(f) è un sottospazio di V ;
sottoinsieme di W dei vettori che sono immagine di (almeno) un vettore di S:
2. se S ⊆ V è un sottospazio, allora anche f(S) ⊆ W è un sottospazio;
f(S) := w = f(v) : v ∈ S . (f trasforma sottospazi in sottospazi; in particolare f(V) è un sottospazio di W )
3. se I è un insieme di generatori di S, allora f(I) è un insieme di generatori di f(S).
In particolare l’insieme Im(f) = f(V) è detto immagine dell’applicazione f. L’insieme
(f trasforma insiemi di generatori in insiemi di generatori)
N(f) := v ∈ V : f(v) = 0W
Dimostrazione punto 1. Siano λ1 , λ2 ∈ R e v1 , v2 ∈ N(f), ovvero v1 e v2 sono vettori di V
è detto nucleo di f.
che soddisfano
Esempio f(v1 ) = f(v2 ) = 0W .
Sia f : R → R l’applicazione f(x, y) := (x + y, x + y) .
2 2
Dalla linearità di f segue che:
Il nucleo di f è l’insieme delle coppie (x, y) che risolvono l’equazione x + y = 0. Quindi:
f(λ1 v1 + λ2 v2 ) = λ1 f(v1 ) + λ2 f(v2 ) = λ1 0W + λ2 0W = 0W ,
N(f) = (t, −t) : t ∈ R = L (1, −1)
ovvero
L’immagine di f è l’insieme dei vettori w = (w1 , w2 ) ∈ R che hanno w1 = w2 . Quindi:
2
λ1 v1 + λ2 v2 ∈ N(f) .
Im(f) = (t, t) : t ∈ R = L (1, 1)
Per il criterio c) di sottospazio, N(f) è un sottospazio di V .
19 / 28 20 / 28
Teorema (Proprietà di nucleo e immagine) Teorema (Proprietà di nucleo e immagine)
Sia f : V → W una applicazione lineare. Allora: Sia f : V → W una applicazione lineare. Allora:
Dimostrazione punto 2. Sia S ⊆ V un sottospazio, w1 , w2 ∈ f(S) e λ1 , λ2 ∈ R. Dimostrazione punto 3. Siano v1 , v2 , . . . , vn dei generatori di S.
Per definizione esistono v1 , v2 ∈ S tali che Per costruzione, per ogni w ∈ f(S) esiste v ∈ S tale che f(v) = w. Possiamo scrivere v
come combinazione lineare dei generatori di S:
w1 = f(v1 ) w2 = f(v2 )
v = λ1 v 1 + λ 2 v 2 + . . . + λ n v n ,
Dalla linearità di f segue che
con λ1 , . . . , λn ∈ R. Dalla linearità di f ricaviamo
w := λ1 w1 + λ2 w2 = λ1 f(v1 ) + λ2 f(v2 ) = f(λ1 v1 + λ2 v2 ) .
w = λ1 f(v1 ) + λ2 f(v2 ) + . . . + λn f(vn ) .
Siccome S è per ipotesi un sottospazio, allora v = λ1 v1 + λ2 v2 ∈ S , e quindi w = f(v)
appartiene f(S) (w è immagine tramite f di un vettore di S). Per il criterio c) di sottospazio, Siccome questo vale per ogni w ∈ f(S), i vettori f(v1 ), . . . , f(vn ) formano un insieme di
f(S) è un sottospazio di W . generatori di f(S).
21 / 28 22 / 28
non è inettiva. Infatti il nucleo contiene vettori non nulli, come il vettore (1, −1). contraddicendo l’ipotesi che I fosse un insieme libero.
23 / 28 24 / 28
Teorema della dimensione [Abate, Teorema 5.7]
Se V 6= {0V }, questa è una conseguenza del precedente corollario. w1 = f(vk+1 ) w2 = f(vk+2 ) ... wn−k = f(vn )
Se V = {0V } (quindi, non esiste una base di V ), allora Im(f) = {0W } e l’uguaglianza
diventa un banale 0 = 0. sono generatori di Im(f). Facciamo ora vedere che sono linearmente indipendenti, da cui
segue che sono una base di Im(f), e quindi la tesi
Questo prova in particolare che i vettori w1 , . . . , wn−k sono linearmente indipendenti. 3. Se f è sia iniettiva che suriettiva, chiaramente dim(V) = dim(W).
27 / 28 28 / 28
Applicazioni e sistemi lineari Esercizi
Sia A = (aij ) ∈ R k,n
ed LA : R → R l’applicazione associata, data da
n k
Esercizio (C. Carrara, es. 8.8)
LA (x) := Ax ∀ x = t (x1 , . . . , xn ) ∈ Rn Sia LA : R2 → R3 l’applicazione lineare associata alla matrice
Un vettore B = t (b1 , . . . , bk ) ∈ Rk è nell’immagine di LA ⇐⇒ ∃ x ∈ Rn tale che
1 1
Ax = B (?) A = 2 0
Quindi: 1 −1
I B ∈ Im(LA ) ⇐⇒ il sistema di matrice completa (A|B) è compatibile.
a) Determinare, se esiste, una base di nucleo e immagine di LA .
I La soluzione generale di (?) è data dall’insieme di tutti i vettori di Rn che hanno per b) Stabilire se t (−3, 2, 1) ∈ Im(LA ).
immagine la colonna dei termini noti B.
Il nucleo di LA è l’insieme dei vettori x che hanno per immagine il vettore nullo: Esercizio (Esame del 30/01/2012)
Sia (e1 , . . . , en ) la base canonica di Rn (i cui vettori scriviamo qui in colonna). Poiché f(x1 , x2 , x3 ) := ( x1 + x2 , x1 + x3 , x2 − x3 )
LA (ei ) = t (a1i , a2i , . . . , aki ) a) Determinare una base, se esiste, del nucleo di f.
è la i-esima colonna di A, e una applicazione lineare trasforma generatori in generatori: b) Determinare una base, se esiste, dell’immagine di f.
c) Il vettore v = (−3, 3, 3) è nel nucleo di f e/o nell’immagine.
L’immagine di LA è generata dalle colonne della matrice A.
1 / 14 2 / 14
Rango di una matrice [Abate, §5.2] Dimostrazione (ρrighe (A) = ρcolonne (A) ∀ A ∈ Rk,n ).
Sia A 0 ottenuta da A con la riduzione per righe. Le righe non nulle di A 0 , siano esse r,
formano una base per lo spazio generato dalle righe di A. Quindi:
Definizione
Chiamiamo rango per colonne di una matrice A la dimensione dello spazio generato dalle ρrighe (A) = r .
colonne di A, indicata con ρcolonne (A) ; chiamiamo rango per righe di una matrice A la
dimensione dello spazio generato dalle righe di A, indicata con ρrighe (A) . Il sistema omogeneo Ax = 0 è equivalente ad A 0 x = 0 . La dimensione dello spazio delle
soluzioni, ovvero del nucleo di LA , è data dal numero di incognite libere:
ρcolonne (A) = dim Im(LA ) ρrighe (A) = ρcolonne (tA) ( n◦ parametri liberi = n◦ incognite − n◦ pivot = n − r ). Per il teorema della dimensione:
per ogni A ∈ Rk,n . Tale numero sarà chiamato rango di A ed indicato con ρ(A). Corollario
Lo spazio delle soluzioni del sistema omogeneo Ax = 0 ha dimensione n − ρ(A).
3 / 14 4 / 14
Osservazione: possiamo determinare il rango di una matrice riducendola per righe e Soluzioni di un sistema in forma vettoriale
contando le righe non nulle della matrice ridotta ottenuta.
Proposizione [Abate, teorema 5.1]
Esercizio Data una soluzione u di un sistema compatibile
Determinare il rango della matrice:
Ax = B , (†)
0 1 2 1
0 1 1 1
ogni altra soluzione di (†) si può ottenere sommando ad u una soluzione del sistema
A= .
0 2 3 2 omogeneo associato:
1 2 2 1 Ax = 0 . (‡)
Soluzione (per riduzione). Dimostrazione. Sia v un’altra soluzione di (†). Dalla proprietà distributiva del prodotto righe
Riducendo A si ottiene: per colonne segue che
A(v − u) = Av − Au = B − B = 0
0 1 2 1 0 1 2 1
R2 →R2 −R1
0 0 −1 0 0 0 −1 0 ovvero v − u risolve (‡).
R3 →R3 −2R1 R3 →R3 −R2
A −−−−−−−−→ −−−−−−−→ A 0 = . Viceversa, se w risolve (‡), cioè Aw = 0, allora detto v = u + w si ha
R4 →R4 −R1 0 0 −1 0 0 0 0 0
1 1 0 0 1 1 0 0
Av = Au + Aw = B + 0 = B
Quindi ρ(A) = ρ(A 0 ) = 3. X
cioè v è soluzione di (†).
5 / 14 6 / 14
Esempio
3 0 λ 3 0 λ
La soluzione generale dell’equazione
|A| = 1 λ−3 1 = (λ − 3) 1 λ−3 1 = (λ − 3)(9 − λ2 )
λ 0 3 λ 0 3
2x + y = 6
(ossia y = −2x + 6) è data da: Le soluzioni sono infinite se e solo se |A| = 0, ovvero
x = v0 + t v1
x=t x 0 1
ovvero = +t λ = ±3 .
y = −2t + 6 y 6 −2
7 / 14 8 / 14
b1) Sia Wλ lo spazio delle soluzioni. Per λ = 3 il sistema diventa:
Teorema di Rouché-Capelli [Abate, cor. 5.9]
3x1 + 3x3 = 0 Un sistema di matrice completa (A|B) ∈ Rm,n+1 è compatibile se e solo se
x1 + x3 = 0 =⇒ (x1 , x2 , x3 ) = (t1 , t2 , −t1 ) ∀ t1 , t2 ∈ R
ρ(A|B) = ρ(A) .
3x1 + 3x3 = 0
I due vettori sono linearmente indipendenti (verificare), quindi formano una base. Ax = B è compatibile ⇐⇒ B ∈ Im(LA )
Una base di W−3 è data da una qualsiasi soluzione non nulla, ad esempio scegliendo Osservazione: si ha sempre ρ(A) 6 ρ(A|B) 6 ρ(A) + 1 (poiché la matrice (A|B) si
t = 3 si ottiene il vettore (3, 1, 3). X ottiene da A aggiungendo una colonna).
9 / 14 10 / 14
Se A ∈ Rk,n , allora
h i −1 −3 3 −1 −3 3
t R2 →R2 −4R1 ρ(A) 6 min(k, n) .
v1 t v2 t u = −4 −5 3 −− −−− −−→ 0 7 −9
R3 →R3 +3R1
3 2 0 0 −7 9 Se ρ(A) = min(k, n) diciamo che A ha rango massimo.
−1 −3 3
R →R +R2
−−3−−−3−−→ 0 7 −9 = (A 0 |B 0 ) Dimostrazione. Le righe di A generano un sottospazio di Rn , la cui dimensione ρrighe (A) è
0 0 0 al più n; le colonne di A generano un sottospazio di Rk , la cui dimensione ρcolonne (A) è al
più k. Da ρ(A) = ρrighe (A) = ρcolonne (A) segue la tesi.
Siccome ρ(A 0 ) = ρ(A 0 |B 0 ) = 2, il sistema è compatibile (teorema di Rouché-Capelli).
Quindi u è combinazione lineare dei vettori v1 e v2 . X
11 / 14 12 / 14
Definizione [Abate, §9.4]
Esercizio
Sia A ∈ R k,n
. Un minore di ordine p di A è una matrice quadrata M di tipo p × p ottenuta Determinare il rango della matrice
da A eliminando k − p righe e n − p colonne.
1 3 0 1
Un orlato di M è un minore di A di ordine p + 1 contenente M. 0 1 1 0
1 0 −3 1
Esempio 2 1 −5 2
1 3 1 2 1 3 1 2 " #
0 7
A = 1 0 3 7 M = 1 0 3 7 = Soluzione (con il teorema degli orlati).
2 6
5 2 4 6 5 2 4 6
1 3 0 1
1 3 1 2 1 3 2
0 1 1 0
0
M = 1 0 3 7 = 1 0 7
1 0 −3 1
5 2 4 6 5 2 6
IM
2 1 −5 2
è un minore di ordine 2 di A. M 0 è un minore di ordine 3 nonché un orlato di M.
il minore evidenziato ha determinante diverso da zero e tutti i suoi orlati hanno
Enunciamo senza dimostrazione:
determinante nullo. Per il teorema degli orlati, si ha quindi ρ(A) = 2. X
Teorema degli orlati [Abate, teorema 9.13]
Una matrice ha rango p se e solo se esiste un minore di ordine p il cui determinante è non
nullo, e tutti i suoi orlati hanno determinante nullo.
13 / 14 14 / 14
Spazi metrici [Abate, §11] Esercizio
Siano v = (v1 , v2 ) e w = (w1 , w2 ) ∈ R2 .
Definizione Dire quale delle seguenti funzioni è un prodotto scalare di R2 :
Sia V uno spazio vettoriale reale. Una applicazione
1 f(v, w) = v21 + w21 + v1 w1 + v2 w2 , (no: soddisfa (i) e (iii) ma non (ii))
f:V ×V →R 2 f(v, w) = 3v1 w1 + 7v2 w2 , (ok: è un prodotto scalare)
che associa ad ogni coppia di vettori v e w un numero reale è detta un prodotto scalare o 3 f(v, w) = 3v1 w1 − 7v2 w2 , (no: soddisfa (i) e (ii) ma non (iii))
prodotto interno di V se è: 4 f(v, w) = 3v1 w1 , (no: soddisfa (i) e (ii) ma non (iii))
i) simmetrica, ovvero ∀ v, w ∈ V , 5 f(v, w) = 3v1 w1 + 7, (no: soddisfa (i) e (iii) ma non (ii))
f(v, w) = f(w, v) . 6 f(v, w) = v1 w31 + v2 w32 . (no: soddisfa (ii) e (iii) ma non (i))
ii) lineare (nell’argomento di sinistra), ovvero ∀ a, b ∈ R , u, v, w ∈ V si ha: Sebbene un prodotto scalare sia un particolare tipo di funzione, conviene introdurre una
notazione differente da quella usata per funzioni generiche.
f(au + bv, w) = af(u, w) + bf(v, w) .
Notazione. Se V è uno spazio metrico, indicheremo il prodotto scalare di v, w ∈ V con
iii) definita positiva, ovvero hv, wi
f(v, v) > 0 ∀ v 6= 0 .
invece di f(v, w) o g(v, w), etc. Useremo lo stesso simbolo h , i, qualunque sia la funzione
Uno spazio vettoriale dotato di un prodotto scalare si dice spazio metrico.
che definisce il prodotto scalare di V considerato.
1 / 25 2 / 25
Definizione Definizione
Due vettori v e w di uno spazio metrico V si dicono ortogonali se Sia V uno spazio metrico. Chiamiamo norma di v ∈ V la grandezza
hv, wi = 0 . p
kvk := hv, vi .
Proposizione Definizione
Un prodotto scalare di V soddisfa: Siano v = (v1 , . . . , vn ) e w = (w1 , . . . , wn ) ∈ Rn . Un prodotto scalare di Rn è dato da
iv) h0, vi = 0 ∀ v ∈ V ;
hv, wi := v1 w1 + v2 w2 + . . . + vn wn = v · t w ,
v) hw, au + bvi = a hw, ui + b hw, vi ∀ a, b ∈ R , u, v, w ∈ V .
ed è detto prodotto scalare canonico di Rn . La norma associata è
Dimostrazione. La proprietà iv) segue da ii). Infatti: p q
||v|| = hv, vi = v21 + v22 + . . . + v2n .
(ii)
h0, vi = h0 + 0, vi = h0, vi + h0, vi ,
Esempio
e sottraendo h0, vi ambo i membri si ottiene h0, vi = 0 per ogni v ∈ V .
Siano v = (2, 1, 0, 2) e w = (−2, 2, 4, 1) . Rispetto al prodotto scalare canonico di R4 :
Usando prima i), poi ii), e quindi ancora i) si dimostra che:
(i) (ii) (i) hv, wi = 2 · (−2) + 1 · 2 + 0 · 4 + 2 · 1 = 0 (i vettori sono ortogonali)
hw, au + bvi = hau + bv, wi = a hu, wi + b hv, wi = a hw, ui + b hw, vi
√ p
kvk = 22 + 12 + 02 + 22 = 3 kwk = (−2)2 + 22 + 42 + 12 = 5
per ogni a, b ∈ R e per ogni u, v, w ∈ V .
3 / 25 4 / 25
Proprietà del prodotto scalare e della norma [Abate, §11.2] Disuguaglianza di Cauchy-Schwarz
Per ogni v, w ∈ V , si ha:
Proprietà della norma
Per ogni a ∈ R e u, v ∈ V si ha: |hv, wi| 6 kvk kwk .
k
0 6 ϑ 6 90◦ , u e w hanno lo stesso orientamento e k > 0; altrimenti k < 0. Assumiamo
w
v ϑ w
+
che sia 0 6 ϑ 6 90◦ , ovvero k > 0 (la dimostrazione per k < 0 è analoga).
kv
è la ben nota disuguaglianza triangolare della k
kw
geometria euclidea: O Vediamo dalla figura che la norma di u è pari a cos ϑ · kvk ; ma è anche uguale a
p
in un triangolo la lunghezza di un qualsiasi suo lato non può essere superiore kkwk = (kw1 )2 + (kw2 )2 = kkwk .
alla somma delle lunghezze degli altri due.
Quindi:
La proposizione successiva si riduce al Teorema di Pitagora: kv + wk2 = kvk2 + kwk2 se kvk hv, wi kvk hv, wi
k = cos ϑ · = = .
e solo se il triangolo in figura è rettangolo (ϑ = 90◦ ). kwk kvk kwk kwk kwk2
9 / 25 10 / 25
Si calcoli la norma dei seguenti vettori di R2 ed R3 : I Sia V = R3 con prodotto scalare canonico. Se u1 = (1, 0, 1) e u2 = (1, 0, −1), l’insieme
v1 = (−2, 5, 1) v2 = (1, 0, −2) v3 = (7, 1, 1) { u1 , u2 } è ortogonale (non è una base, poiché R3 ha dimensione 3).
v4 = (4, 1) v5 = (10, 1) v6 = (−1, −3) I La base canonica di Rn è ortonormale rispetto al prodotto scalare canonico.
11 / 25 12 / 25
Osservazione
Proposizione
In uno spazio vettoriale V di dimensione n, un insieme ortogonale di n vettori (diversi da
Un insieme I = { v1 , . . . , vm } ⊂ V ortogonale è libero se e solo se 0 ∈
/ I.
zero) è una base di V .
Per la linearità del prodotto scalare: v1 = (1, 1, 1) v2 = (1, −1, 0) v3 = (1, 1, −2)
Per ipotesi hvi , vj i = 0 ∀ i 6= j, quindi tutti i termini della somma escluso l’i-esimo sono Definizione
zero, e
In analogia con l’esempio di R2 (con prodotto scalare canonico), dati due vettori v e w di
2
hu, vi i = ai hvi , vi i = ai k vi k . uno spazio metrico V (w 6= 0), il vettore
per ogni i = 1, . . . , m. Questo prova che l’insieme I è libero. si dice proiezione di v in direzione di w, e viene indicato con il simbolo “ prw (v) ”.
13 / 25 14 / 25
Dimostrazione del Lemma. Per l’osservazione nella slide 3, è sufficiente dimostrare che i
Metodo di Gram-Schmidt
vettori di B sono non nulli e ortogonali fra di loro.
Sia (v1 , v2 , . . . , vn ) una base di uno spazio metrico V . E’ possibile ricavare da essa una
Notiamo che wi ∈ L(v1 , . . . , vi ). I vettori di B sono non nulli, infatti w1 = v1 6= 0 e per
base ortonormale come illustrato nel seguito (metodo di Gram-Schmidt). Il primo passo è
i > 2, se per assurdo fosse wi = 0, se ne dedurrebbe che
definire dei vettori (w1 , w2 , . . . , wn ) in maniera ricorsiva, ponendo:
i−1
X
w1 := v1 hvi , wj i
vi = wj
j=1
kwj k2
e per ogni i = 2, . . . , n:
appartiene a L(v1 , . . . , vi−1 ), contraddicendo l’ipotesi che (v1 , . . . , vn ) è una base.
i−1
X i−1
X hvi , wj i
wi := vi − prwj (vi ) = vi − wj L’ortogonalità si dimostra per induzione. Chiaramente { w1 } è un insieme ortogonale.
kwj k2
j=1 j=1 Sia 2 6 i 6 n. Per ipotesi induttiva, assumiamo che { w1 , w2 , . . . , wi−1 } siano a due a due
ortogonali, e mostriamo che wi ⊥ wk ∀ 1 6 k 6 i − 1. Per costruzione
Lemma L’insieme B = (w1 , w2 , . . . , wn ) è una base ortogonale di V . [Abate, teorema 11.6]
i−1
X i−1
X
hvi , wj i hvi , wj i
hwk , wi i = wk , vi − w = hw , v i − hwk , wj i
Il secondo passo consiste nel “normalizzare” i vettori ottenuti. Chiamiamo kw j k2 j k i
kwj k2
j=1 j=1
w1 w2 wn
u1 = , u2 = , ... un = . Ma hwk , wj i = 0 ∀ j 6= k (ipotesi induttiva), quindi
kw1 k kw2 k kwn k
hvi , wk i
Corollario. L’insieme (u1 , u2 , . . . , un ) è una base ortonormale di V . hwk , wi i = hwk , vi i − hwk , wk i = 0
kwk k2
15 / 25 16 / 25
Esercizio Proprietà delle basi ortonormali
Determinare una base ortonormale del sottospazio V ⊆ R generato dai tre vettori 4
(linearmente indipendenti) v1 = (1, 1, 1, 0), v2 = (0, 1, 2, 0) e v3 = (5, 3, −5, 3). Proposizione [Abate, prop. 11.4]
w1 = v1 = (1, 1, 1, 0) , hv, ui i .
Normalizzando i vettori otteniamo una base ortonormale (u1 , u2 , u3 ): Dalla definizione di insieme ortonormale e dalla linearità del prodotto scalare segue che
w1 w2 X X
u1 = = √1 (1, 1, 1, 0) , u2 = = √1 (−1, 0, 1, 0) ,
kw1 k 3 kw2 k 2 hv, ui i = ai hui , ui i + aj huj , ui i = ai kui k2 + aj · 0 = ai
j6=i j6=i
w3
u3 = = √1 (−1, 2, −1, 3) .
kw3 k 15
X cioè ai = hv, ui i , per ogni i = 1, . . . , n.
17 / 25 18 / 25
19 / 25 20 / 25
Lemma
Siano v, w1 , w2 , . . . , wk vettori di uno spazio metrico V . Se v è ortogonale a ciascuno dei
vettori w1 , w2 , . . . , wk , allora è ortogonale ad ogni loro combinazione lineare. Enunciamo senza dimostrazione:
1. { 0 }⊥ = V e V ⊥ = { 0 };
hv, a1 w1 + a2 w2 + . . . + ak wk i = a1 hv, w1 i + a2 hv, w2 i + . . . + ak hv, wk i = 0
(ogni vettore è ortogonale a 0, e 0 è l’unico vettore ortogonale a tutti i vettori di V )
per ogni a1 , . . . , ak ∈ R.
2. W ∩ W ⊥ = { 0 }; W + W ⊥ = V ;
Esercizio
Sia W = L (1, 0, 1) , (1, 1, 1) ⊂ R3 . Determinare il complemento ortogonale W ⊥ .
21 / 25 22 / 25
SΣ = W ⊥ .
b) Si ha:
# » #» # »
OA + OP = OB cioè a+p=b Si ottiene in questo modo una equazione parametrica della retta r:
ricaviamo le coordinate di P, date dal vettore di R2 : p = (b1 − a1 , b2 − a2 ) x1 = p1 + tu1
x = p + tu ⇐⇒ (?)
x2 = p2 + tu2
# » # »
Due vettori applicati non nulli AB e CD hanno la stessa direzione se e solo se
Al variare di t ∈ R, l’equazione (?) descrive tutti i punti appartenenti alla retta r (il punto P
rappresentano vettori liberi proporzionali, ossia:
si ottiene ad esempio per t = 0). Nell’esempio in figura, è disegnata la retta di direzione
∃ t ∈ R tale che B − A = t(D − C) u = (2, 3) e passante per il punto p = (1, −1).
1 / 52 2 / 52
(2, 1) Un vettore normale ad r è vettore non nullo perpendicolare alla retta stessa. Il vettore
=
stessa retta:
u
u
r 0 : x = (2, 1) + t 0 (6, 8) è ortogonale ad u = (u1 , u2 ) , e tutti i vettori normali sono proporzionali ad esso.
r 00 : x = (−1, −3) + t 00 (6, 8) In generale, possiamo moltiplicare l’eq. (?), x − p = tu , per il vettore normale n. Si ottiene:
Soluzione. Dalla 1a equazione si ottiene la 2a con la sostituzione t = 2t 0 . Dalla 1a hn, x − pi = t hn, ui = 0 ⇐⇒ −u2 x1 + u1 x2 + (u2 p1 − u1 p2 ) = 0 .
equazione si ottiene la 3a con la sostituzione t = 2t 00 − 1. Le tre equazioni descrivono lo
stesso insieme di punti, solo “parametrizzato” in tre modi differente. X Chiamando a = −u2 , b = u1 e c = u2 p1 − u1 p2 si trova l’equazione cartesiana
Possiamo ridurre l’ambiguità nella scelta di u chiedendo che abbia norma 1. Esistono solo ax1 + bx2 + c = 0 . (†)
due vettori di norma 1 paralleli ad r e si dicono versori della retta. Una equazione del tipo (†) rappresenta una retta se e solo se n = (a, b) 6= (0, 0).
3 / 52 4 / 52
Rette ortogonali Norma e distanza
Sia r la retta di equazione
p = (p1 , p2 )
ax1 + bx2 + c = 0
d(p, q) = kp − qk
e p = (p1 , p2 ) un punto qualsiasi del piano. Vogliamo scrivere l’equazione parametrica |p2 − q2 |
Distanza punto-retta Sostituendo il valore di t trovato nelle equazioni parametriche di r 0 si trovano le coordinate
del punto q = (x1 , x2 ), date da
La distanza di un punto p da una retta r è la
x1 = p1 + t0 a , x2 = p2 + t0 b .
lunghezza del segmento che va da p alla
r
proiezione ortogonale di p su r, sia essa q. r0 La distanza fra p ed r è quindi data da
Se r ha equazione cartesiana:
d(p, r) d(p, r) = kp − qk .
q
r : ax1 + bx2 + c = 0
p
Notiamo che
la retta r ortogonale ad r passante per p è:
0
p − q = −t0 (a, b)
x1 = p1 + ta
r0 : e
x2 = p2 + tb ap1 + bp2 + c √
d(p, r) = kp − qk = |t0 | · k(a, b)k = a2 + b2 .
a2 + b2
L’intersezione fra r ed r 0 si ottiene sostituendo le espressioni di x1 e x2 in funzione di t nella
prima equazione e ricavando t. Si ottiene Formula per la distanza punto-retta
ax1 + bx2 + c = a(p1 + ta) + b(p2 + tb) + c = 0 La distanza fra un punto p = (p1 , p2 ) e una retta r di equazione ax1 + bx2 + c = 0 è:
Esercizio Si tratta evidentemente di una retta (il vettore u := b − a che ne dà la direzione è diverso
Si determini la distanza del punto p = (2, 1) dalla retta r di equazione 2x1 − x2 + 5 = 0. da zero), e passa sia per a (t = 0 ⇒ x = a) che per b (t = 1 ⇒ x = b).
Si determini la distanza del punto p0 = (1, 3) dalla retta r 0 di equazione x1 + 2x2 − 7 = 0.
L’equazione (∗) è soddisfatta se e solo se i vettori x − a e b − a sono linearmente
dipendenti, ossia (teorema degli orlati):
Soluzione. Si ha
x1 − a1 x2 − a2
|2 · 2 − 1 · 1 + 5| 8
d(p, r) = √ = √ , =0 (∗∗)
22 + 12 5 b 1 − a1 b2 − a2
e L’equazione (∗∗) è una equazione cartesiana di r, equivalente a (fare la verifica):
0 |1 · 1 + 2 · 3 − 7|
0
d(p , r ) = √ =0. x1
12 + 22 x2 1
a1 a2 1 = 0 .
La distanza di p 0 da r 0 è zero. Si può in effetti notare che p 0 ∈ r 0 . X
b1 b2 1
9 / 52 10 / 52
1
2
base × altezza = 12 |a1 b2 − a2 b1 |
Per trovare le intersezioni si procede per sostituzione. Sappiamo che (a, b) 6= (0, 0).
Supponiamo che ad esempio sia a 6= 0, allora dalla seconda equazione ricaviamo
Una circonferenza di centro c = (c1 , c2 ) e raggio R > 0 è l’insieme dei punti del piano a x1 = −a−1 (bx2 + d)
distanza R dal punto c. Quindi un punto x è sulla circonferenza se e solo se:
che sostituita nella prima dà una equazione di 2◦ grado in una sola variabile. Il numero di
d(x, c) ≡ kx − ck = R , soluzioni (reali) dipenderà dal segno del discriminante ∆. Si hanno tre possibilità:
Elevando al quadrato ambo i membri si ottiene l’equazione della circonferenza: 1 se ∆ > 0, retta e circonferenza si incontrano in due punti;
x1 − x2 + 2 = 0
Una equazione cartesiana di r è quindi data da:
che ha soluzioni x1 = 2 e x1 = −1. Usando x2 = x1 + 2 si evince che l’intersezione è data L’equazione della tangente è:
dai due punti di coordinate (2, 4) e (−1, 1).
3x1 − 4x2 − 23 = 0 .
19 / 52 20 / 52
Geometria di R3 Rette e piani: equazioni parametriche
Coordinate di un punto nello spazio tridimensionale
# » # »
Come in 2d, anche in 3d due vettori applicati AB e CD non nulli hanno la stessa direzione
se e solo se i corrispondenti vettori liberi sono linearmente dipendenti:
Introducendo un sistema di riferimento cartesiano x3
tridimensionale, è possibile individuare un punto P ∃ t ∈ R : B − A = t(D − C)
dello spazio tridimensionale attraverso una terna
Una retta r è univocamente determinata da una direzione u (che specifica il fascio di rette
di coordinate p = (p1 , p2 , p3 ) ∈ R3 .
P parallele a cui appartiene) ed un punto P appartenente alla retta stessa.
Graficamente, il punto P è il vertice di un Un punto Q, di coordinate x ∈ R3 , appartiene ad r se e solo se i vettori Q − P ed u sono
parallelepipedo rettangolo i cui lati hanno p3 paralleli. Da questa osservazione si ricavano le equazioni parametriche di r:
lunghezza data dal modulo di p1 , p2 e p3 .
x1 = p1 + tu1
Esiste una corrispondenza biunivoca fra punti, x = p + tu ⇐⇒ x2 = p2 + tu2
vettori applicati nell’origine O e vettori liberi: p1 x2 x3 = p3 + tu3
p2
#»
P ←→ OP ←→ P − O I dati u e p non sono univocamente determinati da r: u può essere moltiplicato per uno
x1
scalare diverso da zero, e p può essere sostituito da un qualsiasi punto di r.
Questi tre enti matematici verranno spesso identificati con la terna di coordinate di P.
Se kuk = 1, il vettore u si dice versore della retta r.
21 / 52 22 / 52
#» #» Π
La somma di due vettori PA e PB applicati nello Dall’ultima osservazione si ricavano le equazioni parametriche del piano Π passante per p
#»
stesso punto P è data dalla diagonale PC del e di direzione data da due vettori linearmente indipendenti u e v:
parallelogramma che ha i due vettori come lati.
x1 = p1 + t1 u1 + t2 v1
A C x = p + t1 u + t2 v ⇐⇒ x2 = p2 + t1 u2 + t2 v2
Siano u = A − P e v = B − P. Per ogni t1 , t2 ∈ R
x3 = p3 + t1 u3 + t2 v3
i vettori t1 u ed u hanno la stessa direzione, cosı̀
come i vettori t2 v e v. Al variare di t1 , t2 ∈ R da queste equazioni si ottengono tutti i punti Π.
Un punto Q di coordinate x ∈ R3 appartiene a Π se e solo se Osservazione: come in R2 , anche in R3 è possibile eliminare il parametro t dalle equazioni
parametriche di una retta, o i parametri t1 , t2 dalle equazioni parametriche di un piano, ed
∃ t1 , t2 ∈ R : Q − P = t1 u + t2 v ottenere delle equazioni cartesiane.
23 / 52 24 / 52
Esempio
Si consideri la retta r ⊂ R3 di equazioni parametriche
Equazione cartesiana di un piano
x1 = 1 − t Se (a, b, c) 6= (0, 0, 0) (e d ∈ R), l’equazione cartesiana:
x2 = −3 − 2t
ax1 + bx2 + cx3 + d = 0
x3 = 5 + 3t
Dalla prima equazione ricaviamo t = 1 − x1 , che sostituita nelle altre due dà: descrive un piano Π. Per convincersene, basta scrivere la soluzione generale in funzione di
due parametri reali. Se ad esempio a 6= 0, si ricava
x2 = −3 + 2x1 − 2 2x1 − x2 − 5 = 0
⇐⇒
−1
x3 = 5 − 3x1 + 3 3x1 + x3 − 8 = 0
x1 = −a (bt1 + ct2 + d)
x2 = t1
Esempio x3 = t2
Si consideri il piano Π ⊂ R3 di equazioni parametriche:
La direzione è data dai vettori u = (−a−1 b, 1, 0) e v = (−a−1 c, 0, 1). Questi sono
x1 = 1 + 2t1 + t2 linearmente indipendenti, e quindi si tratta effettivamente di un piano.
x2 = 2 − t1 − t2
Il vettore n := (a, b, c) ∈ R3 è ortogonale al sottospazio L(u, v) e quindi al piano Π. Infatti
x3 = t2
u, v sono soluzioni dell’equazione omogenea associata:
Risolvendo le ultime due equazioni rispetto a t1 e t2 si trova t1 = 2 − x2 − x3 e t2 = x3 , che
sostituite nella prima danno l’equazione cartesiana: hn, xi = ax1 + bx2 + cx3 = 0
x1 + 2x2 + x3 − 5 = 0 .
Chiamiamo n vettore normale e le sue componenti parametri direttori di Π.
25 / 52 26 / 52
I vettori u, v formano una base per lo spazio delle soluzioni del sistema omogeneo n := (a, b, c) = (u2 , −u1 , 0) n 0 := (a 0 , b 0 , c 0 ) = (u3 , 0, −u1 )
associato (ossia il piano L(u, v) passante per l’origine e parallelo a Π) , e p è una qualsiasi
Entrambi i vettori n ed n 0 sono ortogonali ad u, e da (∗) si ricava il sistema:
soluzione particolare (che esiste, se i coefficienti di (†) non sono tutti zero).
hn, x − pi = hn 0 , x − pi = 0
Viceversa, date delle equazioni parametriche (‡) di un piano, notando che (‡) equivale a
x − p ∈ L(u, v) si ricava la condizione equivalente (teorema degli orlati): Più esplicitamente, detti d = −u2 p1 + p2 e d0 = −u3 p1 + p3 :
a x1 + b x2 + c x3 + d = 0
x − p x1 − p1 x3 − p2 x3 − p3 (∗∗)
u3 = 0 . a0 x1 + b0 x2 + c0 x3 + d0 = 0
u = u1 u2
v v1 v2 v3 Siccome il rango della matrice dei coefficienti è 2 (n e n 0 sono linearmente indipendenti)
tutte e sole le soluzioni sono date da (∗) (la soluzione generale dipende da 1 parametro
La precedente è una equazione cartesiana di Π.
reale). Le eq. (∗) e (∗∗) descrivono quindi lo stesso insieme.
27 / 52 28 / 52
Tabella riassuntiva: Equazioni di rette e piani.
In generale, equazioni cartesiane del tipo
a x1 + b x2 + c x3 + d = 0 R ETTA r P IANO Π
0 0 0 0
a x1 + b x2 + c x3 + d = 0
E QUAZIONI
x = p + tu x = p + t 1 u + t2 v
PARAMETRICHE
descrivono una retta r se e solo se
" # " # " #
a b c u u1 u2 u3
ρ 0 =2, Condizione u 6= 0 ρ =ρ =2
a b0 c0 v v1 v2 v3
29 / 52 30 / 52
Notiamo che l’intersezione fra due piani incidenti (cioé, non paralleli) è sempre una retta. In
Siano Π e Π 0 due piani di equazioni cartesiane:
figura sono mostrati due piani paralleli e distinti, e due piani incidenti.
0 0 0 0 0
Π : ax1 + bx2 + cx3 + d = 0 , Π : a x1 + b x2 + c x3 + d = 0 .
x3 x3
L’intersezione Π ∩ Π 0 è l’insieme delle soluzioni del sistema di matrice completa
" #
a b c −d
(A|B) = .
a0 b0 c0 −d 0
31 / 52 32 / 52
Intersezione fra retta e piano [Abate, §10.5]
Siccome (a1 , b1 , c1 ) e (a2 , b2 , c2 ) sono linearmente indipendenti (condizione per avere una
retta), si ha 2 6 ρ(A) 6 ρ(A|B) 6 3. Possono allora verificarsi tre casi:
1 se ρ(A) = 2 e ρ(A|B) = 3, il sistema è incompatibile e l’intersezione è vuota;
2 se ρ(A) = ρ(A|B) = 2, siccome le ultime due righe sono linearmente indipendenti, la
prima deve essere combinazione lineare delle altre due: la prima equazione (quella di
Π) è quindi superflua, e r ∩ Π = r (ovvero r ⊂ Π);
(3) Retta e piano incidenti
3 se ρ(A) = ρ(A|B) = 3, la soluzione è unica e r ∩ Π è un punto.
33 / 52 34 / 52
Per finire, consideriamo due rette di equazioni cartesiane: 1 se ρ(A) = 2 e ρ(A|B) = 3, il sistema non ammette soluzioni e r ∩ r 0 = ∅;
2 se ρ(A) = 3 e ρ(A|B) = 4, come nel primo caso l’intersezione è vuota;
a1 x1 + b1 x2 + c1 x3 + d1 = 0 0
a10 x1 + b10 x2 + c10 x3 + d10 = 0
r: r :
a2 x1 + b2 x2 + c2 x3 + d2 = 0 a20 x1 + b20 x2 + c20 x3 + d20 = 0 3 se ρ(A) = ρ(A|B) = 2, possiamo eliminare due equazioni (ad esempio, per
riduzione) ed ottenere le equazioni cartesiane di una retta: questo vuol dire che
L’intersezione r ∩ r 0 è l’insieme delle soluzioni del sistema lineare di matrice completa:
r = r 0 e r ∩ r 0 = r = r 0 è una retta;
a1 b1 c1 −d1 4 se ρ(A) = ρ(A|B) = 3, per il teorema di Rouché-Capelli il sistema è compatibile ed
a2 b2 c2 −d2 ammette un’unica soluzione (si hanno 3 − ρ(A) = 0 parametri liberi): quindi
(A|B) =
.
a10 b10 c10 −d10 l’intersezione è un punto.
a20 b20 c20 −d20
Sia nel primo che nel secondo caso l’intersezione è vuota. Quale è la posizione reciproca
Per costruzione (condizione necessaria e sufficiente affinché r ed r 0 siano rette) le prime delle due rette?
due righe di A sono linearmente indipendenti, cosı̀ come le ultime due. Quindi ρ(A) > 2.
Nel primo caso le due rette sono parallele (poiché ρ(A) = 2) e distinte.
Ricordiamo inoltre che ρ(A) 6 ρ(A|B) 6 ρ(A) + 1. Quindi:
Se ρ(A) = 3 e ρ(A|B) = 4 le due rette non sono parallele e non si intersecano: due rette di
2 6 ρ(A) 6 3 e ρ(A) 6 ρ(A|B) 6 ρ(A) + 1 . questo tipo si dicono sghembe.
35 / 52 36 / 52
Siccome due rette distinte contenute in un piano sono sempre parallele oppure si
intersecano in un punto, due rette sono sghembe se e solo se non sono complanari.
In figura è illustrato un esempio di due rette sghembe. Esiste uno (e un solo) piano Tabella riassuntiva: Intersezioni.
contenente una delle due rette e ortogonale alla seconda. Tale piano intersecherà la
seconda retta esattamente in un punto.
ρ(A) ρ(A|B) r ∩ r0 r∩Π Π ∩ Π0
1 1 — — piano (Π = Π 0 )
1 2 — — ∅
2 2 retta (r = r )
0
retta (r ⊂ Π) retta
2 3 ∅ ∅ —
3 3 punto punto —
3 4 ∅ — —
37 / 52 38 / 52
39 / 52 40 / 52
Distanze in R3 [Abate, §12.2]
b
x3
Come in R2 , anche in R3 la distanza
b−a
dall’origine di un punto di coordinate x3
b)
p = (p1 , p2 , p3 ) è data dalla norma:
a,
ak
d(
p3
q
−
kb
kpk = p21 + p22 + p23 .
a
P
Verifichiamo questa affermazione. . .
L
θ/2 v
v
u v
u v
O
kvk
2L = d , =
−
kuk kvk
kuk kvk
θ v rD
u v u v E
= − , −
O
kuk kvk kuk kvk
45 / 52 46 / 52
Proposizione
Il prodotto vettoriale è una operazione interna di R3 non associativa e non commutativa.
Gode invece della proprietà anti-commutativa: Proposizione
u ∧ v = −v ∧ u ∀ u, v ∈ R .3 Due vettori u, v di R3 sono linearmente dipendenti se e solo se u ∧ v = 0.
Dimostrazione. Si verifica facilmente (la verifica è lasciata come esercizio) che: Dimostrazione. E’ sufficiente osservare che le componenti di u ∧ v sono date (a meno di
e1 ∧ e2 = e3 , e2 ∧ e1 = −e3 . un segno) dal determinante dei minori di ordine 2 della matrice:
Siccome e1 ∧ e2 6= e2 ∧ e1 , il prodotto vettoriale non è commutativo. u1 u2 u3 u
A= = .
Dalla definizione di u ∧ v si vede immediatamente che, scambiando i due vettori fra di loro, v1 v2 v3 v
il prodotto vettoriale cambia segno: questo prova la proprietà anti-commutativa.
I vettori u e v sono linearmente indipendenti se e solo se ρ(A) = 2.
Infine, detto u = (1, 1, 0), il vettore
Per teorema degli orlati, una condizione necessaria e sufficiente è che almeno un minore di
(e1 ∧ e2 ) ∧ u = e3 ∧ u = (−1, 1, 0) ordine 2 di A abbia determinante non nullo, ovvero almeno una componente di u ∧ v sia
diversa da zero, come volevasi dimostrare.
è diverso da
e1 ∧ (e2 ∧ u) = e1 ∧ (0, 0, −1) = (0, 1, 0) ;
47 / 52 48 / 52
Enunciamo senza dimostrazione. . .
Dati due vettori u e v linearmente indipendenti. . .
x3 Proposizione
Proposizione
u∧v La norma del vettore u ∧ v è l’area del parallelogramma di lati u e v.
Il prodotto vettoriale u ∧ v è ortogonale al
piano contenente i vettori u e v.
v Proposizione
Dimostrazione. Si ha Il volume del parallelepipedo che ha per lati i vettori u, v e w è dato da |hu ∧ v, wi| .
u1 u2 u3
u
hu ∧ v, ui = v1 v2 v3 = 0 . x2
w
u1 u2 u3
x1
Il determinante è zero perché la matrice
ha due righe uguali. Allo stesso modo si prova che
hu ∧ v, vi = 0
u
da cui segue che u ∧ v è ortogonale a qualsiasi combinazione lineare dei vettori u e v,
v
ovvero la tesi. O
49 / 52 50 / 52
Esercizi
sono complanari e, in caso affermativo, determinare una equazione cartesiana del piano (b) Stabilire se la retta r interseca il piano di equazione cartesiana 2x1 − x2 + x3 = 0.
che li contiene.
51 / 52 52 / 52
Autovalori ed autovettori [Abate, §13.1] Esempio
L’endomorfismo f : R2 → R2 dato da
Definizione
f(x, y) := (−y, x)
Sia f : V → V un endomorfismo e v ∈ V un vettore non nullo. Se esiste λ ∈ R tale che
non possiede autovettori: non esiste nessun vettore v = (x, y) non nullo e nessuno scalare
f(v) = λv ,
λ ∈ R soddisfacenti la condizione f(v) = λv, ovvero soluzione di
diremo che λ è un autovalore di f e che v è un autovettore di f associato a λ.
−y = λx
In altre parole, v è autovettore di f se e solo se v ed f(v) hanno la stessa “direzione”. x = λy
Qualunque sia λ ∈ R, l’unica soluzione del sistema è quella nulla.
Esempi
I In R2 , v = (3, 1) è autovettore dell’applicazione f(x, y) := (2x, x − y). Infatti:
L’applicazione
(−y, x)
f(v) = (6, 2) = 2v
f(x, y) := (−y, x)
L’autovalore associato è λ = 2.
rappresenta una rotazione antioraria
x
I In R3 , v = (1, −1, 1) è autovettore di f(x, y, z) := (x + y, x − z, y + z). Infatti: di 90◦ rispetto all’origine degli assi. (x, y)
f(v) = (0, 0, 0) = 0v y
v ed f(v) possono avere la stessa
direzione solo se v = 0. y x
L’autovalore associato è λ = 0.
1 / 38 2 / 38
Definizione
Definizione
Se λ è un autovalore di f, chiameremo autospazio di f associato a λ l’insieme:
Data A ∈ Mn (R), diremo che v ∈ Rn (vettore colonna) è un autovettore di A di autovalore
λ se v è autovettore di LA di autovalore λ, ovvero è non nullo e soddisfa: Vλ = v ∈ V : f(v) = λv .
Proposizione
Esempio
Vλ è un sottospazio vettoriale di V .
Sia
" #
3 2 Dimostrazione. Usiamo il criterio c) di sottospazio. Siano v1 , v2 ∈ Vλ e a1 , a2 ∈ R.
A= .
0 1 Per definizione di autospazio, f(v1 ) = λv1 e f(v2 ) = λv2 . Sia w = a1 v1 + a2 v2 .
5 / 38 6 / 38
pA (λ) = λ2 + 1 .
è un polinomio reale di grado n nella variabile λ, detto polinomio caratteristico di A ed
indicato con pA (λ). Un numero λ0 ∈ R è autovalore di A se e solo se pA (λ0 ) = 0. Tale polinomio non ammette radici reali. Quindi A non possiede autovalori.
Quindi: gli autovalori di A sono le radici (reali) del polinomio caratteristico pA (λ).
9 / 38 10 / 38
Due matrici A, B ∈ Mn (R) si dicono coniugate se esiste P ∈ Mn (R) invertibile tale che
Il polinomio caratteristico di A ∈ Mn (R) è della forma
B = P−1 AP
pA (λ) := |A − λIn | = (−1)n λn + c1 λn−1 + c2 λn−2 + . . . + cn−1 λ + cn
(Nota: Abate usa il termine “simili” invece di “coniugate”.)
con coefficienti ci ∈ R che dipendono da A. In particolare,
Proposizione. Matrici coniugate hanno lo stesso polinomio caratteristico, la stessa traccia e
cn = pA (0) = |A|
lo stesso determinante.
è il determinante e (−1)n−1 c1 è la somma degli elementi sulla diagonale,
Dimostrazione. Per il teorema di Binet, se P ∈ Mn (R) è una matrice invertibile allora
(−1)n−1 c1 = a11 + a22 + a33 + . . . + ann ,
1 = |In | = |P−1 P| = |P−1 | · |P|
detta traccia della matrice A, e indicata con tr(A):
n
X da cui segue |P−1 | = |P|−1 . Sempre per il teorema di Binet, se B = P−1 AP allora
tr(A) = aii
i=1
B − λIn = P−1 (A − λIn )P
Esercizio e
Calcolare la traccia delle matrici
" # " # 2 3 1 pB (λ) = |B − λIn | = |P|−1 · |A − λIn | · |P| = |A − λIn | = pA (λ) .
1 4 2 3
A= B= C = 1 0 −2
3 5 1 −2 Siccome traccia e determinante sono il primo e l’ultimo coefficiente del polinomio caratte-
4 1 7
ristico, da pB (λ) = pA (λ) segue |B| = |A| e tr(B) = tr(A) .
15 / 38 16 / 38
Matrice del cambiamento di base [Abate, §8.1] In maniera simile, la matrice del cambiamento di base da B 0 a B è la matrice A 0 data da:
B = B0 · A0 .
Siano B = (v1 , . . . , vn ) e B 0 = (v10 , . . . , vn0 ) due basi di uno spazio vettoriale V .
Possiamo allora scrivere i vettori di B 0 nella base B e viceversa. Proposizione
La matrice A del cambiamento di base da B a B 0 è invertibile, e la sua inversa è la matrice
Definizione
A 0 del cambiamento di base da B 0 a B.
Chiamiamo matrice del cambiamento di base da B a B 0 la matrice che ha come j-esima
colonna l’n-upla di componenti di vj0 nella base B (per ogni 1 6 j 6 n). Dimostrazione. Evidentemente:
Indicando con A = (aij ) tale matrice, per definizione (per ogni 1 6 j 6 n):
B = B 0 · A 0 = (B · A) · A 0 = B · (A · A 0 ) ,
La formula è più semplice da ricordare scrivendo gli scalari a destra dei vettori.
v1 b1j + v2 b2j + . . . + vn bnj = 0 ∀16j6n.
Nel membro di destra di (?) riconosciamo infatti il prodotto righe per colonne fra la n-upla B Siccome i vettori sono linearmente indipendenti, questo implica
e la j-esima colonna di A. Possiamo riscrivere (?) nella forma compatta
b1j = b2j = . . . = bnj = 0 ∀16j6n,
B0 = B · A .
ovvero AA 0 − In = 0. L’ultima identità si può riscrivere come AA 0 = In . In maniera simile
(Attenzione: B e B sono n-uple di vettori; non sono n-uple di numeri reali.)
0
si dimostra che A 0 A = In . Quindi A 0 = A−1 .
17 / 38 18 / 38
f(vj0 ) = f(a1j v1 + a2j v2 + . . . + anj vn ) = a1j f(v1 ) + a2j f(v2 ) + . . . + anj f(vn )
f(vj ) = v1 c1j + v2 c2j + . . . + vn cnj , ∀ 1 6 j 6 n.
per ogni 1 6 j 6 n, ossia F 0 = F · A . Poiché F = B · C e F 0 = B 0 · C 0 , si ha
(La j-esima colonna di C è la n-upla di componenti di f(vj ) nella base B.)
B0 · C0 = B · C · A .
In maniera simile è definita la matrice rappresentativa C 0 = (cij
0
) di f nella base B 0 .
I In notazione matriciale, dette Usando B = B 0 · A 0 = B = B 0 · A−1 si ottiene:
B 0 · C 0 = B 0 · A−1 · C · A
F := f(v1 ) , f(v2 ) , . . . , f(vn )
che può essere riscritta nella forma B 0 · (C 0 − A−1 CA) = 0. Come nella prova della
F 0 := f(v10 ) , f(v20 ) , . . . , f(vn0 )
proposizione precedente (slide 4), dall’indipendenza lineare dei vettori di B 0 segue
si ha
C 0 − A−1 CA = 0 ,
F =B·C F 0 = B0 · C0
che è proprio la tesi.
19 / 38 20 / 38
Esercizio Endomorfismi semplici
In R2 , si considerino le basi
Nell’esercizio precedente, la base B 0 era formata da autovettori dell’endomorfismo f. . .
B = v1 = (1, 0) , v2 = (0, 1) , B 0 = v10 = (1, 1) , v20 = (−1, 1) .
proporzionali a v20 = (−1, 1) , sono lasciati I L’endomorfismo h di R2 dato da h(x, y) := (x + 2y, 3x + 2y) è semplice. Una base di
x
invariati da f . I punti fuori dalla bisettrice autovettori è B = v1 = (2, 3), v2 = (1, −1) . Si può infatti verificare che
vengono riflessi rispetto ad essa. (−y, −x)
h(v1 ) = 4v1 h(v2 ) = −v2
21 / 38 22 / 38
Definizione Osservazione
Una matrice A = (aij ) ∈ Mn (R) si dice diagonale se aij = 0 ∀ i 6= j. Un endomorfismo f di uno spazio V di dimensione n è semplice se esiste una base
B = (v1 , . . . , vn ) di V formata da autovettori di f, ovvero tali che
Definizione
Una matrice A ∈ Mn (R) si dice diagonalizzabile se è coniugata ad una matrice diagonale, f(v1 ) = λ1 v1 f(v2 ) = λ2 v2 ... f(vn ) = λn vn
ovvero se esiste una matrice P ∈ Mn (R) invertibile, detta matrice diagonalizzante di A, tale
con λ1 , . . . , λn autovalori di f.
che P−1 AP è diagonale.
La matrice rappresentativa A = (aij ) di f nella base B è data da
Esempio Esempio
λ i se i = j,
La matrice Siano aij = (†)
0 se i 6= j.
6 0 0 1 2 1 1 3 0
A= P= =⇒ P−1 AP =
A = 0 1 0 2 1 1 −1 0 −1 In altre parole,
0 0 −2
P−1 AP è diagonal-e. La matrice A è quindi diagonal-izzabile e P è I f è semplice ⇐⇒ ∃ una base di V in cui f è rappresentato da una matrice diagonale.
è diagonale. una matrice diagonal-izzante di A (attenzione ai suffissi!).
Le matrici rappresentative di f sono tutte coniugate fra di loro, e in particolare sono coniugate
I Ogni matrice diagonale è diagonalizzabile, essendo coniugata a sé stessa (in questo alla matrice diagonale (†). Quindi
caso, una matrice diagonalizzante è la matrice identica In ).
I I f è semplice se e solo se le sue matrici rappresentative sono (tutte) diagonalizzabili.
Se P è una matrice diagonalizzante di A, anche kP lo è (per ogni k 6= 0). Le matrici
diagonalizzanti di A, se esistono, sono quindi infinite.
23 / 38 24 / 38
Una matrice A è diagonalizzabile se e solo se LA è un endomorfismo semplice. . . . Viceversa, data una matrice diagonalizzante di A, si può costruire una base di
Si può infatti dire di più: data una base di autovettori di A è possibile costruire una matrice autovettori come segue. . .
diagonalizzante come segue. . .
Proposizione
Proposizione
Sia A ∈ Mn (R) diagonalizzabile e P = (pij ) una sua matrice diagonalizzante. Se indichia-
Sia A ∈ Mn (R). Se B = (v1 , . . . , vn ) è una base di Rn formata da autovettori di A, la mo con vj := t (p1j , p2j , . . . , pnj ) la j-esima colonna di P, allora B = (v1 , . . . , vn ) è una
matrice P che ha i vettori di B come colonne è una matrice diagonalizzante di A. base di Rn formata da autovettori di A.
dove c ∈ R, z1 , . . . , zr ∈ C sono radici complesse distinte di p(x), 1 6 r 6 n ed mi è detta (A − λIn )vi = (λ0 − λ)vi ,
molteplicità della radice zi . Ad esempio:
l’applicazione lineare LA−λIn nella base B è rappresentata da una matrice
3 2 2
x + x − 33x + 63 = (x − 3) (x + 7) λ0 − λ 0 ... 0 ∗ ... ∗
√
0 λ0 − λ ... 0 ∗ ... ∗
x2 + 2x + 2 = (x + 1 − i)(x + 1 + i) i = −1 . . . . .
. . . . .
. . . . .
Ovviamente M=
0 0 ... λ0 − λ ∗ ... ∗
∗
m 1 + m2 + . . . + m r = n . 0 0 ... 0 ∗ ...
. . . . .
. . . . .
. . . . .
Osservazione 0 0 ... 0 ∗ ... ∗
Gli autovalori di una matrice A ∈ Mn (R) sono le radici reali di pA (λ). Dette λ1 , . . . , λr le Facendo k volte lo sviluppo di Laplace rispetto alla prima colonna si ricava
radici reali distinte, per la molteplicità algebrica vale la disuguaglianza
pA (λ) = |A − λIn | = |M| = (λ0 − λ)k q(λ)
mλ1 + mλ2 + . . . + mλr 6 n ,
dove q(λ) è un polinomio in λ. La molteplicità algebrica di λ0 è k se λ0 non è una radice di
e si ha uguaglianza se e solo se tutte le radici di pA (λ) sono reali.
q(λ), altrimenti è maggiore di k. Questo prova che mλ0 > k = gλ0 .
31 / 38 32 / 38
Teorema (Criterio di diagonalizzabilità di una matrice) [Abate, teorema 13.9]
33 / 38 34 / 38
Teorema (Criterio di diagonalizzabilità di una matrice) [Abate, teorema 13.9] Teorema (Criterio di diagonalizzabilità di una matrice) [Abate, teorema 13.9]
Una matrice A ∈ Mn (R) è diagonalizzabile se e solo se: Una matrice A ∈ Mn (R) è diagonalizzabile se e solo se:
i) tutte le radici del polinomio caratteristico sono reali; i) tutte le radici del polinomio caratteristico sono reali;
ii) tutti gli autovalori di A sono semisemplici. ii) tutti gli autovalori di A sono semisemplici.
Dimostrazione. 2a parte: la condizione ii) è necessaria. Dimostrazione. 3a parte: le condizioni i) e ii) sono sufficienti.
Siano λ1 , λ2 , . . . , λr gli autovalori di A, con λi 6= λj ∀ i 6= j e r 6 n. Per k = 1, . . . , r, Sia ni = gλi = dim(Vλi ), 1 6 i 6 r. Scegliamo una base di ciascun autospazio:
indichiamo con Ik ⊂ R l’insieme delle colonne della matrice diagonalizzante P che
n
B1 = (u1 , u2 , . . . , un1 ) base di Vλ1 ,
appartengono all’autospazio Vλk . Poichè si tratta di vettori linearmente indipendenti (le
B2 = (v1 , v2 , . . . , vn2 ) base di Vλ2 ,
colonne di P sono una base di Rn ), ed essendo dim(Vλi ) = gλi , I1 ha al più gλ1 elementi,
.. ..
I2 ha al più gλ2 elementi, etc. In tutto le colonne di P sono n, da cui . .
Br = (w1 , w2 , . . . , wnr ) base di Vλr .
n 6 gλ1 + gλ2 + . . . + gλr 6 mλ1 + mλ2 + . . . + mλr = n
e mostriamo che B = B1 ∪ B2 ∪ . . . ∪ Br è un insieme libero di Rn . Sia
L’ultima uguaglianza segue dal fatto che tutte le radici di pA (λ) sono reali (oss. 18.1.1). Se
u = a1 u1 + a2 u2 + . . . + an1 un1
ne deduce che le precedenti disuguaglianze sono uguaglianze, e
v = b 1 v 1 + b 2 v 2 + . . . + b n2 v n2
(mλ1 − gλ1 ) + (mλ2 − gλ2 ) + . . . + (mλr − gλr ) = n − n = 0 .. ..
. .
Ma mλi − gλi > 0 (per il teorema precedente), e una somma di termini non negativi è nulla
w = c1 w1 + c2 w2 + . . . + cnr wnr
se e solo se tutti i termini sono zero. Si ricava mλi − gλi = 0 ∀ i, ossia la condizione ii).
35 / 38 36 / 38
Teorema (Criterio di diagonalizzabilità di una matrice) [Abate, teorema 13.9] Quella che segue è una semplice condizione sufficiente (ma non necessaria). . .
Una matrice A ∈ Mn (R) è diagonalizzabile se e solo se: Osservazione
i) tutte le radici del polinomio caratteristico sono reali; Se A ∈ Mn (R) ha n autovalori distinti (cioé: se tutti gli autovalori sono semplici), allora è
ii) tutti gli autovalori di A sono semisemplici. diagonalizzabile.