Antonino Salibra
Libri di Testo
• A. Salibra: Algebra Lineare, 2018.
1. Campi numerici. Esempi di campi numerici: il campo dei numeri reali; il campo
dei numeri complessi; il campo dei numeri interi modulo p per un numero primo
p.
4. Prodotto interno (o scalare) di due vettori del piano o dello spazio. Proprietà
del prodotto interno. Lunghezza di un vettore. Caratterizzazione della per-
pendicolarità con il prodotto interno. Disuguaglianza di Schwartz. Caratteriz-
zazione del coseno dell’angolo formato da due vettori con il prodotto interno.
Alcune applicazioni alla geometria euclidea.
5. Rette nel piano. Equazione lineare di una retta. Equazione parametrica di una
retta. Retta passante per l’origine e perpendicolare ad un dato vettore. Retta
parallela ad una retta passante per l’origine. Retta passante per un punto e
parallela (alla retta determinata da) ad un dato vettore. Retta passante per
due punti.
Campi Numerici
1. Proprietà associativa: x + (y + z) = (x + y) + z; x · (y · z) = (x · y) · z.
2. Proprietà commutativa: x + y = y + x; x · y = y · x.
3. Elemento neutro: x + 0 = x; x · 1 = x.
5. Opposto: x + (−x) = 0.
7. Prodotto per 0: x · 0 = 0 = 0 · x.
Scriveremo
• xy al posto di x · y;
• x − y al posto di x + (−y);
• x/y oppure x
y
per x · y −1 ;
5
6 CHAPTER 1. CAMPI NUMERICI
• Per ridurre il numero di parentesi supporremo che il prodotto leghi più della
somma. Per esempio, x + yz significa x + (yz).
Example 1. I seguenti insiemi con le ovvie operazioni aritmetiche sono campi nu-
merici:
e
0 ×2 0 = 0 ×2 1 = 1 ×2 0 = 0; 1 ×2 1 = 1.
(
xy if xy ≤ p − 1
x ×p y =
r if xy = qp + r con 0 ≤ r ≤ p − 1.
Le soluzioni dell’equazione
√ x2 + x + 2 = 0 sono numeri complessi perché nella formula
risolutiva compare √ −1.
Il nuovo numero −1, indicato con la lettera “i”, soddisfa l’equazione i2 = −1.
In generale un numero complesso z è un numero della forma
z = a + bi
Proposition 1.1.1. I numeri complessi sono un campo numerico, cioé sono chiusi
rispetto alle quattro operazioni aritmetiche.
• z + w = 1 + 2i + 2 + 2i = (1 − 2i) + (2 − 2i) = 3 − 4i = z + w.
a + bi 7→ (a, b).
La distanza del punto (a, b) dall’origine degli assi cartesiani è il modulo del numero
complesso z √
|z| = a2 + b2 .
√
Proposition 1.1.3. Siano z e w numeri complessi. Allora, |z| = z z̄ and |zw| =
|z||w|.
Proposition 1.1.4.
q Ogni numero complesso z = a + ib ha una radice quadrata
√
q
|z|+a
z= 2
+ i( |z|−a
2
).
√
Proof. Verifichiamo che ( z)2 = z:
r r r r
|z| + a |z| − a 2 |z| + a |z| − a |z| + a |z| − a
[ + i( )] = − + 2i = a + ib.
2 2 2 2 2 2
Example 4. Sia z = 3 + 4i. Allora applicando le formule della prova precedente con
a = 3 e b = 4, si ottiene
s√ s√
√ 25 + 3 25 − 3
z= +i = 2 + i.
2 2
√
Verifichiamo che elevando al quadrato z si ottiene effettivamente z: (2 + i)2 =
(2 + i)(2 + i) = 4 − 1 + 4i = 3 + 4i.
Vale un risultato molto più generale:
Il piano complesso
Sia z = a + bi un numero complesso. Il numero z ha una naturale interpretazione
geometrica in termini della sua parte reale ed immaginaria: Re(z) = a e Im(z) = b
come coppia di punti (a, b) del piano cartesiano xy. La retta dei punti y = 0 si
dice asse reale, mentre la retta x = 0 si dice asse immaginario. Per esempio l’unità
immaginaria i ha coordinate (0, 1). Il piano visto come rappresentazione dei numeri
complessi si dice piano complesso.
Torniamo al numero z = a + ib. I quattro punti (0, 0), (a, 0), (a, b), (0, b) del piano
complesso determinano un rettangolo √ nel piano complesso la cui diagonale principale
è un segmento di lunghezza |z| = a2 + b2 . La diagonale forma un angolo θ con
l’asse reale. L’angolo 0 ≤ θ < 2π ed il modulo |z| determinano univocamente z. Si
scrive
z = |z|(cos θ + i sin θ).
Se consideriamo
√ il numero complesso z = a + ib come punto (a, b) del piano, allora
la coppia ( a2 + b2 , θ) determina univocamente il punto (a, b) del piano e definisce
le cosiddette coordinate polari del punto (a, b).
Per esempio, l’angolo di 90 gradi ed il modulo 1 determinano univocamente l’unità
immaginaria, mentre l’angolo di 180 gradi ed il modulo 1 determinano il numero reale
−1, etc.
z n = cos(nθ) + i sin(nθ).
eln(x) = x.
x2 x3 x4
• ex = 1 + x + 2!
+ 3!
+ 4!
+ ...;
x3 x5 x7
• sin x = x − 3!
+ 5!
− 7!
+ ...;
x2 x4 x6
• cos x = 1 − 2!
+ 4!
− 6!
+ ....
θ2 θ4 θ6 θ3 θ5
eiθ = (1 − + − + . . . ) + (θ − + + . . . )i.
2! 4! 6! 3! 5!
Ne segue l’identità di Eulero:
L’identità seguente lega tra loro le costanti più importanti della matematica π
(lunghezza della circonferenza), e (logaritmo naturale) e i (unità immaginaria):
eiπ = −1.
1.1. IL CAMPO DEI NUMERI COMPLESSI 13
Proof. Dalla Proposizione 1.1.3 segue che |z n | = |z|n = 1. Dal fatto che |z| ≥ 0 è un
numero reale si ricava |z| = 1.
zn = 1
• La forza di gravità terrestre, la cui direzione ed il cui verso vanno dal punto in
cui vi trovate verso il centro della terra;
I vettori sono una rappresentazione astratta delle grandezze che hanno una direzione
(e talvolta verso).
È importante distinguere tra vettore liberi e vettore applicati. Se in automobile
viaggiamo a velocità costante lungo una linea retta, al tempo t ci troviamo in un
determinato punto P della retta, mentre al tempo successivo t+10 ci troveremo in un
altro punto Q. Se misuriamo la velocità istantanea nel punto P (velocità misurata +
direzione e verso) e poi nel punto Q, otterremo lo stesso risultato. Lo stesso vettore
è applicato prima nel punto P e poi nel punto Q.
17
18 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI
Se il campo numerico è totalmente ordinato, come nel caso dei numeri reali oppure
i numeri razionali, possiamo dire anche se due vettori a e b hanno lo stesso verso:
• I vettori a e b hanno stessa direzione e verso se esiste uno scalare r > 0 tale
che a = rb. I vettori a e b hanno stessa direzione ma verso opposto se esiste
r < 0 tale che a = rb.
Il campo dei numeri complessi non ha un ordinamento naturale. Quindi i vettori
complessi hanno una direzione, ma non un verso.
Oltre alla moltiplicazione per uno scalare, i vettori ammettono un’altra oper-
azione, che è detta somma o addizione di vettori. Per spiegare la somma vettoriale,
immaginiamo di effettuare il seguente esperimento. Appoggiamo una palla enorme
nell’origine O del piano cartesiano xy. Immaginiamo che due persone Pinco e Pallino
spingano la palla con forza. Pinco spinge lungo l’asse delle y (che corrisponde alla
direzione della retta x = 0) dall’asse negativo delle y verso l’asse positivo delle y.
Pallino spinge lungo l’asse delle x (che corrisponde alla direzione della retta y = 0)
dall’asse negativo delle x verso l’asse positivo delle x. La palla riceve una spinta
da Pinco rappresentata dal vettore a (grandezza, direzione, verso) e un’altra spinta
da Pallino rappresentata dal vettore b. In che direzione si muoverà la palla? Se le
lunghezze dei due vettori sono uguali (cioé, pari spinta), allora la palla comincerà a
muoversi lungo la retta y = x, che è la direzione della retta che biseca l’angolo di
novanta gradi formato dalla retta y = 0 e la retta x = 0. La spinta totale che riceve
la palla è rappresentata dal vettore a + b. Se la lunghezza del vettore
√ a è 1 (si scrive
kak = 1) e se kbk = 1, allora la lunghezza del vettore a + b è 2 (non 2 come si
potrebbe pensare).
Se Pinco e Pallino spingono con pari forza, il primo dall’asse positivo delle y verso
l’asse negativo delle y ed il secondo dall’asse negativo delle y verso l’asse positivo
2.2. SPAZI VETTORIALI 19
di un fissato campo numerico K. Nelle applicazioni K sarà uno dei seguenti campi:
il campo Q dei numeri razionali, il campo R dei numeri reali, il campo C dei numeri
complessi, oppure il campo Zp dei numeri interi modulo un numero primo p.
Definition 2.2.1. Sia K un campo numerico, i cui elementi sono chiamati scalari.
Uno spazio vettoriale su K è costituito da un insieme V di vettori dotati di somma
vettoriale + : V × V → V e prodotto per uno scalare · : K × V → V , che soddisfano
i seguenti assiomi (a, b, c ∈ V sono vettori arbitrari e r, s ∈ K sono scalari arbitrari):
SV1: a + (b + c) = (a + b) + c;
22 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI
SV2: a + b = b + a;
SV3: 0 + a = a = a + 0;
Si noti che il vettore nullo viene indicato con 0 e che per brevità scriviamo ra al
posto di r · a.
Si noti anche che l’assioma (SV4) deriva da (SV5) e (SV8):
Example 5. Sia R il campo dei numeri reali. L’insieme R2 delle coppie di numeri
reali costituisce uno spazio vettoriale reale con le seguenti operazioni:
Example 6. Sia R il campo dei numeri reali. L’insieme C dei numeri complessi
costituisce uno spazio vettoriale sul campo R con le seguenti operazioni (a, b, c, d, r
numeri reali e i unità immaginaria):
Example 7. Sia C il campo dei numeri complessi. L’insieme C dei numeri complessi
costituisce uno spazio vettoriale sul campo dei numeri complessi con le seguenti op-
erazioni (a, b, c, d numeri reali, r = r1 + r2 i numero complesso e i unità immaginaria):
Example 8. (Spazio vettoriale dei polinomi reali ) Un polinomio reale è una funzione
p : R → R che è esprimibile come
Example 10. (Spazio vettoriale delle funzioni a valori reali) Sia X un insieme.
Allora l’insieme di tutte le funzioni da X ad R è uno spazio vettoriale. Se f, g : X →
R sono funzioni e r è uno scalare, definiamo:
L’Esempio 9 è un caso particolare di questo esempio: ogni successione (an )n≥0 è una
funzione a : N → R.
24 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI
I vettori possono essere utilizzati per fornire delle prove di risultati geometrici.
Un esempio è fornito dal seguente teorema.
Theorem 2.2.1. Dato un arbitrario quadrilatero convesso ABCD, il quadrilatero
avente per vertici i punti medi dei lati consecutivi di ABCD costituisce un paral-
lelogramma (Si veda la figura a pagina 24).
Fissiamo in un qualsiasi quadrilatero ABCD i punti mediani dei suoi lati consec-
−→ −−→ −−→ −−→
utivi. Chiamiamo questi punti P, Q, R, S. Siano a = AB, b = BC, c = CD, d = DA
i vettori come in figura a pagina 24. Allora a+b+c+d = 0. Quindi a+b = −(c+d).
−→ −→
Si vede sempre dalla figura che P Q = 12 a+ 21 b = 12 (a+b) e RS = 12 c+ 12 d = 12 (c+d).
−→ −→
Quindi, applicando l’uguaglianza a + b = −(c + d), si ricava P Q = −RS. Segue che
−→ −→
i vettori P Q e RS sono su rette parallele. In maniera simile si prova che il vettore
−→ −→
QR è parallelo al vettore SP .
Il prodotto interno di due vettori è uno scalare, proporzionale alla lunghezza dei
due vettori, che ci dà informazione sull’orientazione relativa dei due vettori tramite
il coseno dell’angolo da essi formato. In particolare, due vettori sono perpendicolari
tra loro se il loro prodotto interno è nullo.
−→
Un punto A dello spazio R3 rappresenta il vettore OA che va dall’origine O delle
coordinate Cartesiane al punto A. In seguito parleremo di punto A oppure di vettore
A senza alcuna distinzione.
Definiamo il prodotto interno in termini delle coordinate dei due vettori.
L’interpretazione geometrica del prodotto interno verrà data nel seguito.
A · B = a1 b 1 + a2 b 2 + a3 b 3 .
PS1 A · B = B · A;
PS2 A · (B + C) = A · B + A · C = (B + C) · A;
kB − Ak.
26 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI
−→
Example 11. Se A = [2, 3, 2] e B = [−3, 4, 3] allora il vettore AB è puntato nel punto
A, ha come lunghezza il segmento AB e direzione la retta che contiene il segmento
AB. Lo stesso vettore puntato nell’origine O degli assi Cartesiani
√ è determinato
√ dal
punto B − A = [−5, 1, 1], la cui lunghezza è kB − Ak = 25 + 1 + 1 = 27.
Perpendicolarità
Quando due vettori sono perpendicolari od ortogonali?
kA − Bk = kA − (−B)k = kA + Bk.
0 = kA − Bk2 − kA + Bk2
= [(A − B) · (A − B)] − [(A + B) · (A + B)]
= [(A · A) − 2(A · B) + (B · B)] − [(A · A) + 2(A · B) + (B · B)]
= −4(A · B)
da cui segue A · B = 0.
Proof. Sia O il centro della circonferenza e siano A, B, C tre punti distinti della
circonferenza che determinano un triangolo ABC tale che il segmento AB è un
−→ −−→ −−→ −→ −→ −→
diametro della circonferenza. Allora CO + OB = CB ed inoltre CO + OA = CA.
−−→ −→ −→
Se indichiamo con u = OB e v = OC, allora abbiamo che OA = −u e
−−→ −→
CB = −v + u; CA = −v − u.
2.3. PRODOTTO INTERNO (O SCALARE) 27
−−→ −→
Calcolando il prodotto interno di CB e CA si ha:
−−→ −→
CB · CA = (−v + u) · (−v − u)
= (v · v) + (v · u) − (u · v) − (u · u)
= (v · v) − (u · u)
= 0
perché kvk2 = v · v, kuk2 = u · u e i vettori v e u hanno la stessa lunghezza, uguale al
−−→ −→
raggio del cerchio. In conclusione, i vettori CB e CA sono perpendicolari e l’angolo
tra di loro compreso è di 90 gradi.
Figure 2.8: Triangolo inscritto in una circonferenza con diametro come lato
Teorema di Pitagora
−−→
Sia ABC un triangolo rettangolo come in figura a pagina 27. Indichiamo con a = BC,
Proposition 2.3.4. Siano A e B due vettori, e sia θ l’angolo formato dai vettori
A e B (ovvero l’angolo AOB).
[ Allora si ha:
da cui si ha la tesi.
Example 13. Se A e B sono due vettori di lunghezza 1√che formano √ un angolo di
45 gradi (cioé, π/4 radianti), allora A · B = cos(π/4)
√
= 2/2 = 1/ 2. Un esempio
1 √1 √1 3
di questi vettori è dato da A = [ 3 , 3 , 3 ] e B = [ 2 , 0, 0].
√ √
Proposition 2.3.5. Due vettori sono allineati sse cos θ = +1 oppure cos θ = −1
sse A · B = ±kAk kBk.
Example
√ 14. Se
√ A = [2, 6, 4] √ = [−1, −3,
e B√ √ −2], allora
√ A · B = −28, kAk kBk =
( 4 + 36 + 16)( 1 + 9 + 4) = 56 14 = ( 4 · 14)( 14) = 2·14 = 28 e cos θ = −1.
2.3. PRODOTTO INTERNO (O SCALARE) 29
B B B A·B
Proof. P = (kAk cos θ) kBk = (kAk kBk cos θ) kBk2 = (A · B) kBk2 = ( B·B )B.
Proof. (A · B)2 = kAk2 kBk2 (cos θ)2 = (A · A)(B · B)(cos θ)2 ≤ (A · A)(B · B)
Corollary 2.3.8.
|A · B| ≤ kAk kBk.
Example 17. Siano P = [4, 2, −2] e Q = [3, −3, 2] vettori di R3 . Vogliamo de-
terminare tutti i vettori ortogonali sia a P che a Q. Sia W = [x, y, z] un vettore
arbitrario di R3 . W è ortogonale a P se P · W = 0, ossia
4x + 2y − 2z = 0.
W è ortogonale a Q se Q · W = 0, ossia
3x − 3y + 2z = 0.
30 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI
4x + 2y − 2z = 0
3x − 3y + 2z = 0
sommiamo la prima equazione alla seconda per ottenere y = 7x. Dividiamo la prima
equazione per 2 per ottenere 2x + y = z da cui z = 9x. In conclusione, la seguente è
l’equazione parametrica della retta dei vettori ortogonali sia ad P che a Q:
x = t
y = 7t
z = 9t
Rette e piani
a1 x 1 + · · · + an x n = b (3.1)
a1 r1 + · · · + an rn = b.
L’insieme di tutte le soluzioni dell’equazione lineare (3.1) è detto iperpiano (di di-
mensione n − 1) nello spazio vettoriale Kn di dimensione n.
In questa sezione utilizzeremo come campo numerico l’insieme R dei numeri reali
e ci limiteremo alle dimensioni n = 2 e n = 3. In tal caso, l’equazione lineare
ax + by = c (a, b, c ∈ R) definisce una retta nel piano, mentre l’equazione lineare
ax + by + cz = d (a, b, c, d ∈ R) definisce un piano nello spazio.
Un’equazione lineare può essere espressa tramite il prodotto interno. Ci limitiamo
alla dimensione tre. Il lettore può facilmente considerare la dimensione 2 oppure la
dimensione n arbitraria.
31
32 CHAPTER 3. RETTE E PIANI
Lemma 3.0.1. Sia ax1 + bx2 + cx3 = d un’equazione lineare in tre incognite, a =
[a, b, c] il vettore dei coefficienti e x = [x1 , x2 , x3 ] il vettore delle incognite. Allora
l’equazione lineare si può scrivere, utilizzando il prodotto interno, come segue:
a·x=d
Essa esprime il luogo di tutti vettori x il cui prodotto interno con il vettore costante
a dà come risultato lo scalare d. Se d = 0, l’equazione a · x = 0 descrive il piano
dei vettori perpendicolari al vettore a.
a · y = d, dove d = (a · P ).
Esso è il luogo dei punti {P + x : a · x = 0}. Nel seguito vedremo numerosi esempi
che chiarificheranno il Lemma.
altri possono essere ottenuti moltiplicando il vettore [2, −3] per lo scalare t
numero reale arbitrario (equazione parametrica della retta):
x = 2t; y = −3t, al variare del reale t.
La retta è discendente con coefficiente angolare −3/2.
Consideriamo ora le rette del piano che non passano per l’origine.
La retta data è parallela alla retta di equazione 3x+2y = 0 e passa per il punto
[1, 1].
3a + 2b = 0,
2x − 3y = 0.
3.1. RETTE NEL PIANO 35
2x − 3y = c
Si noti che il coefficiente angolare 2/3 della retta y = (2/3)x è lo stesso della
retta y = (2/3)x + 5.
x = 5 + 2t; y =2+t
{[x, y, z] : 3x + 2y + z = 0}
x0 = 1 + t − r; y = 1 − t; z = −1 − t + 3r.
Example 20. Vogliamo scrivere l’equazione della retta passante per i punti P = [1, 1]
e Q = [2, 5]. Consideriamo due rette distinte passanti per P , per esempio y − x = 0
e x − 1 = 0. Allora, il fascio (y − x) + t(x − 1) = 0 comprende tutte le rette passanti
per P tranne la retta x − 1 = 0. Sostituendo le coordinate di Q al posto di x ed y
otteniamo: 3 + t = 0 da cui t = −3. Quindi l’equazione (y − x) − 3(x − 1) = 0, che
si semplifica a y − 4x + 3 = 0, descrive la retta passante per P e Q.
Chapter 4
I sistemi lineari
a11 x1 + · · · + a1n xn = b1
a21 x1 + · · · + a2n xn = b2
.. .. .. (4.1)
. . .
am1 x1 + · · · + amn xn = bm
sono i punti [x1 , x2 ] del piano che costituiscono l’intersezione delle due rette di
equazione rispettivamente a11 x1 + a12 x2 = b1 e a21 x1 + a22 x2 = b2 . In dimensione 3
39
40 CHAPTER 4. I SISTEMI LINEARI
sono i punti [x1 , x2 , x3 ] dello spazio che costituiscono l’intersezione dei tre piani.
Definition 4.1.1. Una matrice A = (aij ) con m righe ed n colonne (in breve una
matrice di tipo m × n) sul campo K è una famiglia di mn elementi di K. Ciascun
elemento ha un indice di riga ed un indice di colonna. L’elemento aij ha indice di
4.1. SISTEMI LINEARI E MATRICI 41
La trasposta di una matrice A = (aij ) è una matrice AT = (a0ij ) le cui righe sono
le colonne di A e le cui colonne sono le righe di A. In altre parole, a0ij = aji per ogni
i e j. Se A è una matrice di tipo m × n allora la sua trasposta è una matrice di
tipo n × m. Si vede facilmente che (AT )T = A. Se A è simmetrica e quadrata allora
AT = A.
Data una matrice A di tipo m × n, gli elementi aik con i = k si chiamano elementi
principali o elementi appartenenti alla diagonale principale. La loro somma si chiama
traccia della matrice, si indica con tr A e si ha tr A = a11 + a22 + · · · + amm .
42 CHAPTER 4. I SISTEMI LINEARI
3x + 2y + z = 5
x + 4y + 3z = 3
x+y+z = 0
La matrice completa del sistema si ottiene aggiungendo il vettore dei termini noti
alla matrice dei coefficienti:
3x + 2y + z = 5
x + 4y + 3z = 3
x+y+z = 0
3 2 1 | 5
1 4 3 | 3
1 1 1 | 0
3x + 2y + z = 5
4y + 3z = 3
2z = 4
Definition 4.3.1. Una matrice a scala è una matrice che verifica le seguenti con-
dizioni:
1. Tutte i vettori riga nulli sono nella parte bassa della matrice;
2. Date due righe successive i e i + 1 non nulle, il primo elemento non nullo della
riga i + 1 si trova a destra del primo elemento non nullo della riga i.
Il primo elemento non nullo (da sinistra) in una riga si chiama pivot.
La soluzione del sistema si ottiene a partire dall’ultima riga della matrice a scala:
2x6 +4x7 = 2, da cui x6 = 1−2x7 . Quindi x7 è un parametro. Risalendo si ottengono
alcune variabili in funzione di altre.
x1 + 2x2 = 3
4x1 + 5x2 = 6
Calcoliamo il numero delle soluzioni. Sia A = [1, 2] e B = [2, 4]. Allora come
prima abbiamo cos θ = 1. Quindi le due rette sono parallele, ma non uguali.
La seconda equazione si scrive come 2(x + 2y) = 2 × 6 e corrisponde alla retta
x + 2y = 6 che è parallela alla retta della prima equazione. Quindi il sistema
lineare non ammette soluzione. Se triangoliamo la matrice completa otteniamo:
1 2 | 3 1 2 | 3
⇒
2 4 | 12 0 0 | 6
50 CHAPTER 4. I SISTEMI LINEARI
1 2
La matrice dei coefficienti è triangolare superiore, ma non tutti gli
0 0
elementi della diagonale sono diversi da zero. Da 0x2 = 6 si ottiene 0 = 6
quindi il sistema non ammette soluzioni.
(i) L’intersezione dei tre piani è un piano sse i tre piani sono coincidenti (lo
stesso piano) sse i tre vettori A, B e C sono collineari (nella stessa retta
per l’origine);
(ii) L’intersezione dei tre piani è una retta sse i tre vettori A, B e C non sono
collineari ma si trovano in uno stesso piano passante per l’origine;
(iii) L’intersezione dei tre piani è un punto sse (1) i vettori A e B non si
trovano in una stessa retta passante per l’origine; (2) il vettore C non si
trova nel piano generato dai vettori A e B.
x + 4y + 3z = 3
3x + 2y + z = 5
x + 4y + 3z = 3
−10y − 8z = −4
da cui si ha y = 2−4z 5
. Sostituiamo nella prima equazione per ottenere le
soluzioni in termini del parametro z:
2 − 4z
x = (3 − (16/5))z + (3 − (8/5)); y=− .
5
x + 2w = 1
x + y + 3z + 2w = 1
2x + y + (k + 2)z + 4w = 2
x + y + 3z + (k 2 − k + 2)w = k
4.6. SISTEMI LINEARI NELLO SPAZIO 53
Abbiamo sottratto alla quarta riga una volta la seconda riga, alla seconda ringa la
prima riga, ed alla terza riga due volte la prima riga. Successivamente sottraiamo la
seconda riga alla terza per ottenere:
1 0 0 2 | 1
0
1 3 0 | 0
0 0 k−1 0 | 0
0 0 0 k2 − k | k−1
x + 2w = 1
y + 3z = 0
(k − 1)z = 0
k(k − 1)w = k−1
• (k = 0) Il sistema diventa:
x + 2w = 1
y + 3z = 0
−z = 0
0 = −1
• (k = 1) Il sistema diventa:
x + 2w = 1
y + 3z = 0
0 = 0
0 = 0
54 CHAPTER 4. I SISTEMI LINEARI
Moltiplichiamo la riga 2 per x1 e poi sommiamo alla riga 2 la riga 1 moltiplicata per
lo scalare −y1 :
y1 y1
" # " x x2
# "x x2
# " #
x1 y1 x2 1
− 1
− x1 y1 x2
kvk
− kvk kwk kvk kvk kwk kvk kvk kwk kvk
− kvk kwk
y1 x1 y2 ⇒ x1 y1 x21 x1 y2 ⇒ x21 +y12 x1 y2 −y1 x2 = x1 y2 −x2 y1
kvk kvk kwk kvk kvk kwk
0 kvk kwk
0 kvk kwk
da cui si ricava
x1 y 2 − x2 y 1 x 1 x2 + y 1 y 2 v·w
sin θ = ; cos θ = = (4.4)
kvkkwk kvkkwk kvkkwk
Matrici
57
58 CHAPTER 5. MATRICI
2 3 −2 −3
A = 1 −5 ; −A = −1 5
3 2 −3 −2
a11 a12 a1n b1
a21 a22 a2n b2
x1 A1 + x2 A2 + · · · + xn An = x1 . + x2 . + · · · + xn . = .
.
. .
. .
. ..
am1 am2 amn bm
b1
b2
Cosa significa questa equazione? Ci chiediamo se il vettore . si può scrivere
..
bm
a11 a1n
a21 a2n
come combinazione lineare dei vettori colonna A1 = . , . . . , An = . . Come
.
. .
.
am1 amn
vedremo nel Capitolo 7, l’equazione vettoriale ha sicuramente soluzione se i vettori
colonna sono “linearmente indipendenti”.
3x + 2y = 5
x + 4y = 3
ha ordine 2:
3 2
1 4
Il sistema lineare si può scrivere in notazione matriciale come segue:
3 2 x 5
=
1 4 y 3
I due vettori [x, y] e [5, 3] sono stati scritti come vettori colonna, cioè come matrici
2 × 1.
x
Il prodotto interno 3x + 2y del vettore [3, 2] per il vettore è il prodotto
y
x
interno della prima riga della matrice per l’unica colonna del vettore colonna .
y
60 CHAPTER 5. MATRICI
x
Allo stesso modo il prodotto interno x + 4y del vettore [1, 4] per il vettore è
y
il prodotto
interno della seconda riga della matrice per l’unica colonna del vettore
x
colonna . Quindi abbiamo:
y
3 2 x 3x + 2y
=
1 4 y x + 4y
Im A = A = AIk .
(AB)T = B T AT .
mentre
3 2 1 2 11 12
=
2 −2 4 3 −6 −2
Example 32.
1 0 3 2 3 2 3 2 1 0
= =
0 1 2 −2 2 −2 2 −2 0 1
La somma degli elementi della riga Ai è pari al numero di archi che escono dal vertice
vi .
Per esempio, la matrice binaria
0 1 1
A = 0 0 1 (5.1)
1 1 0
v1 −→ v2 ; v1 −→ v3 ; v2 −→ v3 ; v3 −→ v1 ; v3 −→ v2 .
Ne segue la conclusione. Quindi, per ogni k, (Ak )ij è uguale al numero di cammini
di lunghezza k da vi a vj .
Ritornando all’esempio (5.1) si ha
1 1 1
A2 = AA = 1 1 0
0 1 2
E
A = [C|D]; B = [ ],
F
dove C è di tipo m × r, D è di tipo m × (n − r), E è di tipo r × p e F è di tipo
(n − r) × p. Allora il prodotto matriciale può essere calcolato come segue:
AB = CE + DF.
C 0 D0
C D
A= ; B= ,
E F E0 F 0
Quindi
7 3 6 1
AB = .
7 8 3 0
0 0 1 1
1 0 0
Example 35. Siano A = e B = 0 0 0 0 due matrici suddivise in
0 0 3
1 0 1 0
blocchi compatibili. Siccome alcuni blocchi
sono costituiti dalla matrice nulla, allora
0 0 1 1
si vede facilmente che AB = .
3 0 3 0
66 CHAPTER 5. MATRICI
Chapter 6
67
68 CHAPTER 6. MATRICI E SISTEMI LINEARI
Definition 6.1.1. Una matrice quadrata è elementare se ha uno dei seguenti tre
formati:
1. Matrice di tipo I che, moltiplicando a sinistra una matrice A, effettua lo scambio
di una riga di A con un’altra riga di A. Per semplicità, consideriamo matrici
di tipo 3 × 3.
0 0 1 1 0 0 0 1 0
S1,3 = 0 1 0 S2,3 = 0 0 1 S1,2 = 1 0 0
1 0 0 0 1 0 0 0 1
Si noti che la prima riga [0, 0, 1] di S1,3 farà diventare la terza riga di A prima riga,
la seconda riga [0, 1, 0] di S1,3 manterrà intatta la seconda riga di A, mentre la terza
riga [1, 0, 0] di S1,3 trasferirà la prima riga di A al posto della vecchia terza riga.
0 0 1 3 2 1 5 1 1 1 0
S1,3 A = 0 1 0 1 4 3 3 1 4 3 3
1 0 0 1 1 1 0 3 2 1 5
Ora vogliamo sottrarre la prima riga di A dalla seconda riga. Consideriamo la matrice
E2+r1 con r = −1:
1 0 0
E2+(−1)1 = −1 1 0
0 0 1
Allora abbiamo
1 0 0 1 1 1 0 1 1 1 0
E2+(−1)1 S1,3 A = −1 1 0 1 4 3 3 = 0 3 2 3
0 0 1 3 2 1 5 3 2 1 5
Sottraiamo 3 volte la prima riga di A dalla terza. Consideriamo la seguente matrice:
1 0 0
E3+(−3)1 = 0 1
0
−3 0 1
Allora abbiamo
1 0 0 1 1 1 0 1 1 1 0
E3+(−3)1 E2+(−1)1 S1,3 A = 0 1 0 0 3 2 3 = 0 3 2 3
−3 0 1 3 2 1 5 0 −1 −2 5
Dividiamo la seconda riga di A per 3 e poi sommiamo la seconda riga di A alla terza.
Consideriamo la matrice
1 0 0
E3+( 1 )2 = 0 1 0
3
0 31 1
Allora abbiamo
1 0 0 1 1 1 0 1 1 1 0
E3+( 1 )2 E3+(−3)1 E2+(−1)1 S1,3 A = 0 1 0 0 3 2 3 = 0 3 2 3
3
1
0 3 1 0 −1 −2 5 0 0 −4/3 6
Il fatto che il prodotto tra matrici è associativo ci permette anche di moltiplicare
prima tutte le matrici E3+( 1 )2 E3+(−3)1 E2+(−1)1 S1,3 e poi applicare il risultato ad A
3
per ottenere il risultato finale.
70 CHAPTER 6. MATRICI E SISTEMI LINEARI
AB = In = BA,
Come dimostreremo nel seguente lemma, esiste al più una matrice inversa di A;
nel caso in cui esiste l’inversa della matrice A essa si indica con A−1 .
2. (AB)−1 = B −1 A−1 .
1. A è invertibile;
Se det(A) 6= 0 allora
−1 1 a22 −a12
A = .
a11 a22 − a12 a21 −a21 a11
a b
Proof. Sia A = una matrice quadrata di ordine 2. A è invertibile se esistono
c d
x, y, z, t tali che
a b x y 1 0
= .
c d z t 0 1
È equivalente a trovare l’unica soluzione, se esiste, del sistema lineare
ax + bz = 1
ay + bt = 0
cx + dz = 0
cy + dt = 1
Se a = c = 0, si vede facilmente che il sistema non ammette soluzione e il determi-
nante è nullo.
Se a = 0 e c 6= 0, scambiamo la prima riga con la terza e la seconda con la quarta
e calcoliamo esattamente come qui di seguito.
Supponiamo a 6= 0. Triangoliamo la matrice completa moltiplicando prima le
righe 3 e 4 per a, e poi sottraendo c volte la riga 1 dalla riga 3 e la riga 2 dalla riga
4:
a 0 b 0 | 1 a 0 b 0 | 1 a 0 b 0 | 1
0 a 0 b | 0
⇒ 0 a 0 b | 0 ⇒ 0 a 0 b | 0
c 0 d 0 | 0 ac 0 ad 0 | 0 0 0 ad − bc 0 | −c
0 c 0 d | 1 0 ac 0 ad | a 0 0 0 ad − bc | a
72 CHAPTER 6. MATRICI E SISTEMI LINEARI
I tre sistemi triangolari superiori ammettono ciascuno un’unica soluzione sse tutti gli
diA sono diversi da zerosse def6= 0. In questo
elementi nella diagonale principale
1/d −a/ed
caso otteniamo come soluzioni: 0 per il primo sistema;
1/e per il secondo
0 0
6.2. MATRICE INVERSA 73
(ac − be)/edf
sistema; e infine −c/ef per il terzo sistema. Quindi
1/f
1 −a ac−be
d ed edf ef −af ac − be
1 −c 1
A−1 = 0 e ef = 0 df −cd
1 edf
0 0 f
0 0 de
Example 36. La matrice S1,3 (che scambia la riga 1 e la riga 3) è invertibile con
inversa la matrice stessa:
0 0 1 0 0 1 1 0 0
S1,3 S1,3 = 0
1 0 0 1 0 = 0 1 0 = I3
1 0 0 1 0 0 0 0 1
È infatti chiaro che scambiare due volte di seguito la riga uno e la riga tre riporta
alla situazione iniziale.
La matrice E3+r2 è invertibile con inversa E3+(−r)2 :
1 0 0 1 0 0 1 0 0
0 1 0 0 1 0 = 0 1 0
0 r 1 0 −r 1 0 0 1
1 0 0 1 0 0 1 0 0
0 1 0 0 r 0 = 0 1 0
r
0 0 1 0 0 1 0 0 1
Per ottenere A−1 moltiplichiamo a destra per la matrice inversa E2+(−1/2)1 della
matrice E2+(+1/2)1 :
1
−1 − 13 1 −1 − 13
2
1 0 0
A−1 = 0 1 1 1
6
− 2 1 0 = − 12 1 1
6
1 1
0 0 3k
0 0 1 0 0 3k
2. Se una colonna contiene il primo elemento non nullo di una riga, allora tutte
gli altri elementi della colonna sono nulli.
Example 39. Una matrice a scala in forma ridotta:
1 0 0 0 0 4
0 1 0 0 0 7
0 0 0 1 0 7
0 0 0 0 1 0
0 0 0 0 0 0
Definition 6.4.2. Due matrici A e B di dimensione m × n sono equivalenti per riga,
e scriviamo A ≡r B, se la matrice B può essere ottenuta dalla matrice A applicando
operazioni elementari (di tipo I, II, III).
Si noti che la relazione ≡r è una relazione di equivalenza perché le matrici ele-
mentari sono invertibili e quindi anche il prodotto di matrici elementari è invertibile:
se B = EA per una matrice elementare E, allora A = E −1 B.
Proposition 6.4.1. Ogni matrice non nulla è equivalente ad una matrice a scala
in forma ridotta.
Proof. In Sezione 4.4 è spiegato come ridurre con operazioni elementari una matrice
in una equivalente matrice a scala. Ora vediamo come ottenere una matrice in forma
ridotta da una matrice a scala H. Sia H = (hij ) una matrice a scala. Applichiamo la
procedura seguente dall’alto verso il basso. Consideriamo una riga non nulla, diciamo
la riga i. Allora dividiamo la riga per lo scalare che è il valore del primo elemento
da sinistra della riga i. In questo modo 1 diventa il valore del primo elemento non
nullo della riga. Supponiamo che si trovi nella colonna j, cioé, hij = 1. Allora, per
ogni riga k (1 ≤ k < i) con elemento non nullo in posizione kj, cioé hkj 6= 0, somma
−hkj volte la riga i alla riga k. Alla fine nella colonna j avremo tutti elementi nulli
tranne un 1 in posizione ij.
78 CHAPTER 6. MATRICI E SISTEMI LINEARI
Proof. (i) Per ipotesi esiste una matrice G, che è prodotto di matrici elementari,
tale che G(B|b) = A|a. Moltiplicando a blocchi, segue che GB = A e Gb = a.
Supponiamo che il vettore colonna x sia una soluzione del sistema lineare Bx = b.
Allora Ax = GBx = Gb = a. Per simmetria otteniamo la tesi.
(ii) Dalla Proposizione 6.4.1 la matrice A è equivalente per riga ad una matrice C
in forma ridotta. Esiste quindi una matrice G, che è prodotto di matrici elementari,
tale che GA = C. Da (i) i sistemi Ax = a e Cx = GAx = Ga hanno le stesse
soluzioni.
Un sistema lineare è omogeneo se il vettore dei termini noti è il vettore nullo.
Spazi vettoriali
7.1 Sottospazi
Definition 7.1.1. Sia V uno spazio vettoriale sul campo K. Un sottoinsieme non
vuoto U di V è un sottospazio vettoriale di V se la somma vettoriale di vettori di U
è ancora in U e lo stesso accade per il prodotto di un vettore di U per un arbitrario
scalare:
1. v, w ∈ U ⇒ v + w ∈ U ;
2. v ∈ U ∧ r ∈ K ⇒ rv ∈ U .
Example 40. L’insieme dei punti della retta di equazione ax + by = 0, passante per
l’origine degli assi Cartesiani di R2 , è un sottospazio vettoriale di R2 . Se P = (p1 , p2 )
e Q = (q1 , q2 ) sono due punti sulla retta, cioé ap1 + bp2 = 0 e aq1 + bq2 = 0, allora
anche P + Q = (p1 + q1 , p2 + q2 ) appartiene alla retta: a(p1 + q1 ) + b(p2 + q2 ) =
ap1 + aq1 + bp2 + bq2 = (ap1 + bp2 ) + (aq1 + bq2 ) = 0 + 0 = 0. Se r è uno scalare, allora
rP = (rp1 , rp2 ) appartiene alla retta data: arp1 + brp2 = r(ap1 + bp2 ) = r0 = 0.
79
80 CHAPTER 7. SPAZI VETTORIALI
Example 44. Sia C lo spazio vettoriale dei numeri complessi sul campo dei numeri
reali. Tale spazio ha dimensione 2. Sia z = 3 + 2i un numero complesso. Allora
Span(z) = {t(3 + 2i) : t ∈ R}.
Example 45. Consideriamo lo spazio vettoriale dei polinomi reali in una variabile
t. Allora Span(1, t, t2 ) costituisce il sottospazio vettoriale dei polinomi di secondo
grado.
7.1. SOTTOSPAZI 81
Proposition 7.1.2. 1. I sottospazi vettoriali non banali del piano sono le rette
passanti per l’origine.
2. I sottospazi vettoriali non banali dello spazio sono i piani e le rette passanti
per l’origine.
Le rette (i piani) che non passano per l’origine NON sono sottospazi vettoriali,
perché il vettore nullo non appartiene alla retta (al piano).
Ricordiamo che un sistema lineare è omogeneo se il vettore dei termini noti è il
vettore nullo.
Proposition 7.1.3. L’insieme delle soluzioni di un sistema lineare omogeneo di
m equazioni in n incognite è un sottospazio vettoriale dello spazio Rn .
Proof. Sia A una matrice di tipo m × n, x, y vettori colonna di lunghezza n tali
che Ax = 0 e Ay = 0. Allora A(x + y) = Ax + Ay = 0 + 0 = 0 ed inoltre
A(rx) = r(Ax) = r0 = 0.
• Se [x1 , x2 ] appartiene alla retta (i.e., 2x1 + 3x2 = 0), allora anche r[x1 , x2 ] =
[rx1 , rx2 ] appartiene alla retta (i.e., r(2x1 + 3x2 ) = 0).
Example 47. Il piano di equazione 2x + 3y + 4z = 0 è un sottospazio vettoriale
di R3 (si consulti Proposizione 7.1.2). Le rette passanti per l’origine sono anch’esse
sottospazi vettoriali di R3 in quanto intersezione di due piani passanti per l’origine
(Si consulti Lemma 7.1.1).
Example 48. Si consideri lo spazio vettoriali delle matrici quadrate di ordine n. I
seguenti sono sottospazi vettoriali:
82 CHAPTER 7. SPAZI VETTORIALI
Example 52. Siano p(x) = x+3 e q(x) = x2 +2 due polinomi. Allora le combinazioni
lineari rp(x) + sq(x) con r, s ∈ R costituiscono il sottospazio dei polinomi del tipo
x1
Proposition 7.2.1. Se A = (aij ) è una matrice di tipo m × n e x = ... un
xn
vettore colonna non nullo, allora le seguenti condizioni sono equivalenti:
1. Ax = 0;
Corollary 7.2.3. Sia A una matrice di tipo m × n con n > m. Allora le colonne
di A sono linearmente dipendenti.
7.3 Basi
Definition 7.3.1. Una base di uno spazio vettoriale V è un insieme di vettori lin-
earmente indipendenti che generano tutto lo spazio.
Nel seguito consideriamo soltanto spazi vettoriali con basi costituite da un numero
finito di elementi.
Sia x1 , . . . , xn una base di V . Allora ogni vettore v ∈ V si scrive in maniera
unica come combinazione lineare della base. Infatti se v = a1 x1 + . . . an xn = b1 x1 +
. . . bn xn allora 0 = (a1 − b1 )x1 + . . . (an − bn )xn . Siccome x1 , . . . , xn sono linearmente
indipendenti, si ricava ai − bi = 0 per ogni i, da cui ai = bi .
Se v = a1 x1 + . . . an xn allora [a1 , . . . , an ] è il vettore delle coordinate di v rispetto
alla base data.
Example 56. I vettori e1 = [1, 0, 0], e2 = [0, 1, 0] e e3 = [0, 0, 1] sono la base canonica
di R3 . Tre vettori qualsiasi linearmente indipendenti costituiscono sempre una base
di R3 . Per esempio, i tre vettori [1, 1, 1], [1, 1, 0] e [1, 0, 1] costituiscono una base di
R3 .
Example 57. Lo spazio dei polinomi reali non ammette una base finita, ma soltanto
una base infinita
1, x, x2 , . . . , xn , . . .
Il sottospazio dei polinomi di grado ≤ 5 ammette una base finita:
1, x, x2 , x3 , x4 , x5 .
Example 58. Sia √C lo spazio vettoriale dei numeri complessi sul campo reale. Allora,
i vettori 1 e i = −1 costituiscono una base.
Example 59. Sia C lo spazio vettoriale dei numeri complessi sul campo complesso.
Allora, il vettore 1 è una base.
Si noti che (i) ogni colonna della matrice A ha qualche coefficiente diverso da zero; (ii)
i coefficienti della matrice sono scalari, mentre le sequenze [v1 , . . . , vm ] e [w1 , . . . , wn ]
hanno elementi in V .
Risolviamo il sistema lineare omogeneo:
a11 . . . a1m . . . a1n x1 0
.. .. .. .. .. .. = .. .
. . . . . . .
am1 . . . amm . . . amn xn 0
b1
..
La soluzione non banale . esiste perché n > m (Proposizione 6.4.3). Allora
bn
abbiamo:
b1 a11 ... a1m ... a1n b1
.. .. .. .. .. .. ..
[w1 , . . . , wn ] . = [v1 , . . . , vm ] . . . . . .
bn am1 . . . amm . . . amn bn
7.3. BASI 87
0 0
.. ..
= [v1 , . . . , vm ] . = .
0 0
E quindi i vettori w1 , . . . , wn sono linearmente dipendenti.
3
Example 60. • R ha dimensione
3. La base canonica di R3 è costituita dai
1 0 0
vettori 0 , 1 e 0 . Ogni altra base è costituita da tre vettori linearmente
0 0 1
1 1 2
indipendenti. Per esempio, i tre vettori 1 , 1 e 0 sono linearmente
1 0 3
indipendenti e quindi costituiscono una base, perché il sottospazio vettoriale
delle soluzioni del sistema lineare omogeneo
1 1 2 x 0
1 1 0 y = 0
1 0 3 z 0
7.4 Ortogonalità
In questa sezione Rn è lo spazio vettoriale di riferimento.
w = (w · v1 )v1 + · · · + (w · vn )vn .
3 1
w = √ v1 − √ v2 + 3e3
2 2
Lemma 7.4.3. Ogni sottospazio vettoriale di Rn ammette una base ortonormale.
Proof. Analizziamo per semplicità il caso n = 2. Se i vettori v e w sono linearmente
indipendenti, allora lo spazio vettoriale Span(v, w) è anche generato da v e w − v·w
v·v
v
v·w v·w
che sono ortogonali: v · [w − v·v v] = (v · w) − v·v (v · v) = 0.
Example 63. Sia A = [3, 3] un vettore del piano. Sia X il sottospazio vettoriale
generato da A, che è la retta passante per l’origine e per il punto A. Lo spazio
ortogonale X ⊥ a X è la retta di equazione 3x + 3y = 0. Allora una base del piano è
determinata dal vettore A e da un vettore B ∈ X ⊥ , per esempio B = [1, −1].
Example 64. Sia A = [3, 3, 1] un vettore dello spazio. Sia X il sottospazio vettoriale
generato da A, che è la retta passante per l’origine e per il punto A. Lo spazio
ortogonale X ⊥ a X è il piano di equazione 3x + 3y + z = 0. Allora una base dello
spazio è determinata dal vettore A e da due vettori B, C ∈ X ⊥ non collineari, per
esempio B = [1, −1, 0] e C = [1, 1, −6].
(i) A è ortogonale;
93
94 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI
determina una rotazione di un angolo π2 in senso antiorario attorno agli assi Cartesiani
del piano:
1 0 0 −1
f( )= f( )= .
0 1 1 0
La funzione f è un isomorfismo lineare:
x z rx + sz −(ry + sw) −ry −sw x z
f (r +s ) = f( )= = + = rf ( )+sf ( ).
y w ry + sw rx + sz rx sz y w
L’isomorfismo lineare inverso di f è una rotazione oraria di angolo π/2, definito come
segue:
−1 x y
f ( )= .
y −x
Si ha
−1 x y x −1 x −1 −y x
f (f ( )) = f ( )= ; f (f ( )) = f ( )= .
y −x y y x y
8.1. TRASFORMAZIONI LINEARI 95
è una trasformazione lineare. Richiamiamo dalla Sezione 2.3 le proprietà del prodotto
interno che dimostrano la linearità della funzione descritta in (8.1): x · (y + z) =
(x · y) + (x · z) e x · (ry) = r(x · y).
Example 68. Sia Pol lo spazio vettoriale dei polinomi reali in una variabile x. La
funzione f : Pol → Pol definita da:
è una trasformazione lineare. Siano p = a0 +a1 x+· · ·+an xn e q = b0 +b1 x+· · ·+bk xk
polinomi di grado n e k rispettivamente. Allora f (p + q) = f (a0 + b0 + (a1 + b1 )x +
(a2 + b2 )x2 + . . . ) = (a1 + b1 )x + (a0 + b0 ) = (a1 x + a0 ) + (b1 x + b0 ) = f (p) + f (q).
non è una trasformazione lineare. Infatti, g(2x2 +3x+1) = 2, mentre g(2x2 )+g(3x+
1) = 2 + 3 = 5.
f (v) = f (c1 v1 + · · · + cn vn )
= c1 f (v1 ) + · · · + cn f (vn )
= c1 (a11 w1 + · · · + am1 wm ) + · · · + cn (a1n w1 + · · · + amn wm )
= (c1 a11 + c2 a12 + · · · + cn a1n )w1 + · · · + (c1 am1 + c2 am2 + · · · + cn amn )wm .
Consideriamo la matrice
a11 ··· a1n
a21 ··· a2n
A= .
.. ..
.. . .
am1 · · · amn
a1j
a2j
di dimensione m × n la cui colonna Aj = . . . è il vettore delle coordinate di
amj
f (vj ). Allora si ha:
a11 · · · a1n c1
a21 · · · a2n c2
1 n
f (v) = . .. .. = c1 A + · · · + cn A =
. ..
. . . .
am1 · · · amn cn
c1 a11 + c2 a12 + · · · + cn a1n
A1 · c
c1 a21 + c2 a22 + · · · + cn a2n
A2 · c
=
.. ...
.
c1 am1 + c2 am2 + · · · + cn amn Am · c
c1
c2
dove c = . è il vettore delle coordinate di v.
..
cn
8.2. LA MATRICE DI UNA TRASFORMAZIONE LINEARE 97
Example 71. Sia V uno spazio di dimensione 2 con base v1 , v2 e W uno spazio di
dimensione 3 con base w1 , w2 , w3 . Dal Lemma 8.2.1 la funzione f : V → W definita
da
f (v1 ) = 3w1 + 5w2 − 2w3 ; f (v2 ) = w1 + w3
è estendibile ad una trasformazione lineare.
cn c
n
c1 c1 A1 · c 0
.. .. .. ..
(ii) Sia c = . . Allora A . = . = . sse c è ortogonale ai vettori
cn cn Am · c 0
A1 , . . . , Am di V .
(iii) Se v, u ∈ Span(A1 , . . . , Am ) e f (v) = f (u), allora f (v − u) = 0. Quindi
v − u ∈ N (f ) ∩ Span(A1 , . . . , Am ). Essendo i due spazi ortogonali, questo è possibile
soltanto se v − u = 0, che implica v = u. La funzione f è quindi iniettiva ristretta
allo spazio delle righe.
Proviamo ora che f ristretta è anche surgettiva. Sia w ∈ R(f ). Allora esiste
v tale che f (v) = w. Siccome V = Span(A1 , . . . , Am ) ⊕ N (f ), allora v = v1 + v2
con v1 ∈ Span(A1 , . . . , Am ) e v2 ∈ N (f ). Si ha: w = f (v) = f (v1 + v2 ) =
f (v1 ) + f (v2 ) = f (v1 ) + 0 = f (v1 ).
(iv) Da (iii) e (ii).
(v) Da N (f ) = Span(A1 , . . . , Am )⊥ si ricava n = dim N (f )+dim Span(A1 , . . . , Am ).
La conclusione segue da (iii).
Da teorema precedente segue che lo spazio delle righe e lo spazio delle colonne di
una trasformazione lineare f : V → W sono indipendenti dalla scelta delle basi di V
e W e quindi dalla matrice A che rappresenta f .
nucleo è il piano ortogonale al vettore [3, 2, −2] di equazione 3x1 + 2x2 − 2x3 = 0,
per cui dal Teorema 8.2.2 la dimensione dell’immagine deve essere 1.
Example 73. Consideriamo lo spazio vettoriale infinito dimensionale Pol dei poli-
nomi reali e fissiamo un numero reale, per esempio 3. Allora la funzione f : Pol → R,
definita come segue (per ogni polinomio p(x) = a0 xn + a1 xn−1 + · · · + an−1 x + an ):
f (a0 xn + a1 xn−1 + · · · + an−1 x + an ) = a0 3n + a1 3n−1 + · · · + an−1 31 + an ,
è una trasformazione lineare. Per esempio, se p(x) = x2 + 5x − 1 allora
f (x2 + 5x − 1) = 32 + 5 × 3 − 1 = 23.
Il nucleo di f è il sottospazio vettoriale determinato dall’insieme dei polinomi p(x)
che ammettono 3 come radice: p(3) = 0. L’immagine di f è tutto R.
Xm m
X m
X
[ di ai1 , di ai2 , . . . , ci ain ]
i=1 i=1 i=1
La matrice A determina:
(i) Una trasformazione lineare fA : R4 → R3 rispetto alle basi canoniche di R4 eR3 ,
1
0
che è definita tramite il prodotto matriciale a destra. Per esempio, fA
3 si
5
calcola con il prodotto matriciale:
1
3 4 2 1 14
4 −6 0
0 0 3 = −12
1 2 −2 2 5
5
3 4
3 1 2
(iii) Il sottospazio di R generato dai vettori colonna A = 4 , A = −6 ,
1 2
2 1
3
A = 0 e A = 0 Il sottospazio Span(A1 , A2 , A3 , A4 ) di R3 coincide
4
−2 2
con il sottospazio R(fA ).
(iv) Il sottospazio di R4 generato dai vettori riga A1 = [3, 4, 2, 1], A2 = [4, −6, 0, 0]
e A3 = [1, 2, −2, 2] di A. Il sottospazio Span(A1 , A2 , A3 ) di R4 è il sottospazio
ortogonale allo spazio N (fA ).
Definition 8.3.1. Il rango r(A) della matrice A è la dimensione comune dello spazio
Span(A1 , . . . , Am ) delle righe e dello spazio Span(A1 , . . . , An ) delle colonne.
È chiaro che r(A) ≤ min(n, m). Se estraiamo da A r(A) colonne linearmente in-
dipendenti c1 , . . . , cr(A) e r(A) righe linearmente indipendenti d1 , . . . , dr(A) otteniamo
una matrice quadrata E = (eij ) di ordine r(A) con eij = Aci dj , che determina un
isomorfismo lineare dallo spazio delle righe allo spazio delle colonne.
Se consideriamo il sistema lineare omogeneo Ax = 0, allora la dimensione dello
spazio delle soluzioni è n − r(A), dove r(A) è il rango di A.
Se il sistema lineare Ax = b ammette almeno una soluzione v0 , allora l’insieme
delle soluzioni è {v0 + x : Ax = 0}.
102 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI
8.4 Isomorfismi
Lemma 8.4.1. Sia f : V → W una trasformazione lineare.
2. Se f è iniettiva, allora
Proposition 8.4.2. Due spazi vettoriali sullo stesso campo sono isomorfi sse
hanno la stessa dimensione.
f (v) = c1 w1 + · · · + cn wn .
vi = a1i t1 + · · · + ani tn
104 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI
e1 = −2t1 + t2 ; e2 = 3t1 − t2
B = P AP −1 .
Proposition 8.6.1. Sia V uno spazio vettoriale sul campo K. Allora l’insieme
delle trasformazioni lineari da V in K è uno spazio vettoriale rispetto alle seguenti
operazioni (f, g : V → K lineari, c ∈ K):
vi∗ (c1 v1 + · · · + ci vi + · · · + cn vn ) = ci .
Se f : V → K è lineare, allora
Determinante
109
110 CHAPTER 9. DETERMINANTE
p 1 x 1 + q 1 x 2 = b1 ; p 2 x 1 + q 2 x 2 = b2
è
q 2 b1 − q 1 b2 −p2 b1 + p1 b2
x1 = ; x2 =
p1 q2 − q1 p 2 p1 q 2 − q1 p2
La soluzione è unica e valida soltanto se p1 q2 −q1 p2 6= 0, cosı̀ il valore p1 q2 −q1 p2
determina se il sistema ha una soluzione unica. È questo il motivo per cui il
numero p1 q2 − q1 p2 si chiama determinante della matrice A dei coefficienti del
sistema lineare.
La soluzione del sistema lineare può essere scritta in forma matriciale:
x1 1 q2 −q1 b1
=
x2 p1 q2 − q1 p2 −p2 p1 b2
con
−1 1 q2 −q1
A =
p1 q 2 − q1 p2 −p2 p1
matrice inversa della matrice A.
9.1. DETERMINANTE DI UNA MATRICE DI ORDINE 2 111
~eB
Figure 9.1: Area del parallelogramma determinato dai vettori A ~ del piano
p
kpkkqk | sin θ| = kpkkqkq1 − cos(θ)2
(p·q)2
= kpkkqk 1 − (p·p)(q·q)
p
= p(p · p)(q · q) − (p · q)2
= p(p21 + p22 )(q12 + q22 ) − (p1 q1 + p2 q2 )2
= pp21 q22 + p22 q12 − 2p1 p2 q1 q2
= (p1 q2 − p2 q1 )2
= |p1 q2 − p2 q1 |.
det(A) = p1 q2 − p2 q1 .
• det(p, q) = −det(q, p)
• det(p, p) = 0.
Example 77. Sia p = [1, 1]T e q = [3, 4]T due vettori colonna. Se θ è l’angolo
formato dai due vettori, abbiamo
r
p·q 7 49
cos θ = = √ = .
kpkkqk 5 2 50
L’area del parallelogramma delimitato dall’origine O degli assi cartesiani e dai punti
p, q, p + q è
√
r
p 49
kpkkqk sin θ = kpkkqk 1 − cos(θ)2 = 5 2 1 − = 1 = det(p, q).
50
9.2. DETERMINANTE DI UNA MATRICE DI ORDINE 3 113
p1 q2 r3 − p1 q3 r2 − p2 q1 r3 + p2 q3 r1 + p3 q1 r2 − p3 q2 r1 6= 0.
Figure 9.2: Volume del parallelepipedo delimitato dai vettori p, q, r nello spazio
114 CHAPTER 9. DETERMINANTE
volume orientato (cioé, con segno) del parallelepipedo si può ottenere con il prodotto
interno:
(p × q) · r.
Il prodotto vettoriale verifica le seguenti condizioni:
1. p × p = 0; (il parallelogramma ha area 0)
2. p × q = −q × p; (lo scambio dei due vettori fa passare dalla base p, q, k alla
base q, p, k e quindi cambia l’orientazione rispetto alla base canonica)
3. s(p × q) = (sp) × q = p × (sq); (allungare o accorciare un lato del parallelo-
gramma di un fattore scalare s ha l’effetto di modificare la corrispondente area
dello stesso fattore)
4. p × (q + r) = p × q + p × r; (La distributività p × (q + r) = p × q + p × r vale
perché si ha (si consulti la figura a pagina 115 dove α è l’angolo tra i vettori p
e q + r; β è l’angolo tra i vettori p e q; ed infine γ è l’angolo tra i vettori p e
r): kq + rk sin(α) = kqk sin(β) + krk sin(γ).)
5. Il prodotto vettoriale non è associativo ma soddisfa l’identità di Jacobi: p ×
(q × r) + q × (r × p) + r × (p × q) = 0.
La seguente tabella spiega il prodotto vettoriale dei vettori della base canonica di
R3 :
×
e1 e2 e3
e1
0 e3 −e2
e2 −e3 0 e1
e
3 e2 −e1 0
Example 78. Siano p = [1, 1, 0]T , q = [3, 4, 0]T e r = [0, 0, 2]T tre vettori colonna.
Se θ è l’angolo formato dai due vettori p e q nel piano di equazione parametrica
rp + sq = [r + 3s, r + 4s, 0] (r, s ∈ R) ed equazione lineare z = 0, abbiamo
r
p·q 7 49
cos θ = = √ = .
kpkkqk 5 2 50
L’area del parallelogramma delimitato dall’origine O degli assi cartesiani e dai vettori
p e q è
√
r
p 49
kpkkqk sin θ = kpkkqk 1 − cos(θ)2 = 5 2 1 − = 1.
50
Il volume del parallelepipedo è pari all’area 1 di questo parallelogramma moltiplicata
per l’altezza del parallelepipedo rispetto al piano z = 0 determinato dai vettori p e
q.
L’angolo α formato dal vettore r = [0, 0, 2]T e dalla retta perpendicolare al piano
z = 0 è di ampiezza 0. Quindi krk cos α = 2 cos α = 2 cos(0) = 2. In conclusione, il
determinante della matrice di ordine 3, le cui colonne sono i vettori p, q e r, è uguale
a 2.
= det(aE 1 , bE 1 + dE 2 ) + det(cE 2 , bE 1 + dE 2 )
= det(aE 1 , bE 1 ) + det(aE 1 , dE 2 ) + det(cE 2 , bE 1 ) + det(cE 2 , dE 2 )
= ab det(E 1 , E 1 ) + ad det(E 1 , E 2 ) + cb det(E 2 , E 1 ) + cd det(E 2 , E 2 )
= 0 + ad det(E 1 , E 2 ) + cb det(E 2 , E 1 ) + 0
= ad det(I2 ) − cb det(I2 )
= ad − cb
a b a+0 b a b 0 b
det(A) = =
0 + c d =(D1)
+
c d 0 d c d
Inoltre,
a b a 0+b a 0 a b a b
= =(D1) +
0 0 =Ex.79 ad + 0 0
=
0 d 0 d+0 0 d
a ba b a a b
= ad + a =(D1) ad + =(D2) ad + 0 = ad.
0 ab 0 a 0 0 a
In maniera simile,
0 b 0 0 0 b
=0− b 0
= −bc
c d = c d
+
c 0 0 c
applicando (D4).
3. det(A−1 ) = det(A)−1 .
La matrice finale è triangolare inferiore. Il suo determinante è dato dal prodotto degli
elementi della diagonale ed è quindi nullo. In conclusione, la matrice A di partenza
ha determinante nullo.
B = C −1 AC
e quindi
det(B) = det(C −1 ) det(A) det(C) = det(A).
Proposition 9.4.5. Sia A = (aij ) una matrice quadrata con determinante non
nullo. Se B = (bij ) è la matrice inversa di A, allora applicando la regola di Cramer
al sistema lineare:
b1j
b2j
b1j A1 + · · · + bnj An = A
... = E
j
bnj
abbiamo
det(A1 , . . . , Ai−1 , E j , Ai+1 , . . . , An )
bij = .
det(A)
Allora si ha:
A(adj A) = (adj A)A = det(A)In
La matrice inversa di A è:
1
A−1 = adj A
det(A)
124 CHAPTER 9. DETERMINANTE
Chapter 10
Autovettori e Autovalori
È evidente che
f (u) = λu sse (λIn − f )(u) = 0,
125
126 CHAPTER 10. AUTOVETTORI E AUTOVALORI
• λ è un autovalore di A;
• det(λIn − A) = 0.
Gli autovalori λ sono gli scalari che rendono nullo il determinante della matrice
λIn − A.
Determiniamo il numero massimo di autovalori che una matrice A di ordine n
può avere. Sia t una variabile scalare. Allora det(tIn − A) è un polinomio di grado
n nell’incognita t.
Definition 10.1.2. Il polinomio pA (t) = det(tIn − A) (di grado n) si chiama poli-
nomio caratteristico di A.
Ricordiamo che un polinomio di grado n può avere al più n radici distinte nel
campo dei coefficienti.
Proposition 10.1.3. Gli autovalori di una matrice A di ordine n sono gli zeri del
polinomio caratteristico pA (di grado n). La matrice A ha al più n autovalori.
1 −2
Example 84. Calcoliamo il polinomio caratteristico della matrice A = :
1 4
t−1 2
det = (t − 1)(t − 4) + 2 = t2 − 5t + 6.
−1 t − 4
10.1. DEFINIZIONE DI AUTOVALORE E AUTOVETTORE 127
Calcoliamo l’inversa di B con il metodo di Laplace definito alla fine del capitolo
precedente:
−1 −1 −2
B =
−1 −1
Scriveremo R2 (v1 , v2 ) per specificare lo spazio vettoriale R2 con base v1 , v2 . Allora
abbiamo
Id f Id
R2 (v1 , v2 ) −
→ R2 (e1 , e2 ) →
− R2 (e1 , e2 ) −
→ R2 (v1 , v2 ).
In termini di matrici:
f
R2 (v1 , v2 ) →
− R2 (v1 , v2 )
−1 −1 −2 1 −2 1 −2 −3 −6 1 −2 3 0
B AB = = = .
−1 −1 1 4 −1 1 −2 −2 −1 1 0 2
Example 85. Consideriamo una trasformazione lineare f : R3 → R3 che è una
rotazione attorno all’asse y di un angolo π. Allora f (e1 ) = −e1 , f (e2 ) = e2 e
f (e3 ) = −e3 . La matrice della rotazione è:
−1 0 0
A= 0 1 0
0 0 −1
Abbiamo sicuramente: (i) l’autovalore λ1 = 1 con autovettore e2 ; (ii) l’autovalore
λ2 = −1 con autovettori e1 ed e3 . Proviamo che non vi sono altri autovalori. Il
polinomio caratteristico della matrice diagonale A si calcola facilmente pA (t) = (t +
1)(t − 1)(t + 1) = (t + 1)2 (t − 1). Gli autovalori, radici di questo polinomio, sono
quindi λ1 = 1 e λ2 = −1. Quest’ultima radice è doppia.
Ricordiamo che
• Due matrici A e B sono simili se esiste una matrice invertibile P tale che
B = P AP −1 (Si consulti Definizione 8.5.1).
• Dato un operatore lineare f : V → V , due basi v1 , . . . , vn e w1 , . . . , wn di V ,
la matrice A associata ad f rispetto alla base v1 , . . . , vn è simile alla matrice
B associata ad f rispetto alla base w1 , . . . , wn . La matrice invertibile P tale
che B = P AP −1 è la matrice del cambiamento di base (Si veda Sezione 8.5 e
Esempio 84).
Proof.
det(tIn − B) = det(tIn − P AP −1 )
= det(tP In P −1 − P AP −1 )
= det(P (tIn − A)P −1 )
= det(P )det(tIn − A)det(P )−1
= det(tIn − A).
Si noti che una matrice A e la sua trasposta AT hanno lo stesso polinomio carat-
teristico, perché det(tIn − A) = det(tIn − A)T = det(tIn − AT ).
Nella parte finale di questa sezione calcoliamo i coefficienti del polinomio carat-
teristico di una matrice A in termini degli elementi della matrice A. Lo facciamo per
n = 2, 3.
Example 87. Sia A = (aij ) una matrice quadrata di ordine 2 a coefficienti in un
campo K. Calcoliamo il determinante det(tI2 − A):
t − a11 −a12
det(tI2 − A) = det = t2 − c1 t + c0 ,
−a21 t − a22
130 CHAPTER 10. AUTOVETTORI E AUTOVALORI
dove
c0 = det(A); c1 = tr(A) = a11 + a22 .
Allora det(tI2 − A) = 0 sse t2 − c1 t + c0 = 0. Quindi per trovare gli autovalori di A
bisogna risolvere una equazione di secondo grado nell’incognita t. Le due soluzioni
dell’equazione t2 − c1 t + c0 = 0 esistono sempre se K = C è il campo dei numeri
complessi, mentre possono non esistere nel caso in cui K = R è il campo dei numeri
reali. Per esempio, l’equazione t2 + 1 = 0 non ammette soluzioni reali.
dove
c0 = det(A); c2 = tr(A) = a11 + a22 + a33
e
a22 a23 a11 a13 a11 a12
c1 = det + det + det .
a32 a33 a31 a33 a21 a22
Allora det(tI3 − A) = 0 sse t3 − c2 t2 + c1 t − c0 = 0. Quest’equazione di terzo grado
ha sempre tre soluzioni t1 , t2 , t3 (contate con la dovuta molteplicità) nel campo dei
numeri complessi. Se le tre soluzioni non sono tutte reali, allora una soluzione è
reale, mentre le altre due sono complesse coniugate.
10.2 Autospazi
Proposition 10.2.1. Sia f un operatore lineare dello spazio vettoriale V . Se
λ1 , . . . , λk sono autovalori distinti di f e vi è un autovettore di autovalore λi (i =
1, . . . , k), allora i vettori v1 , . . . , vk sono linearmente indipendenti.
c1 λ1 v1 +· · ·+λk (−c1 v1 −· · ·−ck−1 vk−1 ) = c1 (λ1 −λk )v1 +· · ·+ck−1 (λk−1 −λk )vk−1 = 0.
Dal fatto che gli autovalori sono tutti distinti, si contraddice l’ipotesi induttiva che
v1 , . . . , vk−1 sono linearmente indipendenti.
10.3 Esempi
Example 89. Se consideriamo una rotazione g : R2 → R2 del piano reale (si veda
Sezione ??) di un angolo 0 < θ < π2 in senso antiorario, nessun vettore mantiene la
stessa direzione e quindi non devono esistere autovalori. La matrice della rotazione
rispetto alla base canonica è (si consulti il Capitolo 7.4):
cos θ − sin θ
A=
sin θ cos θ
Calcoliamo il polinomio caratteristico che è il determinante della matrice
t − cos θ sin θ
det = (t − cos θ)2 + sin θ2 = t2 − 2t cos θ + 1.
− sin θ t − cos θ
Se calcoliamo le soluzioni troviamo
√ √
t = cos θ ± cos θ2 − 1 = cos θ ± − sin θ2 = cos θ ± i sin θ,
dove i è l’unità immaginaria. Quindi gli autovalori sono numeri complessi non reali.
Siccome ogni polinomio ha radici nel campo dei numeri complessi, mentre non è
detto che ne abbia nel campo dei numeri reali, conviene spesso lavorare direttamente
con trasformazioni lineari complesse. Consideriamo quindi la matrice A come una
matrice che definisce una operatore lineare complesso h : C2 → C2 rispetto alla
base canonica e1 = (1, 0) e e2 = (0, 1) di C2 . Calcoliamo l’autospazio associato
all’autovalore λ1 = cos θ + i sin θ. Dobbiamo risolvere il sistema lineare omogeneo
x i sin θ sin θ x ix sin θ + y sin θ 0
(λ1 I2 − A) = = = ,
y − sin θ i sin θ y −x sin θ + iy sin θ 0
dove x e y sono scalari complessi. Otteniamo l’equazione della retta complessa che
descrive i vettori dell’autospazio di λ1 : ix sin θ + y sin θ = 0, che dividendo per sin θ
diventa y = −ix. L’altra equazione −x sin θ + iy sin θ = 0, dividendo per sin θ, si
riduce a iy = x, che moltiplicando peri diventa come prima y = −ix.
−1
Un autovettore è il vettore . Analogamente, possiamo calcolare la retta
i
di autovalore λ2 = cos θ − i sin θ. Un autovettore
complessa y = ix degli autovettori
1
di autovalore λ2 è il vettore .
i
Example 90. Sia
1 2
A=
3 4
10.3. ESEMPI 133
√ √
Otteniamo quindi due rette (3 + 33)x − 4y = 0 e −6x + √ (−3 + 33)y = 0 passanti
per
√ l’origine. Moltiplicando la prima equazione per 3 − 33 si ottiene: 24x + 4(3 −
33)y = 0 e dividendo per 4 si ottiene infine la seconda equazione. Quindi le due
equazioni definiscono la stessa retta per l’origine. Se poniamo x = 1 allora y = √933 .
√
5+ 33
Quindi l’autospazio associato all’autovalore 2
è il sottospazio vettoriale del piano
generato dal vettore [1, √933 ].
(i) f è triangolabile;
Ricordiamo che una matrice A di ordine n (ad elementi nel campo K) definisce
un operatore lineare fA : Kn → Kn tramite il prodotto matriciale: fA (x1 , . . . , xn ) =
A[x1 , . . . , xn ]T . Quindi, una matrice è diagonalizzabile se è simile ad una matrice
diagonale. Matrici simili hanno lo stesso polinomio caratteristico e quindi gli stessi
autovalori (Si veda Lemma 10.1.4). Ne segue che una matrice è diagonalizzabile sse
è simile alla matrice diagonale dei suoi autovalori, ciascuno presente nella diagonale
con la dovuta molteplicità.
A2 = AA = P −1 DDP = P −1 D2 P, A3 = AAA = P −1 D3 P, . . .
Se
d1 0 ... 0
0 d2 ... 0
D=
... ...
... ...
0 0 ... dn
allora
dk1 0 ... 0
0 dk2 ... 0
Dk =
... ...
... ...
0 0 ... dkn
138 CHAPTER 10. AUTOVETTORI E AUTOVALORI
Theorem 10.5.4. Sia V uno spazio vettoriale di dimensione n sul campo K, sia
f : V → V un operatore lineare e siano λ1 , . . . , λk ∈ K gli autovalori distinti di f .
Sia ma (λi ) (resp. mg (λi )) la molteplicità algebrica (geometrica) dell’autovalore λi
per i = 1, . . . , k.
Allora le seguenti condizioni sono equivalenti:
(i) f è diagonalizzabile;
(tI2 − A)x = 0.
Calcoliamo l’inversa di P :
√ √ T T " 1
#
1 − 3 − 3 1/2 1/2 1/2 √
P −1 = = 1 −1 = 2 3
−1
det(P ) −1 1 √
2 3
√
2 3
1/2 √
2 3
Allora " #
1
1/2
√
P −1
AP = 2 3
−1
2 1 √1 1
√ =
1/2 √
2 3
3 2 3 − 3
"
1
# √ √ √
1/2
√ 2 + √3 2 − √3 2+ 3 0√
2 3
= −1 =
1/2 √
2 3
3+2 3 3−2 3 0 2− 3
1 0 0
Example 94. Sia A = −1 2 0 una matrice. Vogliamo
1 0 2
1. Determinare gli autovalori di A e le relative molteplicità.
E quindi
0 2 1 0 0 0 2/3 −1/3 −4/3
A = P DP −1 = 1 0 2 0 3 0 2/3 −1/3 −1/3 =
−1 1 0 0 0 6 −1/3 2/3 2/3
2 2 2
= −4 8 8
2 −1 −1
Chapter 11
Applicazioni
uscenti. Ciò significa che vi sono nella pagina p1 tre link, il primo diretto alla pagina
p2 , il secondo alla pagina p3 e l’ultimo alla pagina p4 . Similmente per gli altri archi
uscenti dagli altri nodi.
Supponiamo che un utente si trovi nella pagina p1 . Immaginiamo che gli eventi
“passa alla pagina p2 ”, “passa alla pagina p3 ”, “passa alla pagina p4 ” siano equiprob-
143
144 CHAPTER 11. APPLICAZIONI
abili. Quindi se un utente si troverà nella pagina p1 vi è una probabilità 13 che passi
alla pagina p2 , e cosı̀ via. Lo stesso discorso si applica per gli altri nodi con probabilità
possibilmente diverse, che dipendono dal numero di links.
Siccome il nodo 1 ha tre archi uscenti, trasferisce un terzo della sua importanza a
ciascuno dei tre nodi riceventi. In generale, se un nodo ha k archi uscenti, trasferisce
1
k
della sua importanza a ciascuno dei nodi riceventi.
I principi sui quali si basa PageRank sono quindi i seguenti:
• Una pagina importante riceve links da pagine importanti.
In questa formula, la somma è effettuata su tutte le pagine q che hanno un link verso
p. Il contributo di una pagina q è quindi direttamente proporzionale all’importanza
(rango) di q ed inversamente proporzionale al numero di links da q verso altre pagine.
La matrice A di transizione del grafo mette in ciascuna colonna Ai il trasferi-
mento di importanza dal nodo i agli altri nodi, mentre ciascuna riga Ai della matrice
rappresenta l’importanza che il nodo i riceve dagli altri nodi. In altre parole, si ha:
(
1
se esiste un link da pj a pi
aij = |pj |
0 altrimenti.
0 0 1 12
1 0 0 0
A= 3
1 1 0 1
3 2 2
1 1
3 2
0 0
r(p4 )
P r(q)
1
0 0 1 2 r(p1 ) Pq→p1 r(q)
|q|
r(p1 )
1 0 0 0 r(p2 ) q→p2 |q| r(p2 )
Ar = 3
1 1 0 1 r(p3 ) = P r(q) =
3 2 2 Pq→p3 |q| r(p 3 )
1 1
3 2
0 0 r(p4 ) r(q) r(p4 )
q→p4 |q|
0.19
In altre parole, la pagina p1 ha importanza 0.38 e cosı̀ via per le altre pagine. Su 100
utenti, 38 visiteranno la pagina p1 .
Si suggerisce di cercare con un motore di ricerca il file jkhoury/Google.pdf dove
viene spiegato in dettaglio l’algoritmo di Google.
F0 = 1; F1 = 1; Fn = Fn−1 + Fn−2 .
si ricava che
Fn+1 Fn
=A
Fn Fn−1
o in altri termini
Fn+1 1 n 1
= AA · · · A =A (n-volte)
Fn 1 1
Allora si ha:
Fn+1 n 1 n −1 1
=A = PD P =
Fn 1 1
1+√5 √ " √ #" √ #
1− 5 1+ 5 n √1 −1+√ 5
( 2 ) 0 5 2 √5 1
2 2
1−
√
5 −1 1+ 5
.
1 1 0 ( 2 ) n √ √ 1
2 5 2 5
Infine moltiplicando le matrici si ricava:
√ !n+1 √ !n+1
1 1+ 5 1− 5
Fn = √ −
5 2 2
11.3 Crittografia
I caratteri dell’alfabeto italiano sono 26. Aggiungiamo un ulteriore carattere che
rappresenta il “blank”, lo spazio vuoto. Codifichiamo questi 27 caratteri con dei
numeri arbitrari. Per semplificare i conti riduciamo il numero di caratteri a 11
compreso il blank:
5499, 9090, 555, 79, 555, 647, 12438, 345, 777, 555
Consideriamo una matrice Z quadrata di ordine n (n molto grande) che sia invert-
ibile. Immaginiamo che la matrice Z sia conosciuta soltanto ai due interlocutori
che devono scambiare il messaggio cifrato. Nel nostro esempio per ragioni di spazio
prendiamo una matrice 3 × 3:
1 2 3
Z = 4 5 6
7 8 9
25344, 3130, 15459, 3790, 70776, 6973, 56139, 9337, 116208, 10816, 96819, 14884
Una persona che intercetta i numeri non riesce a decodificare il messaggio, mentre il
ricevente semplicemente moltiplica a sinistra la matrice ZU per Z −1 e recupera U .
Consideriamo una immagine digitale come una matrice. Ogni componente della
matrice corrisponde ad un pixel (elemento elementare della figura). Supponiamo di
avere una matrice 256 × 256 di pixels con valori di ciascuna componente un numero
da 0 (nero) a 255 (bianco). Nel mezzo varie sfumature di grigio1. La tecnica JPEG
divide l’immagine in blocchi 8 × 8 e assegna una matrice ad ogni blocco. Utilizziamo
l’algebra lineare per massimizzare la compressione dell’immagine.
11.4. COMPRESSIONE DI IMMAGINI 151