Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Antonino Salibra
1. Libri di Testo:
Campi Numerici
1. Proprietà associativa: x + (y + z) = (x + y) + z; x · (y · z) = (x · y) · z.
2. Proprietà commutativa: x + y = y + x; x · y = y · x.
3. Elemento neutro: x + 0 = x; x · 1 = x.
5. Opposto: x + (−x) = 0.
7. Prodotto per 0: x · 0 = 0 = 0 · x.
Scriveremo
• xy al posto di x · y;
• x − y al posto di x + (−y);
• x/y oppure x
y
per x · y −1 .
5
6 CHAPTER 1. CAMPI NUMERICI
0 +2 0 = 1 +2 1 = 0; 0 +2 1 = 1 +2 0 = 1;
e
0 ×2 0 = 0 ×2 1 = 1 ×2 0 = 0; 1 ×2 1 = 1.
(
x×y if x × y ≤ p − 1
x ×p y =
r if x × y = q × p + r con 0 ≤ r ≤ p − 1.
z = a + bi
• z + w = 3 + 4i = 3 − 4i.
• z + w = 1 + 2i + 2 + 2i = (1 − 2i) + (2 − 2i) = 3 − 4i = z + w.
|zw|2 = (zw)(zw)
= zwz w Proposizione 1.1.2(ii)
= zzww
= |z|2 |w|2
an xn + an−1 xn−1 + · · · + a1 x + a0 = 0
Il piano complesso
Sia z = a + bi un numero complesso. Il numero z ha una naturale interpre-
tazione geometrica in termini della sua parte reale ed immaginaria: Re(z) = a
e Im(z) = b come coppia di punti (a, b) del piano cartesiano xy. La retta dei
punti y = 0 si dice asse reale, mentre la retta x = 0 si dice asse immaginario.
Per esempio l’unità immaginaria i ha coordinate (0, 1). Il piano visto come
rappresentazione dei numeri complessi si dice piano complesso.
Torniamo al numero z = a + ib. I quattro punti (0, 0), (a, 0), (a, b), (0, b)
del piano complesso determinano un rettangolo nel piano √ complesso la cui
diagonale principale è un segmento di lunghezza |z| = a + b2 . La diagonale
2
z n = cos(nθ) + i sin(nθ).
x3 x5 x7
• sin x = x − 3!
+ 5!
− 7!
+ ...;
x2 x4 x6
• cos x = 1 − 2!
+ 4!
− 6!
+ ....
1.1. IL CAMPO DEI NUMERI COMPLESSI 13
θ2 θ4 θ6 θ3 θ5
eiθ = (1 − + − + . . . ) + (θ − + + . . . )i.
2! 4! 6! 3! 5!
Ne segue l’identità di Eulero:
Ne segue un’identità che lega tra loro le costanti più importanti della
matematica π (lunghezza della circonferenza), e (logaritmo naturale) e i
(unità immaginaria):
eiπ = −1.
Radici dell’unità
Un numero complesso z tale che z n = 1 si chiama radice n-esima dell’unità.
Nel seguito calcoliamo le radici dell’unità tramite l’interpretazione geometrica
dei numeri complessi.
Proof. Dalla Proposizione 1.1.3 segue che |z n | = |z|n = 1. Dal fatto che
|z| ≥ 0 è un numero reale si ricava |z| = 1.
zn = 1
I vettori sono una rappresentazione astratta delle grandezze che hanno una
direzione (e talvolta verso).
17
18 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI
−→
I vettori possono essere moltiplicati per uno scalare. Se OP è un vettore
−→
nello spazio ed r è un numero reale, detto scalare, allora rOP è un altro
vettore che sta sempre nella retta, passante per l’origine, determinata dal
−→
vettore OP . Per esempio, sia P = [3, 2, 1] un punto, 5 uno scalare e Q
−→
il punto di coordinate 5P = [15, 10, 5]. Allora il vettore 5OP è uguale al
−→
vettore OQ. Nella prossima sottosezione studieremo in generale le proprietà
della somma vettoriale e del prodotto per uno scalare.
SV1: a + (b + c) = (a + b) + c;
SV2: a + b = b + a;
SV3: 0 + a = a = a + 0;
22 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI
Si noti che il vettore nullo viene indicato con 0 e che per brevità scriviamo
ra al posto di r · a.
Si noti anche che l’assioma (SV4) deriva da (SV5) e (SV8):
−−→ −→ −−→
AD = AC + CD
−→ −−→ −−→ −−→ −→ −−→ −→ −−→ −−→
=(AB + BC) + CD, ma anche AD = AB + BD = AB + (BC + CD)
I vettori possono essere utilizzati per fornire delle prove di risultati geo-
metrici. Un esempio è fornito dal seguente teorema.
24 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI
Perpendicolarità
Quando due vettori sono perpendicolari od ortogonali?
26 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI
kA − Bk = kA − (−B)k = kA + Bk.
Figure 2.8: Triangolo inscritto in una circonferenza con diametro come lato
consecutivi. Supponiamo che l’angolo retto sia l’angolo compreso tra i vettori
a e c, cosicché il prodotto interno a·c = 0 è nullo. Dal fatto che a+b+c = 0,
si ricava b = −(a + c). Allora si ha:
perché a · c = 0.
Sviluppando otteniamo:
0 ≤ x2 (A · A) + 2xy(A · B) + y 2 (B · B).
0 ≤ (B · B)(A · A) + 2y(A · B) + y 2 .
Corollary 2.3.5.
|A · B| ≤ kAk kBk.
(A − rB) · B = A · B − r(B · B) = 0
da cui
A·B A·B
r= = .
B·B kBk2
Quindi, da
rkBk = kAk cos θ
sostituendo a r il suo valore otteniamo:
A·B
( )kBk = kAk cos θ.
kBk2
Semplificando ricaviamo:
A·B
= kAk cos θ.
kBk
da cui si ha la tesi.
Due vettori sono allineati se cos θ = +1 oppure cos θ = −1, da cui si ha:
|A · B| = kAk kBk.
30 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI
Chapter 3
Rette e piani
a1 x 1 + · · · + an x n = b (3.1)
31
32 CHAPTER 3. RETTE E PIANI
Essa esprime il luogo di tutti vettori x il cui prodotto interno con il vettore
costante a dà come risultato lo scalare d. Se d = 0, l’equazione a · x = 0
descrive il piano dei vettori perpendicolari al vettore a.
• Retta di equazione ax + by = 0
Utilizzando il prodotto interno di vettori, l’equazione lineare 3x+2y = 0
(x, y variabili reali) si può scrivere nel modo seguente: [3, 2] · [x, y] = 0.
La retta 3x + 2y = 0 descrive quindi l’insieme dei vettori [x, y] che sono
perpendicolari al vettore [3, 2]. Il luogo dei punti
{[x, y] : 3x + 2y = 0}
Consideriamo ora le rette del piano che non passano per l’origine.
x = 5 + 2t; y =2+t
{[x, y, z] : 3x + 2y + z = 0}
rappresenta tutte e sole le rette che passano per C se gli scalari r ed s non
sono entrambi nulli. Se s 6= 0, possiamo dividere per s ed ottenere ponendo
t = r/s:
t(ax + by + c) + (dx + ey + f ) = 0.
Quest’ultima equazione descrive tutte le rette passanti per C tranne la retta
ax + by + c. Quest’ultima forma di descrizione del fascio è utile nelle appli-
cazioni come il seguente esempio spiega.
Example 8. Vogliamo scrivere l’equazione della retta passante per i punti
P = [1, 1] e Q = [2, 5]. Consideriamo due rette distinte passanti per P ,
per esempio y − x = 0 e x − 1 = 0. Allora, il fascio (y − x) + t(x − 1) = 0
comprende tutte le rette passanti per P tranne la retta x−1 = 0. Sostituendo
le coordinate di Q al posto di x ed y otteniamo: 3 + t = 0 da cui t = −3.
38 CHAPTER 3. RETTE E PIANI
Sistemi lineari
a11 x1 + · · · + a1n xn = b1
a21 x1 + · · · + a2n xn = b2
... ... ...
am1 x1 + · · · + amn xn = bm
a11 r1 + · · · + a1n rn = b1
a21 r1 + · · · + a2n rn = b2
... ... ...
am1 r1 + · · · + amn rn = bm
sono i punti [x1 , x2 ] del piano che costituiscono l’intersezione delle due rette
di equazione rispettivamente a11 x1 + a12 x2 = b1 e a21 x1 + a22 x2 = b2 . In
39
40 CHAPTER 4. SISTEMI LINEARI
sono i punti [x1 , x2 , x3 ] dello spazio che costituiscono l’intersezione dei tre
piani.
3x + 2y = 5
x + 4y = 3
x + 23 y = 5
3
10 4
3
y = 3
x + 2y = 3
4x + 5y = 6
4.2. DUE EQUAZIONI IN DUE VARIABILI 43
(i) L’intersezione dei tre piani è un piano sse i tre piani sono coincidenti
(lo stesso piano) sse i tre vettori A, B e C sono collineari (nella
stessa retta per l’origine);
(ii) L’intersezione dei tre piani è una retta sse i tre vettori A, B e C
non sono collineari ma si trovano in uno stesso piano passante per
l’origine;
(iii) L’intersezione dei tre piani è un punto sse (1) i vettori A e B non
si trovano nella stessa retta; (2) il vettore C non si trova nel piano
generato dai vettori A e B.
3x + 2y + z = 5
x + 4y + 3z = 3
x+y+z = 0
x+y+z = 0
3x + 2y + z = 5
x + 4y + 3z = 3
Si ottiene:
x + y + z = 0
−y − 2z = 5
3y + 2z = 3
46 CHAPTER 4. SISTEMI LINEARI
3x + 2y + z = 5
x + 4y + 3z = 3
x + 4y + 3z = 3
3x + 2y + z = 5
x + 4y + 3z = 3
−10y − 8z = −4
4.3. DUE O TRE EQUAZIONI IN TRE VARIABILI 47
da cui si ha y = 2−4z
5
. Sostituiamo nella prima equazione per ottenere
le soluzioni in termini del parametro z:
2 − 4z
x = (3 − (16/5))z + (3 − (8/5)); y=− .
5
48 CHAPTER 4. SISTEMI LINEARI
Chapter 5
Matrici
49
50 CHAPTER 5. MATRICI
Example 10.
2 3 1 2 3 5 2 3 8 12
1 −5 + 3 4 = 4 −1 4 1 −5 = 4 −20
3 2 5 6 8 8 3 2 12 8
2 3 −2 −3
A = 1 −5 ; −A = −1 5
3 2 −3 −2
a11 x1 + · · · + a1n xn = b1
a21 x1 + · · · + a2n xn = b2
... ... ...
am1 x1 + · · · + amn xn = bm
5.2. OPERAZIONI SU MATRICI 53
xn
uguale a b1 . Similmente per le altre equazioni lineari. I prodotti interni
di questo tipo si rappresentano con il prodotto di matrici:
a11 a12 . . . a1n x1 a11 x1 + · · · + a1n xn
a21 a22 . . . a2n x2 a21 x1 + · · · + a2n xn
... ... ... ... ... =
...
am1 am2 . . . amn xn am1 x1 + · · · + amn xn
bm
54 CHAPTER 5. MATRICI
a11 a1n
a21
, . . . , a2n .
scrivere come combinazione lineare dei vettori colonna ... ...
am1 amn
Come vedremo nel Capitolo 7, l’equazione vettoriale ha sicuramente soluzione
se i vettori colonna sono “linearmente indipendenti”.
Example 11. La matrice quadrata dei coefficienti del sistema lineare
3x + 2y = 5
x + 4y = 3
ha ordine 2:
3 2
1 4
Il sistema lineare si può scrivere in notazione matriciale come segue:
3 2 x 5
=
1 4 y 3
I due vettori [x, y] e [5, 3] sono stati scritti come vettori colonna, cioè come
matrici 2 × 1.
x
Il prodotto interno 3x+2y del vettore [3, 2] per il vettore è il prodotto
y
interno
della prima riga della matrice per l’unica colonna del vettore colonna
x
. Allo stesso modo il prodotto interno x + 4y del vettore [1, 4] per il
y
x
vettore è il prodotto interno della seconda riga della matrice per l’unica
y
x
colonna del vettore colonna . Quindi abbiamo:
y
3 2 x 3x + 2y
=
1 4 y x + 4y
A(BC) = (AB)C.
Im A = A = AIk .
(AB)t = B t At .
v −→ u.
58 CHAPTER 5. MATRICI
v1 −→ v2 ; v1 −→ v3 ; v2 −→ v3 ; v3 −→ v1 ; v3 −→ v2
5.3. MOLTIPLICAZIONE DI MATRICI A BLOCCHI 59
Si ha
1 1 1
A2 = AA = 1 1 0
0 1 2
Abbiamo in effetti due cammini di lunghezza due da v3 in v3 .
CC 0 + DE 0 CD0 + DF 0
AB = .
EC 0 + F E 0 ED0 + F F 0
2 3 1 1
1 0 5
Example 17. Siano A = e B = 4 8 0 0 due matrici sud-
0 1 3
1 0 1 0
divise in blocchi compatibili. Allora si ha:
2 3
• [1, 0] + [5][1, 0] = [2, 3] + [5, 0] = [7, 3].
4 8
60 CHAPTER 5. MATRICI
1 1
• [1, 0] + [5][1, 0] = [1, 1] + [5, 0] = [6, 1].
0 0
2 3
• [0, 1] + [3][1, 0] = [4, 8] + [3, 0] = [7, 8].
4 8
1 1
• [0, 1] + [3][1, 0] = [3, 0].
0 0
Quindi
7 3 6 1
AB = .
7 8 3 0
0 0 1 1
1 0 0
Example 18. Siano A = e B = 0 0 0 0 due matrici sud-
0 0 3
1 0 1 0
divise in blocchi compatibili. Siccome alcuni blocchi
sono costituiti
dalla
0 0 1 1
matrice nulla, allora si vede facilmente che AB = .
3 0 3 0
Chapter 6
Ax = b,
• Sostituzione di una riga con la somma della riga stessa con un’altra
riga moltiplicata per uno scalare.
61
62 CHAPTER 6. MATRICI E SISTEMI LINEARI
Definition 6.1.1. Una matrice è elementare se ha uno dei seguenti tre for-
mati:
Allora abbiamo
1 0 0 1 1 1 0 1 1 1 0
E3+( 1 )2 E3+(−3)1 E2+(−1)1 E1,3 A = 0 1 0 0 3 2 3 = 0 3 2 3
3
1
0 3 1 0 −1 −2 5 0 0 −4/3 6
AB = In = BA,
Come dimostreremo nel seguente lemma, esiste al più una matrice inversa
di A; nel caso in cui esiste l’inversa della matrice A essa si indica con A−1 .
2. (AB)−1 = B −1 A−1 .
È infatti chiaro che scambiare due volte di seguito la riga uno e la riga tre
riporta alla situazione iniziale.
1. Tutte i vettori riga nulli sono nella parte bassa della matrice;
Una matrice ridotta (per riga) è una matrice a gradini che verifica anche la
seguente condizione:
4. Se una colonna contiene il primo elemento non nullo di una riga, allora
tutte gli altri elementi della colonna sono nulli.
6.3. MATRICI A GRADINI 67
Alla fine nella colonna j avremo tutti elementi nulli tranne un 1 in posizione
ij.
Proof. (i) Per ipotesi esiste una matrice G, che è prodotto di matrici elemen-
tari, tale che G(B|b) = A|a. Moltiplicando a blocchi, segue che GB = A e
Gb = a. Supponiamo che il vettore colonna x sia una soluzione del sistema
lineare Bx = b. Allora Ax = GBx = Gb = a. Per simmetria otteniamo la
tesi.
Un sistema lineare è omogeneo se il vettore dei termini noti è il vettore
nullo.
Spazi vettoriali
Example 22. (Spazio vettoriale dei polinomi reali) Un polinomio reale è una
funzione p : R → R che è esprimibile come
Example 24. (Spazio vettoriale delle funzioni a valori reali) Sia X un in-
sieme. Allora l’insieme di tutte le funzioni da X ad R è uno spazio vettoriale.
Se f, g : X → R sono funzioni e r è uno scalare, definiamo:
69
70 CHAPTER 7. SPAZI VETTORIALI
7.1 Sottospazi
Definition 7.1.1. Sia V uno spazio vettoriale sul campo K. Un sottoinsieme
non vuoto U di V è un sottospazio vettoriale di V se la somma vettoriale di
vettori di U è ancora in U e lo stesso accade per il prodotto di un vettore di
U per un arbitrario scalare:
1. v, w ∈ U ⇒ v + w ∈ U ;
2. v ∈ U ∧ r ∈ K ⇒ rv ∈ U .
Dalla seconda condizione della definizione precedente il vettore nullo 0
appartiene ad ogni sottospazio vettoriale.
Ogni spazio vettoriale V ammette due sottospazi banali: il primo {0}
costituito dal solo vettore nullo e il secondo da V stesso.
Lemma 7.1.1. L’intersezione di due o più sottospazi vettoriali di V è ancora
un sottospazio vettoriale.
Proof. Siano W e U due sottospazi. Si vede facilmente che, se v, w ∈ W ∩ U ,
allora anche che v + w ∈ W ∩ U e rv ∈ W ∩ U per ogni scalare r.
Sia V uno spazio vettoriale e x1 , . . . , xn ∈ V vettori. Un vettore v ∈ V è
una combinazione lineare dei vettori x1 , . . . , xn se esistono scalari r1 , . . . , rn
tali che
v = r1 x1 + · · · + rn xn .
Definition 7.1.2. Sia X ⊆ V un sottoinsieme di uno spazio vettoriale V
sul campo K. Il sottospazio Span(X) di V generato da X è definito come
l’intersezione di tutti i sottospazi di V che contengono X.
Span(X) è costituito da tutte le combinazioni lineari finite di elementi di
X a coefficienti nel campo K:
Span(X) = {r1 v1 + · · · + rk vk : r1 , . . . rk ∈ K e v1 , . . . , vk ∈ X}
Le rette (i piani) che non passano per l’origine NON sono sottospazi
vettoriali, perché il vettore nullo non appartiene alla retta (al piano).
Ricordiamo che un sistema lineare è omogeneo se il vettore dei termini
noti è il vettore nullo.
• Se [x1 , x2 ] appartiene alla retta (i.e., 2x1 + 3x2 = 0), allora anche
r[x1 , x2 ] = [rx1 , rx2 ] appartiene alla retta (i.e., r(2x1 + 3x2 ) = 0).
72 CHAPTER 7. SPAZI VETTORIALI
costituisce unsottospazio
vettoriale W di R3 (si consulti Proposizione 7.1.2).
a
Se il vettore b appartiene al sottospazio W allora il sistema lineare
c
2 1 1 x a
4 −6 0 y = b
−4 −2 −2 z c
ammette soluzione.
ammette soluzioni diverse dal vettore nullo 0. Infatti si vede facilmente che
la terza riga della matrice è un multiplo della prima, cosı̀ il sistema lineare
ammette una retta di soluzioni che sono l’intersezione del piano 2x+y +z = 0
(che è lo stesso piano di equazione −4x−2y −2z = 0) e del piano 4x−6y = 0.
Si noti che se i vettori colonna sono lineramente dipendenti, anche i vettori
riga [2, 1, 1], [4, −6, 0] e [−4, −2, −2] lo sono:
1. Ax = 0;
7.3 Basi
Definition 7.3.1. Una base di uno spazio vettoriale V è un insieme di vettori
linearmente indipendenti che generano tutto lo spazio.
Nel seguito consideriamo soltanto spazi vettoriali con basi costituite da
un numero finito di elementi.
Sia x1 , . . . , xn una base di V . Allora ogni vettore v ∈ V si scrive in
maniera unica come combinazione lineare della base. Infatti se v = a1 x1 +
. . . an xn = b1 x1 + . . . bn xn allora 0 = (a1 − b1 )x1 + . . . (an − bn )xn . Siccome
x1 , . . . , xn sono linearmente indipendenti, si ricava ai − bi = 0 per ogni i, da
cui ai = bi .
Se v = a1 x1 + . . . an xn allora [a1 , . . . , an ] è il vettore delle coordinate di v
rispetto alla base data.
76 CHAPTER 7. SPAZI VETTORIALI
1, x, x2 , . . . , xn , . . .
1, x, x2 , x3 , x4 , x5 .
Si noti che (i) ogni colonna della matrice A ha qualche coefficiente diverso
da zero; (ii) i coefficienti della matrice sono scalari, mentre le sequenze
[v1 , . . . , vm ] e [w1 , . . . , wn ] hanno elementi in V .
7.3. BASI 77
•
f (y + z) = 3(y1 + z1 ) + 2(y2 + z2 ) − 2(y3 + z3 )
= (3y1 + 2y2 − 2y3 ) + (3z1 + 2z2 − 2z3 )
= f (y) + f (z).
•
f (ry) = 3(ry1 ) + 2(ry2 ) − 2(ry3 )
= r(3y1 + 2y2 − 2y3 )
= rf (y).
79
80 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI
allora
0 = f (c1 v1 + · · · + ck vk + ck+1 vk+1 + · · · + ck+r vk+r )
= c1 f (v1 ) + · · · + ck f (vk ) + ck+1 f (vk+1 ) + · · · + ck+r f (vk+r )
= c1 0 + · · · + ck 0 + ck+1 w1 + · · · + ck+r wr
= ck+1 w1 + · · · + ck+r wr
E quindi i vettori w1 , . . . , wr ∈ W oppure i vettori v1 , . . . , vk ∈ V sarebbero
linearmente dipendenti. Assurdo.
Verifichiamo che i vettori v1 , . . . , vk , vk+1 , . . . , vk+r generano lo spazio
V . Sia x ∈ V . Se f (x) = 0 allora x è combinazione lineare di v1 , . . . , vk ,
altrimenti f (x) = d1 w1 +· · ·+dr wr . E quindi f (x−(d1 vk+1 +· · ·+dr vk+r )) =
0. Scriviamo quindi x − (d1 vk+1 + . . . dr vk+r ) come combinazione lineare di
v1 , . . . , vk ed otteniamo il risultato.
Lemma 8.1.2. Sia f : V → W una trasformazione lineare.
1. f è iniettiva sse ker(f ) = {0}.
2. Se f è iniettiva, allora
amj
Per ogni vettore v = c1 v1 + · · · + cn vn ∈ V , si ha
f (v) = f (c1 v1 + · · · + cn vn )
= c1 f (v1 ) + · · · + cn f (vn )
= c1 (a11 w1 + · · · + am1 wm ) + · · · + cn (a1n w1 + · · · + amn wm )
= (c1 a11 + c2 a12 + · · · + cn a1n )w1 + · · · + (c1 am1 + c2 am2 + · · · + cn amn )wm
cn
alla base w1 , . . . , wm con il prodotto matriciale:
Pn
c1 A1 · c i=1 c i a 1i
n ci a2i
P
c2 A2 · c 1 n
Ac = A =
= c1 A + · · · + cn A = i=1
... ... Pn . . .
cn Am · c i=1 ci ami
Am · c
86 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI
spazio Span(A1 , . . . , Am ):
(d1 A1 +· · ·+dm Am )·c = d1 (A1 ·c)+· · ·+dm (Am ·c) = d1 0+· · ·+dm 0 = 0.
La matrice A determina:
8.3. LA TRASFORMAZIONE LINEARE DI UNA MATRICE 87
5
1
3 4 2 1 14
4 −6 0
3 = −12
0 0
1 2 −2 2 5
5
f (v) = c1 w1 + · · · + cn wn .
vi = a1i t1 + · · · + ani tn
e1 = −2t1 + t2 ; e2 = 3t1 − t2
Determinante
p1 q1
A=
p2 q2
93
94 CHAPTER 9. DETERMINANTE
Figure 9.1: Area del parallelogramma determinato dai vettori a e b nel piano
p
kP kkQk sin(θ) = kP kkQkq1 − cos(θ)2
·Q)2
= kP kkQk 1 − (P(P ·P )(Q·Q)
p
= p(P · P )(Q · Q) − (P · Q)2
= p(p21 + p22 )(q12 + q22 ) − (p1 q1 + p2 q2 )2
= pp21 q22 + p22 q12 − 2p1 p2 q1 q2
= (p1 q2 − p2 q1 )2
= |p1 q2 − p2 q1 |.
Il segno del determinante è positivo se la rotazione che porta il vettore P
in Q attraversando l’angolo θ è antioraria, mentre il segno è negativo se la
rotazione è oraria. In conclusione,
det(A) = p1 q2 − p2 q1 .
Figure 9.2: Area del parallelepipedo delimitato dai vettori p, q, r nello spazio
p × q = kpkkqk sin(θpq )k
la cui lunghezza è pari all’area del parallelogramma formato dai due vettori.
il prodotto vettoriale verifica le seguenti condizioni:
La seguente tabella spiega il prodotto vettoriale dei vettori della base canon-
ica di R3 :
×
e1 e2 e3
e1
0 e3 −e2
e2 −e3 0 e1
e
3 e2 −e1 0
Remark 2. Il piano parametrico rp+sq (r, s ∈ R) passante per l’origine degli
assi è definito dalla seguente equazione lineare:
r·(p×q) = r1 (p2 q3 −p3 q2 )−r2 (p1 q3 −p3 q1 )+r3 (p1 q2 −p2 q1 ) = p·(q×r) = q·(p×r)
0 = det(A1 + A2 , A1 + A2 , . . . )
= det(A1 , A1 + A2 , . . . ) + det(A2 , A1 + A2 , . . . )
= det(A1 , A1 , . . . ) + det(A1 , A2 , . . . ) + det(A2 , A1 + A2 , . . . )
= 0 + det(A1 , A2 , . . . ) + det(A2 , A1 + A2 , . . . )
= det(A1 , A2 , . . . ) + det(A2 , A1 , . . . ) + det(A2 , A2 , . . . )
= det(A1 , A2 , . . . ) + det(A2 , A1 , . . . ) + 0
= det(A1 , A2 , . . . ) + det(A2 , A1 , . . . ).
100 CHAPTER 9. DETERMINANTE
da cui si ha la conclusione.
(v) Sia det(A) = det(. . . , Ai , . . . , Aj , . . . ), mettendo in evidenza le colonne
i e j. Sommiamo alla colonna i c volte la colonna j:
In maniera simile,
0 b 0 0 0 b
=0− b 0
= + = −bc
c d c d c 0 0 c
3. |A−1 | = |A|−1 .
1 2 3 1 0 0
4 5 6 ⇒ 4 −3 −6 = B
7 8 9 7 −6 −12
0
Sostituiamo poi la terza colonna B 3 = −6 di B con B 3 − 2B 2 :
−12
1 0 0 1 0 0
4 −3 −6 ⇒ 4 −3 0
7 −6 −12 7 −6 0
bnj
abbiamo
det(A1 , . . . , Ai−1 , E j , Ai+1 , . . . , An )
bij = .
|A|
Metodo dei cofattori
La matrice dei cofattori di una matrice quadrata A di ordine n, detta anche
matrice dei complementi algebrici, è un’altra matrice quadrata di ordine n
il cui elemento nella posizione generica i, j è il cofattore (o complemento
algebrico) di A relativo alla posizione i, j:
cof ij (A) = (−1)i+j det(Aij )
dove Aij è il minore di A ottenuto cancellando la riga i e la colonna j.
cof 1,1 (A) . . . cof 1,n (A)
cof A =
.. .. ..
. . .
cof n,1 (A) . . . cof n,n (A)
La matrice inversa di A è:
1
A−1 = · (cof A)T
det(A)
9.4. CALCOLO DEL DETERMINANTE 105
Metodo di Gauss-Jordan
Spieghiamo il metodo con un esempio. Consideriamo la matrice A da inver-
tire:
2 1 1
A = 4 −6 0
−2 7 2
Aggiungiamo la matrice identica in fondo:
2 1 1 1 0 0
4 −6 0 0 1 0
−2 7 2 0 0 1
L’idea è di eseguire le solite operazioni di triangolarizzazione sulla matrice
3 × 6 in maniera tale da arrivare ad una matrice
1 0 0 b11 b12 b13
0 1 0 b21 b22 b23
0 0 1 b31 b32 b33
Allora la matrice 3 × 3 in fondo sarà l’inversa di A.
Cominciamo sottraendo il doppio della prima riga alla seconda riga:
2 1 1 1 0 0
0 −8 −2 −2 1 0
−2 7 2 0 0 1
Sommiamo la prima riga all’ultima riga:
2 1 1 1 0 0
0 −8 −2 −2 1 0
0 8 3 1 0 1
Sommiamo la seconda riga all’ultima:
2 1 1 1 0 0
0 −8 −2 −2 1 0
0 0 1 −1 1 1
Ora cerchiamo di azzerare le componenti 12 e 22, sottraendo la terza riga
alla prima:
2 1 0 2 −1 −1
0 −8 −2 −2 1 0
0 0 1 −1 1 1
106 CHAPTER 9. DETERMINANTE
1 0 0 12 5 6
16
− 16 − 16
4
0 1 0
8
− 38 − 28
0 0 1 −1 1 1
Autovettori e Autovalori
107
108 CHAPTER 10. AUTOVETTORI E AUTOVALORI
Proof. (i) Siano v e w due vettori tali che f (v) = λv e f (w) = λw. Allora
f (c1 v1 + · · · + ck vk ) = c1 λ1 v1 + · · · + ck λk vk = 0.
c1 λ1 v1 +· · ·+λk (−c1 v1 −· · ·−ck−1 vk−1 ) = c1 v1 (λ1 −λk )+· · ·+ck−1 vk−1 (λk−1 −λk ) = 0.
(i) λ è un autovalore di f ;
Gli autovalori di f sono gli zeri del suo polinomio caratteristico pf (λ) = 0.
Se V ha dimensione n, allora f ha al più n autovalori.
Il polinomio caratteristico è indipendente dalla scelta della matrice A
rappresentante f . Ricordiamo che le matrici A e B sono simili se esiste
una matrice invertibile P di cambiamento di base tale che B = P AP −1 (si
consulti la Definizione 8.4.1). Matrici simili determinano lo stesso polinomio
caratteristico e quindi gli stessi autovalori. Infatti si ha:
Gli autovalori di una matrice triangolare superiore (o inferiore) sono gli el-
ementi della diagonale.
Definition 10.1.4. Sia λ0 un autovalore di un endomorfismo lineare f . Si
dice molteplicità algebrica di λ0 il più grande k tale che il polinomio (λ − λ0 )k
divide il polinomio caratteristico pf (λ):
pf (λ) = (λ − λ0 )k q(λ),
0 0 . . . dn
allora
dk1 0 ... 0
k
0 d ... 0
Dk = 2
... ...
... ...
0 0 ... dkn
(i) f è diagonalizzabile;
(iv) f ha tutti gli autovalori nel campo K e nialg = nigm per ogni i = 1, . . . , k.
Proof. (i) ⇒ (ii) Per ipotesi V ammette una base di autovettori.
(ii) ⇒ (iii) Per ipotesi la somma delle dimensioni degli autospazi è n:
(A − λI)x = 0.
λ2 − 4λ + 1 = 0
116 CHAPTER 10. AUTOVETTORI E AUTOVALORI
ha soluzioni √ √
λ1 = 2 + 3; λ2 = 2 − 3.
Le due matrici che si ottengono sono:
√ √
√ √
− 3 √ 1 3 √1
B = A−(2+ 3)I = ; C = A−(2− 3)I = .
3 − 3 3 3
√
Ora calcoliamo gli autovettori. Per λ1 = 2 + 3 lo spazio degli autovettori,
che è lo spazio delle soluzioni √
del sistema omogeneo
√ Bx = 0, ha dimensione 1
ed è descritto dalla retta y = 3x. Per λ = 2− 3 lo spazio degli autovettori,
che è lo spazio delle soluzioni del √sistema omogeneo Cx = 0, ha dimensione
1 ed è descritto dalla retta y = − 3x.
La matrice√A è quindi diagonalizzabile
√ perchè esiste una base di autovet-
tori v1 = [1, 3] e v2 = [1, − 3]. La matrice del cambiamento di base
è
√1 1
√
P =
3 − 3
e P −1 AP è la matrice diagonale con gli autovalori nella diagonale.
Calcoliamo l’inversa di P :
√ √ t t " 1
#
1 − 3 − 3 1/2 1/2 1/2 √
P −1 = = 1 −1 = 2 3
−1
det(P ) −1 1 √
2 3
√
2 3
1/2 √
2 3
Allora " #
1
1/2
√
P −1
AP = 2 3
−1
2 1 √1 1
√ =
1/2 √
2 3
3 2 3 − 3
"
1
# √ √ √
1/2
√ 2 + √3 2 − √3 2+ 3 0√
2 3
= −1 =
1/2 √
2 3
3+2 3 3−2 3 0 2− 3
1 0 0
Example 60. Sia A = −1 2 0 una matrice. Vogliamo
1 0 2
tre link, il primo diretto alla pagina p2 , il secondo alla pagina p3 e l’ultimo
alla pagina p4 . Similmente per gli altri archi uscenti dagli altri nodi.
Supponiamo che un utente si trovi nella pagina p1 . Immaginiamo che gli
eventi “passa alla pagina p2 ”, “passa alla pagina p3 ”, “passa alla pagina p4 ”
siano equiprobabili. Quindi se un utente si troverà nella pagina p1 vi è una
probabilità 31 che passi alla pagina p2 , e cosı̀ via. Lo stesso discorso si applica
per gli altri nodi con probabilità possibilmente diverse, che dipendono dal
numero di links.
Siccome il nodo 1 ha tre archi uscenti, trasferisce un terzo della sua im-
portanza a ciascuno dei tre nodi riceventi. In generale, se un nodo ha k archi
uscenti, trasferisce k1 della sua importanza a ciascuno dei nodi riceventi.
I principi sui quali si basa PageRank sono quindi i seguenti:
r(p4 )
amo avere:
P r(q)
1
0 0 1 2 r(p1 )
q→p
P 1 r(q) |q|
r(p1 )
1 0 0 0 r(p2 ) q→p2 |q| r(p2 )
Ar = 3
1 1 0 1 r(p3 ) = P r(q) =
3 2 2 q→p3 |q|
r(p3 )
1 1
3 2
0 0 r(p4 ) P r(q) r(p4 )
q→p4 |q|
10.4. NUMERI DI FIBONACCI 121
0.19
In altre parole, la pagina p1 ha importanza 0.38 e cosı̀ via per le altre pagine.
Su 100 utenti, 38 visiteranno la pagina p1 .
Si suggerisce di cercare con un motore di ricerca il file jkhoury/Google.pdf
dove viene spiegato in dettaglio l’algoritmo di Google.
F0 = 1; F1 = 1; Fn = Fn−1 + Fn−2 .
si ricava che
Fn+1 Fn
=A
Fn Fn−1
o in altri termini
Fn+1 1 n 1
= AA · · · A =A (n-volte)
Fn 1 1
In altri termini,
λ2 − λ − 1 = 0.
Le due soluzioni sono reali
√ √
1+ 5 1− 5
λ1 = ; λ2 = .
2 2
Se il vettore x è un autovettore corrispondente all’autovalore λi (i = 1, 2)
allora abbiamo che Ax = λi x, che si può scrivere come (A − λi I)x = 0, che è
un sistema omogeneo.
√ Risolvendo tale sistema omogeneo si scopre che il vet-
1+ 5
tore w1 =√
( 2 , 1) è una base per lo spazio
√
degli autovettori dell’autovalore
1+ 5 1− 5
λ1 = 2 , mentre il vettore w2 = √ ( 2 , 1) è una base per lo spazio degli
1− 5
autovettori dell’autovalore λ2 = 2 . Dal Teorema 10.2.4 si ricava che i
vettori w1 , w2 costituiscono una base di R2 .
Sempre dal Teorema 10.2.4 si ricava che la matrice i cui vettori colonna
sono w1 e w2 è la matrice invertibile che diagonalizza A:
1+√5 1−√5
P = 2 2
1 1
Allora si ha:
Fn+1 n 1 n −1 1
=A = PD P =
Fn 1 1
124 CHAPTER 10. AUTOVETTORI E AUTOVALORI
Fn
φ = limn→∞ .
Fn−1
10.5. CRITTOGRAFIA 125
10.5 Crittografia
I caratteri dell’alfabeto italiano sono 26. Aggiungiamo un ulteriore carattere
che rappresenta il “blank”, lo spazio vuoto. Codifichiamo questi 27 caratteri
con dei numeri arbitrari. Per semplificare i conti riduciamo il numero di
caratteri a 11 compreso il blank:
A = 345; B = 12438; C = 79; D = 987; E = 30078; F = 675;
G = 5499; I = 9090; O = 555; R = 777; blank = 647.
Allora la frase “GIOCO BARO” viene codificata in maniera elementare dalla
seguente successione di numeri:
5499, 9090, 555, 79, 555, 647, 12438, 345, 777, 555
Consideriamo una matrice Z quadrata di ordine n (n molto grande) che sia
invertibile. Immaginiamo che la matrice Z sia conosciuta soltanto ai due
interlocutori che devono scambiare il messaggio cifrato. Nel nostro esempio
per ragioni di spazio prendiamo una matrice 3 × 3:
1 2 3
Z = 4 5 6
7 8 9
Allora suddividiamo il messaggio con la codifica elementare in vettori di
lunghezza 3 avendo l’accortezza di aggiungere degli spazi finale per ottenere
un multiplo del 3.
5499 79 12438 555
9090 , 555 , 345 , 647 .
555 647 777 647
Mettiamo tutti questi vettori in una matrice U di dimensione 3 × 4
5499 79 12438 555
U = 9090 555 345
647
555 647 777 647
Consideriamo la matrice prodotto
1 2 3 5499 79 12438 555
ZU = 4 5 6 9090 555 345 647 =
7 8 9 555 647 777 647
126 CHAPTER 10. AUTOVETTORI E AUTOVALORI
25344 3130 15459 3790
70776 6973 56139 9337
116208 10816 96819 14884
Allora i numeri che vengono trasmessi sono
25344, 3130, 15459, 3790, 70776, 6973, 56139, 9337, 116208, 10816, 96819, 14884
Ortogonalità e Isometrie
x · y = x1 y 1 + · · · + xn y n .
129
130 CHAPTER 11. ORTOGONALITÀ E ISOMETRIE
w = (w · v1 )v1 + · · · + (w · vn )vn .
(i) A è ortogonale;
(i) f è simmetrico;
e
f (x) · y = [y1 . . . yn ]A[x1 . . . xn ]t
= ([y1 . . . yn ]A[x1 . . . xn ]t )t (11.2)
= [x1 . . . xn ]At [y1 . . . yn ]t
(iii) ⇒ (i) Ovvia.
(i) ⇒ (ii) Segue da (11.1) e (11.2) considerando che la matrice A è sim-
metrica (i.e., A = At ).
134 CHAPTER 11. ORTOGONALITÀ E ISOMETRIE
(i) f è simmetrico;
con determinante a2 + b2 = 1.
Si ricorda che un altro modo di rappresentare le rotazioni è con la molti-
plicazione dei numeri complessi. Se z = cos θ + i sin θ e v = v1 + v2 i, allora
Nella parte restante di questa sezione calcoliamo, rispetto alla base canon-
ica e1 , e2 , la matrice A di una simmetria assiale lineare rispetto alla retta R
che forma un angolo φ con l’asse positivo delle x. Consideriamo il vettore uni-
tario v1 = (cos φ)e1 + (sin φ)e2 che giace nella retta R. La retta Q passante
per l’origine e perpendicolare ad R ha equazione lineare (cos φ)x + (sin φ)y =
0. Un vettore unitario giacente sulla retta Q è v2 = (sin φ)e1 − (cos φ)e2 . La
matrice della simmetria assiale rispetto alla base v1 , v2 è la matrice diagonale
degli autovalori:
1 0
B=
0 −1
Infatti, [1, 0] sono le coordinate del vettore v1 rispetto alla base ortonormale
v1 , v2 , mentre [0, 1] sono le coordinate del vettore v2 rispetto alla base v1 , v2 .
Per calcolare la matrice A, dobbiamo applicare alla matrice B un cambio
di base dalla base canonica e1 , e2 alla base v1 , v2 . Allora abbiamo:
cos φ sin φ 1 0 cos φ sin φ cos φ − sin φ cos φ sin φ
A= = =
sin φ − cos φ 0 −1 sin φ − cos φ sin φ cos φ sin φ − cos φ
cos φ2 − sin φ2 2 cos φ sin φ cos(2φ) sin(2φ)
=
2 cos φ sin φ sin φ2 − cos φ2 sin(2φ) − cos(2φ)
La matrice A è ortogonale con determinante −1. Verifichiamo che Av1t = v1t :
cos(2φ) sin(2φ) cos(φ) cos(φ) cos(2φ) + sin(φ) sin(2φ)
=
sin(2φ) − cos(2φ) sin(φ) cos(φ) sin(2φ) − sin(φ) cos(2φ)
Verifichiamo che il vettore ottenuto coincide con v1t . Per fare questo ci
avvaliamo dei numeri complessi e scriviamo v1 = cos φ + i sin φ come nu-
mero complesso. Ricordiamo dalla Proposizione 1.1.7 che v1 v1 = v12 =
140 CHAPTER 11. ORTOGONALITÀ E ISOMETRIE