Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Gregory Pearlstein
Università di Pisa
Lezione 1, Panorama: Panoramica del corso, inclusi gli spazi vettoriali R^n e i polinomi, sistemi
di equazioni, eliminazione gaussiana, moltiplicazione di matrici, autovalori e autovettori,
determinanti.
Lezione 2, Nozioni preliminari: Logica, teoria degli insiemi, funzioni, permutazioni, induzione.
Lezione 3, Vettori in R^3: Linee e piani (forma parametrica ed equazione lineare), intersezione
di una linea e un piano, legge del parallelogramma.
Lezione 5, Spazi vettoriali: R^n, lo spazio vettoriale delle funzioni da un insieme alla linea reale,
lo spazio vettoriale dei polinomi. Linee e iperpiani in R^n, interpolazione di Lagrange. Spazi
vettoriali astratti (solo definizione).
Lezione 6, Mappe lineari: Definizione astratta ed esempi nel caso di R^n e spazi vettoriali di
funzioni. Proiezione su un piano in R^3, riflessione attraverso un piano in R^3, rotazione in R^2,
derivata formale e integrali di funzioni polinomiali (analisi non richiesta).
Lezione 7, Prodotto scalare: La geometria dei vettori in R^n, derivazione della formula per
l'angolo tra due vettori. Proprietà algebriche del prodotto scalare in R^n. Disuguaglianza di
Cauchy-Scwarz. Disuguaglianza del triangolo. Assiomi per il prodotto scalare. Prodotto
scalare su polinomi.
Lezione 8, Sistema Lineare: Definizione di un sistema lineare di equazioni in R^n. Vettori riga e
colonna. Riformulazione dei sistemi lineari in termini di matrici. Soluzione per eliminazione
gaussiana. Metodo Gauss-Jordan.
Lezione 10, Span lineare, Indipendenza lineare, Base: Definizioni, Dimensione. Nel caso a
dimensione finita, questi concetti sono discussi nella lezione 9 insieme all'eliminazione
guassiana.
Lezione 11, Mappe lineari come matrici. Forme canoniche di matrici: Forma echelon ridotta.
Equivalente per righe. Rango di una matrice. Teorema del rango.
Lezione 12, Isomorfismo: Definizioni, Prodotto di spazi vettoriali, dim U x V = dim U + dim V, la
somma di sottospazi, Formula di Grassmann, Algoritmo di Zassenhaus.
Lezione 13, L'algebra delle matrici: La matrice di una permutazione. La matrice di un grafo.
La formula per moltiplicazione della matrice. Moltiplicazione delle matrici è associativa e
distributiva. Matrici elementari (di Gauss), Fattorizzazione della matrice. Matrice trasposta.
Matrice Definita Positiva.
Lezione 14: Matrice inversa, matrici simili: Definizioni. Calcolo dell'inversa della matrice
utilizzando l'eliminazione gaussiana. Cambio di base. Matrici Simili.
Lezione 15: Determinanti: Definizioni. Segno di una permutazione. Calcolo del determinante
utilizzando le mosse di Gauss. La formula det(AB) = det(A) det(B). Determiante di una mappa
lineare. La geometria del determinante. Il risultante.
Lezione 16, Sviluppo di Laplace & La formula di Cramer: Sviluppo di Laplace, Regola di
Cramer.
Lezione 17, Spazi vettoriali complessi: Numeri Complessi. Formula di de Moivre. Formula di
Eulero. Teorema fondamentaldell'algebra. Polinomio caratteristico. Teorema di Hamilton e
Cayley. Teorema del cerchio di Gershgorin. Prodotto Hermitiano.
Lezione 19, Teorema Spettrale: Definizioni. Base Unitaria. Matrice Normale. Teorema Spettrale.
Casi speciali: Matrice Hermitiana, matrice antihermitiana, matrice unitaria.
Email: greg.pearlstein@unipi.it
Teoremi, definizioni e algoritmi
Tutte le definizioni, teoremi, algoritmi e metodi discussi nel corso sono argomenti idonei
per le prove d'esame, a meno che le note non indichino espressamente diversamente
Definizioni:
● Forma parametrica di una linea in e di iperpiani in R^n.
● Algebrica e geometrica del prodotto vettoriale.
● Definizione astratta di spazio vettoriale e di sottospazio.
● Prodotto Scalare (Sia per R^n che per spazi vettoriali astratti).
● Norma, distanza e vettore unitario. Angolo e distanza tra vettori, ortogonalità.
(Sia per R^n che per spazi di prodotto scalari astratti).
● Spazio vettoriale a dimensione finita.
● Dipendenza e Indipendenza lineare, Span lineare, Base.
● Mappa lineare, kernel, immagine e rango.
● Una matrice a scalini e pivot. Le variabili dipendenti e le variabili indipendenti.
● Mosse di Gauss
● Forma echelon ridotta (forma canonica di riga).
● Equivalenza di riga.
● Matrice di un grafico
● Matrice elementare.
● Matrice definita positiva.
● Matrici inverse e di matrice simile
● Determinante e di segno di una permutazione.
● Il risultante di due polinomi.
● Polinomio caratteristico di una matrice.
● Dischi di Gershgorin.
● Spazio vettoriale complesso (astratta),
● Prodotto Hermitiano.
● Autovettori e autovalori, molteplicità geometrica e algebrica.
● Diagonalizzabilità
● Definizione di matrice: Simmetrica, Antisimmetrica, Hermitiana,
Antihermitiana, Normale, Ortogonale, Unitaria.
● Definizione di isometria. Definizione di Base Unitaria e Ortonormale.
Lemmi e Teoremi:
● Disuguaglianza di Cauchy-Schwarz. Disuguaglianza triangolare. (Caso Reale e
caso Complesso)
● Se L è una mappa lineare allora L(0)=0. Proposizioni su somme e composizioni
di mappe lineari.
● Struttura delle soluzioni del sistema lineare L(x) =b.
● Un sottospazio di uno spazio vettoriale a dimensione finita è a dimensione finita.
● L'intersezione di due sottospazi è un sottospazio.
● Un sottoinsieme di un insieme linearmente indipendente è linearmente
indipendente.
● Ogni spazio vettoriale di dimensione finita ha una base.
● Due basi qualsiasi di uno spazio vettoriale a dimensione finita hanno la stessa
cardinalità.
● Due spazi vettoriali di dimensione finita sono isomorfi se e solo se hanno la
stessa dimensione.
● Unicità della forma canonica di riga
● Teorema del rango.
● Teorema di Rouché-Capelli.
● Il prodotto cartesiano di due spazi vettoriali è uno spazio vettoriale.
● Formula di Grassmann.
● Teorema sul numero di cammini di una data lunghezza in un grafo.
● Teorema su matrici definite positive e dominante diagonalmente per righe.
● Det(A) è diverso di zero se e solo se A è una matrice invertibile.
● Teorema (di Binet): det(AB) = det(A)det(B).
● ll risultante diverso da zero non implica radici comuni.
● Sviluppo di Laplace, formula per la matrice inversa utilizzando determinanti.
● Regola di Cramer.
● Teorema di Hamilton-Cayley.
● Teoremi sui dischi di Gershgorin.
● Struttura delle matrici 2x2.
● Un insieme di autovettori con autovalori distinti è linearmente indipendente.
● Teorema sulla diagonalizzabilità in termini di molteplicità geometrica e algebrica.
● Autospazi con autovalori distinti sono indipendenti.
● Teorema Spettrale.
● Proprietà degli autovalori di matrici hermitiane, antihermitiane e unitarie.
● Ortogonalizzazione di Gram-Schmidt.
Lezione 2: 13-18
Lezione 3: 19-24
Lezione 4: 25-31
Lezione 5: 32-37
Lezione 6: 38-44
Lezione 7: 45-50
Lezione 8: 51-57
Lezione 9: 58-64
Lezione 12 79-83
Lezione 13 84-92
Lezione 15 100-106
Spazi vettoriali
Pe
d=(01,...,0n), P_
b=(b1,...,b)) € R" n > G+b=(a1+b1,...,0n+b,)
a LR € Rn (E1)
ae Rd = (a(1),...,a(n)) € R” (E3)
per ogni p ins. La formula di Eulero afferma che v(P) — s(P) + f(P)=2 per ogni
Pins.
Se Sè un insiemefinito, chiamiamol'insieme
B= {x{s} | 5 € 5}
la base canonica di RS.
B = {(1,0,...,0), (0,1,0,...,0),...,(0,...,0,1)}
che di solito è chiamato la base canonica di R”.
Pagina 1
[Sistemi di equazioni (informale) |
Il sistema di equazioni V(fi,..., fx) si dice lineare se (e sole se) ogni funzione ha
la forma
(14...,tn) = (0,...,0)
Un sistema lineare disomogeneo non deve necessariamente avere una soluzione. Per
esempio, siano
Allora V(fi, f2) = {(1,1)}, ma fs3(1,1)=2. Quindi, V(fi,f2; f3) =0 (insieme vuoto).
Se un sistema lineare V(fi,--.; fx) ha una soluzione ' allora ogni soluzionedi
V(fi,-...Jx) ha la forma
c+a', cEV(hi,....hk)
Pagina 2
| Sistemi equivalenti di equazioni
Nelcaso disistemidi equazioni lineari, queste trasformazioni sono chiamate mosse di Gauss:
Ripetete questo processo con ogni variabile x; fino ad ottenere un sistema della forma
al1%1+09%2+:-:+a1,%n — dI =0
A99%2 +-+ @9ntn — D9 =0
(E6')
I I ,
QpkpTk +++ + Qpn®n — dk =0
Pagina 3
Esempio:
KAT tt_-)\= uu
?-\2
QX+9+
Cx + LAI Ò) — TtXx\2
_
0
°
—
Ri Qa- IR,
—i-2r+)=0
—2X tig +0 250
ix T294+4t%t-12%
2 +®<-)]_-
Sostituzione a ritroso
2r+y+z=1) 2
Q 1) )
o TZ |A
2 2 \ I
2 | | \ Lon |
5 o \-2 |A 72 O az |- 4
E RR o 2 s Ra Rd, o 6-9IY_3:
Pagina4.
Moltiplicazione di matrici
Allora
AB = (0 na) , Cij = @1b1; + di2b9; (E9)
—>
(0 bia co: oa)
fu 11 a,
a 422) \|ba1|| bo2 12° a,
Esempio: 1 2\(L11\_(1 3
I 3 4 01) \3 7
(e
un) _
EE
. 1
YA
(au @2 (1
= A : :
_——>
Determinante
b
Sia A4= (£ ") . Allora det(A)= ad be
Esempio:
Pagina 5
Richiamare: C= {(2,y) | x,y € R}. Si scrive (c,y)=x+iy, i=vVv-1
Pagina 6
Lezione: Nozioni Perliminari
Tavoladi verità: P
sms
PF
susa
F
V
V
Tavoladiverità: P P Vv
F E PF
F Vv V
Vv PF V
Vv Vv V
(essere continuato)
Pagina 1.
Nota: P = @ èanchechiamato "implicazione logica" per distinguerlo dal significato
colloquiale di "implicazione".
<<
<<<
F
F
V
V
Tavola di verità:
<< lo
<<
<mw<If
Attenzione: P se Q significa Q = P.
Insiemi:
Un insieme con un numerofinito di elementi può essere descritto elencandoi suoi elementi.
A= {1,2,3,4,5}
Pagina 2.
Definizione: Sia A un insieme. Per ogni a € A_ sia P(a) una proposizione. Allora
{a € A | P(a)}
è l'insieme costituito da tutti gli elementi a € A tali che P(a) è vera.
A\B={ae A|aéB}
Si dice che A è un sottoinsieme di B, scritto AC B, se(e sole se) A\B=(0.
Si dice che A= B se(e sole se) AC B e BCA.
ANB
A\B
LT \
B |
7 @
_P
C
ACB A B
Esempio: Siano A= {me Z|2 divide m}, B={neZ]|3 divide n}. Allora,
ANB={q€Z]|6 divide qg}
Di solito nelle nostre discussioni, c'è un insieme ambiente U che contiene tutti gli oggetti
in considerazione.
Esercizio: A=(A\B)U(ANB)
(a,b) € A x B AUB
Per definizione,
> 3)
(a,b) = (a,b) > (a=a')A(b=') >
310 |
Esempio: R°=RXxR è il piano cartesiano. —z—y TOTTTT(0,0)
ita +-1
+-?
(-1.5;-2.5)4+--3
Pagina 3
Relazioni e Funzioni
Esempio: A=5B=KR
(a,b) € R
Esempio: R, non soddisfa la condizione (i) perché non c'è nessun elemento della forma
(1, b) € Ri.
R, non soddisfa la condizione (ii) perché (1,1) € Ri e (1,-1) € Ri.
Rs soddisfa sia condizione(i) che (ii). La funzione associatae è f(a)= a?.
Esempio:
(i) f(x) =e® è una funzioneiniettiva R— R. Questa funzione non suriettiva perché e”
è semprepositivia.
(ii) 9(x) = sin(x) è una funzione suriettiva R — [--1,1. Questa funzione noniniettiva
perché sin(x +27)= sin(2).
(iii) h(x) = x* è una funzione biunivoca R+ R.
Pagina 4
Permutazione
277
Un modo per dimostrare che una proposizione P è vera è mostrare che assumere che
-—P sia vero porta a una contraddizione. Più precisamente, esiste una proposizione
tale che x
Q =P = QNA(-0Q) è vero
Pagina 5
Teorema (La scuola pitagorica): V2 non è un numero razionale.
Principio d'induzione
Sia m un numero naturale. Per ogni numero naturale n > m, sia P(n) una proposizione.
Per mostrare che P(®) è vera per ogni numero naturale n > m, è sufficiente mostrare:
(a) P(m) è vera.
(b) Se P(n)è vera allora P(n +1) è vera.
_ i L _n(n+1)
ma ], P(n): DM k=
k=1
n(n+1) _2(n+1)+n°+n
= (n+1)+
1 5 3
_n+3n+2_ (n+1)(n+2)
— 2 — 2
Pagina 6
Lezione, Vettori in R*
Esempi:
(1) Il fatto che due punti distinti determinano unalinea.
(2) La distanza tra due punti.
(3) L'angolo tra due linee non parallele.
p+q=?
(11, £2, 13) — (Y1, 42,93) = (21 — V1,t2 — Y2,®3 — Y8) (E3)
In generale
a(x1,%2, 13) + b(y1,42,43) = (aw1 + by1, ava + by2, aw3 + by)
Esempi:
(1,1,2) + (1,2,3) = (2,3,5)
2(1,0,1)+3(0,1,-1) = (2,3,-1)
Pagina 1.
Esempio:
Gli elementi di R* possono essere considerati sia come punti nello spazio
euclideo sia come "vettori" che possono essere addizionati e moltiplicati per
gli scalari.
In generale, dato un punto »p= (pi, p2,p3)in R* e unvettore v= (v1, 02, 03)
in R3,laretta parametrica passante nella direzione del vettore
è data dall'equazione
Esempio:
p=(1,1,-1), v=(1,0,1) = L()=(t+1,1,t-1)
è la retta passante per P nella direzione di »v.
Esempio (Elica):
r(t) = (cos(t), sin(t),t)
L(t) =(1,0,27)+t(0,1,1)=(1,t,27+t)
Pagina 2
. . . . 3
Forma parametrica di un piano in R°:
Si noti che
X(0,0)= A, X(1,0)=B, X(0,1)=C (E9)
Esempio: L'equazione del piano che passa per i punti A = (1,0,0), B=(0,1,0)
C'=(0,0,1) È
X(s,t) = (-1,1,0)s+(-1,0,1)t+(1,0,0) = (1-s— 45,1)
X(s,t) = (x(5,t),y(8,t),z(5,t))=(1-s-t,5,t)
ul
SPS (8,0) +y(5,0) +28) =(1-5-1)+s+#=1 (E10)
In altre parole, l'equazione del piano che passa per (1,0,0), (0,1,0), (0,0,1) è
ar+by+c2=d
è l'equazione di un piano in R!.
Pagina 3
Esempio: Se P={(x,y,2)|2+2y+3z=3} allora
con d=0 see soloseil piano contiene (0,0,0). Altrimenti, d è non-zero e può essere
scalato per essere uguale a 1.
axr+by+c<z=d
del piano che passa per (0,40, 20), (11,41; 21); (12, 42, 22) è semplicemente scrivereil sistema
3x3 di equazioni lineari
axo + dDyo + czo = d
arr + by, +cz1=d
arr + by, + cz =d
Esempio: Trova l'equazione del piano che passa per (0,3,—1), (6,0,—1),(5,-1,0) .
3b-c=d
Dobbiamorisolvere le equazioni: ) 6a-c=d
5ba-b=d
Pagina 4
| L'intersezione di una linea con un piano:
per 1.
Esempio: P={(x,y,2)|x+y+2z=1}
X(t)=t(1,0,—1)
Esempio: P={(x,y,2)|r+y+z=1)
X(t) = #(6,0,0) — (0,3,2) = (6%, —3,—2) = (x(t), y(t), (0)
Pagina 5
Esempio: Questi vettori sono equivalenti perché hannola stessa lunghezza e
la stessa direzione:
77
A
Campivettoriali:
3 (-2, Y 2)
(1,y,z) ER — {(0,0,0)} ca 4y2 + 22
Sul lato sinistro di questa equazione, (x,y,z) è un punto. A destra, (x,y,z) è un vettore.
Pagina 6
Lezione 4: Prodotto Vettoriale
Esempio:
ixj=kK
jxk=i (E2)
kxi=j
k J
Pagina 1.
Esempio:
Da (E1): (1,0,1) x (0,1,0) = ((0)(0) — (1)(1), (1)(0) — (1)(0), (1)(1) — (0)(0)) = (-1,0,1)
Da (E2): (1,0,1) x (0,1,0)= (i+k)xj=ixj+kxj=k-jxk=k-i
Piano diue v
u XxX v
P={su+tv|0<s<1,0<t<1}
/)
u
(4) La direzione del vettore « x v è data dalla regola della mano destra, dove
sì punta semplicemente l'indice della mano destra in direzione di e il dito
medioin direzione di ®. Quindi, il vettore u xv esce dalpollice.
u
uX VU Esempio: ixj=k, Area = 1
Condizione per due vettori non nulli in RR? per essere perpendicolari
Esempio:
u=(1,2,3), v=(1,1,-1) = (uv) =(1(1)+(2)(1)+(3)(-1)=0 > uLov
Pagina 2
L'equazione del piano che passa per tre punti non colineari:
u= vettore da Pa 0.
v = vettore da P a R.
n=ux v (prodotto vettoriale)
S = puntiin R?
w = vettore da S a P
u=(-1,1,0)=-i+], v=(-1,0,1)=-i+k
n=uxv=(-i+j)x(-i+k)=(-ix-i)-ixk-jxi+jxk=j+kKk+i=(1,1,1)
S=(x,y,z2) = w=(x-1,y,2)
(w,n) = (7 1)(1)+(M)(1)+(2)(1)=x+y+2-1
Ax +By+Cz=D (E3)
In particolare,
(1,y,2) € IINI « (rLnA(rLn/) (E7)
nxn'=(i+j+k)x(i+2j+3k)=ix(i+2j+3k)+(j+k)x(i+2j+ 3k)
=2k-3j+jx(i+2j+3k)+kx (i+ 2j+3k)
= 2k-3j-k+3i+k x (i+ 2j+3k)
=3i-3j+k+j-2i=i-2j+k
(3) Z(t)=(1,0,0)+t(1,-2,1)
In una lezione successiva, mostreremo chel'angolo tra due vettori diversi da zero
in R3 è dato dalla formula:
cos(0) = (a,b)
/ (a, a)/(b,d)
(a,a) = 1° +0° +11 = 2, (a, b) = (1)(1) + (0)(1) + (1)(0), (6,5) = (1)? + (1)? + (0)? = 2
1 1 T
cos) = 773 => 89=%
Pagina4.
L'angolo tra due piani non paralleli in R°|
n=(1,2,2) n =(1,1,0)
(nin) =1°+22+2°=9, (nin) = (D(1)+(D)(2)+(2)(0) = 3
(n°, n) = (1°+(1)°+ (0)? =2
coso) = —— = + —. g=T
v9v2 v2 4
La quantità
le] = v(2,a) > 0 (anche scritto come||]|)
c05(9) = io
Per il teoremadi Pitagora, ||| è la lunghezza di «:
3
S
y=1,2,,0) =
ey) = fat + x3 l(z)
edi (4)
Pagina 5
Distanza:
de,y) = |e- gl
Vettori Unitari:
In particolare, se x € Re x #0 CI
allora x
US
||
è il vettore unitario nella direzione di ©.
eo
y_Aa (y-Ax,x)=0 = (y,2)-Ax,ax)=0 = = 1 5
(4,2)
LE x Allora (y,2)
Vr Ax= "x (formuladella proiezione)
(1, )
è la proiezione di 4 sulla direzione di %.
Pagina6.
Esempio: Trova la proiezione di = (1,2,3) sul direzione di x = (1,0,1) :
Lavoro(fisica):
Lavoro = (Forza)(Distanza)
F=Forza
Questa parte della forza non
contribuisce al lavorofatto Solo la parte della forza allineata
con la direzione del movimento fa
4 lavoro.
10 kg s = vettore spostamento 3 10 kg
Spostamento 5m questa
direzione
(F, 5) = (F,5) — (F
L= (F, 5) (Formula del Lovoro)
( (5,5) 5,5 (5,8) (8,5)
PD
Proiezione F
sulla direzione
di s
Pagina 7
Lezione: Spazi Vettoriali
Lo spazio vettoriale R”
(11,000; Tn): (Y1000Un) ER" => (21,--0:%n) + (Y1:+-03Un) = (21+Y1:---3En + Un) (E1)
Moltiplicazione scalare:
y (0,0,1)
1,0) Lt+ty+z =1
A 6°
(0,1) x (1,0,0) (0,1,0)
c+y=1 x y
Pagina 1.
Osserva che: H = {(x1,x2,3,x4) €R'|x1+x2+x3+x4=1} passante per:
(A,p)+(A,v)t = D
Ci sono tre casì:
D- (A,
(1) (40)7#0 = t= P_i (L interseca H in un punto)
(1,1,1,1), p=(1,0,0,1),
A= (1,1,1,1), p=(1,0,0,1), v = (1,2,3,4)
(1,2,3,4 son=1(2)
1
1-2 1
( A,p)=2
,D) ? ( A,v)=10
0) > t= ——
10 =-5
Pagina 2
Lo spazio vettoriale delle funzioni sulla linea reale:
Anche se R‘ può sembrare molto astratto, è molto utile come punto di partenza
per definire altri spazi vettoriali.
Pagina 3
Supponiamo ora che tu abbia bisogno di programmare un computer per lavorare
con i polinomi:
a:J+R (E10)
tale che a(j3)=0 tranne un numerofinito di j € /. Infatti, data una funzione
(E10), definiamo
p(a)= DI ala
ira(i) 70
Aj qg=0,...,n
Viceversa, dato un polinomio gq(x) = ) a;x'* definiamo: a(j) =
i=0
0 d>n
| Interpolazione di Lagrange: |
Pagina 4
Esempio: Trova un polinomio p(x) di grado 2 tale che p(1)=1, p(2)=3, p(3) =6
{j=(d1,--sdn) I |a(j)#0}
per ogni ue V
(4) Per ogni elemento ue V c'è un elemento —u € V_ tale che
u+(-u)=0
Pagina 5
Esempio: Siano V = (0,00) con
Allora,
(1) uBv=uwv=vfu
02) uBVBw=u(vw) = uvw = (u)v= (Bd) Bw
(3) 1Bu=uBMl=u
(4) uBut=u!Bu=1
(quindi 1 è il vettore zero in V)
(5) (rs) u=u"=(u')"=(s-u) =r-(s-u)
(6) (rt s)u=u"t'= (uu) = (7) E (0°) = (ru) (8-1)
(7) r:(uBou)=r- (uv) = (wo) = uv" = (u) B(0)= (ru) Ar)
(8) 1:-u=ul=u
Non Esempio: Gli insiemi di funzioni definite dalle condizioni di positività non sono
spazi vettoriali perché non possiamo moltiplicare per-1:
0+0=0 (lascia u = 0)
Allora, per (7)
c:(0+0)=c-0 = c-0+c-0=c-0
Aggiungere —c-0 a entrambii lati dell'ultima equazione per ottenere:
c-0=0
0=0-v
Pagina 6
Lezione: Mappe lineari
L:IU>V
Pu(v) = (v,w):R" + R
= cPy(v)
L(0u) = L(0u + 07) = L(0u) + L(0u) => 0yv= L(0u) (cancella L(0u) da entrambii lati)
Pagina 1
Non esempio: L(x,y,2)=r+y+z+1
L(v) = cv
è una mappalineare.
Casi speciali:
(a) c=1 è chiamata mappadi identità, di solito denotata Io Iv.
(b) c= 1 è chiamata inversione:
Vv
-V
Esempio (Mappadell'inclusione):
Se ms<n allora
Se m2zn la mappa
T:R"4R", T(£1,-..,%m) = (£1,...:%n)
si chiama proiezione sulle prime n coordinate.
E anche una mappalineare.
T(V)=v- (vu)
si chiama proiezione da R* a P.
Nota : Se u è un vettore unitario in R" [i.e. (u,u) = 1 ], si può definire (i.e. = id est = cioè)
la proiezione da R” all'iperpiano
H={x€ER"|(x,u=0}
p(v) = v—2(v,u)u
Allora,
G p(u=u-2(u,u)u=-u
(ii) Se veP= {rx €R°]|(x,u)=0} abbiamo p(0)=v- (v,uu=v
©&
Così ©? fissa il piano P_e inverte il vettore normale u. Geometricamente,
p. corrispondealla riflessione attraverso il piano P.
Pagina 3.
Proposizione: Se L:U + V è una mappalineare e L':V + W è una mappa
lineare allora L'oL:U-W è una mappalineare.
Dimostrazione:
up:Ra]3R, (9)=/f)
Il prodotto di due polinomi è un polinomio, quindi se 9 € R[x] è un polinomio
fisso allora:
mg : Rie] + Re], my(f) = fg è un mappelineare
dr OI)
da 4a t_- a
(1) È) =0
d 21
2) n21=
>
tr! ni )=na
_ n
Pagina 5
Esempi:
d,, d.., d d
dl +2x+1) Eta e) + r+
La
da
++ a+) = dxd LL+
d
dx
109)
dx
+ La)
da
=1+20+ 32?
L(t) Et
= r(t9) +
tt, (TI010)
= (La)d Ly),d Èd (E6)
E
"Tt presupposto
Illustrazione: r(t)=(1-42,2t,1+#°), to =1 nascosto
r'(t0) #0
r'(t) = (-2t,2,2t), = r(1) = (-2,2,2)
r(1) = (0,2,2)
L(t) = (0,2,2) +t(--2,2,2) è la linea tangente
AY
area>0 y=f(x)
> X
Pagina 6
Fissa un intervallo [a,b]. Per funzioni polinomiali p(x) € R[r], l'integrazione
può essere definita come la seguente mappalineare / : Rx] + R:
n+1 n+1
1 1 1 1
/ (1+x+22 +23) de = 1+35+3t]
Area=2) VA
1) =1
J, ldax =2
Uni
> X
-1 1
fra segno |A n
2
A causa dell'interpretazione (o definizione) dell'integrale come area, segue che
y y= f°()
J PEd>o LA .
b
i b
a meno che f non siail polinomio zero. (Oppure a= , nel qual caso I è
sempre zero)
Pagina 7
La geometria dei vettori
C? = A° + B° — 2AB cos(0)
Figura 1
pose
ri
TI
y= (11,12,0) >
r=(x1,%2) = (2) = Vat+
t( dl)
t(y) = /x7 + x3
e (4)
Ca) = /x7+x3 +23
n (E2)
ll? =) aj 6P=Y di (cl? = (b;- a)?
j=1l j=1 j=1
Pagina 1.
Quindi:
Area di un parallelogramma:
(2)
a bd
| det(M)| = |det (° d) | = |ad — bce| = Area del paralleogramma (E6)
Pagina 2.
Esempi: Trova l'angolo tra
(i) u=(1,1,0), v= (0,1,1)
(i) u=(1,-1,0), v=(1,1,1)
(ii) u=(1,1,1,1), v=(1,1,1,0)
_ (uv) ___(MO+MDA+(001) 1 _T
D 00883 al] — rx è 773
s _ (uv) _ (D() + (D(-1) + (0)(1)
(11) cos? = e FCI VIET) = BA =>
__0 _, 7/2
#=
Ortogonalità
w|9
Due vettori non nulli u e v si dicono ortogonali se e solo se l'angolo tra u e v è
Equivalentemente,
(u,v) = 0, (u,v#0)
Disuguaglianza di Cauchy-Schwarz |
S(t) = (at + b, at + b)
Allora, per proprietà (3), per ogni *,
f(t) 20 (E7)
Pagina 3
Disuguaglianza triangolare: Siano u, v. vettori allora |u+ | < |u| + |v]
|u+ vu) = (u+v,u+v)= (uu) +2(u,0) + (0,0) = |u]? + 2|u]|v] cos? + |v|?
Esempio: T è un insiemefinito.
Pagina4.
Esempio: T= ivertici di un poligono PC R?.
(-1,1) (1,1)
f(2,y)=x, g(a,y)=y
(-1,-1) (1-1)
(1.9) = f {oo de
db
Esempi:
1 x2 1
1
[a,b] = [0,1] => («,1) -J (a)(1)dr = 5 so 5
21 H\, = H(b) — H(a)
y A
VV > x
1 x
Pagina 5.
Esempio: Dopo aver imparatol'integrazione per parti in analisi, sarete in grado
di dimostrare la seguente formula molto utile
Ricordiamo quanto segue dalla lezione 1: Siano (fi,...,fx :R"+R funzioni. Allora,
Il sistema di equazioni V(fi,..., fx) Sidice linearese (e sole se) ogni funzione ha
la forma
V(hi, ve. shk), hi(c1, ‘003 Cn) = fi(c1, ...13Tn) _ fi(0, 00094 0)
è una mappalineare da R” a R* Questo segue dal fatto che ogni funzione componente
Pagina 1
Esempio: Siano U= Rx), W=R%, L:U4+R3, L(p)=(p(1),p(2).p(3))
V(L)={pe Rk]|L(x)=0}
è solo l'insieme dei polinomi che sono nulli in «= 1, x =2, x =3. Inaltre parole,
pe V(L) seesolose (e-1), (2-2), (2-3) sonofattori di p.
Quindi, .
V(L)={(r- De —2)(x —3)g(e) | g(7) € Ria]}
L(u) = b (E4)
si dice omogeneo se b= 0 . Altrimenti, il sistema lineare è disomogeneo
Il sistema lineare
L(u)=0 (E5)
è chiamatoil sistema omogeneo associatodi (E4).
Pagina 2.
Esempio: Siano U=Re],, W=R8, L:U+R?, L(p)= (p(1),p(2),p(3))
Trova tutte le soluzioni del sistema lineare L(p) = (1,3,6).
Nel nostro caso particolare, questo è stato fatto alle pagine 4 e 5 della lezione 5.
Il risultato fu:
p(r) = 3r(r+1) + p(1)=1, p(2)=2, p(3)=6
Perciò, \
L(f) =(1,3,6) > f(x) = 3r(e+1)+(c- De -2)(r-3)g(2), g(e) € Rig]
Matrici:
da11 012 * Um
A=
Ani An2 "° Anm
Esempio:
-- 1111
A=f|1 2 4 8 (A è una matrice 3x4) (E6)
139 27
Una matrice quadrata è una matrice che ha lo stesso numerodi righe e colonne.
1 x i an!
2 nol
1x2 23 19 (V è una matrice (E7)
v=|1lo cx eo... at! quadrata)
1 e, am
Pagina 3.
Spesso scriviamo A (a;;) dove a;; è la voce che apparenellai'th riga
e j'th colonna di A.
123 4
A=]|2 4 6 8
3 6 9 12
(ci © n) Esempio: (1 2 3)
ZLI 1
12 Esempio: 2
: 3
Lm
TI
L2
(cn. tn) (21 ca Tn), (11... En)
Cn
Tuttavia, come matrici, i vettori riga e colonna sono cose diverse, tranne nel
caso 1x1.
Una matrice 1x1 non è la stessa cosa di uno scalare. Questo diventerà chiaro
quando definiremo la moltiplicazione di matrici in generale.
Pagina 4
Moltiplicazione sinistra di una matrice nxm e di un vettore a colonne di dimensione m
Cn
n
Esempio:
111 1\(} 1-141-1 0
124 8 1 =|1-2+4-8 =| -5
139 27 21 1-3+9-27 —-20
Sia
anche un vettore
di colonne 1in R”° anche un vettore di colonne in R”
Allora,
Gai d,2 © dm TI
a21 422 © 42m T2
L(x1,..., Im) = .
Quindi, pensando agli elementi di R"” come vettori colonne,il sistema lineare
L(x)=b può essere scritto come
Ax=b
Pagina 5
Esempio: Scrivi il seguente sistema di equazioni in forma di matrice.
xr+x2+x3+%z4=1 LI
L11111 x 1 (E8)
T1+2x9+4x3 +8x4=2 -—2 124 8 va = |2
111 1 1
124 8 2
139 27 3
D@_
A b
Matrici Saclini:
101:
o 00
DO 2:
00
0 5
4
EAT 7
ì pivot i pivot
Pagina 6.
| Questo algoritmo è facile da usare e
da capire, ma un po' disordinato da
G scrivere.
Risolvere Ax=b per A una matrice a scalini. |
0x1+0xz2+-:-+0xn=5, b#0
1
Tp, = (Qk-1) bi1 > A(k_1)0TL
l>Pk-1
Il risultato dell'algoritmo:
1121 1 1121 |1
Esempio: A=|0 0 3 4], 6=|2), (4|jb=f[0 0 3 4 |2
0 002 4 0002 |4
Passo 1: (A|b) non ha righe della forma (0 --- 0|5#0).
Passo 2: L'ultima riga diversa da zero di A dà 2x,4=4 => xr4=2.
Passo 3: 3x3 +4r4= 2, z4=2 => x3=(1/3)(2-(4)(2)) = -2.
Passo 4: x1++x2+ 2x3 +x4=1, x3=-2, x4=2 = ax;=1-x2-2(-2)-(2)=3- 2
LI 3- Co
Pagina 7.
Lezione, Eliminazione gaussiana e Sottospazi.
| Eliminazione Guassiana: |
Psuedo Code
Procedure:
trovapivot (M,r,c)
Restituisce il più piccolo è >r tale che M,;. #0. Se non c'è un tale f , restituisce -1.
elimina (M,r,c)
Usandola regola 1, rendere tutte le voci della colonna c di M sotto la riga r zero
aggiungendo un multiplo adatto della riga r di M.
Esempio: G = pivot
11 |1 I)l 1 |l 11 |l
124 [3] =_|00 3 |2] —=__ [00 3 |2
139 |6 0 28 |5 003 1
Esempio:
Î)1 11 |1 Oi 11 DI 111
ili] — (Dovo > |0Q 0 1 |0
1212 |1 0g 01 0000 |0
Esempio:
a
124]|3] <- I)
002 |1
139 1/6
Esempio:
1111 1111 o
1111 4]|1}) <-[0 © 0 1 |0 Variabili dipendenti: 1, x2
1212 )|1 000 0 |0 Variabili indipendenti: 3, x4
Esempio:
2133
00€ -2 -2
2 lo 0 0 0 4
000 0 0
Pagina 2
Sottospazi
ker(L) = {u € U | L(u) = 0}
di L è unsottospazio di U
Infatti:
(A1) u1, us € ker(£) = L(u1+ uo) = L(u1) + L(u2)=0 => ui + ug € ker(L)
(A2) u € ker(L), ce R — L(cu)=cL(u) =0 = cu ker(L)
L(U)={L(u)|ue U}
di L è un sottospaziodi V.
Infatti,
(A1) V| = L(u1), v2 = L(ua) € L(U) => Vt+tv2o= L(u1) + L(u32) = L(u, + uz) € L(U)
(A2) v= L(u), ce R = cvu= cL(u) = L(cu) e L(U)
ker(A)= {x € R” | Ax = 0}
Pagina 3
Sia S un sottoinsieme di uno spazio vettoriale V. Allora, lo span lineare
span(8) CV
di S è il più piccolo sottospazio di V che contiene ogni elementodi S.
Nella prossima lezione, definiremo span(.5) nel caso in cui $ possa avere
infiniti elementi.
Esempio: Sia A una matrice con righe {v,...,vn}. Allora, lo spazio delle
righe di A, scritto r(A), è span(v1,...,Un).
Pagina 4
Sia V uno spazio vettoriale di dimensionefinita e S un insiemefinito tale che
span(S) = V
Allora, S={v1,...,vn} si dice che è una basedi V se (e solo se) ogni elementodi
V. ha una rappresentazione unica della forma:
Esempio:
12133 2 1 3 3
4-|24 044 00643 -2 -2
-l1235 5] —[00 DT 0
24047 000 0 0
Esempio:
1111 111
A=f{1 111) => [0Q01
1212 0000
L'algoritmo successivo afferma che una base per lo spazio delle colonne si trova
applicando l'eliminazione gaussiana per trovarei pivot, e poi prendendole colonne
corrispondenti nella matrice originale.
Per la matrice A di questo esempio, vediamo chei pivot si trovano nelle colonne
1 e 2. Inoltre, le colonne 3 e 4 di A sono solo copie delle colonne 1 e 2.
Pagina 5
Algoritmo per trovare una base di Im(A) |
Sia {A1,..., Am} a indicare le colonne di A e {A}, ...,4/} a indicare le colonne diA’.
Allora,
B={A;|Aj è una colonna pivot di A' }
Esempio:
1\2/1\3 2 1 3 3
2\4/ 0 {4 002 -2 -2
4=|1/2\3/5 “malo 0 0 0
2/4 4 000 0 0
1 1\ /3
2 4 ; i
B= 1 .|5 5 è una base di Im(A)
2 0) \7
Ricordiamo dall'ultima lezione che, poiché A’ è una matrice di scalina, abbiamo una
nozione di variabili indipendenti e dipendenti.
Esempio:
-2 -2
1 0
xo=l, 2430 = v=| 0 x°g=0, x4g=1= v0= -1
0 I
0 0
B= {v2,v4} è una base di ker(A)
Pagina 6
Sottospazio ortogonale
Sia V uno spazio vettoriale reale con prodotto scalare (-,-):Vx VR.
Sia U unosottospazio di V. Allora
è un sottospazio di V. Infatti:
a
a) veUt + (v,u)=0 forallueU
weUt — (w,u)=0 for allueU
Perciò
(v+w,u)=(v,u)+(w,u)=0+0 for alueU
e quindi v+w € U.
Esempio: Sia V lo spazio vettoriale dei polinomidi grado inferiore a 3 nella variabile x,
dotato del prodotto scalare
1
Passo 1 : Scrivi ogni come a; un vettore di riga (a; a; +-+ din) rispetto alla base
standard di R”.
Passo 2: Sia A la matrice compostadai vettori di riga costruiti nel passo 1.
Passo 3: U* è il kernel di A sotto l'identificazione
VI
Pagina 7
Lezione: Span lineare, Indipendenza lineare, Base, Dimensione
Quindi u + uo €UNU'
Nota: In termini semplici, span(S) è il più piccolo sottospazio di V che contiene £S.
Infatti, {0} contiene 0 e quindi span(5) C {0}. Poiché {0} è il più piccolo
spazio vettoriale (ricordiamo che ogni spazio vettoriale deve contenere 0),
dobbiamo avere span(0)= {0}.
Infatti: Sia Uil lato destro dell'equazione (E1). Allora SCU e quindi
span(5) CU
Indipendenza lineare
Esempio:
(a) S={(1,0),(0,1),(1,1)} => span(S) = R? perché span((1,0),(0,1)) = R°
Tuttavia, S non è linearmente indipendente perché
(1,0) + (0,1) — (1,1) = (0,0)
Pagina 2
(b) S={v1,02,03}, v1 = (1,1,1,1), v2 = (1,2,3,4), v3=(1,4,9,16) è linearmente
indipendente perché
111 0
AU
Low AZV2 tan=0
a3zV3 =
= |!13249 “\
a2
{o
= 0
14 16) \° 0
Applicare l'eliminazione gaussiana:
= ker(A)= span(v4), [8
11 1 -1 -1
124 3 TL 4
139 —-3 . . —10
Omettere i passi
14 16 1 intermedi |_20]
) = nessuna soluzione
111 1 QI 0
124 3 a 0
a101 + 4202 + a3v3 + a4va =0 => 139 -3 a, = lo
1416 1 a4 0
111 -1 1111 LL 21
124 3 013 4 013 4
1309 3 © [002 10]? |0 0 2 -10
1416 1 0 06 -10 000 20
0 00 20
Sia J={0,1,2,...}
{i € J| P(9) 70}
è un insiemefinito. Il monomio x” è la funzione:
. 1 gem
fm:T+R, int) = | 0 ; #m
Pagina4.
Definizione: Sia V uno spazio vettoriale. Un insieme B CV è una base di V se
(e solo se)
(1) span(B)=V
(2) B è linearmente indipendente.
Pylr]={peR"|j>n = p(j)=0}
che è un sottospazio di RY. In particolare, poiché {1,x,x?,...} è linearmente
indipendente, il sottoinsiemefinito {1,x,...,x"} è linearmente indipendente.
Chiaramente span(B) = P,[x].
Gli algoritmi per trovare una base dello spazio delle righe, dell'immagine
e del kernel di una matrice sono stati dati nella lezione 9.
Ricordiamo che uno spazio vettoriale V si dice di dimensionefinita se esiste
un sottoinsieme finito SC V tale che span(S) = V.
Pagina 6
Se F è un insiemefinito sia |F| denotare il numero di elementidi F.
Esempio: dimR” =n
dim P[x] =n+1 (polinomi di grado < n)
dim Mnxm=nm (matrici nxm)
dim {0} = 0
Se S è un insiemefinito allora dim Rf |S|
Se H è un iperpiano in R” allora dim H=n-1
Se L è unalinea allora dimL=1
Pagina 7
Lezione: Mappe lineari come matrici.
Forme canonichedi matrici.
) AijCj
j=1
In altre parole, L(u) può essere calcolato come il prodotto matriciale di A = (a;;)
e il vettore di coordinate c di wu:
e
a11 912 *** dm il
In questo modo, ogni metodo che abbiamo sviluppato per studiarei sistemi lineari
può essere trasferito agli spazi vettoriali a dimensionefinita, facendo unascelta di basi.
Si può pensare a una base comea un dizionario che traduce dallo spazio vettoriale a R”?
Allo stesso modo, se calcoliamo l'immagine usando questo metodo, il risultato è un sottospazio
di R”. Dobbiamopoi usare la base By per ritrasformareil risultato in V.
Risolvere le equazioni differenziali
Pagina 1.
Esempio: Sia n un numerointero non negativo. Allora, l'equazione differenziale
(chiamata equazione differenziale di Legender)
è una mappalineare, dove P, [x] è lo spazio vettoriale dei polinomi di grado minore
o ugualea n.
12) 0_ 2 0
I 0 6
0 000
0 0 00 0
. 4 -3/5 33
Il kernel di questa matrice è span 0 4 span (è da)
Pagina 2
Lemma: Se U e V sono spazi vettoriali di dimensione finita e L:U + V
è una mappalineare, allora il rango di L è uguale al rango di qualsiasi
matrice A che rappresenta L.
Esempio:
(Lezione 9, pagina1):
11 1 1) 1 1 1 1) 11 1
139 |6 0 2 8 |5 000 |1
=> rk(A)=3
(Lezione 9, pagina2):
Il rango di una matrice può essere calcolato in molti modi. Infatti i seguenti
sono equivalenti:
Poiché questo non è un corso basato sulle dimonstrazioni, non verificherò l'equivalenza
di (1)-(6).
Pagina 3
Algoritmo per trovare la forma echelon ridotta
O 2133 O 2 1 3 3 O 2 1 33
2404 4)_[0 0 © -2 -2| [00 © 11
12355 00 2 2 2 00 2 22
24047 0 0-2 -2 1 0 0-2 -2 1
O 20 2 2 O 2 0 2 2 O 2 0 2 2
_[10 0 © 1 1|)[00©1 1|)_{0 0 11
0 0 0 0 0 0 00 0 0000 ®
0 00 0 3 0 0 0 0 0 0 0 0 0 0
CA:
0 0 10
(5 39;6
0 00 00
Definizione: Due matrici A, B si dicono equivalenti per righe se una si ottiene dall'altra
usando le mosse di Gauss.
Teorema: Sia A una matrice. Allora, A è equivalente per righe esattamente a una matrice
in forma echelona righe ridotte, cioè la matrice ottenuta applicando adA l'algoritmo descritto
all'inizio della pagina.
Pagina 4
Esempio: Le seguenti matrici sono equivalenti a righe?
1 0 2 102 1141
A=/|{3 -<1 1 B=|{0 2 10 C=|0 1 1
5 +1 5 20 4 0 01
102 102 ) i i
A—>|0 1 5 B [0 1 5 = A, B. equivalenti per righe
0 00 0 00
100 . ) )
C 2) ( 1 ) = C'° noné una riga equivalente ad A o B
0 01
Pagina 5
LemmaA: Siano U e V spazi vettoriali a dimensione finita e L:U-V una mappa
lineare. Se L(U)=V allora
dim U > dimV
Dimostrazione:
dim ker(L) + dim rk(L) = dim U
Peripotesi,
L(U)=V = rk(L) = dim Im(L) = dim V
Così,
dim ker(L) + dim V = dimU
Poiché dim ker(L) > 0 segue che
Corollario: Se U e V sono spazi vettoriali di dimensione finita tale che dimU > dim V
e L:U-+V è una mappalineare,allora ker(L) # 0.
Dimostrazione: Ricorda che
(Pa Q) > (00) = (CP)
Sia P_la proposizione ker(L) =0. Sia Q la proposizione dim U < dim V
Ricordiamo che una funzione f: A+ B si dice iniettiva se f(a) = f(a') > a=a'
Pagina 6
[Come dimostrare il teorema del rango? |
61)
Passo 1: Se M è in forma echelonridotta il teorema è ovvio:
(fini)
LN
Poiché M è in forma echelon ridotto, ogni colonna pivot di M contiene esattamente
una voce diversa da zero. Quindi, le colonne non-pivot di M sono combinazioni lineari
di colonne pivot di M. Di conseguenza, Im(M)è lo span lineare delle colonne pivot di
M.
Per costruzione, le colonne pivot sono linearmente indipendenti. Quindi, le colonne pivot
sono una base per Im(M).
Come abbiamo discusso, le colonne non pivot per M corrispondonoalle variabili indipendenti
utilizzate per costruire una base per lo spazio nullo di M.
Talmente, per una matrice in forma echelon ridotta, il teorema del rango è un modo elegante
per dire:
> (numerodi colonne pivot) + (numerodi colonne non pivot) = (numerodi colonne)
)
2
ò
Notazione: Se A è una matrice con forma echelon ridotta M , diciamo che una colonna
c diA è una colonna base di A se la corrispondente colonna di M è una colonnapivot.
Chiamiamo le colonne rimanenti di A le colonne nondi base.
Per la parte (b), le colonne di base diA sono una base dello spazio delle colonne di A.
Ecco comefunzional'algoritmo per calcolare una base dello spazio delle colonne.
Pagina 7
Isomorfismo
Definizione: Un isomorfismo tra due spazi vettoriali è una trasformazione biunivoca che
sia anche lineare. Gli spazi vettoriali U e V_ si dicono isomorfi se esiste un isomorfismo
da U aV.
Esempi:
(a) L:R"! » P.[a], L(a0,...,0n) = and” + an-10"7 +-+ ao
Pagina 8
[Prodotto di spazi vettoriali
Chiaramente,
dim(R” x R”°) = dim(R"*”?)=n+m = dim(R”) + dim(R””°)
| La sommadisottospazi|
Peri sottospazi di R”, l'equazione (E1) fornisce un metodo semplice per trovare una
base di U+W . Sia By (risp. Bw) un insiemedi vettori colonna che formano una base di
U (risp. W). Sia M la matrice le cui colonne sono costituite dalle colonne di By e Bw.
Allora, U+W è l'immagine di M, quindi applichiamo semplicemente l'algoritmo per trovare
una base dello spazio delle colonne alla matrice M.
Pagina 9
(identificando R* con vettori colonna tridimensionali
2 per risparmiare spazio)
Esempio
io: U = span((1,1,1),(1,2,4)), W = span((1,3,9),(1,4, 16))
1111 1
1 1 1 1 1 x .
[09 2
3 _ 1 9 è una base di
M=|123 4] 1 4 9 U+W
149 16 00 & 6
1
Ou
uno o
HHWwWW
uo o
Ou
HW OoOrHr
Who
On or
1 è una base di
0 3 U+W
1
Formula di Grassmann: |
Infine, Gi av ne |
(u,w) e keorL — u+w=0 > u=-w =?
Così,
dim(U NW) + dim(U +W) = dim + dim W
Pagina 10
Algoritmo per trovare una base di UNW
123
UNW=ker (1 4 9)
Algoritmo di Zassenhaus |
Applicarel'eliminazione gaussiana a M:
= C. una base di U+W
1 1|2 1 1|2 1 1 2
1 2 5 > 0 1 3 > Xx,=35 > x, Ci 1 +3 2 _ 5
1 4|11 0 010 1 4 11
1 1|2 11|2\)_ lo 1 1 2
3 4l5| 20 1]-1 =? Ka ) x => 3{3}-{|4]}|=|5
9 16|11 0 0| 0 9 16 11
Pagina 11
In precedenza (due pagine indietro), abbiamo trovato una base per U + W usando
i vettori colonna.
Per vedere che questi due metodi producono soluzioni equivalenti, dovremo semplicemente
controllare che possiamo scrivere ogni elemento di una base in termini dell'altra base.
In teoria, questo richiede di risolvere essenzialmente lo stesso sistema lineare molte volte.
Tuttavia, possiamo risparmiare tempo facendole cose in parallelo aumentandoil numero
di colonne della matrice aumentata:
Passo 1: Trasformare una base di vettori riga in una base di vettori colonna:
1 0 0
Bu+w = {(1,1,1),(0,1,3),(0,0,2)}_ 1 ’ 1 , 0
1 3 2
10 0|1|1|1
1 10|1|2]|3
13 2]1| 419
100|1|1|1 10 0|1]|1|1
11 0|1[2|3] -——|0 1 0|0|1]2 Si potrebbe dividere per 2 per
13 2/|1]419 o o 2]lolol2/ ottenere questo (001001)
1 1 1 1 0 1 1 0 0
1]= (1 2|=|1]+]|1 3]=|1|+2{1]+|0
! ! 4 1 3 9 1 3 2
Pagina 12
Lezione 13, Algebra delle Matrici
(1) -2(0)
0 1
VA N 1
0
7IN
(0)="(1)
-1 0
La matrice di L è (ì 0) (E1)
1 0 0
€13 0 ’ €23 1 ’ €33 0 (E2)
0 0 1
A(e;) = e;(j)
0 01
A=f|1 0 0 (E3)
_ 0 10
9 3 la matrice di f
Pagina 1
(Esempio, continuato)
(e
|| 100
001 (E4)
i 010
T| la matrice di 9
I
Fine Esempio
_7
I
0
(E6)
la matrice di Ah
Pagina 2
Vogliamo definire moltiplicazione di matrici tali che per (E3)...(E6):
C' = AB (E7)
sia la matrica della funzione composta «o relativa alle basi B,,, B,.
COGI
antiorario:
A vi rt É (4) D\
Lv
e
Pagina 3
Matrice di un grafo:
Vi
V U
5 l v,2 , Vv VU4
V id
ui a G
e U
a va
ig
VU
G1 G2 G3 G4 .
fS:E{(a,y)eVxV]agy}
è una funzione che specifica i punti finali (vertici) dei collegamenti.
O 110
Pagina 4
Esempio: C'è un percorso di lunghezza 2 che collega v; e v; min G1 per i, j < 6.
Ci sono cinque percosidi lunghezza 2 che collegano vs a se stesso
Vi 111110
111110
V U o |1111 10
7 î 4=]|]i1 11110
% 111110
VI Vz 00000 5
DT
G1
U, D__
>>‘
f. g: f(g): g(f):
1
; CÒ 1 R
2 37 3 2 35 3
_____->I ______3>3
T—_—__——m
o_o
H__ o °
or
Pagina 5
La moltiplicazione delle matrici è associativa |
100\)/0 10 0 10 |
B(AB)=BC=|0 0 1}{1 0 0|)={o0 0 1
o 1 0/00 1 100 2 3
_
f!=(90f)o9g=g90(f09)
10 0
r=|% 10
0 0 1
Si verifica facilmente che se A è una qualsiasi matrice n x m allora
IA= Alm=A
Pagina 6.
Matrici elementari (di Gauss)
(2) Moltiplicare una riga per uno scalare diverso da zero (6 ") ;
1 (0 ©)
(3) Scambia due righe (? o)
Esempio:
(1) (110) 8 6)
Lemma: Sia M una mossa di Gauss e M'la mossa inversa di Gauss. Siano E ed E'
le matrici corrispondenti. Allora, EE =FE'E=HIn
Pagina 7
1 0 0 0 10 0 0 10 0 0
_ -1 1 0 0 ro=r2+tr1 0 1 0 0 rg=r3+r2 0 1 0 0
A= 0-1 10 0 -1 1 0 00 1 0
0 0 1 1 0 0 -1 1 0 0-1 1
1000
Ta=t4+Fr3 0 1 00 41
lo 01 o| 4 =
000 1
Quindi:
1000 10 00 10 0 0
pi pi pix _ 1100 0 100 010 0
A= EE>EZA = 0 010 O 1 10 00 1 0
0 001 0 0 01 0 0-1 1
Matrice trasposta
(AB)! = BLA
Sia A una matrice n x n tale che A° = A. Allora A sidice una matrice definita
positiva se (e sole se)
ul Au>0
Pagina 8
Una matrice A tipo n xn si dice dominante diagonalmente per righe se e solo se
Teorema: Sia A una matrice quadrata dominante diagonalmente per righe. Se A= A°*
e gli elementi diagonali di A sono positivi, allora A è definita positiva.
Pagina 9
Lezione 14: Matrice inversa, matrici simili
Ricordiamoil seguente.
f:R-5S
Pagina 1.
(I) Ricorda che se f,g9:{1,...,n} + {1,...,n} sono funzioni iniettive con rispettive
matrici A, B allora AB è la matrice della funzione composta f(g). In particolare,
se f e g sono funzioniinversa allora
AB = In (E1)
2 2
s(150: p-(0081
0010 0 100
0100 0010
La matrice di f La matrice di f°
AA'= I, (E2)
AB=In (E3)
"a
()
50
Pagina 2.
| 0) 2-0)
La matrice di L è (per la base canonica di R?)
i(î 0)
0 1
0
1
DS B (° )) Nota: A è ortogonale.
Nota: Se A e B sono matrici nx» tali che AB=1, allora BA=I,. Lo assumeremo
senza dimostrazione.
A= (‘ Ù ad — be £ 0
Allora,
arl (‘ DÌ)
— ad-be \-c a
(EA)
Esempio:
12\}_ 1 -2
0 1 _\01
Procedura per trovare la matrice inversa in generale: Sia A una matrice nxn .
Forma la matrice augmentata (A | In). Applicare le "Mosse di Gauss"
ridurre A alla matrica identica:
Mosse di Gauss _
(A|In) OT n |A)
Pagina 3.
(E5)
CTR
O Suo
SS SD 5 HI
On oo
bit
reni
|
ZSC TN |
10
0 1
lt
9 rn
000
5 DÒ
0010
ioni
Soa |
F\D'
SO
0
0
mM
0
ioni
OH o |3°
0/0
1|0
1|0
O0|1
Hit
ioni
SN |
5 DÒ
—1
0
1
—1
mo
0
0
1
O Ou uo
Tu
x_—____—_—___€&
5 dH°o
1 0
0 0
00
0 1
0
0
0
n
oO î
n
0
0
0
1
s
x_—_____—___€&
|
Il
SS SD Du ta)
|
5
Del
rs=r3+r2
s
si
OSH +
s
ra=r2+2r3
* N
s +
Oui Il e
*
s
Il
ud uada3y;Sui q
| ZSC 2
CTR
5 DÒ
|
01000
0/0 100
0/0 01 0
1 0001
O Suo
|1 000
10 100
0010
-1|0 0 0 1
O Ou uo
0
1000
SS SD 5 HI
5 dH°o
1
On oo
oO
0|0
mo
5 DÒ
reni
TH oi |
1
a!
0 DO I
0
0
1
0
ioni
—1
5 dH°o o |3°
1
a!
oO i
SN |
Esempio:
Esempio:
mio x_—_____—___€&
Po
Pagina 4
x_—____—_—___€&
(Continua)
10 0 0 1000 10 0 0 1000
00 1 -1|0 102 r9g6r3 01 1 1).1 0 0 1
041 1 1|.1 0 0.1 00 1-10 1 0 2
0 0 0 1 0 010 0 0 0 1 0 010
ci AT
L:U->U
Alternativamente potremmo trovare una matrice P "traduzione" dalla base B' alla
base B. Allora, la matrice A' di L relatva a B' sarà
B={u1,...,Un}, B'={v1,...;Un}
Allora n
P= (pi;), vi = ) DijUj (E7)
j=1
Pagina 5
Esempio: Sia U lo spazio vettoriale di polinomi grado minore o uguale a 3 nella
variable x. Sia L = d/dx su U. La matrice di L relativa B= {1,x,x?,x%} è
55°
55
SoNOo
wo
PS
Il
La matrice di L relativa a B'={1-x,x-x7,x° - x3,r°} è
-1 1 00
;_|-1-1 2.0
4A=|1 1-13
-1 1-13
1 0 0 0 1000
_{-1 1 0 0 _x_|1 10 0
P=zlo 11 0|P =l1110
0 0-11 1111
1000 0 1000 1 0 00 1 10 0
21 __|1 100 0020 1 1 0 0|]_ [1 212 0|)_,
P_AP= 1110 0 00 3 01 1 0] |-1 211 3|74
1111 0000 0 0 11 1 -1 -1 3
10 0 0
0 1 0 0
A- 0 0 1 0
0 0 0-1
1000
;_|0 -1 0 0
4=lo o 1 0
0 0 0-1
Pagina 6.
(Continua)
10 1 0
_|o 0-1
P=li 1 0 0|1 2°
= P°=2h _i_ 1
= P!=5P
O 1 0 -1
Allora
Fine Esempio.
Matrici Simili.
Definizione: Due matrici quadrate A e A' sono simili quando esiste una matrice P
invertible tali che
A'=M7VAM
Fine definizione.
Per equazione (E6), due matrici A e A' che rappresentano la stessa applicazione
L sono simili. Viceversa, due matrici A e A' sono simili solo se esiste un
applicazione L e basi B, B' tali che
A'=(L8, A=([L5
(AB)! = BUA!
(P_VAP)Y"> = P_VA"P
Pagina 7.
Lezione 15: Determinanti.
Chiamiamo
P(x1, ‘003 Cn) = Ij<j (x; _ x;)
_ P(To(1): 3 To(n))
El
(13 Piani) ©
si chiama il segno di o. In particolare, poiche P(x-(1),.... tm) ® P(e1-..,%n)
hannogli stessi fattori a meno del segno,
Esempio: Sia
si chiama il determinante di A.
Esempio: Sia A (a;;) una matrice 2x2. Allora, S2= {0} dove L è la
funzione identità e o è la funzione (E3). Quindi
det (‘ È) = ad— be
Pagina 1
Esempio: Una matrice quadrata nella quale gli elementi sottostanti alla
diagonale principale sono uguali a zero si dice matrice triangolare
superiore.
Sia A=(a;) una matrice trangolare superiore. Sia 0:{1,...,n} 4 {1,...,n} una
funzione iniettiva.
In particolare,
Pagina 2
Corollario: Se A e B sono due matrici che sono legate da una sequenza di
mosse di Gauss allora
poiché per (a)-(c), una mossa di Gauss cambia il determiante per uno scalare
diverso di zero.
Per vedere questo, sia A una matrice n xn. Nota che A può essere messa in
forma triangolare superiore A’ utilizzando una sequenza di mosse di Gauss.
Quindi, rk(A)=rk(4)=n se e solo se ciascuno elemento della diagonale
principale di 4’ è diverso da zero.
Esempio:
111 111 111
A=(|102 4| 222% [0 1 3 senza, (01 o)
10° 10
Dt ! ? )
DIS Moltiplicatore
11
Re per l'operazione.
RsoRs_2Ra, 01 3|=4
EL 0 02 Totale: (1)(1)(1) =1
det(A) = det(A’) = 2
Esempio:
0 1 100
A= 10| > |0 1 0|=A Moltiplicatore
0 0/ AL
7) \0 0 1
det(A) = — det(A’) =
Nota: Una matrice quadrata può essere trasformata nella forma triangolare
superiore senza utilizzare l'operazione (c)
R; HH AR;
Pagina 3
Teorema: Siano 4 e B due matrici nx». Allora,
Quindi,
det(A’) = det(P_! AP) = det(P_) det(A) det(P) = det(A) (E17)
Così,
det(L) = det(A) = det(A’) (E18)
Pagina4.
Esempio: Sia Ulo spazio vettoriale di polinomi grado minore o uguale
a 3 nella variable x. Sia
LS) = (1-20) PE at 40
2
20 2 0
01 0 6
4=l0 0 -2 0
00 0 -7
Allora,
L'insieme
Sn = { funzioni iniettive : {1,...,n} + {1,...,n}}
A(e;) = er)
Segue direttamente dall'equazione (E6) che det(A4)= e(f), il segno dif .
Pagina 5.
[La geometria del determinante]
Area di un parallelogramma:
= A° = |ul?|o]? — (4,0)?
Volume di un parallelepipedo
27 Ul uz U3
vi , V=l|det v1 va 03 (E21)
Wil Wa W3
Pagina 6.
Il risultante
00 pa pe 0-0
DD : 0
0. 0 Dn Po
(f.9) det
R(f,9g9)= tm + do 0 0
0 dm o 0
sE: : 0
0 PICICI 0 Im e do
La proprietà chiave della risultante è che p e g hanno una radice comune sui numeri
complessi se e solo se R(p,g) = 0.
In altre parole: Possiamo determinare se due polinomi hanno una radice comune senza
cercaredi fattorizzare i due polinomi!
f(e)= (2 -r)"a(2)
dove m > 1. Allora, f(r) = f'(r)=0. Viceversa, se f non ha radici multiple, alloraf e f'
non hanno una radice comune.
a Db ec
R(f,f")=det 2a bb 0
0 2a bd
a dec o ), o a c
2a bol TA db 2] __—__=-— [o 6 -2c
0 2a bfPOR \0 20 0] Rara Ra 0 0 b- dee
b
+ R(f,f')=-a(b? — 4ac)
Poiché a #0, f ha una radice multipla se e solo se 6? — 4ac = 0, che è esattamente ciò
che dice la formula quadratica.
Pagina 7.
Lezione: Sviluppo di Laplace & La formula di Cramer.
Allora,
det (‘ È) = ad— be
Definizione: Sia A una matrice n xn con n > 2. Dato un paio di indici i e j con
1<i,j<n il minore complementare Ci; è la matrice (n — 1) x (n— 1) ottenuta da A
rimuovendola i -esima riga e la j-esima colonna.
Pagina1.
Esempio (confronta con la lezione 15):
3 Calcolare utilizzando questa riga
= (18-12)-(9-4)+(3-2)=2
Fine
L. ei k=j
{E;|1<i,j<n}, E;;(ex) = 0 k£j (E6)
10 0 1 00 00
En ni (0 9) ’ E ni (0 o) ’ E% ni (i 9) ’ E59 ni (0 i)
In generale,
A= (a;;) <> A= ) dijE;j (E7)
i, j=1
Quindi,
è una funzione polinomiale dei coefficienti (a;;) di A. Come tale, det è una funzione
differenziabile dei coefficienti. Allora, det è una funzione continua dei coefficienti.
In particolare,
det(A) 70 = det(A4) #0
\ / 1)
x —_
r= (A) !b
Pagina 2.
Teorema: Sia A una matrice invertible. Sia (come nello Sviluppo di Laplace)
Ad11 0 d1j 0 Aln
o, = | 19
An1 0 Anj 0 Ann
i= 1
dala) Dl _—q)iti
)'#! det(C;)E;;
;\E;;
(E9)
(det(C;;)E;; non è un errore)
Esempio:
la z
Esempio: A=|0 1 y| = det(A)=1
001
x Z la
Cu=|0[1 yy. Cia | 7 Ci3= [[O 1] y
0|0 1 O_ 0) .1
1 ne e :
Ca = | ; Co2 = mit ; C33 = |
0 0 LI 1
det(C91) =, det (C22) = det(C33) =0
la == 1 ax|z
C31= [O0|1_y], C32 = C33 = 1] y
0 1 oo
lx ay-%z
+ A43= [0 1 —y
00 1
Pagina 3.
In particolare, poiché i minori complementari C;; sono funzioni polinomiali dei
coefficienti, ne consegue per (E9) che
n I
A)= 2.
det(A) ) a;;Cof(A);;,
; Cof(A);; AV det(A) (Cof(A))! (E11)
Queste formule sono più utili per i calcoli teorici. Come abbiamovisto, esse
implicano che A+ A! è una funzione derivabile dei coefficienti.
Supponiamo che A sia una matrice quadrata con coeifficienti interi e det(A) = +1.
Allora, ogni matrice C;; ha coeifficienti interi. Quindi Cof(A) è una matrice
con coeifficienti interi. Allora, A-! è una matrice con coeifficienti interi per
equazione (E11).
Pagina4.
Dimostrazione: Facendo uso dell'identità det(M*)= det(M) e dello Sviluppo di Laplace
vediamo che
n
vi=_ YO
- (A 2g,
ibi="
__LA) >
n (CoflA))i;b;=
tr ÈA) 2
2 CoflA)ziby
, _ = det(Bi)
Tata)
j=l j=1
a b 00 U] a
cd 00 vu |_ B
0 0 a db unl {9
00 cd vg ò
-—a b 00
-B d 0 0
det > 0 a d
_ è 0 c dj —(ad-Bb)(ad— bc) __od- Bb
io a b 00) (ad — bc)? —_ ad— bc
cd 000
det (0 0 a »
00 cd
fa fw 0 0 Za fa
9: gw 0° 0 We _ Ia
0 0° f fw Zy ty
00 f Sw Wy 9y
Pagina 5.
Lezione: Spazi vettoriali complessi
Proprietà:
9. |]a+4|=]|a+ db] 3
10. |x|=2z Nota: Proprietà 10 implica = GP z#0
Pagina 1.
Esempio Chiave:
(cos(a) + i sin(a))(cos(8) + i sin(8)) = (cos(a) cos(8) — sin(a) sin(8)) + #(sin(a) cos(8) + sin() cos(a)
= cos(a + 8) + isin(a + 8)
Quindi,
z1=r1(cos(0,) +isin(01))
= = 0 0 ; sin(0 0 E7
29 = ra(cos(02) Pi 2122 rara (cos(01 +02) + isin(0 +02) (7)
Allora
z" = cos(n@) + isin(n0)=1 => cos(n@)=1, sin(n@)=0
1 —1 o
z = cos(27/3) + i sin(27i/3) = 5 i z = cos(47/3) + i sin(47/3) = 3 3
Nota che
=1 > (3=2=1=1
Pagina 2.
Formalmente, un polinomio con coefficienti complessi è una mappa f:{0}UN+C
tale che {n ]f(n) 70} è un insiemefinito.
(f+9(m) = Y (Kg k)
k=0
S(0) = fne" +-+ fo, fn70 => f(a)= fn(e-ri)---(e- rn) (E9)
Se il fattore (x — A) appare k volte nell'equazione (E9), diciamo che A è unaradice di f con
molteplicità &. Allora, A è una radice di f con molteplicità k se e solo se
Polinomio caratteristico: |
Sia A una matrice n x n con numeri reali o complessi come voci. Allora, il polinomio
caratteristico di A è
Esempio: _ _
A= (; 3) => pa(t) = det (È È) = 4+1
Pagina 3
» 23 12
E sempio : A = (1 3) , Bb = (; 3)
Si potrebbe sperare che viceversa, se due matrici hannolo stesso polinomio caratteristico,
allora sono simili. L'esempio seguente dimostra che questo non è vero:
Esempio:
A- ( 0 o. BS (o i) = palt)=pp(t)=t°
Se A e B sonosimili allora esiste una matrice C tale che B= C7!AC. Tuttavia, poiché A
è la matrice identità, C71AC = A. Quindi B= A, cheè falso.
In somma:
(i) SeA e Bsonosimili, allora A e B hannolo stesso polinomio caratteristico.
In particolare, se due matrici hanno polinomi caratteristici diversi non sono simili
(ii) Il viceversa (matrici con lo stesso polinomio caratteristico sono simili)
non è vero.
pr(t) = pa(t)=(t-1)(t-2)
Teorema di Hamilton-Cayley: Sia A una matrice quadrata con polinomio caratteristico p(t).
Allora p(A)= 0.
Dimostrazione: Questo può essere dimostrato usando idee simili allo sviluppo di Laplace.
Per chiarire:
Esempio: 2 3
A=( ) > pa(t)=t 441
12
Pagina4.
Sia A = (a;;) una matrice n X n (voci reali o complesse). Peri = 1,...,n sia
Ri=Y [ai;|
e sia ifi
In particolare, un disco Gershgorin che è disgiunto da ogni altro disco Gershgorin contiene
una radice del polinomio caratteristico.
Esempio: Verificare che il polinomio caratteristico della seguente matrice ha tre radici
distinte
111
A=|1 6 È = Ri=R,=R3=2
11
1
[4
‘a2 A LEE 6 SEA Ogni disco è disgiunto dal resto, e quindi
7 i contiene esattamente una radice del
reo.74 r3
5.96 re 11,82 polinomio caratteristico.
Ds
In analogia congli spazivettoriali reali (gli oggetti che abbiamo studiato finora), uno spazio
vettoriale complesso è un insieme V dotato di due operazioni:
(i) Addizione vettoriale
VxVavV (uu u+v
Queste due operazioni devono soddisfare gli 8 assiomi dello spazio vettoriale elencati a
pagina 5 della lezione 5, dove gli scalari reali sono sostituiti con scalari complessi.
Pagina 5.
Esempidi base di spazi vettoriali complessi:
Ogni parte del corso che abbiamo discusso finora e cheutilizza solo gli assiomi di uno spazio
vettoriale si applica agli spazi vettoriali complessi.
Cosa nonè valido (senza modifiche): Tutto ciò che coinvolge il prodotto scalare.
Ingenuamente,
((1, é), (1,d))=1°+i2=0
Quindi, tutto ciò che abbiamo fatto (ad esempio la disuguaglianza di Cauchy-Schwarz) che
richiede (v,0) >0 e (v,v)=0 see solo v=0 fallisce pergli spazi vettoriali complessi.
Pagina 6
L'esempio base di un prodotto hermitiano è C” dotato della mappa
(Au, w) = (A(U1,...;Un);(Wi,...1w))
= Xu1W + -:- + Ann = Au, w)
Nota: Ciò implica che (u, Av) = (Av, u) = Av, u) = A(v, u) = Mu, v)
(A3) (2, 2) 7 ((21, “ee ;Zn), (21, «er Zn)) 7 \z1l? tot |zn]? > 0
lo] = v (0,0) 20
Teorema (Disuguaglianza del Triangolo): Sia V uno spazio vettoriale complesso dotato di
un prodotto hermitiano. Allora,
|u+ | <]|u|]+ |v]
Pagina 7
Le condizioni (N1)-(N3) sono gli assiomi di una norma su uno spazio vettoriale
complesso. E spesso più facile costruire una norma che un prodotto hermitiano
Esempio:
vec”, (01... 6n)]| = max{|v1],..-,|Un]}
= []u|+]lv]l
Pagina 8
Lezione: Autovalori e Autovettori
Il problemadi Fibonacci:
Supponiamo che:
coppie: 1 +>1-2-3—-5—-8—13—21-34—...
mese: 0 1 2 3 4 5 6 7 8
Osserviamo che: I numero di coppie ogni mese è uguale alla sommadel numerodi coppie
dei due mesi precedenti
Chti\_ {1 1 Cn _ . .
( C, ) = (i ì) (2) , Cn = #coppie dopo n mesi
Quindi,
Cai _ (1 1° (1 1 1\°_/10
Ca )7\1 0} \1} 10)" \0 1
197-129)
Esempio:
xi x
Àn x
Ma N
A=B cu B® > A48=B n B°! (E2)
In xk
Pagina 1
Nota: Se A è simile ad una matrice diagonale via B, le colonne di B formano un base
Viceversa: Se che esiste un base {b,,...,b,} tale che 46; =4A;b; allora A è simile
ad una matrice digaonale.
Nota: Poiché dobbiamo costruire un base, ci interesa solo trovare \X tale che
esistano v # 0 soddisfacenti Av = Av
Sia I la matrice identità. Allora, l'equazione Av= Av può essere riscritta come
det(A—AI)=0 (E5)
11 1-A 1
ltv5
detl4—A1)=0 S A= i (numero aureo) Nota: A menodi un
Quindi, mulitiplo scalare
. 1 1- 2 3
9 _ v5 x —0.6180... LAGALA,
Sia Ai = + v5 n 1.6180...,
? 2 1A, 3, AB...
X sono le uniche
Av=)jv = 0 = ( ") a meno di un multiplo scalare. successioni che
sono entrambi
\9 . . aritmetice e
Av= ovo = v2 = 1 a meno di un multiplo scalare.
geometriche.
Dettagli: 2 _\-1=0
____
1-0 1\ RiaRit(-1)Rs (0 1+(A-1)(-4) 00
ATM ( 1
_ =
1) iii
(; \ =
1A
Pagina 2
Se X2-A-1=0 allora Av=Av hala stessa soluzione come
\ 0 11 (facilmente verificabile
A=B ( 0 sv) BL (i TT via calcolo diretto)
Quindi, TT
n PARO 0 1/1 -%
42-k( E 5 -G(i da
Perciò,
= 3b io)
) XA1+X9=1
= (ae)
al) a)
_ (ii - (1- Na)
ATI! _ (1 _ Aa )t!
1
# coppie di conigli doppo n mesi = (941 (1-9) (E8)
V5
14 v5
d= g > Numero aureo
. i A=(1 @ . 1
Esempio: Sia =lo0 1) a: uno scalare
1-A a
det(A — AL) = det ( 0 ia) = (A- 1)?
Pagina 3
Però, A-I
A-IJ= (00 ao ) così v= (0) è l'unica soluzione di Av=v a menodi un multiplo
scalare.
Fortunatamente, (
1 a\" 1 na
0 o) - (0 v) (E9)
Infatti, per induzione su n:
1 (60 1)-(01)
CIME
Esempio: Siano A e B matrici commutative, cioè AB = BA. Allora,
A B
Quindi,
A 0
0 Aa
À @
0A
Pagina 4
Attenzione: Il polinomio caratteristico è garantito solo avere radici sui numeri complessi.
Quindi, potremmo essere costretti a usare vettori complessi anche quando lavoriamo con
matrici reali.
Esempio:
A= (i °) = pa(t)=det([-tA)=t+1= t=+i
Definizione: Sia V uno spazio vettoriale e L:V + V una mappalineare. Allora, uno
scalare A è un autovalore di Lse (e solo se) esiste un vettore v non nullo tale che
L(u) = Av
In particolare, se V è di dimensionefinita, allora gli autovalori sono solo le radici del polinomio
caratteristico di L.
Esempio: I problemi di autovettore e valore proprio si presentano spesso nelle scienze naturali
attraverso equazioni che coinvolgono una funzione e le sue derivate (ad esempio le leggi del
moto di Newton).
df NO = f(a)= Ce,
a —AE€ER
Nota: In generale, si possono trovare solo approssimazioni numeriche degli autovalori. Questa
è una conseguenza del teorema di Abel-Ruffini che afferma che nonè possibile risolvere
un'equazione polinomiale generica (cioè coefficienti random) i grado 5 o superiore usandoi
radicali (radici quadrate, cubo, ecc.).
Nota: Trovare gli autovalori può essere difficile. Nel caso di dimensionefinita, una volta che
avete un autovalore potete trovare gli autovettori corrispondenti usando l'eliminazione
gaussiana.
Lemma: Sia A:V + V una mappalineare. Allora, qualsiasi insieme S di autovettori di A che
hanno autovalori distinti è linearmente indipendente. In particolare, se V ha dimensionen il
polinomio caratteristico di Aha » radici distinte, allora A ha una base di autovettori.
Dimostrazione: Questa è una dimostrazione per induzione sul numero di elementi di 5. Il risultato
è vero se S consiste in un solo autovettore. Il caso chiave è quando S ha 2 elementi, quindi
spiegheremo solo questo caso.
Supponiamo che
S= {v1, v2}, A(vi) = 101, A(v2) = 302, Ai # À2
Pagina5.
Allora,
Ac + €202) = A1C101 + 30902 =0
CV] + c2v9 = 0 =>
Ai (civi + €202) = A1C101 + 10202 =0
Sottraendo, si ottiene
Esempio: Ricordiamo dalla lezione precedente che usando il metodo dei dischi di Gershgorin,
abbiamovisto che il polinomio caratteristico di
Fe (TÀ >
1 1 <1? 3) l6- 9 ‘11-13
HH
Had
e
32
11! FROTA ra322
5.96 ra1
Il
= Su
Di Da D3
ha tre radici distinte. Quindi, la matrice A ha una base di autovettori. Usando lo sviluppo di
Laplace, troviamo che il polinomio caratteristico di A è
t-1 1 1
pa(t)=det{ 1° t-6 1 |=t*-18t°? +80t— 50
1 1 t-1
Il risultante di pa(t) e p',(t) = 3t° — 364+80 è
—-18 80 -50 0
5 O WOoOr
1-18 80 -50
R(pa, pu) = —36 80 0 0 = —87700
3-36 80 0
0 3-36 80
il che implica anche che pa ha radici distinte, e quindi A ha una base di autovettori.
Esempio:
y 0110 t 1-1 0
I
V 1001 1 tt 0-1
2 A=li0 0 1] © PAO=d0|_1 04 a
0110 0 1-1
Pagina6.
Gli autovettori di A sono
1 -1 0 1
A=2, 0, = Ì ; A=0, v9 = Ù ; A=0, 03 = 1 ; A=-2,04= I
1 1 0 1
L'applicazione dell'eliminazione gaussiana a B = {v1, v2, 03, v4}
1-10 1 i) 1 0 1
10 11] ____,), |]0 WA -2
1001 -1 0 02 0
11001 00 0
dimostra chein questo caso, la matrice A ha una base di autovettori anche se pa non
ha 4 radici distinte.
O 110
1001
A= 1001ì Ez(A) = span(vi), Eo(A) = span(v2, 03), E_2(A) = span(v4)
O 110
Similmente,
Definizione: Sia V uno spazio vettoriale di dimensione finita e L:V + V una mappalineare.
Se A è un autovalore di L allora:
(i) La molteplicità algebrica di A è la molteplicità di A comeradice di pr (cioè il grado di
(t-A) comefattore di pr(t)).
(ii) La molteplicità geometrica di \ è la dimensione di E,(L).
Lasciamo che ax(L) denoti la molteplicità algebrica di \ e mx denoti la molteplicità geometrica
di À.
Teorema: Sia V uno spazio vettoriale di dimensione finita e L:V + V una mappalineare.
Allora, L ha una base di autovettori se e solo se a\ = my per ogni autovalore di L.
Pagina 7.
Lezione: Teorema spettrale.
Pern= 2, è solo UNU; = {0}. Per n > 2, questa condizione è molto più forte del
semplice UNU; ={0} se j£ }j.
(1) (00)
1 1 0
Sottraendo, si ottiene
(An _ A1)Vi ++ (An _ An-1)Un-1 =0
Poiché abbiamo autovalori distinti, An — A1,--.;An — An-1 sono tutti non nulli. Quindi, per l'ipotesi
di induzione %1,--.;Un-1 sono tutti zero. Quindi, anche v» è zero, il che verifica P,.
Pagina 1
Per continuare, ricordiamo che det(4) è una funzione differenziabile delle voci di A = (a;;).
Sostituendo a; con a; — t, vediamo che anchei coefficienti del polinomio caratteristico
pa(t) sono funzioni differenziabili delle voci di A. Quindi, il risultante
Ra = R(pa(t);palt))
è una funzione differenziabile delle voci di A. In particolare, se Ru #0 allora anche
R;#0 per tutte le matrici A sufficientemente vicine ad A (la differenziabilità implica
la continuità). Quindi,
{A € Mnxn | Ra #0}
è un sottoinsieme aperto di M,xn. Per costruzione, la condizione R4 #0 implica che A ha
n autovalori distinti, e quindi A ha una base di autovettori.
Più intuitivamente: Ci si aspetta che una matrice scelta a caso abbia una base di autovettori.
Un tipico esempio di matrice che non è casuale è una matrice simmetrica (A°= A),
antisimmetrica (4° = —A), hermitiana (A= 4°), antihermitiana (A* = —A), ortogonale
(A4*=1I)0 unitaria (A4* = N. [Richiamo, 4* = (A)f]
Fortunatamente, possiamo raccogliere tutti questi casi in un tipo di matrice più generale.
[Dove A deve essere reale nei casi simmetrico, anitsimmetrico e ortogonale].
Definizione: Sia V uno spazio vettoriale complesso dotato di un prodotto hermtiano. Allora,
una base B di Vè una base unitaria di V se e solo se
(1) Ogni elemento di B ha norma1,
(2) Ogni coppia di elementi distinti di B è ortogonale.
(Una base B di uno spazio vettoriale reale V che soddisfa le condizioni (1) e (2) è chiamata
una base ortonormaledi V.)
Teorema Spettrale: Una matrice quadrata è normale se e solo se ha una base unitaria di
autovettore rispetto al prodotto interno standard su C”:
Casi Speciali:
(1) Gli autovalori di una matrice Hermitiana sono reali.
(2) Se A_ è una matrice reale simmetrica, allora A è hermetiana (quindi i suoi autovalori
sono reali) e ha una base di autovettori che sono elementi di R" Infatti, se A è una matrice
reale e \ è un autovalore reale di A, allora l'autospazio E\ ha una base costituita da
elementi di R"
(3) Gli autovalori di una matrice antihermitiana sono immaginari puri (questo includelo zero).
(4) Gli autovalori di una matrice unitaria hanno norma1. Si noti che una matrice reale ortogonale
è unitaria.
Attenzione: Una matrice reale ortogonale può avere autovalori complessi. Per esempio
Pagina 2
La chiave per dimostrare queste proposizione sugli autovaloriè il fatto che (Lezione 17)
(Au, v) = (u, A*v)
Dimostrazione:
(1) Av= Av (070), A=A% = Av, 0) = (Au, v) = (Av, 0) = (v, A*v) = (v, Au) = Av, v)
Poiché, |u|? = (v,0) #0 dobbiamo avere A = A.
(3) Av=Av (040), A*=-A = A=-A usandolo stesso metododi (1).
(4) Cominciamo con l'osservazione che AA* = I implica che A* è l'inverso di A.
Quindi, abbiamo anche A*A= AA=1I.
Av= Av (040), AA*=I = (v,v) = (A*Av,v) = (Av, Av) = (Av, Av) = |A[?(v,0)
AA* = AA => |Av[? = (Av, Av) = (A*Av,v) = (AA*v,0) = (A*v, Av) = | A*v[?
Si verifica facilmente che AA4* = A*A => (A-AD(A-A1*=(A4-AD*(A4-4AI). Quindi,
I(A- AD]? = |(A- AD*v|?
In particolare, se « è un autovettore di A con autovalore A allora
0=]|(A- Au] =|(A- Au] > (A-AD*u=0
Tuttavia (A- AI)" = A*— AI. Così A*u= Xu.
Quindi (a — 8)(u, 0) =0
Poiché a - 8 #0 dobbiamo avere (u,v) = 0.
emi
Esempio: Sia A la matrice di adiacenza del grafo triangolo
HH o
How
OH
= palt)= (t-2)(6+1)°
Autovettori:
1 -1 -1
3 A=2,v=|1}, A=-1,v= 0 |, A=-1,v3= 1
1 1 0
In particolare, il teorema spettrale dice solo che A ha una base di autovettori unitaria,
non che ogni basedi autovettori è unitaria. In questo caso, (02,03) = 1.
Pagina 3
Per ottenere una base unitaria per E_,, iniziamo con v2 e calcoliamo la proiezione
ortogonale w di v3 su va:
vg =U3—W=U3— (03,
(uo 02)
0)
Aa
vo | 1/1 21
/
v=3| 2 |, vg= 0
=
(03, 02)
= Wv9
2 1 1
(02, 02)
Allora, 7 e v=v3 —- w saranno ortogonali. Ora riscaliamo per ottenere una base unitaria.
|Ortogonalizzazione di Gram-Schmidt]
Se V è uno spazio vettoriale reale (risp. complesso) con un prodotto scalare (risp. prodotto
hermitiano) e u è un elemento nonnullo di V allora
(1.9) = JSg) da
Per iniziare, si calcola
1
1 a+b+1 ——-, a+ pari
vi?
(12%) = / adr = —__ a+b+1 b
! atolli 0, a + b dispari
Allora,
1
u=u=1 ta = 0a Proj(o) = 0 Enna
. . x2,1 a, a 1
v3 = ug — Proj,, (u3) — Proj,, (3) = 12 — È n) 1- 2 Da = ax 3
via) J@-4e-})
wy = Va _ xL
3
_33 5£ 1
Leal 7
V(04, va) NICE — 3,03 — io)
Isometria
Sia U e V spazivettoriali reali (risp. complessi) dotati di prodotti (risp. hermitiani) scalari
(uu e (vv. (risp. (|,-)y e (—,—)v.. Allora, una mappa lineare L:U-—V
è chiamata e isometria se (e solo se)
un, u €U => (1, u2)y = (L(u1), L(ua))v (risp. u1, un €U => (un, u2)y = (L(u1), L(u2))v)
In altre parole, un'isometria è una mappalineare che conserva la lunghezza dei vettori e
gli angoli tra loro.
Per costruire un'isometria da uno spazio finito dimensionale U a uno spazio vettoriale finito
dimensionale V, si scelgono semplicementele basi unitarie (0 ortonormali) By e By di Ue V
rispettivamente, e poi inviare elementi di By a By in modo1-1.
vzlo 0 5,0
2.
= 31,8
wa _ (5r — 3)
7 22.3
ga D ru? — 3x 00 0 5A
. . 2 d°p dp
Pagina 5
Così, la matrice di L relativa alla base ortonormale B = {w1,w2,w3,w4} di Psx] è
0 0 0 0
0-2 0 0
0 0-6 0
0 0 0 -12
Nota tecnica: Nel caso dimensionale infinito, si dovrebbe aggiungere la condizione cheL sia
un operatore limitato. Non discuteremo questo argomento in questo corso.
Allo stesso modo, se U è uno spazio vettoriale complesso con prodotto hermitiano (—, —)
allora una mappalineare L:U ->U è hermitiana (risp. antihermitiana) se
Tutto ciò che abbiamo detto sulle matrici simmetriche, antisimmetriche, hermitiane,
antihermitiane e normali si applica altrettanto bene alle mappe lineari con la proprietà
corrispondente attraverso la rappresentazione matriciale della mappalineare.
Applicazione (Matrici Definite Positive): Ricordiamo che una matrice reale quadrata A è
definita positiva se è simmetrica e
(u,v) = ul Av
è un prodotto scalare su R”. Per il teorema dello spettro, poiché A è simmetrica ha una base
ortonormale di autovettori. Rispetto a questa base di R”,
Teorema: Sia A una matrice quadrata dominante diagonalmente per righe. Se A= A° e gli
elementi diagonali di A sono positivi, allora A è definita positiva.
Pagina6.
La chiave per dimostrare il teorema spettrale è considerare prima il caso in cui A è una
matrice triangolare superiore:
Sia A una matrice triangolare superiore. Allora si calcola che l'elemento (1,1) di AA* è
\a11|? + \a12]? +-+ \a1n|?
Avendo stabilito che tutti gli elementi non diagonali della prima riga di A sono zero, si
procede a considerare l'elemento (2,2) di AA* e A*A. Si ottiene,
Questo ci porta al risultato finale di questo corso, la cui dimostrazione si basa sul processo
di Gram-Schmidt.
Lemmadi Schur: Sia A una matrice n x n. Allora esiste una matrice unitaria U tale che
A=UTU
Sottraendo, si ottiene
0= AA* — A*A= U(TT* — T*T)U*
poiché è invertibile, segue che
TT*-T*T=0
Pagina 7.